JP5955406B2 - データを位置合わせする方法 - Google Patents

データを位置合わせする方法 Download PDF

Info

Publication number
JP5955406B2
JP5955406B2 JP2014546237A JP2014546237A JP5955406B2 JP 5955406 B2 JP5955406 B2 JP 5955406B2 JP 2014546237 A JP2014546237 A JP 2014546237A JP 2014546237 A JP2014546237 A JP 2014546237A JP 5955406 B2 JP5955406 B2 JP 5955406B2
Authority
JP
Japan
Prior art keywords
point
coordinate system
points
primitives
aligned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014546237A
Other languages
English (en)
Other versions
JP2015515655A (ja
Inventor
田口 裕一
裕一 田口
ラマリンガム、スリクマール
ジアン、ヨン−ディアン
フェン、チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2015515655A publication Critical patent/JP2015515655A/ja
Application granted granted Critical
Publication of JP5955406B2 publication Critical patent/JP5955406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、包括的には3次元(3D)データの位置合わせに関し、より詳細には、リアルタイム再構成用途のために3D点及び3D平面を互いに位置合わせすることに関する。
3D再構成
シーンの対話型でリアルタイムの3D再構成は、多数の用途、例えばロボット工学、拡張現実、医用撮像及びコンピュータービジョンにおいて用いられる。リアルタイムの粗密3D再構成は、カメラ等のパッシブセンサーを用いることができる。しかしながら、パッシブセンサーは、テクスチャのない領域を再構成するのが困難である。
テクスチャのない領域を再構成する場合、アクティブ3Dセンサーを用いることができる。例えば、Microsoft XboxのためのKinectセンサーは、IRパターンを用いてセンサーの視点からの奥行きマップとして3Dデータをリアルタイムで取得する。
他の問題は、処理時間、メモリ要件及び正確度に関する。視野及び分解能に起因して、3Dセンサーは通常、シーンの部分再構成を生成する。連続部分奥行きマップとシーンのモデルとを組み合わせることができる正確で高速な位置合わせ方法を提供することが望ましい。慣性センサーはドリフトしやすい。したがって、正確な位置合わせのためには、RGB(テクスチャ)画像又は奥行きマップにおける特徴に頼る必要がある。加えて、奥行きマップは通常、雑音が多く、高次の空間制約を一切有しない。さらに、点群は非常に大きなメモリを必要とし、圧縮するのが困難である。
3D対3Dの位置合わせ
局所
3Dデータのアライメント又は位置合わせは、コンピュータービジョン用途における基本的な問題であり、これはいくつかの方法を用いて解決することができる。位置合わせ方法は局所的又は大域的とすることができる。局所的方法は、良好な初期化から開始し、比較的小さな反復運動を用いて2つの3D点群を位置合わせするべきである。これは、良好な初期解を用いて大域解に収束する非線形最小化方法に類似している。最も一般的な局所的方法は反復最近傍点(ICP)法であり、この方法は、閉形式解を用いて対応する3D点及び運動を反復的に求める。
大域
大域的方法は通常、3D点群全体を検討し、いくつかの主要な幾何学的特徴(プリミティブ)を特定し、点群にわたって特徴をマッチングし、ランダムサンプルコンセンサス(RANSAC)手順を用いて、対応の最小集合を用いた最適な仮説を生成する。大域的方法によって得られる粗い位置合わせの後、通常、局所的な非線形精緻化が続く。大域的方法は、局所的方法と異なり、初期化を必要としない。しかしながら、大域的方法は、誤った対応及び不十分な対応による害を被る可能性がある。大域的方法において通常用いられる幾何学的プリミティブは、点、線又は面のいずれかである。
同種の対応及び異種の対応を用いたいくつかの大域的位置合わせ方法が既知である。例えば、点対点、線対線、面対面、点対線、点対面又は線対面の対応を所与とした位置合わせの閉形式解を求めることが可能である。1つの方法は、分枝限定法を用いて、点対点、点対線、及び点対面の対応から大域最適解を得る。別の方法は、分枝限定法を用いて、最適な対応及び点対点位置合わせ問題への変換を得る。
3Dセンサーを用いたSLAM
移動ロボット工学において、いくつかの3Dセンサーベースの方法は、センサーの動きを求め、シーン構造を再構成するために、位置推定及び地図作成の同時実行(SLAM)システムを用いる。これらの方法は通常、点プリミティブ、線プリミティブ又は面プリミティブ等の幾何学的特徴を用いる。2Dレーザースキャナー又は超音波センサー等の3Dデータの平面スライスを提供する3Dセンサーは、平面の3自由度(DOF)の動きを求めるのに用いることができる。構造化光スキャナー、移動ステージに取り付けられた2Dレーザースキャナー及びKinectセンサー等の、完全な3D点群を提供する3Dセンサーは、6DOFの動きを求めるのに用いることができる。
RGB−Dマッピングは、RGB画像からキー点を抽出し、奥行きマップを用いてこれらの点を3Dにおいて逆投影し、点対点の3つの対応を用いて、RANSAC手順を用いて姿勢の初期推定値を求める。この初期推定値は、ICP法を用いて更に精緻化される。
別の方法は、SLAMシステムにおいて、3Dセンサーとの3つの面対面の対応を用いる。その方法は、面間の幾何学的制約を用いて対応問題に対処する。
別の方法は、面及び線分の双方をプリミティブとして用いる、SLAMシステムのためのより小さな視野(FOV)の3Dセンサー及びより大きなFOVの2Dレーザースキャナーの組み合わせを用いる。その方法は、局所的な位置合わせ問題を解決する連続SLAMシステムのために設計され、大域的な位置合わせを解くことはできない。
KinectFusionは、粗密ICP法を用いることによって、現在の奥行きマップを、大域的なトランケートされた符号付き距離関数(TSDF)表現から生成された仮想奥行きマップと位置合わせする。TSDF表現は、位置合わせされた全ての以前の奥行きマップを大域座標系に統合し、単一の画像を用いるよりも高品質の奥行きマップ生成を可能にする。
ICP法のいくつかの他の変形が知られているが、これらの変形は依然として、2つの3D点群が別個であるときの極小値問題による害を被る。点のみに依拠する位置合わせ方法又はSLAMシステムは、テクスチャのない領域又は繰り返しパターンを有する領域における不十分な対応又は不正確な対応による害を被る。面に基づく技術は、不十分な数の平行でない面を含むシーンにおいて、縮退問題による害を被る。
Kinectセンサー等の3Dセンサーを用いると、奥行き不連続性付近の雑音が多い奥行き値又は欠落した奥行き値に起因して、線対応を得るのが困難である。
本発明の実施形態は、2つの異なる座標系においてデータを位置合わせする方法を提供する。本方法は、点及び面の双方を位置合わせプリミティブとして用いる。本方法は、3Dセンサーを用いる、位置推定及び地図作成の同時実行(SLAM)システムによって用いることができる。SLAMシステムは本発明による位置合わせ方法の応用形態である。
本方法を用いると、少なくとも3つの点及び面プリミティブの任意の組み合わせ、すなわち、3面、2面及び1点、1面及び2点、並びに3点を用いて2つの異なる座標系における3Dデータ集合を位置合わせすることが可能である。本方法は、特に、少なくとも2つの3D点及び少なくとも1つの3D面、又は少なくとも1つの3D点及び少なくとも2つの3D面である混合(異種)プリミティブの集合に関する。
すなわち、本方法は、3つのプリミティブの最小集合と、RANSAC手順とを用いて3Dデータを位置合わせし、シーンを再構成することができる。3Dデータにおいて、面数は点数よりも大幅に小さいので、好ましい実施形態によって用いられるRANSAC手順は、点よりも多くの面、例えば、最低限2つの面及び1つの点を含むプリミティブの組み合わせを用いる。
位置合わせのための主に点を用いる従来技術による方法と対照的に、本方法は以下の利点を有する。対応検索及び位置合わせは、面プリミティブがより少ないことに起因して、より高速であり、リアルタイムで実行することができる。本方法は、点ベースのモデルよりもコンパクトな面ベースの3Dモデルを生成する。本方法は、従来技術における局所的な位置合わせ方法におけるような極小値又は初期化問題による害を被ることのない大域的な位置合わせを提供する。
本発明の実施形態による位置合わせ方法の概略図である。 本発明の実施形態による位置合わせ方法を用いた位置推定及び地図作成の同時実行(SLAM)システムの流れ図である。 本発明の実施形態によって用いられるRANSAC手順の概略図である。 本発明の実施形態による面ベース及び点ベースの混合モデルの概略図である。
本発明の実施形態は、2つの異なる座標系において3Dデータを位置合わせするための方法を提供する。図1に示すように、本方法は、当該技術分野において既知のメモリ及び入/出力インターフェースに接続されたプロセッサ150において実行することができる。
図1は、位置合わせ方法100の概略図を示している。この位置合わせ方法は、2つの異なる座標系において3Dデータから選択された少なくとも3つのプリミティブの2つの集合を用いることによって、2つの異なる座標系101及び102間の6−DOFの剛体変換(rigid body transformation:形状保存変換)105を求める。プリミティブは3D点110及び3D面120を含む。各集合内の3つのプリミティブは、少なくとも1つの3D面と、少なくとも1つの3D点と、点又は面のいずれかとすることができる第3のプリミティブとを含む。2つの集合内の面は面と位置合わせされ、点は点と位置合わせされる。位置合わせ方法は大域的とすることができ、リアルタイムで実行することができる。
図2に示すように、位置合わせ方法は、位置推定及び地図作成の同時実行(SLAM)システムによって用いることができる。SLAMシステムは、本発明による位置合わせ方法の応用形態である。本システムは、当該技術分野において既知のメモリ及び入/出力インターフェースに接続されたプロセッサ200において実施することができる。SLAMシステムへの例示的な入力201は、1つ又は複数の奥行きマップ202の集合である。奥行きマップは、マップ内の各ピクセルの奥行き値(距離)を記述し、このため、マップ内のピクセルをそれらの奥行き値に従って逆投影することによって、3D点群を提供する。SLAMシステムはオプションで、奥行きマップに対応する1つ又は複数の2Dテクスチャ画像203の集合を取得することができる。テクスチャ画像はグレースケールとすることもできるし、RGBカラーチャネルを有することもできる。奥行きマップは、3Dセンサー、例えばパッシブステレオカメラ204又はアクティブIRスキャナー若しくはアクティブレーザースキャナー205によって取得することができる一方、テクスチャ画像は、カメラ、例えばステレオカメラ204における単一のカメラ又は専用カメラ206によって取得することができる。3Dセンサー及びカメラは、人間が手で持つこともできるし、機械、例えばロボットアーム又は機械的に移動するステージによって保持することもできる。主要な概念は、可動センサーによって入力を取得することができ、本発明による位置合わせ方法は、センサーの動きを求めて、様々な視点において取得された3D点群を位置合わせすることによってシーンを再構成することである。
本発明によるSLAMシステムは、入力から3D点プリミティブ及び3D面プリミティブの集合(測定値211と呼ばれる)を選択し(210)、それらの点及び面を、大域マップ225における点プリミティブ及び面プリミティブの集合(ランドマーク221と呼ばれる)に対し位置合わせする(220)。各集合は、少なくとも1つの3D点と少なくとも1つの3D面とを含む。集合内の第3のプリミティブはともに点であるかともに面であるかのいずれかとすることができる。位置合わせは、2つの集合において点同士を位置合わせし、2つの集合において面同士を位置合わせすることによって実行される。
SLAMシステムは、最小で3つのプリミティブを用いたランダムサンプルコンセンサス(RANSAC)手順220により位置合わせ方法を実行する。追加の入力が取得されると、最適化230を大域マップに適用することができる。
3D点
本発明によるSLAMシステムは、3D点プリミティブを得るために、3D点群内の1つ又は複数のキー点を選択する。キー点は、テクスチャ画像を用いることなく3D点群から3Dキー点検出器を用いて選択することができる。例示的な3Dキー点検出器は、法線がアラインされたラジアル特徴(NARF:Normal Aligned Radial Feature)及び3D高速化ロバスト特徴(SURF)を含む。代替的に、システムは、2Dキー点検出器を用いて各テクスチャ画像から2Dキー点を選択し、対応する奥行き値を用いてキー点を逆投影し、3D点プリミティブを得ることができる。例示的な2Dキー点検出器は、スケール不変特徴変換(SIFT)及び高速化ロバスト特徴(SURF)を含む。これらの3Dキー点検出器及び2Dキー点検出器は、検出されたキー点ごとの特徴記述子も提供する。
各点プリミティブは、キー点の位置p及び記述子D、すなわち(p,D)によって表される。記述子は、測定値とランドマークとの間で3D点プリミティブをマッチングするのに用いることができる。
3D面
3D点群から面を選択するために、以下の反復手順を用いる。
1.3D点群において基準点の集合をランダムに選択する;
2.ローカルウィンドウ内の近傍点を用いて基準点ごとに最適な面を求める;
3.奥行きマップの格子グラフに関して基準点との連結成分を形成する全てのインライアを求める;
4.十分な数の最大数のインライアを有する最適な面を特定する;及び
5.3D点群からインライアを除去する。
各面プリミティブは、面パラメーターπ及びインライアの集合Iによって表される。面パラメーターは4Dベクトル
Figure 0005955406
を形成し、ここでnは単位法線ベクトルであり、dは座標系の原点に対する距離である。
位置合わせ
センサーの姿勢240(すなわち、大域マップの座標系に対する6−DOF剛体変換)は、測定値におけるプリミティブを、大域マップ内のランドマークにおけるプリミティブと位置合わせすることによって求められる。点及び面の双方を用いた本発明による位置合わせ方法及び本発明によるRANSAC手順が以下に説明される。
マップ更新
本発明によるSLAMシステムは、キーフレームから選択された点プリミティブ及び面プリミティブを合算することによって大域マップを更新する(250)。現在のフレームは、姿勢が以前のキーフレームと十分異なっている(例えば、現在のフレームの並進及び回転が以前のキーフレームの並進及び回転と所定の閾値よりも大きく異なっている)場合にのみキーフレームとみなされる。各点ランドマークは、位置p及び記述子Dによって(p,D)として表される。各面ランドマークは、面パラメーター
Figure 0005955406
及びインライアの集合Iによって(π,I)として表される。
マップ最適化
全てのキーフレーム間の位置合わせを共同で精緻化するために、本発明によるSLAMシステムは、点及び面の双方を用いてバンドル調整によって最適化230を実行する。バンドル調整は、位置合わせ方法を用いたカメラ姿勢の追跡のために、メインスレッドと別個のスレッドにおいて非同期的に実行される。バンドル調整の詳細は以下に説明される。
点及び面を用いた位置合わせ
本発明による位置合わせ方法は、点対点の対応及び面対面の対応を用い、閉形式解を与える。本方法は、3つ以上の対応に適用可能である。このため、本方法を用いて、本発明によるRANSAC手順において最小数の3つの対応を用いて仮説を生成し、RANSAC手順によって与えられた初期仮説を全てのインライア対応を用いて精緻化することができる。
点対点の対応及び面対面の対応が混合している場合の閉形式解
{p}及び{p’},i=1,...,Mを対応する3D点とし、
Figure 0005955406
及び
Figure 0005955406
,j=1,...,Nを2つの異なる座標系における対応する3D面とする。座標系間の6−DOF剛体変換[R,t]を求める。ここで、Rは3×3の回転行列であり、tは3×1の並進ベクトルである。
個々の事例の解
点対点対応の場合、回転成分及び並進成分は分離することができる。
Figure 0005955406
及び
Figure 0005955406
が3D点集合の重心であり、
Figure 0005955406
及び
Figure 0005955406
であるものとする。このとき、回転の四元数表現又は特異値分解(SVD)を用いることによって、誤差を最小にする回転の最小二乗解が得られる。
Figure 0005955406
推定される回転
Figure 0005955406
を用いると、並進は回転された重心間の差
Figure 0005955406
である。
面対面対応の場合、回転は誤差を最小にすることによって得られる。
Figure 0005955406
これは点対点対応の場合と同様に解くことができる。並進を求めるために、3つ以上の面について以下の線形制約をスタックし、連立一次方程式を解くことができる。
Figure 0005955406
ここで、は転置演算子である。
混合している場合の解
混合している場合、点対点対応及び面対面対応を有する。個々の事例において用いられる分解を利用して回転及び並進を求める。回転を求めるために、式(1)及び式(3)を以下のように組み合わせる。
Figure 0005955406
ここで、wは面の重みであり、面対応ごとに変更することができる。式(5)は、式(1)及び式(3)と同じ形式を共有し、最適な回転が同じように得られる。詳細には、3×3の相関行列Kを以下のように定義する。
Figure 0005955406
K=UDVがKの特異値分解(SVD)であるものとする。このとき、最適な回転
Figure 0005955406
は以下となる。
Figure 0005955406
並進tを求めるために、以下の誤差を最小にする。
Figure 0005955406
これは、対角重み行列W=diag(M,M,M,w,...,w)を用いて以下の連立一次方程式を定義することに対応する。
Figure 0005955406
このとき、重み付き最小二乗解はt=(AWA)−1Wbである。
縮退問題
R及びtを一意に選択するために、式(6)における相関行列K及び式(9)における行列Aは一定の条件を満たすべきである。Rを一意に求めるには、相関行列Kの階数が1よりも大きく、かつ以下の条件のうちの少なくとも1つが真であるべきである。
1.det(UV)=1
2.Kの最小特異値が単解である。
並進tを一意に求めるために、式(9)における行列Aは階数3であるべきである。
行列K及びAは、対応が以下のもの、すなわち3面と、2面及び1点と、1面及び2点と、3点とのうちの少なくとも1つを有する場合、上記の特性を満たす。本発明によるSLAMシステムにおけるRANSAC手順において、これらの最小数の対応を用いて仮説を生成する。
RANSAC手順
2D画像空間のみにおける対応と対照的に、本発明による3Dプリミティブは、誤合致を特定するのに用いることができるいくつかの不変量を提供する。2つの異なる座標系における対応する点及び面を所与として、1つの座標系において求められる或る特定の幾何学的エンティティは、第2の座標系における対応するエンティティと実質的に合致するべきである。
各座標系において、以下の3つの不変量、すなわち、2点間の距離に基づくI1と、点と面との間の距離に基づくI2と、2つの面法線間の角度に基づくI3とを特定する。
対応する幾何学的プリミティブは、不変量ベクトルI=(i,i,i)と関連付けることができ、ここで、i、i及びiは、それぞれタイプI1、I2及びI3に関する不変量の数に対応する。
点及び面を含む全ての対応する三つ組が、合計で3つの不変量、すなわち、3点:I=(3,0,0)と、1面及び2点:I=(1,2,0)と、2面及び1点:I=(0,2,1)と、3面:I=(0,0,3)とを有する。
解釈木又は分枝限定法を用いて、これらの不変量を用いて誤合致を特定することができる。本発明によるRANSAC手順の場合、単純な解釈木ベースの剪定を用いる。
不変量に基づいて非合致を削除する前に、いくつかの初期対応を得る。点の場合、SURF記述子を用いて対応を得る。面の場合、全ての可能な対応から開始して、不変量に基づいて非合致を削除する。3つの面を用いるRANSAC手順は、3つの点を用いるRANSAC手順よりもはるかに高速である。なぜなら、3Dデータ内の面数が通常、対応する点数よりもはるかに少ないためである。さらに、面は多くの点によって生成されるので、面は3Dデータにおける雑音によって受ける影響がより少なく、より正確な位置合わせにつながる。したがって、図3に示すように、入手可能な場合、プリミティブの3つ組を用いて、以下の好ましい順序、すなわち3面301、2面及び1点302、1面及び2点303、又は3点304の順序でRANSAC手順を初期化する。
RANSAC手順の終了条件は、サンプリングされる所定の最小数の対応とすることができる。
点及び面を用いたバンドル調整
本発明によるSLAMシステムは、バンドル調整において以下の変数、すなわち、点ランドマーク
Figure 0005955406
と、面ランドマーク
Figure 0005955406
と、キーフレーム姿勢
Figure 0005955406
とを最適化する。
ここで、
Figure 0005955406
はk番目のキーフレームの並進の(x,y,z)成分であり、
Figure 0005955406
は(x,y,z)軸を中心とした回転を表す。k番目のキーフレームの回転行列R
Figure 0005955406
によって表される。
各点/面ランドマークに関連付けられた点/面プリミティブを用いたヤコビ行列を以下のように求める。
点ランドマーク
点ランドマークの場合、点ランドマーク
Figure 0005955406
とk番目のキーフレームにおける関連する点
Figure 0005955406
との間のユークリッド距離誤差を最小にする。これは以下となる。
Figure 0005955406
ランドマークの現在の推定値
Figure 0005955406
及びキーフレーム姿勢の現在の推定値
Figure 0005955406
を用いることによって、式(10)を以下のように線形化する。
Figure 0005955406
ここで、
Figure 0005955406
である。
式(11)から、(x,y,z)成分ごとに別個に3つの式が得られる。x成分についての式は以下であり、
Figure 0005955406
y成分及びz成分についての式も同様に得ることができる。
面ランドマーク
面ランドマークの場合、面ランドマークと、キーフレームにおける関連付けられた面からサンプリングされた3D点との間の距離の和によって定義される幾何学的誤差を最小にする。詳細には、面プリミティブ
Figure 0005955406
のインライア3D点から3D点
Figure 0005955406
を均一にサンプリングし、各サンプリングされた点と、関連付けられた面ランドマーク
Figure 0005955406
との間の距離を求める。このため、最小化する幾何学的誤差は以下となる。
Figure 0005955406
式(14)を、面ランドマークの現在の推定値
Figure 0005955406
及びキーフレーム姿勢の現在の推定値
Figure 0005955406
を用いて以下のように線形化する。
Figure 0005955406
ここで、
Figure 0005955406
である。簡約すると、以下を得る。
Figure 0005955406
面ランドマーク間の幾何学的制約
本発明によるSLAMシステムはオプションで、バンドル調整における面ランドマーク間の幾何学的制約を実施することができる。幾何学的制約は平行性及び直交性を含む。直交する面又は平行な面は、人工的な環境において一般的に観察することができ、この人工的な環境では、幾何学的制約を実施することは、正確な位置合わせを得るのに有用である。
面ランドマーク
Figure 0005955406
及び
Figure 0005955406
の全ての対について、所定の閾値を用いて、2つの面の法線ベクトル間の角度が0度(平行)に十分近いか又は90度(直交)に十分近いかをチェックする。真の場合、以下の制約を実施する。
Figure 0005955406
ここで、2つの面が平行に十分近い場合、S=1である一方、2つの面が直交に十分近い場合、S=0である。
2つの面ランドマークの現在の推定値
Figure 0005955406
及び
Figure 0005955406
を用いて、式(17)を以下のように線形化する。
Figure 0005955406
簡約すると、式(18)は以下となる。
Figure 0005955406

全てのランドマーク及びキーフレームについて式(13)、式(16)及び式(19)をスタックすると、連立一次方程式JΔ=−εが得られる。ここで、ヤコビ行列はJであり、誤差ベクトルはεであり、更新ベクトルは
Figure 0005955406
である。ガウス−ニュートン法を用いて最適化問題を解く。
実施態様
本発明によるリアルタイムのSLAMシステムは、640×480のピクセル分解能を有するテクスチャ画像及び奥行きマップを用いる。位置合わせに成功すると、現在の点群上に重ね合わされた点ランドマーク及び面ランドマークを視覚化する。本発明によるSLAMシステムは常に、大域マップに対しフレームごとに大域位置合わせを求める。このため、位置合わせの失敗は後続の入力に影響を与えない。本発明によるSLAMシステムは、シーンの面ベースの表現として、再構成された面ランドマークを提供する。これはよりコンパクトであり、点ベースのシーン表現よりも多くの意味的情報を提供する。
発明の効果
本発明は、2つの異なる座標系内の3Dデータを位置合わせするのに、点及び面の双方をプリミティブとして用いる位置合わせ方法を提供する。位置合わせ方法を用いて、位置合わせのために点対点及び面対面の双方の対応を用いる3DセンサーのためのリアルタイムSLAMシステムが開発される。双方のプリミティブを用いることによって、点のみを用いるよりも高速で正確な位置合わせが可能になる。本発明によるSLAMシステムは、3Dモデルを面の集合として生成し、これは厳密に点ベースの表現よりもコンパクトで意味的なシーン情報を提供する。
本発明は、3つの3D点/面プリミティブの任意の組み合わせが、2つの異なる座標系間の位置合わせを可能にすることを示している。本発明はまた、3D点及び3D面の双方を用いて複数の座標系間の位置合わせを共同で最適化するバンドル調整フレームワークを示している。バンドル調整フレームワークは、平行性及び直交性等の3D面間の幾何学的制約を実施して、人工的な環境の場合の位置合わせ正確度を更に改善することができる。
面を用いることによって、より高速な再構成及びコンパクトなモデル化の双方が可能になる。反復最近傍点(ICP)法等の局所的方法は、3Dセンサーの高速運動下で極小値問題が生じやすい一方、本発明による位置合わせ方法は、大域解を与え、極小値問題を回避する。
本方法は、既に位置合わせされた3D点群から面プリミティブを抽出する方法と異なる。代わりに、本方法は、位置合わせのために個々の3D点群から選択された面プリミティブ及び点プリミティブを用いる。位置合わせにおいて点とともに面を用いることによって、点のみを用いるよりも効率的で正確な位置合わせが可能になる。
図4に示すように、本発明によるSLAMシステムの出力は、位置合わせされた点群401と、シーンの面ベースの表現402である。面ベースの表現は、点ベースの表現よりもコンパクトで意味的な情報を与える。表現はリアルタイムで生成される。
本発明は点及び面の双方を用いるので、従来技術において存在する失敗は回避される。この混合モードは新規である。
位置合わせに対する閉形式解は、点対点対応及び面対面対応について一体的に与えられる。

Claims (20)

  1. データを位置合わせする方法であって、該データは3つの次元を有し、該方法は、
    第1の座標系における前記データからプリミティブの第1の集合を選択するステップであって、該プリミティブの第1の集合は、少なくとも1つの面と、少なくとも1つの点と、点又は面のいずれかである第3のプリミティブとを含む、ステップと、
    第2の座標系における前記データからプリミティブの第2の集合を選択するステップであって、該プリミティブの第2の集合は、少なくとも1つの面と、少なくとも1つの点と、前記プリミティブの第1の集合内の前記第3のプリミティブに対応する第3のプリミティブとを含む、ステップと、
    点対点の誤差と面対面の誤差との組合せによって形成された誤差を最小にする、前記第1の座標系と前記第2の座標系の間での6−DOF剛体変換[R,t]を求めるステップであって、前記点対点の誤差は、前記6−DOF剛体変換を用いて変換された、前記第1の座標系における点と前記第2の座標系における点との間の距離を含み、前記面対面の誤差は、前記6−DOF剛体変換を用いて変換された、前記第1の座標系における面と前記第2の座標系における面との間の距離を含む、ステップと、
    前記プリミティブの第1の集合及び前記プリミティブの第2の集合において、前記6−DOF剛体変換を用いて、面を互いに位置合わせするとともに点を互いに位置合わせするステップであって、位置合わせされた点と位置合わせされた面とを含む、位置合わせされたプリミティブを得るものであり前記位置合わせされた点の座標系は、互いにマッチングされ、前記位置合わせされた面の法線、および位置合わせされた面と前記第1の座標系および前記第2の座標系の原点との間の距離は、互いにマッチングされ、6−DOF剛体変換のRは、回転行列であり、tは、並進ベクトルである、ステップと、
    を含
    それぞれのステップは、位置推定及び地図作成の同時実行システムのプロセッサで実行される、データを位置合わせする方法。
  2. 前記位置合わせすることは大域的である、請求項1に記載の方法。
  3. 前記位置合わせすることはリアルタイムである、請求項1に記載の方法。
  4. 前記データを奥行きマップとして取得することを更に含む、請求項に記載の方法。
  5. 前記奥行きマップは3Dセンサーによって取得される、請求項に記載の方法。
  6. 前記位置合わせされたプリミティブを大域マップ内に維持することを更に含む、請求項に記載の方法。
  7. 前記位置合わせすることはランダムサンプルコンセンサス手順を用いる、請求項に記載の方法。
  8. 位置及び記述子によって前記第1の集合および前記第2の集合の各点を表すとともに、単位法線ベクトルと、対応する座標系の原点に対する距離とによって前記第1の集合および前記第2の集合の各面を表すことを更に含む、請求項に記載の方法。
  9. 各面は、
    3D点群における基準点の集合をランダムに選択することと、
    ローカルウィンドウ内の近傍点を用いて基準点ごとに最適な面を求めることと、
    前記奥行きマップの格子グラフに関して前記基準点との連結成分を形成する全てのインライアを求めることと、
    所定の数の前記インライアを有する最適な面を特定することと、
    前記インライアを前記3D点群から除去することと、
    によって選択される、請求項に記載の方法。
  10. 前記大域マップは、前記第1の集合および前記第2の集合の前記点及び前記面を用いてバンドル調整によって最適化される、請求項に記載の方法。
  11. 前記位置合わせすることの間に、各座標系における、点間の距離、点と面との間の距離、又は2つの面の法線間の角度に基づいて誤合致を特定することを更に含む、請求項1に記載の方法。
  12. 前記第1の集合および前記第2の集合の各点は3Dキー点検出器によって選択される、請求項に記載の方法。
  13. 前記バンドル調整は、前記第1の集合および前記第2の集合の前記面間の幾何学的制約を実施する、請求項10に記載の方法。
  14. 請求項1に記載の方法であって、該方法の出力は、シーンの位置合わせされた点群及び面ベースの表現を含む、請求項1に記載の方法。
  15. 前記3Dセンサーは前記奥行きマップを取得中に移動可能である、請求項に記載の方法。
  16. 前記奥行きマップに対応するテクスチャ画像を取得することを更に含む、請求項に記載の方法。
  17. 前記第1の集合および前記第2の集合の各点は、前記テクスチャ画像に適用される2Dキー点検出器によって選択され、該2Dキー点検出器は、前記奥行きマップを用いて、検出されたキー点を逆投影する、請求項16に記載の方法。
  18. 前記テクスチャ画像はカメラによって取得される、請求項17に記載の方法。
  19. 前記誤差は、下式
    Figure 0005955406
    を含み、上式において、i、jは、正の整数であり、q’は、前記第1の座標系の点であり、qは、前記第2の座標系の点であり、n’は、前記第1の座標系の面であり、nは、前記第2の座標系の面であり、wは、対応する面の重みである、請求項1に記載の方法。
  20. 前記wは、それぞれの対応する面ごとに変更される、請求項19に記載の方法。
JP2014546237A 2012-06-29 2013-06-20 データを位置合わせする方法 Active JP5955406B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/539,060 US9183631B2 (en) 2012-06-29 2012-06-29 Method for registering points and planes of 3D data in multiple coordinate systems
US13/539,060 2012-06-29
PCT/JP2013/067583 WO2014003081A1 (en) 2012-06-29 2013-06-20 Method for registering data

Publications (2)

Publication Number Publication Date
JP2015515655A JP2015515655A (ja) 2015-05-28
JP5955406B2 true JP5955406B2 (ja) 2016-07-20

Family

ID=48782575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014546237A Active JP5955406B2 (ja) 2012-06-29 2013-06-20 データを位置合わせする方法

Country Status (7)

Country Link
US (1) US9183631B2 (ja)
JP (1) JP5955406B2 (ja)
KR (1) KR101643079B1 (ja)
CN (1) CN104395932B (ja)
DE (1) DE112013003214T5 (ja)
TW (1) TWI569229B (ja)
WO (1) WO2014003081A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8422825B1 (en) * 2008-11-05 2013-04-16 Hover Inc. Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
RU2013106319A (ru) * 2013-02-13 2014-08-20 ЭлЭсАй Корпорейшн Основанная на характерных точках надежная регистрация трехмерного твердого тела
KR102084253B1 (ko) * 2013-11-20 2020-03-03 한국전자통신연구원 복원조각과 볼륨형 표면을 이용하는 카메라 트래킹 장치 및 방법
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9171403B2 (en) * 2014-02-13 2015-10-27 Microsoft Technology Licensing, Llc Contour completion for augmenting surface reconstructions
WO2015165523A1 (en) * 2014-04-30 2015-11-05 Longsand Limited Simultaneous localization and mapping initialization
US9430847B2 (en) 2014-06-12 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method for stereo visual odometry using points, lines and planes
JP6483832B2 (ja) * 2014-08-29 2019-03-13 トヨタ モーター ヨーロッパ Rgb−dセンサを使用して物体を走査する方法とシステム
CN106796721B (zh) * 2014-09-11 2021-05-04 赛博光学公司 三维轮廓测量中根据多个相机和源的点云合并
US9846963B2 (en) 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
TWI554976B (zh) 2014-11-17 2016-10-21 財團法人工業技術研究院 監控系統及其影像處理方法
US10360469B2 (en) * 2015-01-15 2019-07-23 Samsung Electronics Co., Ltd. Registration method and apparatus for 3D image data
WO2016161136A1 (en) * 2015-03-31 2016-10-06 Nxgen Partners Ip, Llc Compression of signals, images and video for multimedia, communications and other applications
EP3620838A1 (en) * 2015-06-02 2020-03-11 Life Technologies Corporation Systems and methods for calibrating a structured illumination imaging system and for capturing a structured illumination image
US9460513B1 (en) * 2015-06-17 2016-10-04 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
ITUB20154043A1 (it) 2015-09-30 2017-03-30 Datalogic IP Tech Srl Sistema e metodo di lettura di informazioni codificate
US11054802B2 (en) * 2015-10-21 2021-07-06 Mitsubishi Electric Research Laboratories, Inc. System and method for performing operations of numerical control machines
CN108604301B (zh) * 2015-12-04 2022-03-25 欧特克公司 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
DE102015017010A1 (de) * 2015-12-30 2017-07-06 Faurecia Innenraum Systeme Gmbh Verfahren zur Ermittlung von Oberflächendefekten sowie Computer-Programmprodukt
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
KR101973917B1 (ko) 2016-01-20 2019-04-29 미쓰비시덴키 가부시키가이샤 3차원 계측 장치 및 그 계측 지원 처리 방법
US10482681B2 (en) 2016-02-09 2019-11-19 Intel Corporation Recognition-based object segmentation of a 3-dimensional image
US10373380B2 (en) 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
FR3048872B1 (fr) 2016-03-21 2018-04-13 Medtech Sa Procede et dispositif de recalage automatise pour un robot chirurgical
US10573018B2 (en) * 2016-07-13 2020-02-25 Intel Corporation Three dimensional scene reconstruction based on contextual analysis
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10339716B1 (en) 2016-09-19 2019-07-02 Occipital, Inc. System and method for dense, large scale scene reconstruction
US10176589B2 (en) 2017-01-31 2019-01-08 Mitsubishi Electric Research Labroatories, Inc. Method and system for completing point clouds using planar segments
US10659768B2 (en) * 2017-02-28 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. System and method for virtually-augmented visual simultaneous localization and mapping
JP6692321B2 (ja) * 2017-05-25 2020-05-13 日本電信電話株式会社 幾何的合わせこみ装置、方法、及びプログラム
US10848741B2 (en) * 2017-06-12 2020-11-24 Adobe Inc. Re-cinematography for spherical video
TWI652447B (zh) 2017-09-12 2019-03-01 財團法人成大研究發展基金會 適用於疊代最近點法以選擇關鍵圖框的系統與方法
WO2019057179A1 (zh) * 2017-09-22 2019-03-28 华为技术有限公司 一种基于点线特征的视觉slam方法和装置
CN109579794B (zh) * 2017-09-28 2021-03-23 财团法人成大研究发展基金会 适用于迭代最近点法以选择关键图框的系统与方法
WO2019098728A1 (ko) 2017-11-16 2019-05-23 삼성전자 주식회사 3차원 영상을 처리하는 방법 및 장치
TWI651687B (zh) 2017-11-24 2019-02-21 財團法人工業技術研究院 三維模型建構方法及其系統
KR101988555B1 (ko) * 2017-12-05 2019-06-12 충북대학교 산학협력단 조명 불변 영상을 사용한 slam 시스템 및 점구름 지도 생성 방법
CN108776990A (zh) * 2018-04-10 2018-11-09 清华大学 基于三阶球面谐波的动态场景高精度实时三维重建方法及系统
CN109345574B (zh) * 2018-08-31 2020-10-09 西安电子科技大学 基于语义点云配准的激光雷达三维建图方法
JP7078127B2 (ja) * 2018-10-18 2022-05-31 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
US20200125846A1 (en) * 2018-10-23 2020-04-23 The Boeing Company Augmented Reality System for Manufacturing Composite Parts
CN111582293B (zh) * 2019-02-19 2023-03-24 曜科智能科技(上海)有限公司 平面几何一致性检测方法、计算机设备、及存储介质
JP7220591B2 (ja) * 2019-03-07 2023-02-10 三菱重工業株式会社 自己位置推定装置、自己位置推定方法及びプログラム
CN110009726B (zh) * 2019-03-08 2022-09-30 浙江中海达空间信息技术有限公司 一种根据平面基元间的结构关系对点云提取平面的方法
TWI675000B (zh) * 2019-03-22 2019-10-21 所羅門股份有限公司 物件運送方法及系統
CN109949412B (zh) * 2019-03-26 2021-03-02 腾讯科技(深圳)有限公司 一种三维对象重建方法和装置
US11289078B2 (en) * 2019-06-28 2022-03-29 Intel Corporation Voice controlled camera with AI scene detection for precise focusing
US11138465B2 (en) 2019-12-10 2021-10-05 Toyota Research Institute, Inc. Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
WO2021235458A1 (ja) * 2020-05-21 2021-11-25 株式会社ソシオネクスト マップ情報更新方法、ランドマーク生成方法、及び特徴点分布調整方法
CN111899291B (zh) * 2020-08-05 2024-08-13 深圳市数字城市工程研究中心 基于多源维度分解的城市点云从粗到精的自动配准方法
CN112001955A (zh) * 2020-08-24 2020-11-27 深圳市建设综合勘察设计院有限公司 一种基于二维投影平面匹配约束的点云配准方法及系统
US12002227B1 (en) 2020-08-26 2024-06-04 Apple Inc. Deep partial point cloud registration of objects
CN112348893B (zh) * 2020-10-30 2021-11-19 珠海一微半导体股份有限公司 一种局部点云地图构建方法及视觉机器人
CN112379773B (zh) * 2020-11-12 2024-05-24 深圳市洲明科技股份有限公司 多人三维动作捕捉方法、存储介质及电子设备
US11481925B1 (en) * 2020-11-23 2022-10-25 Zillow, Inc. Automated determination of image acquisition locations in building interiors using determined room shapes
CN113311412B (zh) * 2021-05-13 2024-03-01 哈尔滨工业大学 用于移动机器人的激光雷达传感器六维外参标定方法
CN114463396B (zh) * 2022-01-07 2024-02-06 武汉大学 一种利用平面形状和拓扑图投票的点云配准方法
CN114882087B (zh) * 2022-07-12 2022-10-04 武汉瀚迈科技有限公司 针对具有不完整基本图元的三维扫描点云实时配准方法
CN117984074B (zh) * 2024-03-29 2024-07-12 成都飞机工业(集团)有限责任公司 一种用于大型三维立体装配无固定测量点调姿定位方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3738456B2 (ja) * 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
JP2000337831A (ja) * 1999-05-28 2000-12-08 Minolta Co Ltd 3次元データの位置合わせ方法
JP2003162549A (ja) * 2001-11-28 2003-06-06 National Institute Of Advanced Industrial & Technology 統合された形状モデル生成方法及びコンピュータプログラム
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
JP3855053B2 (ja) * 2003-01-30 2006-12-06 国立大学法人 東京大学 画像処理装置、画像処理方法、及び画像処理プログラム
CN1312633C (zh) * 2004-04-13 2007-04-25 清华大学 大规模三维场景多视点激光扫描数据自动配准方法
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
CN100559398C (zh) * 2007-06-19 2009-11-11 北京航空航天大学 自动的深度图像配准方法
TWI358606B (en) 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
JP5141507B2 (ja) * 2008-08-25 2013-02-13 村田機械株式会社 自律移動装置
JP2010066595A (ja) * 2008-09-11 2010-03-25 Toyota Motor Corp 環境地図生成装置及び環境地図生成方法
JP2012524663A (ja) * 2009-04-23 2012-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体学習ロボットおよび方法
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2011095858A (ja) * 2009-10-27 2011-05-12 Panasonic Electric Works Co Ltd 3次元デジタイザ
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
JP5580164B2 (ja) * 2010-10-18 2014-08-27 株式会社トプコン 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
EP2451164B1 (en) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
US9449233B2 (en) * 2010-12-01 2016-09-20 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps

Also Published As

Publication number Publication date
KR101643079B1 (ko) 2016-07-26
CN104395932A (zh) 2015-03-04
US9183631B2 (en) 2015-11-10
KR20150024349A (ko) 2015-03-06
DE112013003214T5 (de) 2015-04-02
TW201415414A (zh) 2014-04-16
JP2015515655A (ja) 2015-05-28
CN104395932B (zh) 2017-04-26
US20140003705A1 (en) 2014-01-02
TWI569229B (zh) 2017-02-01
WO2014003081A1 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
JP5955406B2 (ja) データを位置合わせする方法
JP6430064B2 (ja) データを位置合わせする方法及びシステム
JP2023082038A (ja) 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム
Weber et al. Automatic registration of unordered point clouds acquired by Kinect sensors using an overlap heuristic
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
KR20180087947A (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
Takimoto et al. 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor
WO2013112749A1 (en) 3d body modeling, from a single or multiple 3d cameras, in the presence of motion
JP4938748B2 (ja) 画像認識装置及びプログラム
Yookwan et al. Multimodal fusion of deeply inferred point clouds for 3D scene reconstruction using cross-entropy ICP
Maninchedda et al. Face reconstruction on mobile devices using a height map shape model and fast regularization
Golyanik et al. A framework for an accurate point cloud based registration of full 3d human body scans
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
Su et al. A comparison of surgical cavity 3d reconstruction methods
JP6584139B2 (ja) 情報処理装置、情報処理方法及びプログラム
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
KR102705610B1 (ko) 다시점 카메라 기반 다관절 객체의 입체영상캡쳐 장치 및 방법
Lam et al. 3D human modeling using virtual multi-view stereopsis and object-camera motion estimation
Almeida et al. Incremental reconstruction approach for telepresence or ar applications
Kim et al. Registration of partial 3D point clouds acquired from a multi-view camera for indoor scene reconstruction
Almeida et al. On-line incremental 3D human body reconstruction for HMI or AR applications
Bajpai et al. A Cross-Platform Open Source 3D Object Reconstruction System using a Laser Line Projector.
Colombo et al. Low-Cost 3D Scanning by Exploiting Virtual Image Symmetries.
Dou Enhanced 3D capture for room-sized dynamic scenes with commodity depth cameras
Boyer et al. 3D Modeling from multiple views with integrated registration and data fusion

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160614

R150 Certificate of patent or registration of utility model

Ref document number: 5955406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250