JP6430064B2 - データを位置合わせする方法及びシステム - Google Patents

データを位置合わせする方法及びシステム Download PDF

Info

Publication number
JP6430064B2
JP6430064B2 JP2018509925A JP2018509925A JP6430064B2 JP 6430064 B2 JP6430064 B2 JP 6430064B2 JP 2018509925 A JP2018509925 A JP 2018509925A JP 2018509925 A JP2018509925 A JP 2018509925A JP 6430064 B2 JP6430064 B2 JP 6430064B2
Authority
JP
Japan
Prior art keywords
point
primitives
points
plane
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018509925A
Other languages
English (en)
Other versions
JP2018523881A (ja
Inventor
カンシゾグル、エスラ
田口 裕一
裕一 田口
ラマリンガム、スリクマール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2018523881A publication Critical patent/JP2018523881A/ja
Application granted granted Critical
Publication of JP6430064B2 publication Critical patent/JP6430064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、2次元(2D)データ及び3次元(3D)データを位置合わせすることに関し、より詳細には、センサー姿勢推定、並びに3Dシーン再構成、ロボット工学、及び拡張現実等のコンピュータービジョンアプリケーションのために、RGB−Dセンサーから取得された2Dデータ及び3Dデータを位置合わせすることに関する。
コンピュータービジョン、ロボット工学、及び拡張現実における多くのアプリケーションに同時位置同定地図生成(SLAM:simultaneous localization and mapping:同時自己位置地図獲得手法)が用いられる。SLAMシステムの不可欠な部分は、センサー位置同定である。これには、センサー座標系におけるプリミティブとSLAM地図座標系におけるプリミティブとの位置合わせが必要とされる。単眼センサーを用いたSLAMがよく知られている。低コスト3Dセンサーの普及に伴い、多くのSLAMシステムは、Microsoft Kinect(登録商標)センサー等の赤色、緑色、青色、及び深度(RGB−D)のセンサーを用いた色データ及び深度データの双方を利用する。
RGB−Dセンサーは、位置合わせ精度を高めることができるが、そのようなセンサーは、通常、ハードウェアの限界及び雑音に起因して、限られた範囲、例えば、Kinect(登録商標)の場合に0.5m〜4mでしか正確な深度を提供しない。ほとんどのRGB−D SLAMシステムは、有効な深度を有するピクセルのみを用いる一方、センサーに過度に近いシーン点又はセンサーから過度に遠いシーン点に関連付けられたピクセルを無視する。これは、センサーによって提供された情報の効果的でない使用法であり、特に、大きな深度変化を有するシーンの場合、位置合わせの不正確さをもたらすおそれがある。
ほとんどの従来のSLAMシステムは、単一のタイプのプリミティブ、例えば、2D点又は3D点のいずれかを測定値として用いる。例えば、特徴ベース単眼SLAMシステムは、2D点特徴部を抽出し、2D対2D点対応関係を用いて、三角測量によって3D点ランドマークを初期化し、次いで、2D点測定値と3D点ランドマークとの間の2D対3D対応関係を用いて、連続画像におけるセンサー姿勢を推定する。これについては、非特許文献1及び非特許文献2を参照されたい。
特徴ベースRGB−D SLAMシステムは、3D点特徴部を抽出し、3D対3D点対応関係を用いてセンサー姿勢を推定する。幾つかのSLAMシステムでは、平面特徴部も測定値として用いることができる。近年の高密度SLAMシステムは、単眼及びRGB−Dの双方とも、特徴部抽出に依拠しておらず、逆に、画像内の全ての2D点又は3D点を利用し、直接的な位置合わせの測光誤差又は反復最近傍点(ICP)コストを最小にする。しかしながら、それらのシステムは、依然として、2D点又は3D点のいずれかの単一のタイプのプリミティブしか用いない。
幾つかのSLAMシステムは、3D測定値のハイブリッドを用いる。1つのシステムは、平面対平面対応関係及び線対平面対応関係の双方を用いる。これについては、非特許文献3を参照されたい。別のシステムは、点対点対応関係及び平面対平面対応関係の双方を用いる。これについては、非特許文献4を参照されたい。しかしながら、それらのシステムにおいて用いられる全ての測定値は、3Dプリミティブである。
幾つかのシステムは、RGB−D画像の幾つかの部分における深度測定値の欠落の問題に対処し、2D測定値及び3D測定値の双方を用いる。これについては、非特許文献5及び非特許文献6を参照されたい。Hu他は、利用可能な深度に従って2D対2D対応関係と3D対3D対応関係とをヒューリスティックに切り替え、したがって、単一の位置合わせにおいて双方の対応関係を用いない。Zhang他は、2D測定値及び3D測定値の双方を用いて、視覚オドメトリのための2つの画像を位置合わせするが、3D測定値は、2つの画像のうちの一方においてのみ想定され、したがって、2D対3D対応関係が用いられる。
Davison他「MonoSLAM: Real-time single camera SLAM」IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 6, pp. 1052-1067, June 2007 Klein及びMurray「Parallel tracking and mapping for small AR workspaces」Proc. IEEE Int'l Symp. Mixed and Augmented Reality (ISMAR), pp. 1-10, Nov. 2007 Trevor他「Planar surface SLAM with 3D and 2D sensors」Proc. IEEE Int’l Conf. Robotics and Automation (ICRA), pp. 3041-3048, May 2012 Taguchi他「Point-plane SLAM for hand-held 3D sensors」Proc. IEEE Int'l Conf. Robotics and Automation (ICRA), pp. 5182-5189, May 2013 Hu他「A robust RGB-D SLAM algorithm」Proc. IEEE/RSJ Int'l Conf. Intelligent Robots and Systems (IROS), Oct. 2012 Zhang他「Real-time depth enhanced monocular odometry」Proc. IEEE/RSJ Int'l Conf. Intelligent Robots and Systems (IROS), Sept. 2014
本発明の実施の形態は、3D点及び3D線の同時位置合わせのシステム及び方法を提供する。本方法は、同時位置同定地図生成(SLAM)システムにおいて用いることができる。
位置合わせは、フレームから抽出された測定値が大域SLAM地図におけるランドマークに関して位置合わせされるSLAMシステムの最も不可欠な部分である。RGB−Dセンサーを用いた従来のSLAMシステムは、RGB−Dセンサーのハードウェア限界及び雑音に起因して、限られた範囲にしか深度を用いない。センサーに対して過度に遠いシーンにおける深度又は過度に近いシーンにおける深度は用いられない。そのようなシステムは、特に、大きな深度変化を有するシーンにおいて位置合わせ誤差をもたらす。
本発明の実施の形態は、深度を有する点測定値及び深度を有しない点測定値を用いる新規なRGB−D SLAMシステム及び方法を提供する。本システムは、RGBフレーム(画像)からキーポイントを抽出する。有効な深度を有するキーポイントは、3D点特徴部になる一方、有効な深度を有しないキーポイントは、2D点特徴部とみなされる。フレームの2D点は、センサーの姿勢及びセンサーの固有パラメーターに基づいてセンサーの光心(optical center)と2D点の2D画像座標とを通る3D線を用いて表される。
次に、点対点対応関係、線対点対応関係、及び線対線対応関係が求められる。線対点対応関係について、本発明では、2D点特徴部によって関連付けられた3D線を用いて、対応する3D点特徴部が「ピンポイント(正確に位置特定)」され、点対点対応関係のみを用いるよりも長い距離制約が生成される。線対線対応関係について、3D線が三角測量され、その後の処理において3D点特徴部として用いられる3D点が生成される。本明細書では、3D線及び2D点は、ともに有効な深度を有しないキーポイントを指すので、区別なく用いられる。本システムは、平面を抽出して3D平面特徴部を生成することもでき、点対点対応関係、線対点対応関係、及び線対線対応関係に加えて平面対平面対応関係を用いて位置合わせ精度を更に改善することもできる。
ハイブリッド対応関係は、オンラインSLAM及びオフライン後処理の双方において用いられる。オンラインSLAMは、リアルタイム動作を得るために、連続した画像間の対応関係を求めることによって処理速度により多くの重点を置いている一方、オフライン後処理は、より高い精度を得るために、全ての画像間に、より多くの対応関係を生成する。
本発明の実施の形態による2D点測定値及び3D点測定値を概略的に示す図である。 従来の3D測定値を概略的に示す図である。 本発明の実施の形態による、センサーによって入手された2Dデータ及び3Dデータのハイブリッド同時位置同定地図生成(SLAM)のシステム及び方法の概略図である。 図2のシステム及び方法の更なる詳細の概略図である。
本発明の実施の形態は、赤色、緑色、青色、及び深度(RGB−D)のセンサーによって入手された2Dデータ及び3Dデータのハイブリッド同時位置同定地図生成のシステム及び方法を提供する。
図1Aは、本発明の実施の形態によって用いられる、2D点から3D点を「ピンポイント」する基本となるアイデアを概略的に示している。三角形100は、異なる姿勢(視点)、すなわち、異なる3D位置及び3D方位にあるセンサーを表している。代替的に、複数のセンサーを用いることができる。
点線101は、2D測定値に関連付けられた線(すなわち、無効な深度を有する2Dキーポイント)を表し、円102及び実線103は、3D測定値を表している。三角測量される3D点は、菱形104を用いて示されている。三角測量は、線101の交点を用いる。従来のSLAMシステムにおいて用いられる点対点対応関係に加えて、本発明では、線対点対応関係及び線対線対応関係を用いて、長距離制約が生成される。2D点(無効な深度を有するキーポイント)によって規定される線は、3D点、すなわち、有効な深度を有するキーポイント、又は線を交差させることによって三角測量された3D点を「ピンポイント」する。
図1Bは、点対点対応関係のみを用い、その結果、限られた深度範囲に起因して画像間の短距離制約が得られる従来のSLAMシステムを示している。
従来のSLAMシステムとは異なり、本発明のシステムは、画像から2D測定値及び3D測定値の双方を抽出し、この場合、有効な深度を有するキーポイントは、3D測定値になり、有効な深度を有しないキーポイントは、2D測定値として扱われる。その後、システムは、点対点対応関係、線対点対応関係、及び線対線対応関係を確立する。2D測定値を含む付加された対応関係は、画像間の長距離制約を提供する。すなわち、本発明では、2D点によって規定される線を用いて3D点が「ピンポイント」される。
本発明のシステムは、平面を付加的に抽出して3D平面特徴部を生成することができ、点対点対応関係、線対点対応関係、及び線対線対応関係に加えて平面対平面対応関係を用いて、位置合わせ精度を更に改善することができる。
本発明では、オンラインSLAM及びオフライン後処理の双方において、ハイブリッド対応関係が用いられる。オンラインSLAMの場合、本発明では、リアルタイム処理のための近傍画像間の対応関係検索が制限される。この手法は、点対点対応関係しか用いない従来の手法よりも長い距離制約を生成するが、遠方の画像間に存在し得る対応関係を利用していない。
本発明の後処理は、そのような対応関係を、各画像と全ての画像からの測定値及び対応関係を用いて生成されるSLAM地図との間のハイブリッド対応関係を反復的に求めることによって確立する。各反復において、これらの対応関係は、まず、画像の現在の姿勢に基づいて更新され、次に、バンドル調整手順を用いて、これらの姿勢を更新するのに用いられる。
ピンポイントSLAM及び後処理
この節では、3D点及び3D線を用いた本発明の位置合わせ方法を説明する。本発明の方法は、任意の点特徴ベースRGB−D SLAMシステムに組み込むことができる。ここで、代表的なキーフレームをSLAM地図に記憶するキーフレームベースSLAMシステムを用いた一例が提供される。本発明の位置合わせ方法の概略は、図2に見ることができ、この位置合わせ方法を用いた本発明のSLAMシステムは、図3に見ることができる。
本発明では、この方法は、オンラインSLAM及びオフライン後処理の双方に用いられる。オンラインSLAMにおいて、本発明では、各入力フレームが一度処理され、このフレームは、キーフレームの以前の測定値及び対応関係を含むSLAM地図380に位置合わせされる。オフライン後処理において、本発明では、SLAM地図における各キーフレームが処理され、このキーフレームが、SLAM地図におけるキーフレームの全てと位置合わせされ、キーフレームの姿勢が更新される限り、このプロセスが反復される。
表記
本発明では、測定値及びランドマークの従来の術語が用いられる。システムは、各RGB−Dフレームから測定値を抽出し、大域SLAM地図にランドマークを生成する。
3D点測定値は(p,D)であり、ここで、
Figure 0006430064
は、その3D位置を示し、Dは、その関連付けられた記述子を示す。2D点測定値は、
Figure 0006430064
であり、ここで、
Figure 0006430064
は、2Dピクセル座標を表し、
Figure 0006430064
は、その関連付けられた記述子であり、ν=(c,u)は、センサーの固有パラメーター、すなわち、焦点距離(f,f)及び主点(c,c)に基づいて、
Figure 0006430064
となるような、センサーの光心と2D点測定値とを通る3D線を表し、Tは、転置演算子である。
3D平面測定値は、平面パラメーターと、平面に関連付けられた3D内座層点(inlier points)の集合とを示す(π,I)によって表される。
ランドマークは、測定値の集合体である。3D点ランドマークは、(p,D)によって表され、ここで、
Figure 0006430064
は、その3D位置を示し、Dは、このランドマークに関連付けられた記述子の集合を示す。3D平面ランドマークは、平面パラメーターπと、全ての関連付けられたフレームからの3D内座層点の集合Iとを有する(π,I)である。
位置合わせ方法
本発明では、赤色、緑色、青色、及び深度(RGB−D)のセンサー201を用いて3Dシーン202のデータ203が入手される(210)。これらのデータは、センサーのそれぞれ異なる姿勢(視点)ごとのフレームのシーケンスとして入手することもできるし、代替的に、複数のセンサーが用いられる。各フレーム内のデータから、本発明では、3D点211及び3D線212並びに関連付けられた記述子が抽出される。
本発明では、第1の座標系に表された少なくとも3つの3D点を含むプリミティブの第1の集合が選択される(220)。本発明では、第2の座標系に表されたプリミティブの第2の集合も選択される(230)。ここで、プリミティブの第2の集合は、全部で少なくとも3つのプリミティブを取得するための3D点及び3D線の任意の組み合わせを含む。
次に、本発明では、プリミティブの第1の集合及びプリミティブの第2の集合を用いて、3D点が互いに位置合わせされると同時に、3D点と3D線とが位置合わせされ(240)、位置合わせされたプリミティブ250が取得される。この位置合わせは、ランダムサンプルコンセンサス(RANSAC)を用いることができる。位置合わせされたプリミティブは、任意のタイプのSLAMシステム260において用いることができる。これらのステップは、プロセッサ200において実行される。
特徴部抽出
本発明のシステムは、各RGB画像から2Dキーポイントを抽出する(311)。各キーポイントは、ロケーション(x,y)及び関連付けられた記述子を有する。2Dキーポイントは、例えば、スケール不変特徴変換(SIFT)キーポイント検出器及び記述子を用いることによって取得することができるが、任意の種類のキーポイント検出器及び記述子をこのステップに用いることができる。対応する深度が既定の範囲内にある場合、それらの深度は、有効であるとみなされる。有効な深度を有するキーポイントは、背面投影され、3D点測定値322として用いられる。無効な深度を有するキーポイントは、2D点測定値321とみなされ、センサーの光心と2Dキーポイントとを通る3D線として表される。
本発明では、例えば、凝集型階層クラスタリングを用いて、3D平面測定値323も抽出することができる(312)。これについては、Feng他「Fast plane extraction in organized point clouds using agglomerative hierarchical clustering」Proc. IEEE Int'l Conf. Robotics and Automation (ICRA), May 2014を参照されたい。
特徴部抽出ステップは、後処理の間は、省略される。なぜならば、後処理は、特徴部が既に抽出されている既存のSLAM地図に適用されるからである。
キーポイントは、RGB画像の代わりに強度画像から抽出することができることに留意されたい。したがって、本発明のシステムは、RGB−Dフレームの代わりに強度フレーム及び深度フレームを入力として用いることができる。本明細書では、ピクセル画像は、強度画像又はRGB画像のいずれかを指すのに用いられる。
対応関係検索
特徴部抽出後、本発明では、現在のフレームから抽出されたキーポイントとSLAM地図におけるキーポイントとの間の対応関係330が求められる。平面対応関係は検索されない。なぜならば、平面の数は、点の数よりもはるかに少ないからである。その代わりに、本発明のRANSAC位置合わせは、全ての可能な平面対応関係を考慮する。
オンラインSLAM
本発明では、現在のフレームのキーポイントとSLAM地図の直前のk個のキーフレームのキーポイントとの間で、全対全記述子照合が実行される。地図の全てのキーポイントの代わりにk個のキーフレームを考慮することによって、検索の時間が削減される。なぜならば、連続的なセンサーの動きを仮定すると、直前のキーフレームは、シーンにおいて現在のフレームと同じ領域を観測している可能性がより高いからである。この照合は、次の対応関係、すなわち、点対点対応関係、線対点対応関係、及び線対線対応関係を返す。これらの対応関係のそれぞれは、RANSAC位置合わせフェーズにおいて特別に考慮される。線対点対応関係は、3D点ランドマークから2D点測定値又は2D点ランドマークから3D点測定値への2つの場合を考慮している。
オフライン後処理
本発明では、キーフレームの姿勢を予測として用いることによって、不要な記述子照合が回避される。本発明では、地図の全ての3D点が、予測された姿勢に基づいてフレームに投影される。フレーム内の測定値は、その投影がr個のピクセルからなる近傍の範囲内に入る場合、3D点ランドマークと整合する。これによって、点対点対応関係又は3Dランドマークから2D測定値への対応関係(すなわち、点対線対応関係)のいずれかが生成される。2Dランドマークと3D測定値との間にある点対線対応関係の場合、検索は、投影の方向の変化に伴って同じ方法で行われる。すなわち、フレームの3D点測定値は、2D点ランドマークを開始するキーフレームに投影される。線対線対応関係については、本発明では、2D点測定値を2D点ランドマークと照合するために、エピポーラ線までの距離がr個のピクセルよりも少ないことが検査される。
RANSAC位置合わせ
RANSAC位置合わせ340は、(i)3つの平面、(ii)2つの平面+1つの3D点、(iii)1つの平面+2つの3D点、及び(iv)3つの3D点の順序で異なるタイプの仮定を試行する。本発明では、2D点測定値が用いられるので、本発明では、このリストに最後の仮定も追加される。この最後の仮定は、3つの線対点対応関係を考慮するものである。
本発明では、3点透視(P3P:perspective-three-point)手順が適用され、線対点対応関係を用いて位置合わせパラメーターが求められる。これについては、Haralick他「Review and analysis of solutions of the three point perspective pose estimation problem」Int'l J. Computer Vision, vol. 13, no. 3, pp. 331-356, Dec. 1994を参照されたい。線対点対応関係に加えて、本発明では、3D点のうちの1つの深度を無視することによって、点対点対応関係を線対点対応関係として扱うことができることに留意されたい。
RANSAC内座層チェックが、対応関係のタイプに基づいて実行される。2つの3D点は、これらの点の間の距離が閾値未満であるときに内座層とみなされる。線対点対応関係の場合、本発明では、3D点と2D点に対応する線との間の距離が考慮される。3D点ランドマークpと2D点測定値qとの間の距離
Figure 0006430064
は、下式となる。
Figure 0006430064
ここで、Tは、2D点測定値を含むキーフレームの姿勢であり、<・,・>は、ドット積を示す。上記距離が閾値未満である場合、対応関係は、内座層としてカウントされる。線対線対応関係の場合、本発明では、他方の点の対応するエピポーラ線までのピクセルの距離が閾値未満であることがチェックされる。
SLAM地図更新
RANSAC位置合わせが成功した場合(350)、推定された姿勢及び内座層対応関係が用いられて、SLAM地図380が更新される(370)。
オンラインSLAM
フレームの推定された姿勢が、地図における既存のキーフレームの姿勢と異なるとき、このフレームは、新たなキーフレーム360として地図に追加される。2D測定値が3D点ランドマークと整合する場合、この2D測定値の記述子を追加することによって、記述子の集合は、拡大される。線対線の整合の場合、本発明では、2つの線上の最も近い点の中点を求めることによって、三角測量が実行され、2D測定値の記述子を収集することによって、この中点が3D点ランドマークとして地図に追加される。本発明では、小さなカメラベースラインを用いた線対線の整合の三角測量は、雑音を導入するので無視される。3D点測定値が2D点ランドマークと整合する場合、このランドマークは、地図座標系に転送された3D点測定値の3D座標を介して3D点ランドマークとして更新される。全ての整合しない点測定値は、点ランドマークとして地図に追加される。
オフライン後処理
後処理は、既存の地図に適用されるので、全ての測定値は、ランドマークに既に関連付けられている。したがって、この段階は、キーフレームと地図との間の対応関係のみを更新する。RANSAC内座層は、キーフレームの対応関係を精緻化するのに用いられる。測定値が、現在関連付けられているランドマークと異なるランドマークと整合する場合、この測定値は、現在のランドマークから除去され、新たな内座層ランドマークに関連付けられる。同様に、測定値が、その現在のランドマークと整合していない場合、この測定値はそのランドマークから分割され、新たなランドマークが生成される。
バンドル調整
三重項(k,l,m)は、3D点ランドマークp(l=1,...,L)が姿勢T(k=1,...,K)を有するキーフレームk内の3D点測定値
Figure 0006430064
又は2D点測定値
Figure 0006430064
に関連付けられている関連付けを示す。同様に、三重項(k,l’,m’)は、3D平面ランドマークπl’(l’=1,...,L’)がキーフレームk内の3D平面測定値
Figure 0006430064
に関連付けられているような関連付けを示す。A、A、及びAは、それぞれ地図における点対点関連付け、線対点関連付け、及び平面対平面関連付けを表す全ての三重項を含むことにする。その場合、バンドル調整390は、3D点ランドマーク座標、3D平面ランドマークパラメーター、及びキーフレーム姿勢に関する以下の誤差関数を最小にする。
Figure 0006430064
ここで、
Figure 0006430064
は、キーフレームk内の平面測定値の内座層点の集合(πm’,Im’)からサンプリングされた3D点
Figure 0006430064
の平面ランドマークπまでの距離である。
オンラインSLAM
バンドル調整は、非同期に実行される。本発明では、ループ閉鎖も実行される。ループ閉鎖は、まず、キーポイントに基づいて求められた局所集約記述子ベクトル(VLAD:vector of locally aggregated descriptors)記述子を用いて地図におけるキーフレームの全ての対の外観類似性をチェックする。これについては、Jegou他「Aggregating local image descriptors into compact codes」IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 9, pp. 1704-1716, Sept. 2012を参照されたい。オンラインSLAMは、キーフレームの対の間の類似性もチェックする。本発明では、キーフレームの現在の姿勢が過度に異なるとき、ループの閉鎖は、試行されない。類似性テストに合格したキーフレームの対について、本発明のシステムは、次に、ハイブリッド対応関係を用いてRANSAC位置合わせを実行し、RANSACが成功した場合、内座層対応関係が用いられて、地図における関連付けが更新される。
オフライン後処理
後処理は、関連付けを更新するとともに地図におけるランドマークパラメーター及びキーフレーム姿勢を精緻化するために反復的に実行される。後処理の反復では、あらゆるキーフレームが、キーフレームの残りのものを含む地図と再位置合わせされ、その対応関係が更新される。すなわち、ランドマークの分割及びマージが必要なときに実行される。全ての対応関係が更新された後、本発明では、バンドル調整が再度実行され、ランドマークパラメーター及びキーフレーム姿勢が精緻化される。本発明では、キーフレーム姿勢の平均変化が閾値よりも大きい場合に、この反復が繰り返される。したがって、バンドル調整は、オフライン後処理において逐次的に実行される。
SLAMシステムの要約
本発明では、3Dシーン202のフレーム203が、例えば、赤色、緑色、青色、及び深度(RGB−D)のセンサー201を用いて入手される(310)。フレーム内のデータは、以下のように逐次的に処理される。
各フレームについて、本発明では、キーポイントが抽出される(311)。これらのキーポイントは、有効な深度を有しない2D点321と、有効な深度を有する3D点322とを含む。本発明では、3D平面323も抽出することができる(312)。次に、本発明では、現在のフレームと以前の処理済みフレームを含むSLAM地図380との間の対応関係検索330が実行されて、点対応関係が取得され、入力フレームとSLAM地図との間の全ての可能な平面対応関係が考慮される。次に、本発明では、点対点対応関係、線対点対応関係、線対線対応関係、及び平面対平面対応関係を用いて、RANSAC位置合わせ340が実行される。
RANSACが成功した場合(350)、フレームが新たなキーフレームであるか否かが判断され(360)、新たなキーフレームである場合、それに応じて、SLAM地図380が更新され(370)、そうでない場合、本発明では、次のフレームが入手される。本発明では、バンドル調整及びループ閉鎖手順390が非同期に実行されて、SLAM地図380における3D点ランドマーク、3D平面ランドマーク、及びキーフレーム姿勢が最適化される。バンドル調整は、シーン202の幾何形状を記述する3D座標を同時に精緻化する。
発明の効果
本発明の実施の形態は、SLAMシステムの位置合わせされたプリミティブを提供する。本発明の1つの目的は、RGB−Dセンサーによって入手された全てのデータを有効に用いることである。このシステムは、2D及び3DのSLAMのハイブリッドとみなすことができる。2D測定値は、センサーの光心と2D点とを通る3D線として表される。
3D点を関連付けられた3D線と照合することによって、フレーム間の位置合わせが改善される。2つの整合する2D測定値が三角測量され、地図に追加される。
このシステムは、フレーム間のより良好な対応関係を可能にし、位置合わせ精度の改善をもたらす。さらに、同じ手法は、再構成を精緻化することができるオフライン後処理手順に用いられる。
それらの結果、高い深度変化を有するシーンに対して、ピンポイントSLAM及び後処理が、従来のシステムと比較して精度を向上させることが示されている。

Claims (12)

  1. データを位置合わせする方法であって、
    異なる視点におけるセンサーによってシーンから前記データを入手するステップと、
    前記データから、3次元(3D)点及び3D線と、該3D点及び該3D線に関連付けられた記述子とを抽出するステップと、
    前記センサーの第1の座標系に表されたプリミティブの第1の集合を選択するステップであって、該プリミティブの第1の集合は、少なくとも3つの3D点を含む、ステップと、
    第2の座標系に表されたプリミティブの第2の集合を選択するステップであって、該プリミティブの第2の集合は、少なくとも3つのプリミティブを取得するための3D点及び3D線の任意の組み合わせを含む、ステップと、
    前記プリミティブの第1の集合及び前記プリミティブの第2の集合を用い、前記3D点を互いに位置合わせするとともに、前記3D点を前記3D線と位置合わせして、位置合わせされたプリミティブを取得するステップであって、前記位置合わせされたプリミティブは、同時位置同定地図生成(SLAM)システムにおいて用いられる、ステップと、
    を含み、それぞれのステップは、プロセッサにおいて実行される、方法。
  2. 前記位置合わせされたプリミティブをSLAM地図に記憶するステップと、
    バンドル調整によって前記SLAM地図を最適化するステップと、
    を更に含む、請求項1に記載の方法。
  3. 前記センサーは、前記データを、前記シーンの前記異なる視点ごとのフレームのシーケンスとして入手し、各フレームは、ピクセル画像及び対応する深度地図を含み、それぞれのステップは、各フレームについて実行される、請求項1に記載の方法。
  4. 前記データからキーポイントを抽出するステップであって、該キーポイントは、有効な深度を有する3Dキーポイントと、有効な深度を有しない2次元(2D)キーポイントとを含むステップと、
    前記有効な深度を有する前記3Dキーポイントを背面投影して前記3D点を生成するとともに、無効な深度を有する前記2Dキーポイントを、前記センサーの固有パラメーターに基づいて該2Dキーポイントと前記センサーの光心とを通る線として表して前記3D線を生成するステップと、
    を更に含む、請求項3に記載の方法。
  5. 前記位置合わせするステップは、
    記述子を照合することに基づいて、前記プリミティブの第1の集合と前記プリミティブの第2の集合との間の対応関係を求めて、点対点対応関係、点対線対応関係、及び線対線対応関係を生成するステップ、
    を更に含む、請求項4に記載の方法。
  6. 前記位置合わせするステップは、同時に行われる、請求項1に記載の方法。
  7. 前記データは、複数のセンサーによって入手される、請求項1に記載の方法。
  8. 前記3D点を前記位置合わせするステップは、3点透視手順を用いる、請求項1に記載の方法。
  9. 前記プリミティブは3D平面を含む、請求項1に記載の方法。
  10. 位置合わせするステップは、全ての可能な平面対平面対応関係を考慮する、請求項9に記載の方法。
  11. 位置合わせするステップは、次の順序、すなわち、3つの平面対平面対応関係と、2つの平面対平面対応関係及び1つの点対点対応関係と、1つの平面対平面対応関係及び2つの点対点対応関係と、3つの点対点対応関係と、3つの点対線対応関係との順序で対応関係の三重項を用いて初期化されるランダムサンプルコンセンサス(RANSAC)を介して実行される、請求項9に記載の方法。
  12. データを位置合わせするシステムであって、
    異なる視点において、シーンから前記データを入手するように構成されたセンサーと、
    プロセッサであって、
    前記データから、3次元(3D)点及び3D線と、該3D点及び該3D線に関連付けられた記述子とを抽出することと、
    前記センサーの第1の座標系に表されたプリミティブの第1の集合を選択することであって、該プリミティブの第1の集合は、少なくとも3つの3D点を含むことと、
    第2の座標系に表されたプリミティブの第2の集合を選択することであって、該プリミティブの第2の集合は、少なくとも3つのプリミティブを取得するための3D点及び3D線の任意の組み合わせを含むことと、
    前記プリミティブの第1の集合及び前記プリミティブの第2の集合を用い、前記3D点を互いに位置合わせするとともに、前記3D点を前記3D線と位置合わせして、位置合わせされたプリミティブを取得することであって、前記位置合わせされたプリミティブは、同時位置同定地図生成(SLAM)システムにおいて用いられることと、
    を行うように構成されたプロセッサと、
    を備える、システム。
JP2018509925A 2015-12-08 2016-12-05 データを位置合わせする方法及びシステム Active JP6430064B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/962,257 US9807365B2 (en) 2015-12-08 2015-12-08 System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
US14/962,257 2015-12-08
PCT/JP2016/086829 WO2017099251A1 (en) 2015-12-08 2016-12-05 Method and system for registering data

Publications (2)

Publication Number Publication Date
JP2018523881A JP2018523881A (ja) 2018-08-23
JP6430064B2 true JP6430064B2 (ja) 2018-11-28

Family

ID=57838445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018509925A Active JP6430064B2 (ja) 2015-12-08 2016-12-05 データを位置合わせする方法及びシステム

Country Status (4)

Country Link
US (1) US9807365B2 (ja)
JP (1) JP6430064B2 (ja)
CN (1) CN108369741B (ja)
WO (1) WO2017099251A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100805518B1 (ko) 2001-01-26 2008-02-20 엠이엠씨 일렉트로닉 머티리얼즈 인코포레이티드 산화 유도된 적층 결함을 실질적으로 포함하지 않는베이컨시 지배 코어를 갖는 낮은 결함 밀도의 실리콘
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6976270B2 (ja) 2016-04-08 2021-12-08 オービタル インサイト インコーポレイテッド 地理的領域におけるコンテナ内に格納された量の遠隔決定
US10217236B2 (en) 2016-04-08 2019-02-26 Orbital Insight, Inc. Remote determination of containers in geographical region
WO2019057179A1 (zh) * 2017-09-22 2019-03-28 华为技术有限公司 一种基于点线特征的视觉slam方法和装置
CN108682027A (zh) * 2018-05-11 2018-10-19 北京华捷艾米科技有限公司 基于点、线特征融合的vSLAM实现方法及系统
WO2019241782A1 (en) * 2018-06-16 2019-12-19 Artisense Corporation Deep virtual stereo odometry
US10726264B2 (en) 2018-06-25 2020-07-28 Microsoft Technology Licensing, Llc Object-based localization
US10740645B2 (en) 2018-06-29 2020-08-11 Toyota Research Institute, Inc. System and method for improving the representation of line features
US20200137380A1 (en) * 2018-10-31 2020-04-30 Intel Corporation Multi-plane display image synthesis mechanism
CN109492639A (zh) * 2018-11-12 2019-03-19 北京拓疆者智能科技有限公司 装载位置三维坐标获取方法、系统及图像识别设备
CN109448058A (zh) * 2018-11-12 2019-03-08 北京拓疆者智能科技有限公司 装载位置三维坐标获取方法、系统及图像识别设备
US11288842B2 (en) 2019-02-15 2022-03-29 Interaptix Inc. Method and system for re-projecting and combining sensor data for visualization
CN109887087B (zh) * 2019-02-22 2021-02-19 广州小鹏汽车科技有限公司 一种车辆的slam建图方法及系统
CN110097024B (zh) * 2019-05-13 2020-12-25 河北工业大学 一种移乘搬运护理机器人的人体姿态视觉识别方法
CN110349213B (zh) * 2019-06-28 2023-12-12 Oppo广东移动通信有限公司 基于深度信息的位姿确定方法、装置、介质与电子设备
CN110516527B (zh) * 2019-07-08 2023-05-23 广东工业大学 一种基于实例分割的视觉slam回环检测改进方法
CN110490085B (zh) * 2019-07-24 2022-03-11 西北工业大学 点线特征视觉slam系统的快速位姿估计算法
WO2021056134A1 (en) * 2019-09-23 2021-04-01 Intel Corporation Scene retrieval for computer vision
WO2021114773A1 (en) * 2019-12-12 2021-06-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Target detection method, device, terminal device, and medium
US11494927B2 (en) 2020-09-15 2022-11-08 Toyota Research Institute, Inc. Systems and methods for self-supervised depth estimation
US11615544B2 (en) 2020-09-15 2023-03-28 Toyota Research Institute, Inc. Systems and methods for end-to-end map building from a video sequence using neural camera models
US11508080B2 (en) * 2020-09-15 2022-11-22 Toyota Research Institute, Inc. Systems and methods for generic visual odometry using learned features via neural camera models
CN112258633B (zh) * 2020-10-23 2023-02-28 华中科技大学鄂州工业技术研究院 一种基于slam技术的场景高精度重建方法及装置
US11527014B2 (en) * 2020-11-24 2022-12-13 Verizon Patent And Licensing Inc. Methods and systems for calibrating surface data capture devices
CN114882087B (zh) * 2022-07-12 2022-10-04 武汉瀚迈科技有限公司 针对具有不完整基本图元的三维扫描点云实时配准方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7145478B2 (en) 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
JP5013961B2 (ja) * 2007-05-21 2012-08-29 キヤノン株式会社 位置姿勢計測装置及びその制御方法
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
US8290305B2 (en) * 2009-02-13 2012-10-16 Harris Corporation Registration of 3D point cloud data to 2D electro-optical image data
US8224071B2 (en) * 2009-06-30 2012-07-17 Mitsubishi Electric Research Laboratories, Inc. Method for registering 3D points with 3D planes
US9183631B2 (en) * 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
US8831290B2 (en) * 2012-08-01 2014-09-09 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection
US9674507B2 (en) 2013-04-30 2017-06-06 Qualcomm Incorporated Monocular visual SLAM with general and panorama camera movements
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US20150269436A1 (en) * 2014-03-18 2015-09-24 Qualcomm Incorporated Line segment tracking in computer vision applications
CN103942832B (zh) * 2014-04-11 2016-07-06 浙江大学 一种基于在线结构分析的室内场景实时重建方法
US9430847B2 (en) * 2014-06-12 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method for stereo visual odometry using points, lines and planes
US9858681B2 (en) * 2014-10-27 2018-01-02 Digimarc Corporation Signal detection, recognition and tracking with feature vector transforms
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
CN104899918B (zh) * 2015-05-14 2018-02-27 深圳大学 一种无人机的三维环境建模方法及系统

Also Published As

Publication number Publication date
JP2018523881A (ja) 2018-08-23
US9807365B2 (en) 2017-10-31
CN108369741A (zh) 2018-08-03
WO2017099251A1 (en) 2017-06-15
CN108369741B (zh) 2019-08-30
US20170161901A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6430064B2 (ja) データを位置合わせする方法及びシステム
Lu et al. Visual navigation using heterogeneous landmarks and unsupervised geometric constraints
US20170161546A1 (en) Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping
EP2915138B1 (en) Systems and methods of merging multiple maps for computer vision based tracking
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
KR20180087947A (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
Hirose et al. Fast Line Description for Line-based SLAM.
US20140002597A1 (en) Tracking Poses of 3D Camera Using Points and Planes
JP4709668B2 (ja) 3次元物体認識システム
Wang et al. Robust 3D reconstruction with an RGB-D camera
Gedik et al. 3-D rigid body tracking using vision and depth sensors
Zou et al. Indoor localization and 3D scene reconstruction for mobile robots using the Microsoft Kinect sensor
WO2019018065A1 (en) THIN OBJECT DETECTION BASED ON VISION BY COMPUTER
Ataer-Cansizoglu et al. Pinpoint SLAM: A hybrid of 2D and 3D simultaneous localization and mapping for RGB-D sensors
Bu et al. Semi-direct tracking and mapping with RGB-D camera for MAV
CN110458177B (zh) 图像深度信息的获取方法、图像处理装置以及存储介质
JP2014102805A (ja) 情報処理装置、情報処理方法及びプログラム
Schwarz et al. Tracking planes with time of flight cameras and j-linkage
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
Laganière et al. Visual reconstruction of ground plane obstacles in a sparse view robot environment
Nakayama et al. Marker-less augmented reality framework using on-site 3D line-segment-based model generation
Lourakis et al. Autonomous visual navigation for planetary exploration rovers
Yeh et al. Model quality aware ransac: A robust camera motion estimator
Xu Stereo Visual Odometry with Windowed Bundle Adjustment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180221

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180221

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R150 Certificate of patent or registration of utility model

Ref document number: 6430064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250