JP6976350B2 - 静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するイメージングシステム - Google Patents

静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するイメージングシステム Download PDF

Info

Publication number
JP6976350B2
JP6976350B2 JP2019553594A JP2019553594A JP6976350B2 JP 6976350 B2 JP6976350 B2 JP 6976350B2 JP 2019553594 A JP2019553594 A JP 2019553594A JP 2019553594 A JP2019553594 A JP 2019553594A JP 6976350 B2 JP6976350 B2 JP 6976350B2
Authority
JP
Japan
Prior art keywords
map
frame
segment
segments
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019553594A
Other languages
English (en)
Other versions
JP2020512646A (ja
Inventor
カンシゾグル、エスラ
カッカモ、セルジオ・エス
裕一 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2020512646A publication Critical patent/JP2020512646A/ja
Application granted granted Critical
Publication of JP6976350B2 publication Critical patent/JP6976350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本開示は包括的には、コンピュータビジョン及び画像処理に関し、より詳細には、シーン内の静的物体の同時位置特定及びマッピング(SLAM:simultaneous localization and mapping)、並びにシーン内で移動している物体の検出及び追跡に適した、動的物体及び静的物体の同時再構成に関する。
従来のロボットは、シーン内の空間的及び時間的な関係、静止物体及び移動物体を確立するのに課題がある。位置特定は、ロボットと静止物体との間の空間的な関係を確立するプロセスに関する用語である。マッピングは、静止物体間の空間的な関係を確立するプロセスを指している。移動物体追跡は、移動物体とロボットとの間、又は移動物体と静止物体との間の空間的及び時間的な関係を確立するプロセスと理解することができる。現実世界には不確定性及び識別できない状態があることから、ロボット等の従来のセンサデバイスにとって、位置特定、マッピング及び移動物体追跡は困難である。カメラ、レーダ及びレーザ等の知覚センサ、並びに走行距離計測及び慣性測定装置等の運動センサは雑音があり、シーンの位置特定及びマッピングのための現在の技術的な適用例において使用するのに望ましくない。例えば、移動物体の意図、すなわち、制御入力は、移動物体上に取り付けられる追加のセンサを使用しなければ、識別することができない。
モバイルロボット工学及び人工知能産業において、同時位置特定及びマッピング(SLAM)問題及び移動物体追跡問題は長い間、課題になってきた。SLAMは、マップを徐々に作成しながら、新たに知覚されたランドマークの場所及びロボット自体の場所を同時に推定することを伴う。移動物体追跡は、状態推定及び運動モデル学習の両方を伴う。従来の適用例では、SLAM及び移動物体追跡は、切り離して、すなわち、別々に検討される。従来のSLAM問題では、静止物体に関連付けられるデータはポジであり、移動物体に関連付けられるデータはネガであり、それにより、性能が劣化する。逆に、移動物体追跡問題では、移動物体に属する測定値はポジであり、静止物体は背景と見なされ、フィルタリングにより除去される。例えば、特許文献1に記述されている方法を参照されたい。
したがって、モバイルロボット工学及び人工知能産業等における現在の技術的な適用例に対処するために、静的物体及び動的物体の両方を含むシーンの位置特定及びマッピングのための特徴ベース同時位置特定及びマッピング(SLAM)を提供するシステム及び方法が必要とされている。
米国特許第6,049,619号
本開示の実施形態は、コンピュータビジョン及び画像処理のシステム及び方法を提供し、より詳細には、シーン内の静的物体の同時位置特定及びマッピング(SLAM)、並びにシーン内で移動している物体の検出及び追跡に適した、動的物体及び静的物体の同時再構成のシステム及び方法を提供する。
本開示は、本発明のシステム及び方法が、シーン内の静的領域及び動的物体、すなわち、剛体移動物体(rigidly moving objects)の同時3次元(3D)再構成を提供するという理解に基づく。静止物体及び移動物体はいずれもシーン理解に対するポジ情報であるので、静的物体及び移動物体の同時位置特定及びマッピング(SLAM)は、互いに有利に働く可能性があると考えられる。具体的には、本開示は、静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するスパース特徴ベースSLAMシステムを提供する。スパース特徴ベースSLAMは、シーン内のキーポイント、すなわち、対象点のみを記憶し、それにより、数ある利点の中でも、スパース特徴ベースSLAMシステムを実行するプロセッサにかかる計算負荷及び記憶負荷を軽減することができる。そのようなスパース特徴ベースSLAMは、シーン内の1つ又は複数の静的物体の静的マップ、及びシーン内の各動的物体の物体マップ(モデル)を同時に生成する必要がある。しかしながら、これを実現に近づけるのは困難であることがわかった。
移動物体の検出及び追跡(DATMO)を伴うSLAMに関する技法は、物体に関する運動モデルを適応的に学習することによって、移動物体追跡問題を解くことを目的とする。したがって、それらの技法は、静止物体及び移動物体に関する別々の事後確率(posteriors)を保持することによって、推定問題を2つの別々の推定器に分解する。結果として、推定問題は、一般化された物体を伴うSLAMよりはるかに低い次元になり、それにより、両方のフィルタをリアルタイムに更新できるようになる。
しかしながら、これらの従来の手法は、考慮すべき大きい実用上の問題を有する。これらの実用上の問題が、現在の技術的な適用例に関して、それらの手法を適用するのを制限することがわかった。例えば、これらの実用上の問題は、物体の運動が滑らかであるという仮定等の、知覚のモデル化及びデータ関連付けに関するいくつかの暗黙の仮定から生じる。いくつかの従来のシステムは、物体が滑らかな運動を全く有しない(すなわち、人によって操作される)ときに困難がある。さらに、これらの問題に対する解決策を適用する際に、ハードウェアのコストの上昇及び/又は計算要件の増加につながることがわかった。さらに、これらの手法は、移動物体の3D再構成を提供するのではなく、代わりに、物体追跡(すなわち、静的マップに対する物体の位置)のみを提供する。そのため、従来の手法に関する上記の制約を克服し、現在の技術的な適用例に対処する解決策を見つける必要があった。
他の従来のSLAM手法があるが、これらの手法は、移動物体のモデルがあらかじめ与えられることを仮定する。これらの手法は、SLAMに先立って、個別のモデル化及び物体スキャンステージを必要とする。そのため、これらの技法では、移動物体の姿勢のみが保持及び更新され、モデルに基づいて追跡が実行されるので、移動物体追跡がより容易になる。しかしながら、倉庫内等では、物体のタイプ及びパッケージングが急速に変化する可能性があるので、移動物体のモデルは未知である可能性がある。したがって、近づきつつある新たな物体ごとに個別の物体マップを生成できないことになり、これらの従来の手法を実生活において使用するのが難しくなる。
高密度SLAMシステムは、その高密度表現においてシーンの全ての情報を使用するので、そのシステムを使用することにより、動的物体検出がより容易になる可能性がある。しかしながら、高密度SLAMシステムを使用する結果として、スパースシステムに比べて、計算要件が厳しくなった。高密度SLAM手法は、入力フレーム内で見つけられた全ての輝度(intensity)及び奥行情報を記憶する。それに対して、スパース特徴ベースSLAM手法の場合、上記で言及されたように、シーン内のキーポイント、すなわち、対象点のみが記憶され、スパース特徴ベースSLAMシステムを実行するプロセッサにかかる計算負荷及び記憶負荷を軽減する。スパース特徴ベースSLAM手法を使用することが重要である少なくとも1つの理由は、非限定的な例によれば、ロボットにおいてスパース手法を使用することが、簡単なプロセッサを使用でき、大量のデータに起因する機能不全が生じないため有益であることにある。それに対して、高密度システムは計算要件が厳しくなり、グラフィックス処理ユニット(GPU)においてのみ機能することになる。
本開示のいくつかの実施形態は最初に、単一のマップから開始し、静的マップと呼ばれる、このマップに対して各フレームの位置を特定する。静的マップに対するフレーム位置特定後に、高い外れ値比を有する1組のセグメントとして移動物体を検出することができる。動的セグメント測定値内に入る特徴を検出した後に、物体マップと呼ばれる、剛体移動物体、すなわち、動的物体を表す新たなマップを初期化する。後続の観測において、各フレームが静的マップ及び物体マップの両方に対して重ね合わせられる。これらの重ね合わせから生じる正常値(inliers)に基づいて、物体に属する特徴及び静的領域に属する特徴を区別する。
本開示は、動的領域及び静的領域に由来する特徴を区別するために使用されるマルチステージ幾何学的検証手法に基づく。具体的には、物体を表現するために特徴グループ分けを使用する。本開示のSLAMフレームワークにおいて、キーフレーム(keyframes)は、特徴の集合として扱われ、物体はセグメントの集合と見なされ、セグメントはキーフレームからの特徴のサブセットである。その場合に、マルチステージ重ね合わせ方式は、各マップに対する、フレームの全ての特徴、及び特徴の種々のサブセットの重ね合わせを検討する。最初に、全ての測定値が静的マップに対して重ね合わせられ、結果として、フレーム内の支配的な運動パターンが見つけられ、一方、小さい移動物体の位置特定は見逃される可能性がある。その後、第2のステージにおいて、セグメントベース重ね合わせ手順が進められ、物体マップに対してセグメント内に入る特徴が重ね合わせられる。特徴の分類は重ね合わせによって決まるので、よりロバストな重ね合わせのために、正確な姿勢推定値及び複数のステージにおける幾何学的検証の実行の必要性が生じる。
本開示の少なくとも1つの重要な利点は、静的環境をマッピングしながら、同時に、物体モデルをその場合で生成することである。子供が他人を観察することによって物体をモデル化し、操作するのを学習するのと同様に、本開示は、物体の運動に基づいて、物体モデル及び静的シーンマップの両方を同時に学習する。
本開示の少なくとも1つの方法は、静的物体及び動的物体を含むシーンの位置特定及びマッピングのためのイメージングシステムである。その方法は、一連のフレームを取得するセンサを含む。各フレームは、本開示による、3D平面及び点である特徴の集合を含む。これらの特徴は、フレームの測定値と定義される。点群上の領域成長手法後に、平面が抽出され、その後、平面が、平面方程式を用いて表される。点は、シーンの輝度及び奥行測定値によって表されるキーポイントとして抽出される。キーポイントは、それらの点のうちの1つを他の点から区別するのを助ける弁別的な特徴として現れる。例えば、キーポイントは、スケール不変特徴変換(SIFT:scale-invariant feature transform)及び最大安定極値領域(MSER:maximally stable extremal regions)等の検出器を用いて検出することができる。シーンの各キーポイント輝度及び奥行測定値は、キーポイントの記述子を計算するために使用することができ、SIFT及びMSER法は、記述子抽出のために使用することができる。各キーポイントは、フレームの測定値と見なされ、それは、3Dロケーションと、関連するキーポイントの記述子とを用いて表される。イメージングシステムは、シーン内の1つ又は複数の静的物体の静的マップを記憶するメモリを含み、例えば、静的物体は、屋内シーンの壁及び床を含むことができる。さらに、メモリは、シーン内の各動的物体の物体マップを記憶することもでき、静的マップは1組のランドマークを含むことができる。ランドマークは世界内の特定の点であり、異なるフレームに由来する測定値の集合として表される。言い換えると、マップ内のランドマークは、種々の視点から複数のフレームによって視認することができる。動的物体の少なくとも1つの例は、人によって操作されるカップ及び箱等の日常的な物体を含むことができる。さらに、メモリは、1組のセグメントを含む物体マップを含み、各セグメントの記述子は、そのセグメントを形成する複数の測定値の関数である。ここで、1組のセグメントは、箱の側面、テーブル上面、球体又は柱体の表面等の空間的にコヒーレントな領域(spatially coherent regions)と理解される。また、各セグメントの記述子は、そのセグメントに入るキーポイント記述子の集合体と定義することができ、方法として、局所集約記述子ベクトル(VLAD:Vector of Locally Aggregated Descriptors)を使用することができる。
さらに、イメージングシステムのローカライザを用いて、フレームベース重ね合わせを使用することによって、センサによって取得されたフレームの少なくともいくつかの測定値を静的マップ内のランドマークと重ね合わせる。また、ローカライザは、セグメントベース重ね合わせを用いて、フレーム内の少なくともいくつかのセグメントを物体マップ内のセグメントと重ね合わせる。フレームベース重ね合わせは、最初に、フレーム内で見つけられた全ての測定値をマップ内のランドマークと照合し、第二に、ランダムサンプルコンセンサス(RANSAC:random sample consensus)フレームワークに従って、照合対間の変化を見つけることであると説明することができる。さらに、セグメントベース重ね合わせは、最初に、外観類似性探索(appearance similarity search)(すなわち、VLAD)を用いてフレーム内のセグメントをマップ内のセグメントと照合し、第二に、セグメントの測定値をマップからの照合セグメントのランドマークと照合し、第三に、RANSACフレームワークに従って照合対間の変化を見つけることであると規定される。照合プロセスにおいて雑音が存在する場合があるので、RANSAC手順は、計算された変化に基づいて、どの照合が正確であると見なされるかを出力する。したがって、その手順は、フレームの測定値とマップのランドマークとの対応を与える。
最後に、マッパを用いて、各セグメントを形成する測定値と、セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられる測定値とによって各物体マップを更新し、静的マップと重ね合わせられるキーポイントを用いて、フレーム内の残りのキーポイントによって静的マップを更新する。マッパをより深く理解するために、マッパは最初に、測定値が静的マップに追加されるか、物体マップに追加されるかを判断し、第二に、それに基づいて、各マップを更新する。より具体的には、最初のステップにおいて、測定値が物体マップのセグメントと照合されるセグメント内に入る場合には、又は測定値が物体マップのランドマークに対応すると見なされる場合には、その測定値は物体マップに関連付けられる。そうでない場合には、キーポイントは静的マップに関連付けられる。次に、最初のステップの結果として、マップに関連付けられる全てのキーポイントによってマップが更新される。マップ更新中に、測定値がマップのランドマークに関連付けられる場合には、その測定値は照合ランドマークに付加され、そうでない場合には、その測定値はマップに新たなランドマークとして追加される。それゆえ、この手順は、既存のランドマップを補強し、マップに新たなランドマークも追加する。
本開示の別の方法は、最初に、第1の入力フレームによって静的マップを初期化することを含み、3Dセンサによって取得された別のRGB−Dフレーム、すなわち、赤、緑、青及び奥行(RGB−D)画像を取り込むことができる。次のステップにおいて、位置特定モジュールが、現在の入力フレームと、既存のマップのそれぞれとの間のマルチステージ重ね合わせを実行する。物体マップがまだ初期化されていない場合には、移動物体検出モジュールが、その物体に属する領域を見つける。既に既存の物体マップが存在する場合には、最初に、特徴分類を実行し、既存の物体マップに関連付けられる測定値を分割する。残りの測定値に関して、そのシーン内に新たな物体が存在するか否かを見つけるために、移動物体検出を再び実行する。各マップに対するフレームの推定姿勢に応じて、そのフレームが、新規のキーフレームとしてそれぞれのマップに追加される。その後、バンドル調整手順がSLAMと非同期に実行される。
本開示のイメージングシステム及び方法は、非限定的な例として、同時ロボットナビゲーション及び物体モデル化等の、数多くの異なる技術産業のために使用することが可能である。他の技術産業は、その場で生成された物体モデルによるロボット操作を含むことができる。さらに、本開示のスパース特徴ベースSLAMシステムは、非限定的な例として、計算効率、及び正確な3D再構成等の数多くの利点を提供することもできる。
本開示の一実施形態によれば、イメージングシステムは、静的物体及び動的物体を含むシーンの位置特定及びマッピングに関する。そのイメージングシステムは、一連のフレームを取得するセンサを備え、各フレームは、そのシーンの輝度及び奥行測定値を表す1組のキーポイントを含む。メモリは、シーン内の1つ又は複数の静的物体の静的マップ及びシーン内の各動的物体の物体マップを記憶する。その場合に、静的マップは1組のランドマークを含み、物体マップは1組のランドマーク及び1組のセグメントを含み、各セグメントの記述子は、そのセグメントを形成する複数の測定値の関数である。ローカライザを使用して、フレームベース重ね合わせを用いて、センサによって取得されたフレームの少なくともいくつかのキーポイントを静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、フレーム内の少なくともいくつかのセグメントを物体マップ内のセグメントと重ね合わせる。マッパは、各セグメントを形成するキーポイントと、セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各物体マップを更新し、静的マップと重ね合わせられるキーポイントを用いて、フレーム内の残りのキーポイントによって静的マップを更新する。
本開示の一実施形態によれば、イメージングシステムは、静的物体及び動的物体を含むシーンの位置特定及びマッピングに関する。センサは、センサデータを取得する。データは一連のフレームを含み、各フレームは、そのシーンの輝度及び奥行測定値を表す1組のキーポイントを含む。メモリは、シーン内の1つ又は複数の静的物体の静的マップ及びシーン内の各動的物体の物体マップを記憶する。静的マップは1組のランドマークを含む。物体マップは1組のセグメントを含み、各セグメントの記述子は、セグメントを形成する複数の測定値の関数である。イメージングシステムは、メモリ及びセンサと通信するプロセッサを備える。プロセッサは、フレームベース重ね合わせを用いて、センサによって取得されたフレームの少なくともいくつかのキーポイントを静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、フレーム内の少なくともいくつかのセグメントを物体マップ内のセグメントと重ね合わせるローカライザを利用するように構成される。ランドマークは、シーン内の物体上の特定の識別点に対応する。マッパは、各セグメントを形成するキーポイントと、セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各物体マップを更新し、静的マップと重ね合わせられるキーポイントを用いて、フレーム内の残りのキーポイントによって静的マップを更新する。
本開示の一実施形態によれば、イメージングシステムは、静的物体及び動的物体を含むシーンの位置特定及びマッピングに関する。そのイメージングシステムは、一連のフレームを取得するセンサを備えるイメージングシステムであり、各フレームは、そのシーンの輝度及び奥行測定値を表す1組のキーポイントを含む。メモリは、シーン内の1つ又は複数の静的物体の静的マップ及びシーン内の各動的物体の物体マップを記憶する。静的マップは1組のランドマークを含む。物体マップは1組のセグメントを含み、各セグメントの記述子は、セグメントを形成する複数の測定値の関数である。センサ及びメモリと通信するプロセッサは、フレームベース重ね合わせを用いて、センサによって取得されたフレームの少なくともいくつかのキーポイントを静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、フレーム内の少なくともいくつかのセグメントを物体マップ内のセグメントと重ね合わせるローカライザを利用するように構成される。マッパは、各セグメントを形成するキーポイントと、セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各物体マップを更新し、静的マップと重ね合わせられるキーポイントを用いて、フレーム内の残りのキーポイントによって静的マップを更新する。
更なる特徴及び利点は、以下の詳細な説明を添付図面とともに取り入れると、この詳細な説明からより容易に明らかになる。
ここに開示されている実施形態は、添付図面を参照して更に説明される。示されている図面は、必ずしも一律の縮尺というわけではなく、その代わり、一般的に、ここに開示されている実施形態の原理を示すことに強調が置かれている。
本開示の実施形態による、イメージングシステムのブロック図である。 本開示の一実施形態による、一連のフレームにおいてシーンを含む、図1Aのイメージングシステムのブロック図である。 本開示の実施形態による、図1Bのイメージングシステムのブロック図内のシーンの一連のフレームを示す図である。 本開示の実施形態による、イメージングシステムのローカライザ及びマッパモジュールの態様を詳述する、イメージングシステム100Bのブロック図である。 本開示の実施形態による、物体マップ及びSLAMマップを使用する階層的特徴グループ分けの概略図である。 本開示の実施形態による、特徴の静的領域及び物体領域への分類を示す概略図である。 本開示の実施形態による、特徴の静的領域及び物体領域への分類を示す概略図である。 本開示の実施形態による、特徴の静的領域及び物体領域への分類を示す概略図である。 本開示の実施形態による、特徴の静的領域及び物体領域への分類を示す概略図である。 本開示の実施形態による、イメージングシステムのフレームベース重ね合わせのブロック図である。 本開示の実施形態による、イメージングシステムのセグメントベース重ね合わせのブロック図である。 本開示の実施形態による、代替のコンピュータ又はコントローラを用いて実施することができる、図1Aの方法を示すブロック図である。
以下の説明は、例示的な実施形態のみを提供し、本開示の範囲も、適用範囲も、構成も限定することを意図していない。そうではなく、例示的な実施形態の以下の説明は1つ以上の例示的な実施形態を実施することを可能にする説明を当業者に提供する。添付の特許請求の範囲に明記されているような開示された主題の趣旨及び範囲から逸脱することなく要素の機能及び配置に行うことができる様々な変更が意図されている。以下の説明では、実施形態の十分な理解を提供するために、具体的な詳細が与えられる。しかしながら、当業者は、これらの具体的な詳細がなくても実施形態を実施することができることを理解することができる。例えば、開示された主題におけるシステム、プロセス、及び他の要素は、実施形態を不必要な詳細で不明瞭にしないように、ブロック図形式の構成要素として示される場合がある。それ以外の場合において、よく知られたプロセス、構造、及び技法は、実施形態を不明瞭にしないように不必要な詳細なしで示される場合がある。さらに、様々な図面における同様の参照符号及び名称は、同様の要素を示す。
また、個々の実施形態は、フローチャート、フロー図、データフロー図、構造図、又はブロック図として描かれるプロセスとして説明される場合がある。フローチャートは、動作を逐次的なプロセスとして説明することができるが、これらの動作の多くは、並列又は同時に実行することができる。加えて、これらの動作の順序は、再配列することができる。プロセスは、その動作が完了したときに終了することができるが、論述されない又は図に含まれない追加のステップを有する場合がある。さらに、特に説明される任意のプロセスにおける全ての動作が全ての実施形態において行われ得るとは限らない。プロセスは、方法、関数、手順、サブルーチン、サブプログラム等に対応することができる。プロセスが関数に対応するとき、その関数の終了は、呼び出し側関数又はメイン関数へのその機能の復帰に対応することができる。
さらに、開示された主題の実施形態は、少なくとも一部は手動又は自動のいずれかで実施することができる。手動実施又は自動実施は、マシン、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はそれらの任意の組み合わせを用いて実行することもできるし、少なくとも援助することができる。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実施されるとき、必要なタスクを実行するプログラムコード又はプログラムコードセグメントは、マシン可読媒体に記憶することができる。プロセッサ(複数の場合もある)が、それらの必要なタスクを実行することができる。
概略
本開示の実施形態は、シーン内の静的物体の同時位置特定及びマッピング(SLAM)、並びにシーン内で移動している物体の検出及び追跡に適した、動的物体及び静的物体の同時再構成のシステム及び方法を提供する。
本開示は、本発明のシステム及び方法が、シーン内の静的領域及び動的物体、すなわち、剛体移動物体の同時3次元(3D)再構成を提供するという理解に基づく。本開示は、静止物体及び移動物体がいずれもシーン理解に対するポジ情報であるので、同時位置特定及びマッピング(SLAM)及び移動物体追跡が、互いに有利に働く可能性があるという理解に基づく。具体的には、本開示は、静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するスパース特徴ベースSLAMシステムを提供する。スパース特徴ベースSLAMは、シーン内のキーポイント、すなわち、対象点を含み、それにより、数ある利点の中でも、スパース特徴ベースSLAMシステムを実行するプロセッサにかかる計算負荷及び記憶負荷を軽減することができる。そのようなスパース特徴ベースSLAMは、シーン内の1つ又は複数の静的物体の静的マップ、及びシーン内の各動的物体の物体マップ(モデル)を同時に生成する必要がある。
本開示のいくつかの実施形態は最初に、単一のマップから開始し、静的マップと呼ばれる、このマップに対して各フレームの位置を特定する。静的マップに対するフレーム位置特定後に、高い外れ値比を有する1組のセグメントとして移動物体を検出することができる。動的セグメント測定値内に入る特徴を検出した後に、物体マップと呼ばれる、剛体移動物体、すなわち、動的物体を表す新たなマップを初期化する。後続の観測において、各フレームが静的マップ及び物体マップの両方に対して重ね合わせられる。これらの重ね合わせから生じる正常値に基づいて、物体に属する特徴及び静的領域に属する特徴を区別する。
本開示は、動的領域及び静的領域に由来する特徴を区別するために使用されるマルチステージ幾何学的検証手法に基づく。具体的には、物体を表現するために特徴グループ分けを使用する。本開示のSLAMフレームワークにおいて、キーフレームは、特徴の集合として扱われ、物体はセグメントの集合と見なされ、セグメントはキーフレームからの特徴のサブセットである。その場合に、マルチステージ重ね合わせ方式は、各マップに対する、フレームの全ての特徴、及び特徴の種々のサブセットの重ね合わせを検討する。最初に、全ての測定値が静的マップに対して重ね合わせられ、結果として、フレーム内の支配的な運動パターンが見つけられ、一方、小さい移動物体の位置特定は見逃される可能性がある。その後、第2のステージにおいて、セグメントベース重ね合わせ手順が進められ、物体マップに対してセグメント内に入る特徴が重ね合わせられる。特徴の分類は重ね合わせによって決まるので、よりロバストな重ね合わせのために、正確な姿勢推定値及び複数のステージにおける幾何学的検証の実行の必要性が生じる。
本開示の少なくとも1つの重要な利点は、静的環境をマッピングしながら、同時に、物体モデルをその場合で生成することである。子供が他人を観察することによって物体をモデル化し、操作するのを学習するのと同様に、本開示は、物体の運動に基づいて、物体モデル及び静的シーンマップの両方を同時に学習する。
本開示の一実施形態は、一連のフレームを取得するセンサを含み、各フレームは、そのシーンの輝度及び奥行測定値を表す1組のキーポイントを含む。メモリは、シーン内の1つ又は複数の静的物体の静的マップ及びシーン内の各動的物体の物体マップを記憶する。その場合に、静的マップは1組のランドマークを含み、物体マップは1組のランドマーク及び1組のセグメントを含み、各セグメントの記述子は、そのセグメントを形成する複数の測定値の関数である。ローカライザを使用して、フレームベース重ね合わせを用いて、センサによって取得されたフレームの少なくともいくつかのキーポイントを静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、フレーム内の少なくともいくつかのセグメントを物体マップ内のセグメントと重ね合わせる。マッパは、各セグメントを形成するキーポイントと、セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各物体マップを更新し、静的マップと重ね合わせられるキーポイントを用いて、フレーム内の残りのキーポイントによって静的マップを更新する。
図1Aは、本開示の一実施形態による、イメージングシステムのブロック図である。イメージングシステム100Aは、シーン121の一連のフレーム195を取得するセンサ122を備える。各フレームは、シーン121の輝度及び奥行測定値を表す1組のキーポイントを含む。メモリ130は、シーン121内の1つ又は複数の静的物体の静的マップ105及びシーン内の各動的物体の物体マップ107を記憶する。静的マップ105は1組のランドマークを含み、物体マップ107は1組のセグメントを含み、各セグメントの記述子は、そのセグメントを形成する複数の測定値の関数である。マッパ126は、フレームベース重ね合わせを用いて、センサ122によって取得されたフレームの少なくともいくつかのキーポイントを静的マップ105内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、フレーム内の少なくともいくつかのセグメントを物体マップ107内のセグメントと重ね合わせるローカライザ124。各セグメントを形成するキーポイントと、セグメントベース重ね合わせに従って対応する物体マップ107と重ね合わせられるキーポイントとによって各物体マップ107を更新し、静的マップ105と重ね合わせられるキーポイントを用いて、フレーム内の残りのキーポイントによって静的マップ105を更新する。
図1Bは、本開示の一実施形態による、一連のフレームにおいてシーンを含む、図1Aのイメージングシステムのブロック図である。図1Bは、センサ122によってシーン121から取り込まれた一連のフレーム195を示す。一連のフレーム195はプロセッサ128に入力され、位置特定124及びマッピング126のシステムによって処理され、プロセッサはメモリ130と通信する。システム100Aは、シーン121の静的領域及び動的物体に由来する特徴を区別するのに成功することができ、その後、静的マップ105及び物体マップ107をそれぞれ出力することができる。
図1Cは、本開示による、図1Bのイメージングシステムのブロック図内のシーンの一連のフレームを示す。図1B及び図1Cを参照すると、各フレームはシーン121内の物体を示し、物体のうちのいくつかを用いて、フレームの測定値を規定するために使用される特徴の集合(すなわち、3D平面及び点)を取得することができる。例えば、フレーム1及び2は、テーブルの表面1A、1B、上段の棚の表面2A、2B、下段の棚の表面3A、3B、第1の箱4A、4B及び玩具5A、5B等のいくつかの物体を含み、第1の箱4A、4Bは玩具5A、5Bに接近している。フレーム3〜5は、上段の棚の表面2C、2D、2E上に位置する第2の箱6A、6B、6C、テーブルの表面1C、1D、1E上に位置する第3の箱7A、7B、7C及び下段の棚の表面3C、3D、3E上に位置する第4の箱8A、8B、8Cとともに、フレーム1及び2の同じ物体を含む。これらのフレームにおいて、玩具5A〜5Eは移動しており、図1Bのセンサは移動しているか、又は移動している場合がある。システムは、青色で塗りつぶして示されるような玩具5A〜5Eに属するセグメントを正確に識別した。物体運動は、特にフレーム4とフレーム5との間で急変しており、これらのフレームにおいて、玩具5Dはテーブル上にあり、その後、上段の棚の表面2Eに動かされた。
上記で言及されたように、点群上の領域成長手法後に、平面が抽出され、その後、平面が、平面方程式を用いて表される。点は、シーンの輝度及び奥行測定値によって表されるキーポイントとして抽出される。キーポイントは、それらの点のうちの1つを他の点から区別するのを助ける弁別的な特徴として現れる。シーンの各キーポイント輝度及び奥行測定値は、キーポイントの記述子を計算するために使用することができ、SIFT及びMSER法は、記述子抽出のために使用することができる。各キーポイントは、フレームの測定値と見なされ、それは、3Dロケーションと、関連するキーポイントの記述子とを用いて表される。イメージングシステム100Aは、シーン121内の1つ又は複数の静的物体の静的マップ105を記憶するメモリ130を備える。
図1B及び図1Cを引き続き参照すると、例えば、記憶された静的マップ105のシーン121内の1つ又は複数の静的物体は、非限定的な例として、テーブルの表面1A〜1E、棚の構造的特徴(すなわち、上段の棚の表面2A〜2E、下段の棚の表面3A〜3E等)、第1の箱4A〜4E、第2の箱6A〜6C、第3の箱7A〜7C及び第4の箱8A〜8Cを含むことができる。静的マップ105は1組のランドマークを含む。ランドマークは世界内の特定の点であり、異なるフレームに由来する測定値の集合として表される。言い換えると、静的マップ105内のランドマークは、種々の視点から複数のフレームによって視認することができる。
また、メモリ130は、シーン121内の各動的物体の物体マップ107を記憶することができ、動的物体の少なくとも1つの例は玩具5A〜5Eを含むことができる。さらに、メモリ130は1組のセグメントを有する物体マップ107を含み、各セグメントの記述子は、セグメントを形成する複数の測定値の関数である。ここで、1組のセグメントは、非限定的な例として、テーブルの構造的特徴(すなわち、テーブルの表面1A〜1E等)、棚の構造的特徴(すなわち、上段の棚の表面2A〜2E、下段の棚の表面3A〜3E等)、第1の箱4A〜4Eの構造的特徴、第2の箱6A〜6Cの構造的特徴、第3の箱7A〜7Cの構造的特徴及び第4の箱8A〜8Cの構造的特徴等の空間的にコヒーレントな領域と理解される。また、各セグメントの記述子は、そのセグメントに入るキーポイント記述子の集合体と定義することができ、方法として、局所集約記述子ベクトル(VLAD)を使用することができる。
図1Dは、本開示の実施形態による、イメージングシステムのローカライザ及びマッパモジュールの態様を詳述する、イメージングシステム100Bのブロック図を示す。ローカライザ124は、フレームベースステップ127及びセグメントベース重ね合わせステップ129のステップから構成することができる。例えば、ローカライザを用いて、フレームベース重ね合わせ127を使用することによって、センサによって取得されたフレームの少なくともいくつかの測定値を静的マップ内のランドマークと重ね合わせることができる。また、ローカライザは、セグメントベース重ね合わせ129を用いて、フレーム内の少なくともいくつかセグメントを物体マップ内のセグメントと重ね合わせる。フレームベース重ね合わせ127は、最初に、フレーム内で見つけられた全ての測定値をマップ内のランドマークと照合し、第二に、ランダムサンプルコンセンサス(RANSAC)フレームワークに従って、照合対間の変化を見つけることであると説明することができる。さらに、セグメントベース重ね合わせ129は、最初に、外観類似性探索(すなわち、VLAD)を用いてフレーム内のセグメントをマップ内のセグメントと照合し、第二に、セグメントの測定値をマップからの照合セグメントのランドマークと照合し、第三に、RANSACフレームワークに従って照合対間の変化を見つけることであると規定することができる。照合プロセスにおいて雑音が存在する場合があるので、RANSAC手順は、計算された変化に基づいて、どの照合が正確であると見なされるかを出力する。したがって、その手順は、フレームの測定値とマップのランドマークとの対応を与える。
図1Dを引き続き参照すると、次に、マッパ126が、ローカライザ124の出力を用いて、最初に、測定値を静的領域及び動的領域に分類することができる(133)。次のステップは、新たな移動物体を検出することを含むことができる(135)。いかなるマップにも関連付けられない特徴に関して、ローカライザ124は、セグメントあたりの静的マップ105に伴う外れ値の数に基づいて、新たな移動物体を探索する。新たな移動物体が見つけられた場合には(yes)(137)、新たな物体マップ107が初期化される。最後に、測定値分類及び新たな物体検出結果に基づいて、全てのマップを更新するために、マップ更新に関するステップ139が実行される。
言い換えると、マッパ126は最初に、測定値が静的マップ105に追加されるか、物体マップ107に追加されるかを判断し、マッパ126は、第二に、それに基づいて、各マップを更新する。より具体的には、最初のステップにおいて、測定値が物体マップのセグメントと照合されるセグメント内に入る場合には、又は測定値が物体マップのランドマークに対応すると見なされる場合には、その測定値は物体マップ107に関連付けられる。そうでない場合には、キーポイントは静的マップ105に関連付けられる。次に、最初のステップの結果として、各マップに関連付けられる全てのキーポイントによって各マップが更新される。マップ更新中に、測定値がマップのランドマークに関連付けられる場合には、その測定値は照合ランドマークに付加され、そうでない場合には、その測定値はマップに新たなランドマークとして追加される。それゆえ、この手順は、既存のランドマップを改善し、マップに新たなランドマークも追加する。
図2は、本開示の実施形態による、物体マップ及びSLAMマップを使用する階層的特徴グループ分けの概略図である。具体的には、図2は、本開示の実施形態による、セグメントを生成するための特徴グループ分け手法を示す。SLAMマップ110は、1組の重ね合わせられたキーフレーム115を記憶し、キーフレームはそれぞれが1組の特徴221に関連付けられる。本開示は、セグメント241に基づく別の階層を用いて、物体を表す。セグメントはキーフレーム内の特徴221のサブセットを含み、物体マップ107は1組の重ね合わせられたセグメントを含む。本システムにおいて、セグメントは、奥行ベースセグメント化によって生成することができる。
図3A〜図3Dは、本開示による、特徴の静的領域及び物体領域への分類を示す概略図である。図3Aに示されるように、現在のフレームから特徴が抽出され、特徴は、平面、3D点及び2D点からなる。箱の側面においてセグメントが生成され、seg_a、seg_b及びseg_cと呼ばれる。特徴分類は、図3Bに示されるように、フレームとマップランドマークとの間の特徴の関連付けを与える。セグメントseg_a、seg_b及びseg_cは、物体マップに対する照合セグメントと見なされる。図3Cに示されるように、静的マップのランドマークに関連付けられる特徴が静的マップに追加される。実線は、静的マップ内の既存の対応するランドマークに付加される特徴を示す。破線は、静的マップ及び物体マップの両方に対する特徴の一致を示し、特徴が物体マップに一致するセグメント内にあるので、マッパは物体マップを選択することに決め、その特徴を物体マップに追加した。いかなるランドマークにも一致しないが、静的マップ301D、302D、303D、304Dに関連付けられると見なされる特徴は、新たなランドマークとして、図3Cの静的マップに追加される。図3Dは、物体マップのためのマップ更新を示す。実線で示されるように、物体マップの対応するランドマークに照合特徴が追加される。破線は、フレームと物体マップとの間の誤った一致を示し、その特徴は照合用セグメントの外部にあることがわかるので、静的マップに正確に追加された。既存のランドマークに一致しないが、物体マップ301F、302Fに関連付けられると見なされる特徴は、図3Dに示されるように、新たなランドマークとして物体マップに追加される。
本開示は、マッパによって実行される測定値分類に関するアルゴリズムを組み込む。例えば、アルゴリズム1はフレーム内に測定値を含み、測定値はmとして表される。Istatic及びIobjectは、ローカライザの結果として、測定値が静的マップに関連付けられると見なされるか、物体マップに関連付けられると見なされるかの指示関数を表す。Sobject(m)は、測定値が照合セグメント内にあるか否かを示す。測定値mが照合セグメント内にある場合には、又は物体マップに関連付けられると見なされる場合には、その測定値mは物体マップに追加される。そうでない場合には、その測定値は静的マップに追加される。アルゴリズム1が開示される。
Figure 0006976350
図4Aは、本開示の実施形態による、イメージングシステムのフレームベース重ね合わせのブロック図である。センサ122が、シーン121のフレームを取り込み、そのプロセスは、取得されたフレーム403から抽出された特徴425を使用する。フレームベース重ね合わせ400は2つのステージからなる。最初に、特徴がマップのランドマークと照合される(460)。第二に、フレームを物体マップに重ね合わせるために、それらの照合がRANSACフレームワークにおいて利用される(465)。RANSACが成功した場合には(470)、重ね合わせは、推定姿勢と、測定値−ランドマーク関連付けとをもたらす(480)。そうでない場合には、フレームが破棄される(475)。第1のステージにおいて与えられる一致は雑音を含む可能性があるので、RANSAC手順が、誤った一致を判断することができ、結果としてフレーム403とマップ140との間の正確な測定値−ランドマーク関連付け480が与えられることに留意されたい。
図4Bは、本開示の実施形態による、図4Aのイメージングシステムのセグメントベース重ね合わせのブロック図である。センサ122がシーン121のフレーム403を取り込み、そのプロセスは、取得されたフレーム403から抽出された特徴421及びセグメント441を使用する。セグメントごとに、システムは最初に、物体マップ140内のセグメントに対して外観類似性探索460を実行する。一致するセグメント466が存在した場合には、結果として幾何学的検証が行われ、フレームセグメントが、RANSACフレームワークに従って、物体マップの照合セグメントと重ね合わせられる(470)。RANSACが成功した場合には(475)、結果として生じる姿勢は予測と見なされ、予測ベース位置特定手順によって精緻化される(485)。より具体的には、RANSACによる予測姿勢及び位置特定に基づいて、物体マップ140の全てのランドマークがフレーム403の全ての特徴421に対して照合される。この精緻化485は、位置特定中に、マップ140の全てのランドマーク及びフレーム403の全ての特徴が検討されるのを確実にする。最後に、セグメントベース重ね合わせが、計算された姿勢及び測定値−ランドマーク関連付け490を出力する。
特徴
本開示のイメージングシステムの態様は、フレームから特徴を抽出することと、フレームを複数のセグメントにセグメント化することであって、各セグメントはフレームから抽出された複数の特徴を含む、セグメント化することと、物体マップにおいて、フレーム内のセグメントに類似のセグメントを探索することと、フレーム内のセグメントを物体マップ内の照合セグメントと重ね合わせることとを行うように構成されるローカライザを含むことができる。探索は、局所集約記述子ベクトル(VLAD)に基づくことができる。フレームは奥行ベースセグメント化によってセグメント化される。特徴は記述子に関連付けることができる。ランドマークはシーン内の物体上の特定の識別点に対応する。セグメントはランダムサンプルコンセンサス(RANSAC)を用いて重ね合わせられる。探索は外観ベース類似性探索である。
本開示のイメージングシステムの別の態様は、フレーム内のセグメントと、物体マップ内のセグメントとの外観照合を実行し、照合セグメント間の幾何学的検証を実行するセグメントベース重ね合わせも含むことができる。さらに、一態様は、1つ以上のセグメントの全てのキーポイントを、セグメントが重ね合わせられた物体マップに追加するように構成されるマッパを含むことができる。一態様は、キーポイントが物体マップのランドマークとの対応を有する場合には、位置特定に基づいてキーポイントを物体マップに追加し、そうでない場合には、キーポイントを静的マップに追加するように更に構成されるマッパを含むことができる。
別の態様は、物体マップに基づいて、動的物体を操作するためのロボットアームを含むマニピュレータを含むことができる。またさらに、センサは、赤色、緑色、青色及び奥行(RGB−D)画像データを取得することができる3次元(3D)センサ、又は輝度及び奥行から構成される画像データを取得することができる他のセンサのうちの1つからなる群からのものとすることができる。
図5は、本開示の実施形態による、代替のコンピュータ又はプロセッサを用いて実施することができる、図1Aの方法を示すブロック図である。コンピュータ511は、プロセッサ540と、コンピュータ可読メモリ512と、記憶装置558と、ディスプレイ552及びキーボード551とのユーザインターフェース549とを備え、これらは、バス556を通じて接続されている。例えば、プロセッサ540及びコンピュータ可読メモリ512と通信するユーザインターフェース549は、ユーザによるユーザ入力インターフェース557の表面、キーボード表面からの入力を受信すると、測定データを入手し、コンピュータ可読メモリ512内に記憶する。
メモリ512は、プロセッサによって実行可能な命令と、履歴データと、本開示の方法及びシステムによって利用することができる任意のデータとを記憶することができることが意図されている。プロセッサ540は、シングルコアプロセッサ、マルチコアプロセッサ、コンピューティングクラスター、又は任意の数の他の構成体とすることができる。プロセッサ540は、バス556を通じて1つ以上の入力デバイス及び出力デバイスに接続することができる。メモリ512は、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリ、又は他の任意の適したメモリシステムを含むことができる。
図5を引き続き参照すると、記憶装置558は、プロセッサによって用いられる補助データ及び/又はソフトウェアモジュールを記憶するように構成することができる。例えば、記憶装置558は、履歴デバイスデータと、デバイスのマニュアル等の他の関連したデバイスデータとを記憶することができ、デバイスは、本開示に関して上述したような測定データを取得することが可能な検知デバイスである。加えて又は代替的に、記憶装置558は、測定データと同様の履歴データを記憶することができる。記憶装置558は、ハードドライブ、光ドライブ、サムドライブ、ドライブのアレイ、又はそれらの任意の組み合わせを含むことができる。
システムは、任意選択で、バス556を通じて、システムをディスプレイデバイス(図示せず)に接続するように構成されたディスプレイインターフェース(図示せず)にリンクすることができ、ディスプレイデバイスは、とりわけ、コンピュータモニタ、カメラ、テレビ、プロジェクター、又はモバイルデバイスを含むことができる。
コンピュータ511は、用途に応じて、電力源554を備えることができ、電力源554は、任意選択でコンピュータ511の外部に配置されてもよい。バス556を通じて、ディスプレイデバイス548に接続するように構成されたユーザ入力インターフェース557をリンクすることができ、ディスプレイデバイス548は、とりわけ、コンピュータモニタ、カメラ、テレビ、プロジェクター、又はモバイルデバイスを含むことができる。プリンタインターフェース559も、バス556を通じて接続することができ、印刷デバイス532に接続するように構成することができる。印刷デバイス532は、とりわけ、液体インクジェットプリンタ、固体インクプリンタ、大規模商用プリンタ、感熱式プリンタ、UVプリンタ、又は昇華型プリンタを含むことができる。ネットワークインターフェースコントローラ(NIC)534は、バス556を通じてネットワーク536に接続するように構成され、とりわけ、測定データ又は他のデータは、コンピュータ511の外部の第三者ディスプレイデバイス、第三者画像デバイス、及び/又は第三者印刷デバイス上にレンダリングすることができる。
図5を引き続き参照すると、とりわけ、測定データ又は他のデータは、ネットワーク536の通信チャネルを介して送信することができ、及び/又は、記憶及び/又は更なる処理のために記憶装置558内に記憶することができる。さらに、測定データ又は他のデータは、受信機546(又は外部受信機538)から無線又は配線接続で受信することもできるし、送信機547(又は外部送信機539)を介して無線又は配線接続で送信することもでき、受信機546及び送信機547は、ともにバス556を通じて接続されている。コンピュータ511は、入力インターフェース508を介して外部検知デバイス544及び外部入力/出力デバイス541に接続することができる。コンピュータ511は、他の外部コンピュータ542に接続することができる。出力インターフェース509は、プロセッサ540からの処理データを出力するのに用いることができる。
上述した本開示の実施形態は、数多くの方法のうちの任意のもので実施することができる。例えば、実施形態は、ハードウェア、ソフトウェア又はそれらの組み合わせを用いて実施することができる。請求項の要素を修飾する、特許請求の範囲における「第1」、「第2」等の序数の使用は、それ自体で、1つの請求項の要素の別の請求項の要素に対する優先順位も、優位性も、順序も暗示するものでもなければ、方法の動作が実行される時間的な順序も暗示するものでもなく、請求項の要素を区別するために、単に、或る特定の名称を有する1つの請求項の要素を、同じ(序数の用語の使用を除く)名称を有する別の要素と区別するラベルとして用いられているにすぎない。

Claims (17)

  1. 静的物体及び動的物体を含む、シーンの位置特定及びマッピングに関するイメージングシステムであって、
    一連のフレームを取得するセンサであって、各フレームは前記シーンの輝度及び奥行測定値を表す1組のキーポイントを含む、センサと、
    前記シーン内の1つ又は複数の静的物体の静的マップ及び前記シーン内の各動的物体の物体マップを記憶するメモリであって、前記静的マップは1組のランドマークを含み、前記物体マップは1組のランドマーク及び1組のセグメントを含み、各前記セグメントの記述子は前記セグメントを形成する複数の測定値の関数である、メモリと、
    フレームベース重ね合わせを用いて、前記センサによって取得された前記フレームの少なくともいくつかのキーポイントを前記静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、前記フレーム内の少なくともいくつかのセグメントを前記物体マップ内のセグメントと重ね合わせるローカライザと、
    各前記セグメントを形成するキーポイントと、前記セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各前記物体マップを更新し、前記静的マップと重ね合わせられる前記キーポイントを用いて、前記フレーム内の残りのキーポイントによって前記静的マップを更新するマッパと、
    を備え、
    前記セグメントベース重ね合わせは、前記フレーム内のセグメントと、前記物体マップ内の前記セグメントとの外観照合を実行し、照合セグメント間の幾何学的検証を実行し、
    前記マッパは、キーポイントが前記物体マップの前記ランドマークとの対応を有する場合には、前記位置特定に基づいて前記キーポイントを前記物体マップに追加し、そうでない場合には、前記キーポイントを前記静的マップに追加するように更に構成される、
    イメージングシステム。
  2. 前記ローカライザは、前記フレームから特徴を抽出することと、
    前記フレームを複数のセグメントにセグメント化することであって、各前記セグメントは前記フレームから抽出された複数の特徴を含む、セグメント化することと、
    前記物体マップにおいて、前記フレーム内の前記セグメントに類似のセグメントを探索することと、
    前記フレーム内のセグメントを前記物体マップ内の照合セグメントと重ね合わせることと、
    を行うように構成される、請求項1に記載のイメージングシステム。
  3. 前記探索は、局所集約記述子ベクトル(VLAD)に基づく、請求項2に記載のイメージングシステム。
  4. 前記フレームは奥行ベースセグメント化によってセグメント化される、請求項2に記載のイメージングシステム。
  5. 前記特徴は記述子に関連付けられる、請求項2に記載のイメージングシステム。
  6. 前記ランドマークは前記シーン内の物体上の特定の識別点に対応する、請求項2に記載のイメージングシステム。
  7. 前記セグメントはランダムサンプルコンセンサス(RANSAC)を用いて重ね合わせられる、請求項2に記載のイメージングシステム。
  8. 前記探索は外観ベース類似性探索である、請求項2に記載のイメージングシステム。
  9. 前記マッパは、1つ以上のセグメントの全てのキーポイントを、前記セグメントが重ね合わせられた前記物体マップに追加するように構成される、請求項1に記載のイメージングシステム。
  10. 前記物体マップに基づいて、前記動的物体を操作するためのロボットアームを含むマニピュレータを更に備える、請求項1に記載のイメージングシステム。
  11. 前記センサは、運動中又は静止中に、赤色、緑色、青色及び奥行(RGB−D)画像データを取得することができる3次元(3D)センサ、又は輝度及び奥行から構成される画像データを取得することができる他のセンサのうちの1つからなる群から、前記一連のフレームを取得する、請求項1に記載のイメージングシステム。
  12. 静的物体及び動的物体を含む、シーンの位置特定及びマッピングに関するイメージングシステムであって、運動中にセンサがセンサデータを取得し、前記センサデータは一連のフレームを含み、各フレームは前記シーンの輝度及び奥行測定値を表す1組のキーポイントを含み、メモリが前記シーン内の1つ又は複数の静的物体の静的マップと、前記シーン内の各動的物体の物体マップとを記憶し、前記静的マップは1組のランドマークを含み、前記物体マップは1組のセグメントを含み、各前記セグメントの記述子は、前記セグメントを形成する複数の測定値の関数であり、前記イメージングシステムは、
    前記メモリと通信するプロセッサであって、前記プロセッサは、フレームベース重ね合わせを用いて、前記センサによって取得された前記フレームの少なくともいくつかのキーポイントを前記静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、前記フレーム内の少なくともいくつかのセグメントを前記物体マップ内のセグメントと重ね合わせるローカライザを利用するように構成され、前記ランドマークは前記シーン内の物体上の特定の識別点に対応する、プロセッサと、
    各前記セグメントを形成するキーポイントと、前記セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各前記物体マップを更新し、前記静的マップと重ね合わせられる前記キーポイントを用いて、前記フレーム内の残りのキーポイントによって前記静的マップを更新するマッパと、
    を備え、
    前記セグメントベース重ね合わせは、前記フレーム内のセグメントと、前記物体マップ内の前記セグメントとの外観照合を実行し、照合セグメント間の幾何学的検証を実行し、
    前記マッパは、キーポイントが前記物体マップの前記ランドマークとの対応を有する場合には、前記位置特定に基づいて、前記キーポイントを前記物体マップに追加し、そうでない場合には、前記キーポイントを前記静的マップに追加するように構成される、
    イメージングシステム。
  13. 前記ローカライザは、前記フレームから特徴を抽出することと、
    前記フレームを複数のセグメントにセグメント化することであって、各前記セグメントは前記フレームから抽出された複数の特徴を含む、セグメント化することと、
    前記物体マップにおいて、前記フレーム内の前記セグメントに類似のセグメントを探索することと、
    前記フレーム内のセグメントを前記物体マップ内の照合セグメントと重ね合わせることと、
    を行うように構成される、請求項12に記載のイメージングシステム。
  14. 前記マッパは、1つ以上のセグメントの全てのキーポイントを、前記セグメントが重ね合わせられた前記物体マップに追加するように構成される、請求項12に記載のイメージングシステム。
  15. 静的物体及び動的物体を含む、シーンの位置特定及びマッピングに関するイメージングシステムであって、
    運動中又は静止中にセンサデータを取得するセンサであって、前記センサデータは一連のフレームを含み、各フレームは、前記シーンの輝度及び奥行測定値を表す1組のキーポイントを含む、センサと、
    入力インターフェースを介して、前記シーン内の1つ又は複数の静的物体の静的マップと、前記シーン内の各動的物体の物体マップとを記憶するメモリであって、前記静的マップは1組のランドマークを含み、前記物体マップは1組のセグメントを含み、各前記セグメントの記述子は前記セグメントを形成する複数の測定値の関数であり、前記フレームの前記測定値は少なくとも3D平面を更に含む、メモリと、
    前記センサ、前記メモリ及び前記入力インターフェースと通信するプロセッサであって、前記プロセッサは、フレームベース重ね合わせを用いて、前記センサによって取得された前記フレームの少なくともいくつかのキーポイントを前記静的マップ内のランドマークと重ね合わせ、セグメントベース重ね合わせを用いて、前記フレーム内の少なくともいくつかのセグメントを前記物体マップ内のセグメントと重ね合わせるローカライザを利用するように構成される、プロセッサと、
    各前記セグメントを形成するキーポイントと、前記セグメントベース重ね合わせに従って対応する物体マップと重ね合わせられるキーポイントとによって各前記物体マップを更新し、前記静的マップと重ね合わせられる前記キーポイントを用いて、前記フレーム内の残りのキーポイントによって前記静的マップを更新するマッパと、
    を備え、
    前記セグメントベース重ね合わせは、前記フレーム内のセグメントと、前記物体マップ内の前記セグメントとの外観照合を実行し、照合セグメント間の幾何学的検証を実行し、
    前記マッパは、キーポイントが前記物体マップの前記ランドマークとの対応を有する場合には、前記位置特定に基づいて、前記キーポイントを前記物体マップに追加し、そうでない場合には、前記キーポイントを前記静的マップに追加するように構成される、
    イメージングシステム。
  16. 前記ローカライザは前記フレームから特徴を抽出することと、
    前記フレームを複数のセグメントにセグメント化することであって、各前記セグメントは前記フレームから抽出された複数の特徴を含む、セグメント化することと、
    前記物体マップにおいて、前記フレーム内の前記セグメントに類似のセグメントを探索することと、
    前記フレーム内のセグメントを前記物体マップ内の照合セグメントと重ね合わせることと、
    を行うように構成される、請求項15に記載のイメージングシステム。
  17. 前記マッパは、1つ以上のセグメントの全てのキーポイントを、前記セグメントが重ね合わせられた前記物体マップに追加するように構成される、請求項15に記載のイメージングシステム。
JP2019553594A 2017-08-11 2018-02-06 静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するイメージングシステム Active JP6976350B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/674,843 2017-08-11
US15/674,843 US10832078B2 (en) 2017-08-11 2017-08-11 Method and system for concurrent reconstruction of dynamic and static objects
PCT/JP2018/004759 WO2019030947A1 (en) 2017-08-11 2018-02-06 IMAGING SYSTEM FOR LOCATING AND MAPPING A SCENE COMPRISING STATIC AND DYNAMIC OBJECTS

Publications (2)

Publication Number Publication Date
JP2020512646A JP2020512646A (ja) 2020-04-23
JP6976350B2 true JP6976350B2 (ja) 2021-12-08

Family

ID=61563447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553594A Active JP6976350B2 (ja) 2017-08-11 2018-02-06 静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するイメージングシステム

Country Status (3)

Country Link
US (1) US10832078B2 (ja)
JP (1) JP6976350B2 (ja)
WO (1) WO2019030947A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019089018A1 (en) * 2017-10-31 2019-05-09 Hewlett-Packard Development Company, L.P. Mobile robots to generate reference maps for localization
WO2020081646A2 (en) * 2018-10-16 2020-04-23 Brain Corporation Systems and methods for persistent mapping of environmental parameters using a centralized cloud server and a robotic network
US10977480B2 (en) * 2019-03-27 2021-04-13 Mitsubishi Electric Research Laboratories, Inc. Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception
JP7379065B2 (ja) * 2019-10-08 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
CN112767409A (zh) * 2019-11-05 2021-05-07 珠海格力电器股份有限公司 定位前图像处理方法、装置、存储介质、计算机设备
EP4073690A4 (en) * 2019-12-12 2023-06-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. TARGET DETECTION METHOD, TERMINAL, AND MEDIUM
US11774593B2 (en) * 2019-12-27 2023-10-03 Automotive Research & Testing Center Method of simultaneous localization and mapping
WO2021164688A1 (en) * 2020-02-19 2021-08-26 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Methods for localization, electronic device and storage medium
US11580666B2 (en) * 2020-11-26 2023-02-14 Automotive Research & Testing Center Localization and mapping method and moving apparatus
KR102624907B1 (ko) * 2022-07-18 2024-01-15 주식회사 브이알크루 3차원 지도를 업데이트하기 위한 방법 및 장치
GB2621325A (en) * 2022-08-04 2024-02-14 Continental Autonomous Mobility Germany GmbH Method and system for generating a map and the localization of an ego-vehicle

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6049619A (en) 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
KR101572851B1 (ko) 2008-12-22 2015-11-30 삼성전자 주식회사 동적 환경에서 모바일 플랫폼의 지도 작성방법
EP2619742B1 (en) * 2010-09-24 2018-02-28 iRobot Corporation Systems and methods for vslam optimization
US10027952B2 (en) * 2011-08-04 2018-07-17 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
US8880340B2 (en) * 2013-01-04 2014-11-04 The Boeing Company Augmented mobile platform localization
US11051000B2 (en) * 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
US20160071318A1 (en) 2014-09-10 2016-03-10 Vangogh Imaging, Inc. Real-Time Dynamic Three-Dimensional Adaptive Object Recognition and Model Reconstruction
EP3221845A1 (en) * 2014-11-21 2017-09-27 Metaio GmbH Method and system for determining spatial coordinates of a 3d reconstruction of at least part of a real object at absolute spatial scale
US9460513B1 (en) 2015-06-17 2016-10-04 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras
US10573018B2 (en) * 2016-07-13 2020-02-25 Intel Corporation Three dimensional scene reconstruction based on contextual analysis
US10482619B2 (en) * 2017-07-27 2019-11-19 AI Incorporated Method and apparatus for combining data to construct a floor plan

Also Published As

Publication number Publication date
WO2019030947A1 (en) 2019-02-14
JP2020512646A (ja) 2020-04-23
US20190050668A1 (en) 2019-02-14
US10832078B2 (en) 2020-11-10

Similar Documents

Publication Publication Date Title
JP6976350B2 (ja) 静的物体及び動的物体を含むシーンの位置特定及びマッピングに関するイメージングシステム
Walch et al. Image-based localization using lstms for structured feature correlation
JP6430064B2 (ja) データを位置合わせする方法及びシステム
US20170161546A1 (en) Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping
US11741701B2 (en) Autonomous task performance based on visual embeddings
CN113614784B (zh) 利用稀疏rgb-d slam和交互感知对对象进行检测、跟踪和三维建模
Maffra et al. Real-time wide-baseline place recognition using depth completion
Cheng et al. Robust semantic mapping in challenging environments
Zhang et al. Hand-held monocular SLAM based on line segments
EP3639192A1 (en) Computer vision-based thin object detection
Avraham et al. Empnet: Neural localisation and mapping using embedded memory points
Zhang et al. Dex-Net AR: Distributed deep grasp planning using a commodity cellphone and augmented reality app
Pershina et al. Methods of mobile robot visual navigation and environment mapping
US10977810B2 (en) Camera motion estimation
US20230100238A1 (en) Methods and systems for determining the 3d-locations, the local reference frames and the grasping patterns of grasping points of an object
Schwarz et al. Tracking planes with time of flight cameras and j-linkage
CN114972491A (zh) 视觉slam方法、电子设备、存储介质及产品
Liu et al. Building semantic maps for blind people to navigate at home
Zhang et al. Feature regions segmentation based RGB-D visual odometry in dynamic environment
Troutman et al. Registration and localization of unknown moving objects in monocular SLAM
Liang et al. Visual reconstruction and localization-based robust robotic 6-DoF grasping in the wild
Qian et al. An improved ORB-SLAM2 in dynamic scene with instance segmentation
Rashid et al. Lifelong LERF: Local 3D Semantic Inventory Monitoring Using FogROS2
Kaur et al. Creation and Implementation of Adaptive Algorithms For Visualization of Stereoscopic Face Mask
WO2024099593A1 (en) Localization based on neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R150 Certificate of patent or registration of utility model

Ref document number: 6976350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150