JP2019532433A - リアルタイムオンラインエゴモーション推定を有するレーザスキャナ - Google Patents

リアルタイムオンラインエゴモーション推定を有するレーザスキャナ Download PDF

Info

Publication number
JP2019532433A
JP2019532433A JP2019519657A JP2019519657A JP2019532433A JP 2019532433 A JP2019532433 A JP 2019532433A JP 2019519657 A JP2019519657 A JP 2019519657A JP 2019519657 A JP2019519657 A JP 2019519657A JP 2019532433 A JP2019532433 A JP 2019532433A
Authority
JP
Japan
Prior art keywords
points
data
scan
point
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019519657A
Other languages
English (en)
Inventor
ジー ジャン
ジー ジャン
サンジヴ シング
サンジヴ シング
ケヴィン ジョセフ ダウリング
ケヴィン ジョセフ ダウリング
Original Assignee
カールタ インコーポレイテッド
カールタ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2017/021120 external-priority patent/WO2017155970A1/en
Application filed by カールタ インコーポレイテッド, カールタ インコーポレイテッド filed Critical カールタ インコーポレイテッド
Publication of JP2019532433A publication Critical patent/JP2019532433A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

方法が、少なくとも地理空間座標に各々が帰する複数の点を含むLIDAR取得点群を含むデータセットにアクセスする段階と、複数の点の少なくとも一部分をサブサンプリングして複数の点の代表サンプルを導出する段階と、複数の点の代表サンプルを表示する段階とを含む。【選択図】図21

Description

〔優先権の表記〕
この出願は、2017年3月7日出願の「リアルタイムオンラインエゴモーション推定を有するレーザスキャナ」という名称のPCT出願番号PCT/US2017/021120に対する優先権を主張し、かつその一部継続出願である。この出願は、2016年10月11日出願の「リアルタイムオンラインエゴモーション推定を有するレーザスキャナ」という名称の米国仮特許出願第62/406,910号に対する優先権を更に主張するものである。PCT/US2017/021120及び米国仮出願第62/406,910号の両方の開示は、その全体が全ての目的に対して引用により本明細書に組み込まれている。
自律移動デバイスは、それがそこで作動する地形に関する情報を要求する場合がある。そのようなデバイスは、地形を提示する予め定められたマップ及びそこに見出される場合があるあらゆる障害物に頼る場合がある。これに代えて、デバイスは、リアルタイムデータを提供するために1又は2以上のセンサを備えたコンピュータベースのマッピングシステムを含む固定又は運動中のいずれかの間にその地形をマップする機能を有する場合がある。モバイルコンピュータベースマッピングシステムは、その位置の変化を経時的に推定する(オドメーター)及び/又は3次元空間の点群のような3次元マップ表現を発生させることができる。
例示的マッピングシステムは、マップをそこから構築することができるデータを提供する様々なセンサを含むことができる。一部のマッピングシステムは、1つのそのようなセンサとしてステレオカメラシステムを使用する場合がある。これらのシステムは、モーション推定のスケールを決定するために基準として2つのカメラの間のベースラインから恩恵を得ている。単眼システムは、追加のセンサからデータを受信する又はデバイスのモーションに関して仮定を行うことなしでは画像のスケールを分解することができない場合があるので、2眼システムが単眼システムよりも好ましい。近年では、RGB−Dカメラが研究分野で人気を得ている。そのようなカメラは、個々のピクセルに関連付けられた深度情報を提供することができ、従って、スケールの決定を助けることができる。しかし、RGB−Dカメラを含む一部の方法は、深度情報のカバレージを有する画像区域のみを使用する場合があり、これは、特に深度がスパースにのみ利用可能である可能性がある開放環境では大きい画像区域が浪費されることをもたらす場合がある。
マッピングシステムの他の例では、スケール制約をIMU加速から提供することができるようにIMUを1又は2以上のカメラに結合することができる。一部の例では、単眼カメラをカルマンフィルタによってIMUにきつく又は緩く結合することができる。他のマッピングシステムは、モバイルシステムのモーションに関して解くために最適化方法を使用する場合がある。
マッピングシステムの代替例は、モーション推定のためのレーザスキャナの使用を含むことができる。しかし、レーザの走査速度から、そのようなデータの使用の難しさが生じる場合がある。システムが移動している間は、固定位置レーザスキャナとは異なってレーザ点は、スキャナの相対移動によって影響を受ける。従って、この移動の影響は、異なる時間にシステムに到着するレーザ点の要因である場合がある。その結果、走査速度がマッピングシステムのモーションに対して遅い時は、レーザの外部モーションに起因して走査歪みが存在する場合がある。モーション効果は、レーザ自体によって補償することができるが、補償は、必要な補正を提供するための独立したモーションモデルを要求する場合がある。一例として、モーションは、一定速度として又はガウス過程としてモデル化することができる。一部の例では、IMUは、モーションモデルを提供することができる。そのような方法は、レーザ点群によって形成された空間−時間パッチを適合させてセンサモーションを推定し、かつオフラインバッチ最適化でIMUバイアスを補正する。
ローリングシャッターカメラの使用では、モーション歪みの類似の問題が見出される場合がある。具体的には、画像ピクセルが経時的に継続して受信される場合があり、カメラの外因性モーションによって引き起こされる画像歪みをもたらす。一部の例では、視覚的オドメトリ方法は、ピクセルの読み出し時間が与えられるとローリングシャッター効果を補償するためにIMUを使用することができる。
一部の例では、GPS/INS技術を使用してモバイルマッピングデバイスの位置を決定することができる。しかし、高精度GPS/INSソリューションは、用途がGPS拒否型、軽量、又は費用重視である時に実用的ではない場合がある。正確なGPSマッピングは、GPS受信機と少なくとも4つのGPS衛星(5が好ましいが)の間の見通し通信を要求することが認識されている。一部の環境では、例えば陸橋及び他の障害物を含む場合がある都会環境では、4つの衛星から歪みのない信号を受信することは困難であると考えられる。
「iSAM:区分的平滑化及びマッピング」、M.Kaess、A.Ranganathan、及びF.Dellaert著、IEEE Trans.on Robotics、TRO,vol.24,no.6,2008年12月、1365‐1378ページ、PDF
すなわち、特にマッピングデバイスが運動中である間は、自律マッピングデバイスの周りの地形のロバストマップを発生させるために光学デバイスからのデータを他のモーション測定デバイスと融合させることに関連付けられたいくつかの技術的な課題があることを認めることができる。以下に開示するのは、光学マッピング情報を取得し、かつ歪みを低減したロバストマップを生成することができるマッピングデバイスの方法及びシステムである。
この節での例は、単に一部の可能な実施形態を表すものであるが、この出願で開示する全ての可能な実施形態、要素の組合せ、又は発明を反映するものではない。一例では、マッピングシステムは、慣性測定ユニットと、カメラユニットと、レーザ走査ユニットと、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットと通信するコンピュータシステムとを含むことができる。コンピュータシステムは、少なくとも1つのプロセッサ、少なくとも1つの1次メモリユニット、及び少なくとも1つの2次メモリユニットから構成することができる。1次メモリユニットは、少なくとも1つのプロセッサによって実行されるソフトウエアを格納することができ、ソフトウエアは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の周波数での慣性測定ユニットからの慣性測定データに基づいて第1の測定予測を計算させる第1の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の測定予測及び第2の周波数でのカメラユニットからの視覚測定データに基づいて第2の測定予測を計算させる第2の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第2の測定予測及び第3の周波数でのレーザ走査ユニットからのレーザ測距データに基づいて第3の測定予測を計算させる第3の計算モジュールとを含むことができる。
マッピングシステムの例では、第1の計算モジュールは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第2の測定予測及び第3の測定予測に基づいて第1の測定予測内のバイアス誤差を補正させるソフトウエアを更に含むことができる。
マッピングシステムの例では、第1の周波数は、第2の周波数よりも高く、第2の周波数は、第3の周波数よりも高い。
マッピングシステムの例では、第2の計算モジュールは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の測定期間中に視覚測定データが劣化したか否かを決定させ、かつ視覚測定データが第1の測定期間中に劣化したという決定時に第1の測定期間中の第1の測定予測に等しい第1の測定期間中の第2の測定予測を計算させるソフトウエアを更に含むことができる。
マッピングシステムの例では、第3の計算モジュールは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサにレーザ測距データが第2の測定期間中に劣化したか否かを決定させ、かつレーザ測距データが第2の測定期間中に劣化したという決定時に第2の測定期間中の第2の測定予測に等しい第2の測定期間中の第3の測定予測を計算させるソフトウエアを更に含むことができる。
マッピングシステムの例では、1次メモリデバイスは、第1及び第2のセットのボクセルを格納することができ、第1及び第2のセットのボクセルは、第3の予測測定に基づいている。第1のセットのボクセルの各ボクセルは、空間の第1の容積に対応することができ、第2のセットのボクセルの各ボクセルは、空間の第2の容積に対応することができる。空間の第2の容積は、空間の第1の容積よりも小さい場合があり、第1のセットのボクセルの各ボクセルは、第2のセットのボクセルの複数のボクセルにマップ可能である場合がある。
マッピングシステムの例では、2次メモリユニットは、第3の予測測定から発生した点群データを格納することができる。
一例では、マッピングシステムは、モバイルユニットを更に含むことができ、慣性測定ユニットが、モバイルユニット上にあり、カメラユニットが、モバイルユニット上にあり、レーザ走査ユニットが、モバイルユニット上にあり、コンピュータシステムが、モバイルユニット上にある。
マッピングシステムの例では、モバイルユニットは、モバイルユニットを案内するためのナビゲーションシステムを含むことができ、ナビゲーションシステムは、第3の測定予測を使用して自律モバイルユニットを案内することができる。
マッピングシステムの例では、第3の計算モジュールは、走査適合アルゴリズムを使用して第3の測定予測を計算することができる。少なくとも1つのプロセッサは、複数の処理スレッドを含むことができる。1次メモリデバイスは、少なくとも1つのプロセッサによって実行された時に第1のスレッドがレーザ測距データの第1の走査を走査適合させるように割り当てられるような複数のスレッドによってレーザ測距データの走査の処理を管理することができるソフトウエアを格納することができる。第1のスレッドは、第1のスレッドが第2の走査の到着前に第1の走査を処理することができる時に、第1の走査後の時点からレーザ測距データの第2の走査を走査適合させるように割り当てることができる。第2のスレッドは、第1のスレッドが第2の走査の到着前に第1の走査を処理できない時に、レーザ測距データの第2の走査を走査適合させるように割り当てることができる。
マッピングシステムの例では、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットは、走査データのダウンサンプルバージョンが3次元表現で提示される対話型ディスプレイにコンピュータシステムを通じてインタフェース接続することができる。
例示的かつ非限定的実施形態により、マッピングシステムは、慣性測定ユニットと、カメラユニットと、レーザ走査ユニットと、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットと通信するコンピュータシステムとを含み、コンピュータシステムは、少なくとも1つのプロセッサ、少なくとも1つの1次メモリユニット、及び少なくとも1つの2次メモリユニットを含み、1次メモリユニットは、少なくとも1つのプロセッサによって実行されるソフトウエアを格納し、ソフトウエアは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の周波数での慣性測定ユニットからの慣性測定データに少なくとも部分的に基づく少なくとも1つの第1の測定予測を計算させる第1の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに少なくとも1つの第1の測定予測及び第2の周波数でのカメラユニットからの視覚測定データに少なくとも部分的に基づく少なくとも1つの第2の測定予測を計算させる第2の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに少なくとも1つの第2の測定予測及び第3の周波数でのレーザ走査ユニットからのレーザ測距データに基づく少なくとも1つの第3の測定予測を計算させる第3の計算モジュールとを含む。
例示的かつ非限定的実施形態により、マッピングシステムは、双方向情報フローの問題に対処するためにモジュール式システム構造から構成される。具体的には、3つのモジュールが、粗から細のデータの問題に段階的に対処する。データ処理フローは、IMU予測モジュールから視覚−慣性オドメトリモジュールに、更に走査適合精緻化モジュールに進むことができ、一方でフィードバックフローが、IMUのバイアスを補正するために逆の順に発生する。
例示的かつ非限定的実施形態により、マッピングシステムは、動的に再構成可能である。例えば、視覚特徴が視覚−慣性オドメトリに不十分である場合に、IMU予測モジュールは、視覚−慣性オドメトリモジュールを(部分的に)バイパスし、ローカルにレーザ点を記録する。他方、環境構造が走査適合に不十分である場合に、視覚−慣性オドメトリ出力は、走査適合精緻化モジュールを(部分的に)バイパスし、マップ上にレーザ点を記録する。
例示的かつ非限定的実施形態により、マッピングシステムは、IMUバイアス補正のための優先度フィードバックを使用する。例えば、視覚−慣性オドメトリモジュール及び走査適合精緻化モジュールの両方は、IMUバイアスを補正するためにIMU予測モジュールにフィードバックを提供することができる。フィードバックは、組み合わされて視覚−慣性オドメトリモジュールに優先度を与えることができる。換言すると、走査適合精緻化モジュールからのフィードバックは、視覚−慣性オドメトリモジュールが劣化した方向に視覚−慣性オドメトリモジュールを補償する。
例示的かつ非限定的実施形態により、マッピングシステムは、マップの2層ボクセル表現を使用する。第1の層は、大きいボクセルから構成される。この層は、マップストレージのためのものである。センサに近い各大きいボクセルに対して、ボクセルは、走査適合のためにマップを正確に取り出すための小さいボクセルの第2の層を含有する。
例示的かつ非限定的実施形態により、マッピングシステムは、走査適合のマルチスレッド処理を使用する。走査適合は、KDツリー構築、点クエリ、及び非線形最適化のための逆行列などを利用することができる。openMPのような標準的な並行処理は、点クエリを加速することができるだけであり、全体時間を実質的に低減するのに寄与しない。対照的に、本発明のシステムは、各スレッド上で異なる走査を処理する。換言すると、4つのスレッドは、1つの走査の代わりに4つの連続走査を処理する。
例示的かつ非限定的実施形態により、方法は、少なくとも地理空間に各々が帰する複数の点を含むLIDAR取得点群を含むデータセットにアクセスする段階と、複数の点の少なくとも一部分をサブサンプリングして複数の点の代表サンプルを導出する段階と、複数の点の代表サンプルを表示する段階とを含む。
例示的かつ非限定的実施形態により、方法は、少なくとも地理空間座標とセグメントとに各々が帰する複数の点を含むLIDAR点群を取得する段階と、同じセグメントに帰する複数の点の計算された精度を示す信頼水準を各セグメントに割り当てる段階と、割り当てられた信頼水準をユーザに表示する段階とを含む。
例示的かつ非限定的実施形態により、方法は、少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群をSLAMシステムを用いて取得する段階と、少なくとも複数の点の一部分を表示する段階と、点群の取得をそこまで巻き戻す指定された時間の指示を受信する段階と、指定された時間の後のタイムスタンプに各々が帰する複数の点の一部分にタグ付けする段階とを含む。
例示的かつ非限定的実施形態により、方法は、少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群をSLAMシステムを用いて取得する段階と、複数の点の少なくとも一部分を表示する段階と、予め決められた閾値よりも下の点密度を示す点群の一部分の指示をユーザに表示する段階とを含む。
マッピングシステムの実施形態を示すブロック図である。 図1のマッピングシステムの3つの計算モジュール及びそれらのそれぞれのフィードバック特徴のブロック図の実施形態を示す図である。 位置情報をマップの中に精緻化するためのカルマンフィルタモデルの実施形態を示す図である。 位置情報をマップの中に精緻化するための因子グラフ最適化モデルの実施形態を示す図である。 視覚−慣性オドメトリサブシステムの実施形態を示す図である。 走査適合サブシステムの実施形態を示す図である。 粗詳細解像度を有する大面積マップの実施形態を示す図である。 細詳細解像度を有する小面積マップの実施形態を示す図である。 マルチスレッド走査適合の実施形態を示す図である。 単一スレッド走査適合の実施形態を示す図である。 視覚−慣性オドメトリユニットからのフィードバックデータがデータ劣化に起因して抑制される3つの計算モジュールのブロック図の実施形態を示す図である。 走査適合ユニットからのフィードバックデータがデータ劣化に起因して抑制される3つの計算モジュールの実施形態を示す図である。 視覚−慣性オドメトリユニット及び走査適合ユニットからのフィードバックデータがデータ劣化に起因して部分的に抑制される3つの計算モジュールの実施形態を示す図である。 モバイルマッピングデバイスの推定される軌跡の実施形態を示す図である。 例示的かつ非限定的実施形態による双方向情報フローを示す図である。 例示的かつ非限定的実施形態による動的再構成可能システムを示す図である。 例示的かつ非限定的実施形態による動的再構成可能システムを示す図である。 例示的かつ非限定的実施形態によるIMUバイアス補正のため優先度フィードバックを示す図である。 例示的かつ非限定的実施形態によるマップの2層ボクセル表現を示す図である。 例示的かつ非限定的実施形態によるマップの2層ボクセル表現を示す図である。 例示的かつ非限定的実施形態による走査適合のマルチスレッド処理を示す図である。 例示的かつ非限定的実施形態による走査適合のマルチスレッド処理を示す図である。 SLAMシステムの例示的かつ非限定的実施形態を示す図である。 SLAMシステムの例示的かつ非限定的実施形態を示す図である。 SLAMエンクロージャの例示的かつ非限定的実施形態を示す図である。 信頼水準を示す点群の例示的かつ非限定的実施形態を示す図である。 信頼水準を示す点群の例示的かつ非限定的実施形態を示す図である。 信頼水準を示す点群の例示的かつ非限定的実施形態を示す図である。 異なっている信頼水準メトリックの例示的かつ非限定的実施形態を示す図である。 SLAMシステムの例示的かつ非限定的実施形態を示す図である。 SLAMシステムに対する信号を時間調節する例示的かつ非限定的実施形態を示す図である。 SLAMシステムに対する信号を時間調節する例示的かつ非限定的実施形態を示す図である。 SLAMシステム信号同期の例示的かつ非限定的実施形態を示す図である。
1つの一般的態様では、本発明は、位置の変化を経時的に推定する(オドメーター)及び/又は3次元空間の点群のような3次元マップ表現を発生させるモバイルコンピュータベースマッピングシステムに関する。本発明のマッピングシステムは、以下に限定されるものではないが、慣性測定ユニット(IMU)、カメラ、及び/又は3Dレーザスキャナを含む複数のセンサを含むことができる。それはまた、経時的にシステムの位置の変化を推定する及び/又は周囲環境のマップ表現を発生させるためにセンサからの出力を処理するように構成された複数のセンサと通信する少なくとも1つのプロセッサを有するコンピュータシステムを含むことができる。マッピングシステムは、高密度の正確な3Dマッピング記録と共に、高周波数、低周波数、オンライン、リアルタイムのエゴモーション推定を可能にすることができる。本発明の開示の実施形態は、同時位置付け及びマッピング(SLAM)システムを含むことができる。SLAMシステムは、GPS独立であってリアルタイム同時位置付け及びマッピングを提供する多次元(例えば、3D)レーザ走査及び範囲測定システムを含むことができる。SLAMシステムは、環境内の物体からのレーザ走査の反射から生じる高精度点群のデータを発生及び管理することができる。点群内の点のうちのいずれかの移動は、経時的に正確に追跡され、それによってSLAMシステムは、場所の基準点として点群の点を使用してそれが環境を通って移動した時の場所及び向きの正確な理解を維持することができる。
一実施形態では、モバイルマッピングシステムの位置及びモーションの解像度は、一連の粗対細更新で逐次精緻化することができる。非限定例では、離散計算モジュールを使用して、急速更新速度を有する粗解像度からより遅い更新速度を有する細解像度までモバイルマッピングシステムの位置及びモーションを更新することができる。例えば、IMUデバイスは、データを第1の計算モジュールに提供して高速更新速度でマッピングシステムのモーション又は位置を予測することができる。視覚−慣性オドメトリシステムは、データを第2の計算モジュールに提供して低速更新速度でマッピングシステムのモーション又は位置解像度を改善することができる。これに加えて、レーザスキャナは、第3の計算走査適合モジュールにデータを提供して、更に低速の更新速度でモーション推定値を更に精緻化してマップを記録することができる。一非限定例では、細位置データ及び/又はモーション解像度データを処理するように構成された計算モジュールからのデータは、粗位置データ及び/又はモーション解像度データを処理するように構成された計算モジュールにフィードバックすることができる。別の非限定例では、計算モジュールは、欠陥、間違い、不完全、又は存在しないデータのソースになっているセンサに関連付けられた計算モジュールを自動的にバイパスすることにより、センサ劣化の問題に対処するための欠陥許容値を組み込むことができる。すなわち、マッピングシステムは、高度に動的なモーションの存在下で、並びに暗く、テクスチャがなく、かつ構造のない環境で作動することができる。
多くがオフラインバッチシステムである既存のマップ発生技術とは対照的に、本明細書に開示するマッピングシステムは、運動している間にリアルタイムで作動してマップを発生することができる。この機能は、2つの実際的な利点を提供する。第1に、ユーザは、三脚又は他の非固定マウント上に固定されたスキャナに制限されない。代わりに、本明細書に開示するマッピングシステムは、モバイルデバイスに関連付けることができ、それによってリアルタイムでマップすることができる環境の範囲を増大する。第2に、リアルタイム特徴は、データが収集される間に現在マップされている区域のフィードバックをユーザに与えることができる。オンライン発生マップはまた、自律ナビゲーション及び障害物回避に関してロボット又は他のデバイスを補助することができる。一部の非限定的実施形態では、そのようなナビゲーション機能は、マッピングシステム自体に組み込むことができる。代替非限定的実施形態では、マップデータは、外部ソースのマップを要求する場合があるナビゲーション機能を有する追加のロボットに提供することができる。
3Dモデリング、シーンマッピング、及び環境推論のようなセンサのいくつかの潜在的用途が存在する。本発明のマッピングシステムは、更に別の処理のための入力として点群を取る他のアルゴリズムのための点群マップを提供することができる。更に、本発明のマッピングシステムは、屋内及び屋外の両方で機能することができる。そのような実施形態は、外部照明を必要とせず、暗闇で作動することができる。カメラを有する実施形態は、高速モーションを扱うことができ、カメラからの画像でレーザ点群をカラー化することができるが、外部照明が必要である場合がある。SLAMシステムは、ユーザが歩いている、自転車に乗っている、運転している、飛んでいる、及びその組合せの時のようなユーザが環境を運動中の時に点群をリアルタイムで構築及び維持することができる。マップは、マップ器が環境を進んでいる時にリアルタイムで構成される。SLAMシステムは、点として数千の特徴を追跡することができる。マップ器が移動すると、点が追跡されてモーションの推定を可能にする。従って、SLAMシステムは、リアルタイムでかつGPSのような外部位置付け技術に関係なく作動する。実施形態では、物体のような環境の複数の(多くの場合に非常に多数の)特徴が三角測量のための点として使用され、システムは、リアルタイムで多くの場所及び向き計算を実行及び更新し、SLAMシステムが環境を移動した時の場所及び向きの正確な現在の推定値を維持する。実施形態では、環境内の特徴の相対的なモーションを使用して移動特徴(人、車両、及び他の移動アイテムなど)から固定特徴(壁、扉、窓、家具、及び作り付け備品など)を区別することができ、それによって固定特徴を場所及び向き計算に使用することができる。水中SLAMシステムは、減衰を低減するために青緑色のレーザを使用する場合がある。
マッピングシステム設計は、エゴモーション推定のドリフトがモジュール固有の周波数よりも低い周波数を有するという観察に従っている。3つの計算モジュールは、従って、減少する周波数の順番で並べられる。高周波モジュールは、積極的なモーションを扱うように特化されるが、低周波モジュールは、以前のモジュールのドリフトを打ち消す。逐次処理は計算にも有利であり、前にあるモジュールは、計算をあまり費やすことなく高周波で実行し、完全な処理のために後ろのモジュールに十分な時間を与える。マッピングシステムは、従って、リアルタイムでオンライン実行しながら高レベルの精度を達成することができる。
更に、システムは、センサ劣化を扱うように構成することができる。カメラが機能しない場合(例えば、暗闇、大きい照明の変化、又はテクスチャの少ない環境により)、又はレーザが機能しない場合(例えば、構造の少ない環境により)、対応するモジュールをバイパスすることができ、システムの残りは、確実に機能するように交互配置することができる。システムは、多数の実験を通じて試験され、結果は、システムが環境的劣化及び積極的なモーションに対してナビゲーションの数キロメートルにわたる高精度及びロバスト性を生じることができることを示している。
以下に開示するモジュール式マッピングシステムは、多層最適化構造を使用することにより、距離センサ、視覚センサ、及び慣性センサからのデータを処理してモーション推定及びマッピングを実行するように構成される。モジュール式マッピングシステムは、以下を含むことができる特徴を組み込むことにより、高精度、ロバスト性、及び低ドリフトを達成することができる:
・計算モジュールを動的に再構成する機能、
・計算モジュールの故障モードを完全に又は部分的にバイパスし、かつセンサ及び/又はセンサデータの劣化を扱う方式で残りのモジュールからのデータを組合せ、それによって環境的に誘導されたデータ劣化及びモバイルマッピングシステムの積極的なモーションに対処する機能、及び
・リアルタイムの性能を提供するために計算モジュールを協働的に統合する機能。
本明細書に開示するのは、3Dレーザ、カメラ、及びIMUからのデータによってオンラインエゴモーション推定をするマッピングシステムである。推定されたモーションは、横断された環境のマップを構築するためにレーザ点を記録する。多くの現実世界の用途では、エゴモーション推定及びマッピングは、リアルタイムで行わなくてはならない。自律ナビゲーションシステムでは、マップは、モーション計画及び障害物回避に重要であり、同時にモーション推定は、車両制御及び操縦に重要である。
図1は、本発明の一実施形態によるマッピングシステム100の単純化ブロック図を示している。特定の構成要素を以下に開示するが、これらの構成要素は例としてだけ提示され、他の均等物又は類似の構成要素に関して制限するものではない。例示的なシステムは、Xsens(記録商標)MTi−30IMUのようなIMUシステム102、IDS(記録商標)UI−1220SEモノクロカメラのようなカメラシステム104、及びVelodynePUCK(記録商標)VLP−16レーザスキャナのようなレーザスキャナ106を含む。IMU102は、x−y−z加速度計、ロール・ピッチ・ヨージャイロスコープ、及び磁気探知器の1又は2以上から得られた慣性モーションデータを提供することができ、第1の周波数での慣性データを提供することができる。一部の非限定例では、第1の周波数は、約200Hzとすることができる。カメラシステム104は、約752x480ピクセルの解像度、76°水平視野(FOV)、及び第2の周波数でのフレーム取り込み速度を有することができる。一部の非限定例では、フレーム取り込み速度は、約50Hzの第2の周波数で作動することができる。レーザスキャナ106は、360°水平FOV、30°垂直FOVを有することができ、レーザスピン速度を表す第3の周波数で30万点/秒を受信することができる。一部の非限定例では、第3の周波数は、約5Hzとすることができる。図1に示すように、レーザスキャナ106を符号器109を組み込むモータ108に接続してモータ回転角度を測定することができる。一非限定例では、レーザモータ符号器109は、約0.25°の分解能で作動させることができる。
IMU102、カメラ104、レーザスキャナ106、及びレーザスキャナモータ符号器109は、1又は2以上のプロセッサ134を有するあらゆるコンピュータデバイスとすることができるコンピュータシステム110と、十分な処理パワーを有する関連のメモリ120、160及び望ましいオドメトリ方法及び/又はマッピングを実行するためのメモリとにデータ通信することができる。例えば、2.6GHz i7quad−coreプロセッサ(各コアで2スレッド及び全体で8スレッド)及び一体型GPUメモリを備えたラップトップコンピュータを使用することができる。更に、コンピュータシステムは、1又は2以上のタイプのRAMのような1次又は動的メモリ120、及び1又は2以上のタイプのハードディスク又はフラッシュROMのような2次又はストレージメモリ160を有することができる。特定の計算モジュール(IMUモジュール122、視覚−慣性オドメトリモジュール126、及びレーザ走査モジュール132)を上記に開示したが、そのようなモジュールが単に上述の機能を有する例示的モジュールにすぎず、非限定的であることを認識しなければならない。同様に、上記に開示したタイプのコンピュータデバイス110は、単にそのようなセンサと共に使用することができるコンピュータデバイスの1つのタイプの例にすぎず、かつ本明細書に開示する目的のためのものであり、決して限定ではない。
図1に示すように、マッピングシステム100は、粗対細方式(図2を参照)でモーションを順次に回復する個々の計算モジュールを含む計算モデルを組み込んでいる。IMU102(IMU予測モジュール122)からのモーション予測から始めて、視覚−慣性密接結合方法(視覚−慣性オドメトリモジュール126)は、モーションを推定し、レーザ点をローカルに記録する。走査適合方法(走査適合精緻化モジュール132)は、推定されたモーションを更に精緻化する。走査適合精緻化モジュール132は、点群データ165を記録してマップ(ボクセルマップ134)を構築する。このマップは、任意的なナビゲーションシステム136の一部としてマッピングシステムによって使用することができる。ナビゲーションシステム136は、搭載コンピュータシステム、1次メモリ内の計算モジュールとして含めることができ、又は全く個別のシステムを構成することができることは認識することができる。
各計算モジュールは、センサシステムの各々のうちの1つからのデータを処理することができることを認識することができる。従って、IMU予測モジュール122は、IMUシステム102から得られたデータから粗マップを発生させ、視覚−慣性オドメトリモジュール126は、カメラシステム104からの精緻化されたデータを処理し、走査適合精緻化モジュール132は、レーザスキャナ106及びモータ符号器109からの最細粒度解像度データを処理する。更に、細粒度解像度モジュールの各々は、粗粒度モジュールから提示されるデータを更に処理する。視覚−慣性オドメトリモジュール126は、IMU予測モジュール122から受信されてそれによって計算されたマッピングデータを精緻化する。同様に、走査適合精緻化モジュール132は、視覚−慣性オドメトリモジュール126によって提示されたデータを更に処理する。上記に開示したように、センサシステムの各々は異なる速度でデータを収集する。一非限定例では、IMU102は、約200Hzの速度でデータ収集を更新することができ、カメラ104は、約50Hzの速度でデータ収集を更新することができ、レーザスキャナ106は、約5Hzの速度でデータ収集を更新することができる。これらの速度は制限ではなく、例えば、それぞれのセンサのデータ収集速度を反映することができる。粗粒度データは、細粒度データよりも速い速度で収集することができ、粗粒度データは、細粒度データよりも速い速度で処理することができることは認識することができる。データ収集の特定周波数値及び様々な計算モジュールによる処理を上記に開示したが、絶対的周波数もそれらの相対的周波数も限定ではない。
マッピング及び/又はナビゲーショナルデータは、粗レベルデータ及び細レベルデータを含むと考えることができる。従って、1次メモリ(動的メモリ120)では、粗位置データは、計算モジュール122、126、132のいずれかによってアクセス可能にすることができるボクセルマップ134に格納することができる。走査適合精緻化モジュール132によって発生される点群データ165としてのファイル詳細マッピングデータは、ハードドライブ、フラッシュドライブ、又は他の永続メモリのような2次メモリ160にプロセッサ150を通じて格納することができる。
粗粒度データが細粒度計算のために計算モジュールによって使用されるだけでなく、視覚−慣性オドメトリモジュール126及び走査適合精緻化モジュール132(細等級位置情報及びマッピング)は、IMU位置予測を更新するための基礎として更に精緻化されたマッピングデータをそれぞれのフィードバック経路128及び138を通じてIMU予測モジュール122にフィードバックすることができる。この方式で、粗位置及びマッピングデータは、順次に解像度を精緻化することができ、精緻化された解像度データは、粗解像度計算のフィードバック基準として寄与する。
図2は、3つの計算モジュールのそれぞれのデータ経路に沿ったブロック図を示している。IMU予測モジュール122は、IMU(図1の102)からIMU位置データ223を受信することができる。視覚−慣性オドメトリモジュール126は、IMU予測モジュール122からのモデルデータ、並びにカメラ(図1の104)からの1又は2以上の個々に追跡された視覚特徴227a、227bからの視覚データを受信することができる。レーザスキャナ(図1の106)は、視覚−慣性オドメトリモジュール126によって供給される位置データに加えて走査適合精緻化モジュール132に供給されるレーザ決定式ランドマーク233a、233bに関するデータを発生させることができる。視覚−慣性オドメトリモジュール126からの位置推定モデルは、フィードバック128されてIMU予測モジュール122によって計算された位置モデルを精緻化することができる。同様に、走査適合精緻化モジュール132からの精緻化マップデータは、フィードバック138されてIMU予測モジュール122によって計算された位置モデルに追加の補正を加えることができる。
図2に示すようにかつ上記に開示したように、モジュール式マッピングシステムは、粗対細方式でモーション関連データを順次に回復及び精緻化することができる。更に、各モジュールのデータ処理は、モジュールにデータを供給するデバイスの各々のデータ収集及び処理速度によって決定することができる。IMUからのモーション予測から開始して、視覚−慣性密接結合方法は、モーションを推定してローカルにレーザ点を記録する。次に、走査適合方法は、推定されたモーションを更に精緻化する。走査適合精緻化モジュールは、点群を記録してマップを構築することができる。その結果、マッピングシステムは、データが利用可能になる時に各精緻化フェーズを処理するように時間最適化される。
図3は、図1に示す同じセンサタイプから得られたデータに基づく標準的カルマンフィルタモデルを示している。図3に示すように、カルマンフィルタモデルは、データの分解機能に関わらずセンサのいずれかからのあらゆるデータの受信に応答して位置及び/又はマッピングデータを更新する。従って、例えば、IMUデータに基づく位置情報推定値の状態に関わらずこれらのデータが利用可能になるいずれの時間にも視覚−慣性オドメトリデータを使用して位置情報を更新することができる。従って、カルマンフィルタモデルは、各タイプの測定の相対的な解像度を利用しない。図3は、位置データを最適化するための標準カルマンフィルタベースの方法のブロック図を示している。カルマンフィルタは、データが提示された時に順次に位置モデル322a−322nを更新する。従って、初期位置予測モデル322aから開始して、カルマンフィルタは、IMU機械化データ323の受信に基づいて精緻化することができる次の位置モデル322bを予測することができる324a。位置予測モデルは、個々の視覚特徴又はレーザランドマークでシードされた更新段階の前に予測段階324aでIMU機械化データ323に応答して更新することができる322b。
図4は、因子−グラフ方法に基づく位置最適化を示している。この方法では、第1の時間410のモバイルマッピングシステムの姿勢をデータの受信に応答して第2の時間420の姿勢に更新することができる。因子−グラフ最適化モデルは、各精緻化計算中の全センサからの制約を組み合わせる。従って、カメラからのIMUデータ323、特徴データ327a、327bなど、及びレーザランドマークデータ333a、333bなどは、全て各更新段階に使用される。そのような方法は、望ましい大量のデータによる各位置精緻化段階の計算の複雑さを増すことは認めることができる。センサは、大きさの程度によって異なる場合がある独立速度でデータを提供することができるので、全精緻化段階は、最も遅いセンサのデータ収集時間に時間的に制限される。その結果、そのようなモデルは高速リアルタイムマッピングに適切ではない場合がある。図1及び2に示すモジュール式システムは、粗対細方式におけるモーションを順次に回復する。この方式では、モーション精緻化の程度は、各タイプのデータの利用可能性によって決定される。
仮定、座標、及び問題
仮定及び座標系
図1に示すように、モバイルマッピングシステムのセンサシステムは、レーザ106、カメラ104、及びIMU102を含むことができる。カメラは、固有のパラメータが公知であるピンホールカメラモデルとしてモデル化することができる。3つのセンサの全ての間の外因性パラメータは較正することができる。カメラとレーザ間の相対的姿勢及びレーザとIMU間の相対的姿勢は、当業技術で公知の方法に従って決定することができる。単一座標系をカメラ及びレーザに使用することができる。一非限定例では、カメラ座標系を使用することができ、全てのレーザ点を前処理でカメラ座標系に投影することができる。一非限定例では、IMU座標系は、カメラ座標系に平行にすることができ、従って、IMU測定は、収集に応答して回転させながら補正することができる。座標系は、以下のように定義することができる。
・カメラ座標系{C}は、x軸が左を指し、y軸が上を指し、z軸がカメラ主軸に一致する前方を指すカメラ光学中心から派生することができる。
・IMU座標系{I}は、x−、y−、及びz−軸が{c}に平行であり、同じ方向を指すIM測定中心から派生することができる。
・世界座標系{W}は、開始姿勢の{C}に一致する座標系とすることができる。
MAP推定問題
状態推定問題は、機能的最大確率(MAP)推定問題として定式化することができる。本発明者は、システム状態のセットU={ui}としてx={xi}、i∈{1;2;...,m}、制御入力のセットとしてi∈{1;2;...,m}、及びランドマーク測定のセットとしてZ={zk}、k∈{1;2;...,n}を定義することができる。提案するシステムが与えられる場合と、Zは、視覚特徴とレーザランドマークの両方を含むことができる。システムの複合確率は以下のように定義される。
式1
P(x0)は、第1のシステム状態のプライアーであり、
は、モーションモデルを表し、
は、ランドマーク測定モデルを表している。(1)として定式化された各問題に対して、問題の対応するベイズ簡略ネットワーク表現がある。MAP推定は式1を最大にすることである。ゼロ平均ガウスノイズの仮定の下で、問題は最小二乗問題と同等である。
式2
ここで、
は、モーションモデル及びランドマーク測定モデルにそれぞれ関連付けられた残差である。
式2を解く標準的な方法は、全てのセンサデータ、例えば、視覚特徴、レーザランドマーク、及びIMU測定値を大型因子−グラフ最適化問題に組み合わせることである。提案するデータ処理パイプラインは、代わりに、複数の小さい最適化問題を定式化して問題を粗対細方式で解く。最適化問題は以下のように言い直すことができる。
問題:レーザ、カメラ、及びIMUから与えられたデータは、(2)として問題を定式化及び解いて、{W}に対して{C}の姿勢を決定し、次に、推定された姿勢を使用してレーザ点を記録して{W}の横断された環境のマップを構築する。
IMU予測サブシステム
IMU機械化
この小節ではIMU予測サブシステムを説明する。システムは基本的なセンサ座標系として{C}を考えているので、IMUは、{C}に対して特徴付けることができる。「仮定及び座標系」という名称の小節で上記に開示したように、{I}及び{C}は平行座標系であり、ω(t)及びα(t)は、時間tの{C}の角速度及び加速度それぞれを示す2つの3x1ベクトルとすることができる。対応するバイアスは、bω(t)及びbα(t)として示すことができ、nω(t)及びnα(t)は対応するノイズである。ベクトル、バイアス、及びノイズの項は{C}で定義される。更に、gは、{W}の一定重力ベクトルとして示すことができる。IMU測定項は次式の通りである。
式3
式4
ここで、
は、{W}から{C}への回転行列であり、
は、{C}及び{I}の間の変換ベクトルである。

は、回転中心({C}の始点)が{I}の始点とは異なるという事実による遠心力を表している。視覚−慣性ナビゲーション方法の一部の例は、この遠心力項を推定するために{I}のモーションをモデル化する。本明細書に開示する計算方法では、深度情報あり及びなしの視覚特徴が使用され、{C}から{I}の深度なしの変換特徴は直接的ではない(以下を参照)。その結果、本明細書に開示するシステムは、代わりに、{C}のモーションの全てをモデル化する。実際的にカメラ及びIMUは、項の影響を最大限低減するために互いに近づけて装着される。
IMUバイアスはゆっくり変化する変数とすることができる。この結果、最も新しく更新されたバイアスは、モーション積分に使用される。最初に、式3は時間で積分される。次に、得られる向きは、二度の時間積分のために式4と共に使用され、加速度データからの変換を取得する。
バイアス補正
IMUバイアス補正は、カメラ又はレーザのいずれかからのフィードバックによって行うことができる(図1及び2の128、138をそれぞれ参照)。各フィードバック項は、短時間にわたる推定区分的モーションを含有する。バイアスは、区分的モーション中に一定になるようにモデル化することができる。式3から開始して、推定された向きをIMU積分と比較することによってbω(t)を計算することができる。更新されたbω(t)は、推定された変換と比較された変換を再度計算してbα(t)を計算するために更に一巡の積分に使用される。
高周波数ノイズの影響を低減するために、バイアスの既知の数を維持するスライディングウィンドウが利用される。スライディングウィンドウに使用されるバイアスの数の非限定例は、200HzIMU速度に基づく400バイアスの推奨される数を有する200から1000バイアスを含むことができる。100HzのIMU速度を有するスライディングウィンドウのバイアスの数の非限定例は、一般的に200バイアスの値を有する100から500である。スライディングウィンドウからの平均化バイアスが使用される。この実施では、スライディングウィンドウの長さは、バイアスの更新速度を決定するためのパラメータとして機能する。バイアスをモデル化するための代替方法は当業技術で公知であるが、開示する実施は、個別のかつ異なるモジュールとしてIMU処理モジュールを維持するのに使用される。スライディングウィンドウ方法は、本発明のシステムの動的再構成を可能にすることができる。この方式では、IMUは、カメラ、レーザ、又は必要に応じてカメラとレーザの両方に結合することができる。例えば、カメラが機能しない場合に、IMUバイアスは、代わりに、レーザだけによって補正することができる。
視覚−慣性オドメトリサブシステム
視覚−慣性オドメトリサブシステムのブロックシステム図を図5に示している。最適化モジュール510は、モーション推定550の深度情報を有するか又は持たない光学特徴データに基づいてカメラ制約515と共にIMU予測モジュール520からの姿勢制約512を使用する。深度マップ記録モジュール545は、レーザ点540から得られた深度情報を有する追跡カメラ特徴530の深度マップ記録及び深度アソシエーションを含むことができる。深度マップ記録モジュール545は、前の計算から得られたモーション推定550を組み込むことができる。本方法は、視覚とIMUを密接に結合する。各々は、区分的モーション550を推定する最適化モジュール510に制約512、515をそれぞれ提供する。同時に、本方法は、深度情報を深度マップ記録モジュール545の一部として視覚特徴に関連付ける。特徴が、レーザ範囲測定が利用可能な区域に位置付けられる場合に、深度がレーザ点から得られる。そうでなければ、深度は、前に推定されたモーションシーケンスを使用して三角測量から計算される。最後のオプションとして、本方法は、異なる方法で制約を定式化することによっていずれの深度もない特徴を使用することができる。これは、レーザ範囲カバレージを持たないか又はカメラモーションの方向に十分長く追跡又は位置付けられないので三角測量できない特徴に対して真である。
カメラ制約
視覚−慣性オドメトリ方法は、キー−フレームベースの方法である。新しいキー−フレームは、ある一定の数の特徴よりも多くが追跡を失うか又は画像オーバラップがある比率よりも下である場合に決定される535。従って、右の上付き文字l、l∈Z+は最後のキー−フレームを示すことができ、c、c∈Z+、及びc>kは、現在のフレームを示すことができる。上記に開示したように、本方法は、深度あり及び深度なしで特徴を組み合わせる。キー−フレームlの深度に関連付けられた特徴は、X1={C1}の[x1、y1、x1Tとして示すことができる。相応に、深度なしの特徴は、代わりに、標準化座標を使用して、
として示される。
及び
は、システム状態を表す式1の
とは異なる。キー−フレームの特徴は、2つの理由で深度に関連付けることができる:1)深度アソシエーションが処理の何らかの量を取り、キー−フレームのコンピュータ深度アソシエーションだけが計算強度を低減することができ、2)深度マップがフレームcで利用できず、従って、記録が設定された深度マップに依存するのでレーザ点を記録することができない。{Cc}の標準化特徴は、
として示すことができる。
は、フレームl及びcの間の3x3回転行列及び3x1変換ベクトルとし、ここで、
変換を形成する。フレームlとcの間のモーション関数を次式のように書くことができる。
式5
cは未知の深度を有する。dcを深度とし、ここで、
である。Xcを
で置換して式5の第1及び第2の行と第3の行とを組み合わせてdcを除き、次式をもたらす。
式6
式7


の第h行である。深度を特徴に利用できない場合に、d1をキー−フレームlの未知の深度とする。Xl及びXc
それぞれで置換し、dk及びdcを除くために式5の全ての3つの行を組み合わせて別の制約をもたらす。
式8
モーション推定
モーション推定処理510は、1)式6−7の公知の深度を有する特徴から、2)式8の未知の深度を有する特徴から、及び3)IMU予測520からの制約の3つのセットを組み合わせる最適化問題を解くのに必要である。
は、フレームaとbの間の4x4変換行列として定義することができる。
式9
ここで、
は、対応する回転行列及び変換ベクトルである。更に、
に対応する3x1ベクトルとすると、
は、回転角度である。各
のセットに対応する。
フレームlとc−1の間で解かれたモーション変換、すなわち、
を使用して、IMU姿勢制約を定式化することができる。
として示される最後の2つのフレームc−1とcの間の予測される変換は、IMU機械化から取得することができる。フレームcの予測変換は以下として計算される。
式10
は、
に対応する6−DOFモーションである。IMU予測変換
は、向きに依存することは理解することができる。一例として、向きは、式4の回転行列を通じて重力ベクトルの予測
、従って、積分される加速度を決定することができる。
の関数として定式化することができ、
として書き直すことができる。IMU予測モジュール122(図1及び2)によって提供される200Hz姿勢、並びに視覚−慣性オドメトリモジュール126(図1及び2)によって提供される50Hz姿勢は、両方とも姿勢関数であることは理解することができる。
の計算は、フレームcで開始することができ、加速度は、時間に関して逆積分することができる。
は解かれるモーションである。制約を次式として表すことができる。
式11
ここで、
は、カメラ制約に対して姿勢制約を適切にスケーリングする相対的共分散行列である。
視覚−慣性オドメトリサブシステムでは、姿勢制約がモーションモデルを満足してカメラ制約が式2のランドマーク測定モデルを満足する。最適化問題は、異常値特徴除去のためのロバストな当て嵌めフレームワークに適応されたニュートン勾配−降下方法を使用することによって解くことができる。この問題では、状態空間が
を含有する。従って、フルスケールMAP推定は実行されないが、マージン化問題を解くためだけに使用される。ランドマーク位置は最適化されず、従って、状態空間の6つの未知数だけが使用され、それによって計算強度を低く維持する。従って、本発明の方法は、レーザ範囲測定を伴い、特徴に正確な深度情報を提供し、モーション推定の精度を保証する。その結果、バンドル精緻化を通じた特徴の深度の更に別の最適化は必要ない。
深度アソシエーション
深度マップ記録モジュール545は、以前に推定されたモーションを使用して深度マップ上にレーザ点を記録する。カメラの視野内のレーザ点540は、ある一定の時間量に対して維持される。深度マップは一定密度を維持するためにダウンサンプリングされ、高速インデキシングのための2DのKDツリーに格納される。KDツリーでは、全てのレーザ点が、カメラ中心の周りの単位球面に投影される。点は点の2つの角座標によって表される。深度を特徴に関連付ける時に、特徴を球面に投影することができる。3つの最も近いレーザ点が各特徴に対して球面上に見出される。次に、それらの有効性は、直交空間の3つの点間の距離を計算することによって得られる。距離が閾値よりも大きい場合に、点が、物体、例えば、壁及び壁の前面の物体とは異なる機会が高く、有効性検査が失敗する。最終的に、深度は、直交空間内にローカル平面パッチを有する3つの点から補間される。
レーザ範囲カバレージのない特徴は、それらがある一定の距離にわたって追跡され、かつカメラモーションの方向に位置付けられない場合に、特徴が追跡される画像シーケンスを使用して三角測量することができる。そのような手順では、ベイズ確率モードに基づいて各フレームの深度を更新することができる。
走査適合サブシステム
このサブシステムは、レーザ走査適合による前のモジュールからのモーション推定値を精緻化する。図6は、走査適合サブシステムのブロック図を示している。サブシステムは、提供されたオドメトリ推定550を使用してローカル点群でレーザ点540を受信してこれらを記録する620。次に、図形特徴が点群から検出され640、かつマップに適合される。走査適合は、当業技術で公知の多くの方法と同様に特徴対マップの距離を最小にする。しかし、オドメトリ推定550は、最適化610で姿勢制約612を提供する。最適化は、レーザ制約617によって発見及び更に処理される特徴対応性615を有する姿勢制約を処理する段階とを含み、デバイス姿勢650を発生させる。この姿勢650は、特徴対応性615の発見を容易にするマップ記録処理655を通じて処理される。この実施はマップのボクセル表現を使用する。更に、それは、1から複数のCPUスレッドに並行して実行されるように動的に構成することができる。
レーザ制約
レーザ走査を受信する時に、本方法は、最初に走査620からの点を共通座標系に記録する。
は、走査数を示すのに使用することができる。カメラ座標系をカメラとレーザの両方に使用することができることは理解される。走査mは、
として示される走査の最初のカメラ座標系に関連付けることができる。視覚−慣性オドメトリからレーザ点540、オドメトリ推定550をローカルに記録620することは、キー−点として取ることができ、IMU測定を使用してキー−点の間を補間することができる。
は、走査mからのローカルに記録された点群とする。Pmからの図形特徴の2つのセットを抽出することができ、一方はシャープエッジで、すなわち、エッジ点で
として示され、他方はローカル平面表面で、すなわち、平面点で
として示されている。これは、ローカル走査での曲率の計算を通じたものである。塞いだ領域の境界上の点及びローカル表面がレーザビームに平行になるように近い点のような近傍点が既に選択されている点は避けられる。これらの点は、大きいノイズを含有するか又はセンサが移動する時に経時的に位置を変える場合がある。
図形特徴は、構築された現在のマップに適合される。
は{W}で定義される。
の点は、エッジ点及び平面点をそれぞれ含有する2つのセットに分離される。ボクセルを使用して、センサの周りのある一定の距離で切り捨てられたマップを格納することができる。各ボクセルに対して、2つの3DのKDツリーを構築することができ、一方はエッジ点に対して、片方は平面点に対してのものである。個々のボクセルのKDツリーの使用は、クエリ点が与えられているので点検索を加速し、単一ボクセルに関連付けられた特定のKDツリーを検索する必要がある(以下を参照)。
走査を適合させる時に、{W}への
が、最初に、利用可能なモーションの最良推測を使用して投影され、次に、
の各点に対して、最も近い点のクラスターが、マップ上の対応するセットから見出される。点クラスターの図形分布を検証するために、関連付けられた固有値及び固有ベクトルを調べることができる。特に、1つの大きい及び2つの小さい固有値がエッジラインセグメントを示し、2つの大きい及び1つの小さい固有値がローカル平面パッチを示している。適合が有効である場合に、式は、点から対応する点クラスターまでの距離に関して定式化される。
式12
ここで、
の点であり、
は、{W}での{Cm}の6−DOF姿勢を示している。
モーション推定
走査適合は、式12によって説明した全体的な距離を最小にする最適化問題610に定式化される。最適化は、前のモーションからの姿勢制約612を含有する。
を{W}での
の姿勢に関する4×4変換行列とすると、
は、最後の走査を処理することによって発生される。
は、オドメトリ推定によって提供される{Cm-1}から{Cm}への姿勢変換とする。式10と同様に、{W}での{Cm}の予測される姿勢変換は次式である。
式13
に対応する6−DOF姿勢とし、
は、相対的共分散行列とする。制約は次式になる。
式14
式14は、前のモーションが視覚−慣性オドメトリからのものである場合を示し、カメラが機能していると仮定する。そうでなければ、制約はIMU予測からのものである。
を使用して、IMU機械化による同じ項を示すことができる。加速度の積分が向き(式11の

の関数である。IMU姿勢制約は次式になる。
式15
ここで、
は、対応する相対的共有結合行列である。最適化問題では、式14及び15は、制約の1つのセットに直線的に組み合わされる。線形組合せは、視覚−慣性オドメトリの作動モードによって決定される。最適化問題は、ロバストな当て嵌めフレームワークに適用されるニュートン勾配−下降方法によって解かれる。
ボクセル内のマップ
マップ上の点はボクセルで維持される。A2−レベルボクセル実施を図7A及び7Bに示している。
は、最後の走査を処理した後の第1のレベルマップ700上のボクセルのセット702、704を示している。センサ706の周りのボクセル704は、
を形成する。6−DOFセンサ姿勢、
が与えられた状態で、マップ上のセンサと共に移動する対応する
がある。センサがマップの境界に近づいた時は、境界の反対側725上のボクセルが、マップ境界730を拡張するために移動される。移動したボクセルの点は消え、マップの切り捨てをもたらす。
図7Bに示すように、第2のレベルマップ750の各ボクセル、
は、第1のレベルマップ700よりも大きさが小さい
として示されるボクセルのセットによって形成される。走査を適合させる前に、
の点は、モーションの最良推測を使用してマップに投影され、これを
に充填する。
からの点によって占められるボクセル708は、
を形成するために抽出され、走査適合のために3DのKDツリーに格納される。ボクセル710は、
からの点によって占められないものである。走査適合の完了に応答して、走査は、マップを備えたボクセル708に融合される。この後で、マップ点は、ある一定の密度を維持するためにダウンサイジングされる。第1のレベルマップ700の各ボクセルが第2のレベルマップ750のサブボクセルよりも大きい空間の容積に対応することは理解することができる。従って、第1のレベルマップ700の各ボクセルは、第2のレベルマップ750の複数のサブボクセルを含み、第2のレベルマップ750の複数のサブボクセルにマップすることができる。
図7A及び7Bに関して上述したように、ボクセルの2つのレベル(第1のレベルマップ700及び第2のレベルマップ750)は、マップ情報を格納するのに使用される。
に対応するボクセルが第1のレベルマップ700を維持するのに使用され、第2のレベルマップ750の
に対応するボクセルは、走査適合のためのセンサの周りのマップを取り出すのに使用される。マップは、センサがマップ境界に近づく時だけ切り捨てられる。従って、センサがマップの内側をナビゲートする場合に、切り捨ては必要ない。別の考慮は、2つのKDツリーが
における各個々のボクセルに使用され、一方がエッジ点に、他方が平面点に使用される。上述のように、そのようなデータ構造は、点検索を加速することができる。この方式では、複数のKDツリーの検索は、
で各個々のボクセルに対する2つのKDツリーの使用とは対照的に避けられる。後者は、KDツリー構築及び保守に多くのリソースを必要とする。
表1は、異なるボクセル及びKDツリー構成を使用するCPU処理時間を比較するものである。この時間は、閉じられた環境及び開かれた環境、構造物のある環境及び植生区域を含む異なるタイプの環境から収集された複数のデータセットから平均化される。ボクセルの1つのレベルのみ、
の使用が、KDツリー構築及びクエリに約2倍の処理時間をもたらすことを見ることができる。これは、ボクセルの第2のレベル、
が、マップの正確な検索を補助するためである。これらのボクセルなしでは、より多くの点が
に含有され、KDツリーに蓄積される。更に、各ボクセルに対してKDツリーを使用することにより、
で全てのボクセルに対してKDツリーを使用することに比べて僅かに処理時間が低減される。
(表1)表1.KDツリー作動における平均CPU処理時間の比較
並行処理
走査適合は、KDツリーを構築する段階及び特徴対応性を繰返し見出す段階を伴う。この処理は、時間を消費し、システムの主要な計算を費やす。1つのCPUスレッドが望ましい更新周波数を保証できない場合に、マルチスレッド実施が複雑な処理の問題に対処することができる。図8Aは、2つの適合化器プログラム812、815が並行して実行される場合を示している。走査の受信に応答して、マネージャプログラム810は、これを利用可能な最新のマップに適合させるように並べる。複数の構造物及び複数の視覚特徴を有するクラスター化環境から構成される一例では、適合が遅く、次の走査の到着前に完了できない場合がある。2つの適合化器812及び815が代わりに呼び出される。1つの適合化器812では、

813nそれぞれに適合される。同様に、第2の適合化器815では、

(k=奇数の整数)816nそれぞれに適合される。このインターリーブ処理の使用は、処理のために2倍の時間量をもたらす場合がある。いくつかの構造物又は視覚特徴を備えた清浄な環境から構成される代替の例では、計算が軽い。そのような例(図8B)では、単一適合化器820だけを呼び出すことができる。インターリーブが必要ないので、
にそれぞれ適合される(827a、827b、827nを参照)。実施は4つのスレッドの最大値を使用するように構成することができるが、一般的に2つのスレッドだけが必要になる。
変換積分
最終モーション推定は、図2に示す3つのモジュールからの出力の積分である。5Hz走査適合出力は最も正確なマップを発生し、50Hz視覚−慣性オドメトリ出力及び200HzIMU予測は、高周波数モーション推定のために積分される。
ロバスト性に関して
システムのロバスト性は、センサ劣化を扱う機能によって決定される。IMUは、システムのバックボーンとしての信頼できる機能であると常に仮定される。カメラは、劇的照明変化の影響を受け易く、暗闇/テクスチャの少ない環境又は重大なモーションのぼけが存在する(それによって視覚特徴追跡の損失を引き起こす)時に失敗する場合がある。レーザは、構造物の少ない環境、例えば、単一平面によって支配されるシーンに対処することができない。これに代えて、レーザデータ劣化は、積極的なモーションによるデータのスパースさによって発生する場合がある。
視覚−慣性オドメトリ及び走査適合モジュールの両方は、式2に従って最適化問題を定式化して解く。欠陥が引き起こされた時に、これは劣化最適化問題に相当し、すなわち、問題の一部の方向における制約は条件が悪く、ノイズが、解を決定する場合に支配的になる。1つの非限定的方法では、問題に関連付けられた

として示される固有ベクトルを計算することができる。センサの状態空間が6−DOF(6の自由度)を含有するので6つの固有値/固有ベクトルが存在する。一般性を排除することなく、
は、減少する順序で並べ替えることができる。各固有値は、解がその対応する固有ベクトルの方向にどのように確実に条件付けられるかを説明する。固有値と閾値を比較することにより、確実に条件付けられた方向は、状態空間の劣化した方向から分離することができる。
を確実に条件付けされた方向の数とする。2つの行列を次式として定義することができる。
式16
最適化問題を解く時は、非線形反復を初期推測によって開始することができる。図2に示す順次パイプラインにより、IMU予測は、出力が走査適合のための初期推測として取られる視覚−慣性オドメトリのための初期推測を提供する。追加の2つのモジュール(視覚−慣性オドメトリ及び走査適合モジュール)に対して、xを解及びΔxを非線形反復におけるxの更新とし、Δxは、線形化システム式を解くことによって計算される。最適化処理中に、全ての方向のxを更新する代わりに、xを確実に条件付けられた方向でのみ更新することができ、代わりに劣化方向における初期推測を保持する。
式17
式17では、システムは、粗対細順序でモーションを解き、IMU予測から開始して、追加の2つのモジュールが、可能な限り多くのモーションを更に解く/精緻化する。問題が確実に条件付けられた場合に、精緻化は全ての6−DOFを含むことができる。そうでなければ、問題が部分的にのみ確実に条件付けられた場合に、精緻化は、0から5−DOFを含むことができる。問題が完全に劣化した場合に、
図14及び15に示す姿勢制約に戻って、2つの式が走査適合問題に直線的に組み合わされたことを理解することができる。式16に定義したように、
は、視覚−慣性オドメトリモジュールからの固有ベクトルを含有する行列を示し、

以下の通りである。
式18

カメラが機能している標準的な場合では、
及び式18は、式14の視覚−慣性オドメトリからの姿勢制約から構成される。しかし、カメラデータが完全に劣化した場合に、
姿勢制約から構成される。
カメラ劣化の事例研究
図9Aに示すように、視覚特徴が視覚−慣性オドメトリに不十分にしか利用できない場合に、IMU予測122は、視覚−慣性オドメトリ問題で確実に条件付けられた方向の数に応答して、視覚−慣性オドメトリモジュール126を点線に示すように完全に又は部分的にバイパスする924。走査適合モジュール132は、走査適合のためのレーザ点をローカルに記録することができる。IMU予測のバイパスはドリフトの影響を受ける。レーザフィードバック138は、カメラフィードバック128が利用できない方向にのみIMUの速度ドリフト及びバイアスを補正するカメラフィードバック128を補償する。従って、カメラフィードバックは、カメラデータが劣化しなかった時にこれを適合させる高周波数に起因してより高い優先度を有する。十分な視覚特徴が見出された時に、レーザフィードバックは使用されない。
レーザ劣化の事例研究
図9Bに示すように、環境構造がモーション推定を精緻化するための走査適合132に対して不十分である場合に、視覚−慣性オドメトリモジュール126出力は、点線に示すようにマップ930上のレーザ点を記録するために走査適合モジュールを十分に又は部分的にバイパスする。確実に条件付けられた方向が走査適合問題に存在する場合に、レーザフィードバックは、これらの方向の精緻化されたモーション推定値を含有する。そうでなければ、レーザフィードバックが空白になる138。
カメラ及びレーザ劣化の事例研究
更に複雑な例では、カメラとレーザの両方が少なくともある程度は劣化する。図10はそのような例を示している。6つの行を有する垂直バーは6−DOF姿勢を表し、各行は、式16の固有ベクトルに対応するDOF(自由度)である。この例では、視覚−慣性オドメトリ及び走査適合の各々がモーションの3DOFを更新し、他の3−DOFのモーションは変化させない。IMU予測1022a−fは初期IMU予測値1002を含むことができる。視覚−慣性オドメトリは一部の3−DOF(1026c、1026e、1026f)を更新し1004、精緻化済み予測1026a−1026fをもたらす。走査適合は、一部の3−DOF(1032b、1032d、1032f)を更新し1006、更に別の精緻化済み予測1032a−1032fをもたらす。カメラフィードバック128はカメラ更新1028a−1028fを含有し、レーザフィードバック138はレーザ更新1038a−1038fをそれぞれ含有する。図10を参照すると、陰影付けされていないセル(1028a、1028b、1028d、1038a、1038c、1038e)は、それぞれのモジュールからのいずれの更新情報も含有しない。IMU予測モジュールへの合計更新1080a−1080fは、カメラフィードバック128からの更新1028a−1028f及びレーザフィードバック138からの更新1038a−1038fの組合せである。フィードバックがカメラ(例えば、1028f)及びレーザ(例えば、1038f)の両方から利用可能な1又は2以上の自由度では、カメラ更新(例えば、1028f)は、レーザ更新(例えば、1038f)よりも優先度を有することができる。
しかし、実際には、視覚−慣性オドメトリモジュール及び走査適合モジュールは異なる周波数で実行する場合があり、各々がその固有の劣化方向を有する場合がある。IMUメッセージを使用して走査適合出力からの姿勢の間を補間することができる。この方式で、視覚−慣性オドメトリ出力に時間位置合わせされた区分的モーションを発生させることができる。
をフレームc−1とcの間の視覚−慣性オドメトリによって推定される6−DOFモーションとし、ここで
である。
を時間補間後の走査適合によって推定される対応する項とする。
は、視覚−慣性オドメトリモジュールからの固有ベクトルを含有する式16で定義された行列とすることができ、
劣化した方向を表している。
は、走査適合モジュールからの同じ行列とする。以下の式は組み合わされたフィードバック、
式19
従って、
は、カメラ及びレーザフィードバックを表している。
式20
式21
だけが状態空間のサブ空間に解かれたモーションを含有することに注意しなければならない。IMU予測からのモーション、すなわち、

式22
を使用して、式3及び4の積分を通じて
の関数として定式化されたIMU予測モーションを示すことができる。向き

の両方に依存する。バイアスは、以下の式を解くことによって計算することができる。
式23
システムが正常に機能している時に、

は、ゼロ行列である。それに応じて、
から計算される。劣化した場合では、IMU予測モーション、
は、モーションが解かれない方向に使用される(例えば、図10の組み合わされたフィードバックの白い行1080a)。結果は、前に計算されたバイアスがこれらの方向で維持される。
実験
スキャナによる試験
オドメトリ及びマッピングソフトウエアシステムは2つのセンサ組で検証される。第1のセンサ組では、VelodyneLIDAR(記録商標)HDL−32EレーザスキャナがUI−1220SE白黒カメラ及びXsens(記録商標)MTi−30IMUに取り付けられる。レーザスキャナは、360°水平FOV、40°垂直FOVを有し、5Hzスピン速度で70万点/秒を受信する。カメラは、752x480ピクセルの解像度、76°水平FOV、及び50Hzフレーム速度から構成される。IMU周波数は200Hzで設定される。第2のセンサ組では、VelodyneLIDAR(記録商標)VLP−16レーザスキャナが同じカメラ及びIMUに取り付けられる。このレーザスキャナは、360°水平FOV、30°垂直FOVを有し、5Hzスピン速度で30万点/秒を受信する。各センサ組が、データ収集のために路上で及びオフロードの地形で運転される車両にそれぞれ取り付けられる。
両方のセンサ組では、300Harrisコーナの最大値が追跡された。視覚特徴を均等に分配するために、画像は、5x6の同一副領域に分割され、各副領域は最大10特徴を提供する。特徴が追跡を失った時に、新しい特徴が各副領域の特徴数を維持するために発生される。
本発明のソフトウエアは、ロボットオペレーティングシステム(ROS)を実行するLinux(登録商標)システムで2.6GHz i7クアドコアプロセッサ(各コアに2スレッド及び全体で8スレッド)及び一体型GPUを有するラップトップコンピュータで実行される。ソフトウエアの2つのバージョンが、GPU及びCPUそれぞれで実行される視覚特徴追跡によって実施される。処理時間を表2に示している。視覚−慣性オドメトリによって使用される時間(図2の126)は、環境又はセンサ構成に対してあまり変化しない。GPUバージョンでは50Hzで実行されるCPUスレッドの約25%を消費する。CPUバージョンではスレッドの約75%を取る。センサの第1の組は、第2のセンサ組より僅かに多い処理時間をもたらす。これは、スキャナが多くの点を受信し、プログラムが深度マップを維持し、深度を視覚特徴に関連付けるのに多くの時間を必要とするからである。
走査適合(図2の132)は、環境及びセンサ構成に関して変化する処理時間を多く消費する。第1のセンサ組では、構造物のある環境で作動された場合に走査適合は5Hzで実行するスレッドの約75%を取る。しかし、植物のある環境では、多くの点がマップに記録されプログラムは、一般的にスレッドの約135%を消費する。第2のセンサ組では、スキャナが受信する点が少ない。走査適合モジュール132は、環境に依存してスレッドの約50−95%を使用する。IMU予測(図2の132)によって使用される時間は、他の2つのモジュールに比べて無視することができるものである。
精度試験
提案するシステムの精度を認めるために試験が行われた。これらの試験では、第1のセンサ組が使用された。センサは、大学のキャンパスの周りで運転するオフロード車両に設けられた。16分以内で2.7km運転した後で、キャンパスマップが構築される。試験中の平均速度は2.8m/sであった。
(表2)表2.第1及び第2のセンサ組を使用した平均CPU処理時間
試験中のモーション推定ドリフトを評価するために、推定された軌跡及び記録されたレーザ点が衛星画像上で位置合わせされた。従って、地面のレーザ点が手動で取り除かれる。軌跡を衛星画像上で街路と適合させることにより、水平誤差の上限が<1:0mであることが決定された。同じフロア上の建物を比較することにより、垂直誤差が<2:0mであったことが決定された。これは最後には移動された距離の<0.09%になる全体的な相対的位置ドリフトを与える。精度が測定に対して保証されないことは理解することができ、従って、位置ドリフトの上限だけが計算された。
乗客車両に設けられた同じセンサを有する更に包括的な試験が行われた。乗客車両は、構造物のある道路上を9.3km移動して運転された。経路は、植生された環境、橋、丘の地形、及び交通量の多い街路を横断し、最後に開始場所に戻る。上昇は経路に沿って70m以上変化する。信号機を待つことを除いて、車両速度は、試験中に9−18m/sの間である。経路の始め及び終わりの両方で見出された建物が2つの中に記録されると決定された。2つの記録は、経路の長さにわたるモーション推定ドリフトのために発生する。従って、第1の記録は、試験の最初の車両に対応し、第2の記録は試験の終わりに車両に対応する。間隙が<20mであると測定され、移動した距離の<0:22%の最後の相対的位置誤差をもたらす。
システムの各モジュールは全体的な精度に寄与する。図11は精度試験の推定される軌跡を示している。視覚−慣性オドメトリシステムによって発生される移動センサの軌跡の第1の軌跡プロット1102は、IMUモジュール122及び視覚−慣性オドメトリモジュール126を使用する(図2を参照)。第1の軌跡プロット1102に使用された構成は、図9Bに示すものに類似である。第2の軌跡プロット1104は、IMUモジュール122からのIMU予測を視覚−慣性オドメトリをバイパスする走査適合モジュール132(図2を参照)への直接転送に基づいている。この構成は図9Aに示すものに類似である。完全なパイプラインの第3の軌跡プロット1108は、IMUモジュール122、視覚−慣性オドメトリモジュール126、及び走査適合モジュール132(図2を参照)の組合せに基づいて最小量のドリフトを有する。第1の2つの構成、軌跡プロット1102及び1104の位置誤差は、それぞれ約4及び2倍大きい。
第1の軌跡プロット1102及び第2の軌跡プロット1104は、個々のセンサ劣化に遭遇した時に予測されるシステム性能として見ることができる。走査適合が劣化した場合に(図9Bを参照)、システムは、第1の軌跡プロット1102によって示されたモードに低下する。視野が劣化した場合に(図9Aを参照)、システムは、第2の軌跡プロット1104に示すモードに低下する。センサのどれも劣化していない場合に(図2を参照)、システムは、軌跡プロット1108をもたらす最適化関数の全てを組み込んでいる。別の例では、システムは、初期推測としてIMU予測を取ることができるが、レーザ周波数(5Hz)で実行される。システムは、第4の軌跡プロット1106を発生させる。得られる精度は、視覚−慣性オドメトリ方法を通過するレーザに直接に結合されたIMUを使用する第2の軌跡プロット1104と比較して僅かに良いだけである。結果は、互いにスタックされた全ての制約を有する問題を解く場合にカメラの機能が十分利用されないことを示している。
システムの別の精度試験は、オリジナルの1x速度及び加速された2x速度で実行する移動センサを含む。2x速度で実行された時に、全ての3つのセンサのあらゆる他のデータフレームが抑制され、試験を通じてより積極的なモーションをもたらす。結果を表3に列挙する。各速度で3つの構成が評価された。2x速度では、視覚−慣性オドメトリ及びIMU+走査適合構成の精度が、1x速度の精度に比べて移動した距離の0.54%及び0.38%大幅に低減される。しかし、完全なパイプラインは、ごく僅かの0.04%だけしか精度を低減しない。結果は、カメラ及びレーザが互いに補償し、全体的な精度を維持することを示している。これは特にモーションが積極的である時に真である。
(表3)表3.移動した距離の百分率としての相対的位置誤差
(図11の軌跡に対応する1x速度の誤差)
図12を参照すると、双方向情報フローの例示的かつ非限定的実施形態が示されている。例示するように、IMU予測モジュール、視覚−慣性オドメトリモジュール、及び走査−適合精緻化モジュールを含む3つのモジュールは、粗から細への段階的に問題を解く。データ処理フローは、左から右に3つのモジュールをそれぞれ通過し、フィードバックフローは右から左にIMUのバイアスを補正する。
図13a及び13bを参照すると、動的再構成可能システムの例示的かつ非限定的実施形態が示されている。図13aに示すように、視覚特徴が視覚−慣性オドメトリに不十分である場合に、IMU予測(部分的)が視覚−慣性オドメトリモジュールをバイパスしてレーザ点をローカルに記録する。一方では、図13bに示すように環境構造が走査適合に不十分である場合に、視覚−慣性オドメトリ出力(部分的)は走査適合精緻化モジュールをバイパスしてマップにレーザ点を記録する。
図14を参照すると、IMUバイアス補正のため優先度フィードバックの例示的かつ非限定的実施形態が示されている。例示するように、垂直バーは、6−DOF姿勢を表し、各行がDOFである。劣化した場合では、全ての6行が「IMU」と示されている左のIMU予測から始めて、視覚−慣性オドメトリ方法が3−DOFを更新し、行の指定が「カメラ」になり、次に、走査適合が別の3−DOFを更新し、行の指定が「レーザ」に変わる。カメラ及びレーザフィードバックは左の垂直バーのように組み合わされる。カメラフィードバックは高優先度を有し、カメラフィードバックからの「カメラ」行が存在しない場合は、レーザフィードバックからの「レーザ」行だけが充填される。
図15a及び15bを参照すると、マップの2層ボクセル表現の例示的かつ非限定的実施形態が示されている。マップ上のボクセルMm-1(図15aの全てのボクセル)、及びセンサの周りのボクセルSm-1(点で充填されたボクセル)が示されている。Sm-1は、Mm-1の部分集合である。センサがマップの境界に近づいた場合に、境界の反対側のボクセル(下の行)がマップ境界を延びるように移動する。移動したボクセル上の点はクリアされ、マップが切り捨てられる。図15bに示すように、各ボクセル
(図15aの点で充填されたボクセル)が、大きさが小さいボクセルのセット
走査適合の前に、レーザ走査は、モーションの最良推測を使用してマップ上に投影される。
は、クロスハッチでラベル付けされる。次に、クロスハッチボクセル内のマップ点が抽出され、走査適合のための3DのKDツリーに格納される。
図16を参照すると、走査適合のマルチスレッド処理の例示的かつ非限定的実施形態が示されている。例示するように、マネージャプログラムは、個別のCPUスレッドで実行される複数の適合化器プログラムを呼び出し、走査を利用可能な最新のマップに適合させる。図16aは2スレッドの場合を示している。2倍の処理時間量が与えられると、走査
に適合される。比較すると、図16bは1スレッドの場合を示し、従って、
に適合される。実施は、最大4つのスレッドを使用して動的に構成可能である。
実施形態では、リアルタイムSLAMシステムは、リアルタイムナビゲーションシステムと組み合わせて使用することができる。実施形態では、SLAMシステムは、LIDAR又はRADARベースの障害物検出システム、視覚ベースの障害物検出システム、又は熱ベースのシステムなどのような障害物検出システムと組み合わせて使用することができる。これは、人又はペットなどのような生きている障害物をモーション検出、熱検出、電気又は磁界検出、又は他の機構などによって検出する段階を含むことができる。
実施形態では、環境の特徴を走査することによって確立される点群は、SLAMの一部を形成する画面上などに表示され、SLAMシステムに近くの反射を提供する物体などの近距離特徴、並びに近距離特徴間の空間又は近距離特徴内の開口を通して走査することができるアイテムのような遠距離特徴のマッピングを含むことができる空間のマッピングを示すことができる。例えば、隣接する通路内のアイテムは、マップ器が部屋の内部を通って移動する時に部屋の内部の異なる点で異なる外側要素をこのような空間又は開口を通して走査することができるので窓又はドアを通して走査することができる。得られる点群は、次に、直近の近距離環境の包括的マッピングデータ及び環境の外側である遠距離要素の部分マッピングを含むことができる。すなわち、SLAMシステムは、近距離場内の空間又は開口(すなわち、フェンスの隙間)を通した遠距離場片の識別による「ピケットフェンス」効果を通した空間のマッピングを含むことができる。遠距離場データは、マップ器が包括的にマップされた空間(そこでは向き及び位置が点群の密度に起因して十分に既知である)からスパースにマップされた空間(新しい部屋など)に移動する時の場所の一貫性のある推定を維持するようなマップ器が空間から空間に移動する時にシステムがSLAMを方向付けするのを助けるのに使用することができる。ユーザが近距離場から遠距離場の場所に移動する時に、点群の相対的密度又は希薄度は、例えば、別の空間から開口を通して見ることができない遠距離場の各部分にマップ器を向けるようなマップ器を例えばSLAMの一部を形成するユーザインタフェースを通じて案内するのにSLAMシステムによって使用することができる。
実施形態では、SLAMシステムからの点群マップは、カメラ又はセンサなどの他の入力からのマッピングと組み合わせることができる。例えば、飛行又は航空機の例では、飛行機、ドローン、又は他の空中移動プラットフォームには、SLAMシステムのための参照データ(走査から生じた点群をGPS参照式場所にリンクするような)として使用することができる又は他のシステムからの出力上のオーバレイとして追加の走査データを表示するための走査からの参照データを取ることができる他の距離計測及び地理位置情報機器を備えることができる。例えば、従来のカメラ出力にオーバレイとして点群データを表示することができ、又は逆も同様である。
実施形態では、SLAMシステムは、各特徴からのリターン信号の反射強度を示すデータを含む点群を提供することができる。この反射強度を用いて、システムに対する信号の効果の決定を助け、特徴が互いにどう関係するかを決定し、面IR反射率などを決定することができる。実施形態では、マップ内の点群の表示を操作するための基礎として反射強度を使用することができる。例えば、SLAMシステムは、所与の特徴、材料、又は構造などに対する信号の反射率を示すためのある程度のカラーコントラストを(ユーザ制御下で自動的に)導入することができる。これに加えて、システムは、カラー及び反射率情報を増やすために他のシステムに結び付けることができる。実施形態では、点群内の点の1又は2以上は、強度パラメータ、密度パラメータ、時間パラメータ、及び地理空間場所パラメータのような取得されたデータのパラメータに対応するカラーで表示することができる。点群のカラー化は、SLAMシステムが作動している環境の要素又は特徴、及び/又は点群自体の取得の処理の要素又は特徴をユーザが理解及び分析するのを助けることができる。例えば、地理空間区域内で取得された点の数を示す密度パラメータを用いて、データの点の多くが取得された区域を表すカラーと、データがスパースであり、恐らく「現実」データ以外のアーチファクトの存在を示唆している別のカラーとを決定することができる。カラーは、走査が行われている時の一連のカラーの進行具合などの時間を示すこともでき、SLAM走査が実行された経路の明確な指示を結果として生じる。カラー化は、他の多くの目的の中でも、異なる特徴(壁と比較した時の空間における家具のアイテムなど)の区別を与える、美的効果を与える、関心の区域を目立たせるような(走査の観察者の注意を引くために関連の機器片を目立たせるような)表示目的のために行うこともできる。
実施形態では、SLAMシステムは、「影」(点群が走査からの比較的少ないデータ点を有する区域)を識別することができ、追加の走査が必要な区域を(ユーザインタフェースなどを通して)目立たせることができる。例えば、このような区域は、影区域が十分「ペイント」されるまで又はレーザ走査によってカバーされるまで点群を表示する特定のカラーでSLAMシステムの視覚インタフェースにおいて点滅又はレンダリングすることができる。このようなインタフェースは、まだ走査されていないフィールド内の区域を目立たせるユーザへのいずれかのインジケータ(視覚、文字ベース、音声ベースなど)を含むことができ、いずれのこのようなインジケータも、直接に又は外部デバイス(ユーザの移動電話など)を通してのいずれかでユーザの注意を引くために用いることができる。他の例示的かつ非限定的実施形態により、システムは、現在の走査と比較して走査されていない区域を識別するために、以前に構築された点群又はマップなどのSLAM上に格納されたデータから外部データを参照することができる。
実施形態では、本明細書で開示する方法及びシステムは、正確な場所及び向きの情報を決定する又はレーザ走査からの反射された信号に基づいて環境の特徴を示す点データ群から構成されるマップを生成するために、外部システムによる処理又は計算を必要とすることなく作業点でリアルタイム位置決め出力を提供するSLAMシステムを含む。実施形態では、本明細書で開示する方法及びシステムは、レーザ走査から収集されたデータの後処理を必要とすることなくリアルタイム位置付け情報を提供するSLAMシステムを含むこともできる。
実施形態では、SLAMシステムは、車両ナビゲーションシステム(無人空中車両、ドローン、移動ロボット、無人水中車両、自動運転車両、半自動車両、及びその他多くのためのような)のような様々な外部システムに統合することができる。実施形態では、SLAMシステムを用いてGPSなどの外部システムに頼ることなく車両を車両の環境内でナビゲートするのを可能にすることができる。
実施形態では、SLAMシステムは、位置又は向きなどの現在のSLAMシステムの推定に関する信頼水準を決定することができる。信頼水準は、走査で利用可能な点の密度、走査で利用可能な点の直交性、環境の形状又は他の因子、又はこれらの組合せに基づくことができる。信頼水準は、走査の経路に沿った各点の場所及び向きの推定に帰することがあり、これによって走査のセグメントは、低信頼セグメント又は高信頼セグメントなどと呼ぶことができる。低信頼セグメントは、他の技術の使用(外部データに基づく調節など)などの追加の走査のために目立たせることができる。例えば、走査が閉ループ(走査の終了点が既知の起点場所の開始点と同じである)で行われる場合、走査のある一定のセグメントの場所推定を優先的に調節して開始及び終了場所の一致を回復することにより、計算された終了場所と開始場所の間のいずれの相違も解決することができる。高信頼セグメントと比較して低信頼セグメントの場所及び位置情報を優先的に調節することができる。従って、SLAMシステムは、閉ループ走査の信頼ベースの誤差補正を使用することができる。
この信頼ベースの調節の例示的かつ非限定的実施形態では、ジョージア工科大学のMichael Kaess及びFrank Dellaertによって最初に開発された区分的平滑化及びマッピング(iSAM)アルゴリズム(「iSAM:区分的平滑化及びマッピング」、M.Kaess、A.Ranganathan、及びF.Dellaert著、IEEE Trans.on Robotics、TRO,vol.24,no.6,2008年12月、1365‐1378ページ、PDF)の派生物を使用することができる。このアルゴリズムは、「セグメント」でマップデータを処理し、これらのセグメントの相対的位置を繰り返し精緻化し、セグメント間の適合の残差を最適化する。これは、閉ループ内の全データを調節することによるループの閉止を可能にする。セグメント化点が多いことで、アルゴリズムが大きくデータを動かすのを可能にし、同時に少ないセグメント化点が高度な剛性を生成する。
適合信頼メトリックに基づいてセグメント化の点を選択する場合、この事実を用いて、低信頼度を有する区域でマップを柔軟性のあるものにし、かつ高信頼度を有する区域で剛性のあるものにすることができ、これによってループ閉止処理は、正確なマップのセクションを通して局所誤差を分配することはない。これは、セグメント化点に重み付けして「柔軟性」を各点に割り当て、この因子に基づいて誤差を分配することによって更に拡張することができる。
実施形態では、点群の区域又はセグメントに関する信頼性尺度を用いて、改善されたSLAM走査などを提供する追加の走査を行うようにユーザを案内することができる。実施形態では、信頼性尺度は、ユーザがより良い走査を可能にするように案内するために使用することができる点の密度又は点の直交性などの組合せに基づくことができる。点の密度及び点の直交性などの走査属性は、走査が進行するにつれてリアルタイムに決定することができる点に留意されたい。同様に、システムは、低信頼性尺度を生じる可能性の高い走査環境の形状を感知することができる。例えば、平らな壁のある長い廊下は、1つの走査セグメントと次のセグメントを区別するためのいずれの凹凸も示さないことがある。このような事例では、システムは、このような環境で取得された走査データに低信頼性尺度を割り当てることができる。システムは、LIDAR、カメラ、及び恐らくは他のセンサなどの様々な入力を用いて減少する信頼度を決定し、かつユーザが走査するのを命令(「減速せよ」又は「左に曲がれ」など)で案内することができる。他の実施形態では、システムは、低信頼度の面積、容積、又は領域を更にユーザが走査するのを可能にする助けを与えながら、ユーザインタフェースなどを通してユーザに要求される信頼度よりも低い信頼度の区域を表示することができる。
実施形態では、SLAM出力は、カメラからの出力又は他のマッピング技術からの出力などの他のコンテンツと融合させることができる。実施形態では、SLAM走査は、走査に対応する時間符号化音声注釈を取り込む随伴アプリケーション(任意的にモバイルアプリケーション)などを通して音声トラックの取り込みと共に行うことができる。実施形態では、SLAMシステムは、走査中のデータ収集の時間符号化を提供し、これによってマッピングシステムは、マップ器が音声及び/又は注釈を取り込んだ時間及び場所を含む走査が行われた時間及び場所を特定することができる。実施形態では、時間符号化は、音声が利用可能なマップ上のインジケータをクリックすることによってユーザによってアクセスすることができるマップ又は走査にデータを挿入することなどによって注釈が関連するマップの区域に注釈を位置付けるのに使用することができる。実施形態では、写真又はHDビデオなどの他の媒体フォーマットを取り込み、走査に同期させることができる。これらは、時間情報に基づいて別々にアクセスすることができ、又は他の媒体の時間情報との走査出力の時間同期に基づいてマップ自体の適切な箇所に挿入することができる。実施形態では、ユーザは、時間データを用いて時間的に戻り、異なる時間符号化データを有する複数の走査などに基づいて経時的に変化したものを見ることができる。走査は、日付又はタイムスタンプサービス記録データなどの他の情報によって拡張することができる。従って、走査は、シーン又は空間の多次元データベースの一部とすることができ、点群データは、時間ベースのデータ又は媒体を含むシーンに関係付けられた他のデータ又は媒体に関連付けられる。実施形態では、起点で始まる新しい走査を再初期化するのではなく、走査の所与の点に戻り、この点で再初期化するように走査をバックアップできる方式で段階又はセグメントのシーケンスを通して計算が維持される。これは、良好な出力を最初に生成した走査において後の点で問題が起こった時などで走査を継続するための開始点としての部分的走査情報の使用を可能にする。従って、ユーザは、ある点まで走査を「復元」又は「巻き戻す」ことができ、この点からの走査を再開する。システムは、点群特徴に基づいて正確な位置及び場所情報を維持することができ、時間情報を維持して他の時間ベースのデータとのシーケンシングを可能にする。時間ベースのデータは、走査又は他の媒体の編集を可能にし、走査が時間間隔にわたって完了した場所及び異なる時間間隔にわたって取り込まれた他の媒体に同期する必要のあるものを同期することができる。点群のデータにタイムスタンプをタグ付けすることができ、これによって巻き戻しが行われる時間のある点後に起こったタイムスタンプのデータを消去することができ、指定された点から走査を再開することができる。実施形態では、ある時間点までの及び/又は地理空間座標までの巻き戻しなどの物理的な場所までの巻き戻しを行うことができる。
実施形態では、SLAMベースのマップからの出力は、点群をカラー化してこれをオーバレイとして使用することを含むHDビデオなどの他のコンテンツと融合することができる。これは、SLAMシステムと他の媒体取り込みシステムの間の時間同期を含むことができる。コンテンツは、ビデオ、空間の静止画像、空間のCADモデル、走査中に取り込まれた音声コンテンツ、場所に関連付けられたメタデータ、又は他のデータ又は媒体に融合させることができる。
実施形態では、SLAMシステムは、点群を操作するために使用することができるツール(CADなど)のような他の技術及びプラットフォームに統合することができる。これは、CADモデリングツール、迅速プロトタイプシステム、3Dプリントシステム、及び点群又は立体モデルデータを使用することができる他のシステムでモデル化される特徴と走査を組み合わせる段階を含むことができる。走査は、カラー化ツールなどの後処理ツールへの入力として提供することができる。走査は、関心の点、メタデータ、媒体コンテンツ、注釈、ナビゲーション情報、構文分析を追加して特定の形状を区別する及び/又は物体を識別するなどのためにマッピングツールに提供することができる。
出力は、地中探知レーダー、X線画像化、磁気共鳴画像化、コンピュータ断層撮影画像化、熱画像化、写真、ビデオ、SONAR、RADAR、又はLIDARなどのような他の走査及び画像取り込みシステムからの出力と組み合わせることができる。これは、車載ナビゲーションシステム、手持式マッピングシステム、移動電話ナビゲーションシステム、及びその他などのナビゲーション及びマッピングシステムのディスプレイに走査の出力を統合する段階を含むことができる。走査からのデータを用いて、X、Y、及びZ位置情報、並びにピッチ、ロール、及びヨー情報を含む場所及び向きのデータを他のシステムに提供することができる。
とりわけ、3Dモーションキャプチャシステム、音響工学アプリケーション、バイオマス測定、航空機建造、考古学、建築、工学及び建設、拡張リアリティ(AR)、自律車、自律モバイルロボットアプリケーション、清掃及び処理、CAD/CAMアプリケーション、建設現場管理(例えば、進捗状況の確認)、娯楽、探検(宇宙、採掘、水中など)、森林管理(材木搬出及びメープルシュガーのような林産物管理を含む)、フランチャイズ管理及びコンプライアンス(例えば、店及びレストラン)、認証及びコンプライアンスのための画像化用途、屋内場所、インテリアデザイン、在庫整理、景観設計、メンテナンスのための産業空間のマッピング、トラック輸送経路のマッピング、軍事/知的用途、モバイルマッピング、輸送管及び掘削のモニタ、財産評価及び他の不動産用途、小売屋内場所(リアルタイムマップと在庫マップの結合など)、セキュリティ用途、備蓄モニタ(鉱石、丸太、商品など)、調査(より良い見積実行のための事前走査の実行を含む)、UAV/ドローン、モバイルロボット、地下マッピング、3Dモデリング用途、バーチャルリアリティ(カラー化空間を含む)、倉庫管理、ゾーン分け/立案用途、自律ミッション、検査用途、ドッキング用途(宇宙船及び船舶を含む)、洞窟探検、及びビデオゲーム/拡張リアリティ用途の目的を含む多くの異なる目的にリアルタイムSLAMシステムから取得されたデータを使用することができる。全ての使用シナリオにおいて、SLAMシステムは、使用の注釈区域に本明細書に説明するように作動することができる。
例示的かつ非限定的実施形態により、ユニットは、IMU、カメラ(ビジョン)、及びLiDARセンサのハードウエア同期を含む。ユニットは、ある持続時間に暗い又は構造物のない環境で作動することができる。処理パイプラインは、モジュールから構成することができる。暗闇ではビジョンモジュールをバイパスすることができる。構造物のない環境では、LiDARモジュールをバイパス又は部分的にバイパスすることができる。例示的かつ非限定的実施形態では、IMU、LiDAR、及びカメラデータが全てタイムスタンプされ、時間的に適合及び同期させることができる。この結果、システムは自動様式で作用し、画像データ及び点群データを同期することができる。一部の事例では、同期されたカメラ画像からのカラーデータを用いて、ユーザに表示するための点群データピクセルに色付けすることができる。
ユニットは、走査適合のための4つのCPUスレッドを含むことができ、例えば、Velodyneデータを有する5Hzで実行することができる。作動する時のユニットのモーションは相対的に高速である可能性がある。例えば、ユニットは、約360度/秒の角速度及び約30m/sの直線速度で作動することができる。
ユニットは、以前に生成されたマップにローカライズすることができる。例えば、スクラッチからマップを構築する代わりに、ユニットのソフトウエアは、以前に構築されたマップを参照して古いマップのフレームワーク(例えば、地理空間又は他の座標)内にセンサ姿勢及び新しいマップを生成することができる。ユニットは、ローカライゼーションを用いてマップを拡張することができる。古いマップフレームに新しいマップを展開することにより、新しいマップは古いマップ上及び古いマップから先に進むことができる。これは、初期「バックボーン」走査が最初に生成されて潜在的に後処理される分岐及び連鎖を含む異なる使用の様式を可能にし、関心の区域における建物のサイドルーム又は増加した点密度などのローカルな詳細を追加するためにマップから再開する前にドリフト及び/又は他の誤差を低減することができる。この方式を用いることによって、バックボーン様式を特別な注意を払って生成することができ、グローバルドリフトを制限し、ローカル詳細を取り込むことに集中して後続走査を発生させることができる。複数のデバイスが大きな区域の高速取り込みのための同じベースマップからの詳細な走査を実行することも可能である。
異なるタイプのデバイスによって生成された又はCAD製図から生成されたモデルを再開することも可能である。例えば、高グローバル精度固定デバイスは、ベースマップを構築することができ、モバイルスキャナはこのマップから再開して詳細を埋めることができる。代替実施形態では、長距離デバイスが、建物の外側及び大きな内側区域を走査することができ、短距離デバイスが、この走査から再開して小さな廊下及び部屋及び要求される細かい詳細を加えることができる。CAD図面からの再開は、CADと竣工図の間の差を迅速に検出するための有意な利点を有することができる。
再開は、場所登録式時間データを提供することもできる。例えば、複数の走査を経時的に建設現場で行い、進捗状況を視覚的に見ることができる。他の実施形態では、工場の複数の走査は、資産管理の追跡を助けることができる。
再開は、これに代えて、以前のマップ内のローカライゼーションデータを純粋に提供するのに使用することができる。これは、ロボット車両の案内、又は既存のマップ内の画像、熱マップ、音響などの新しいセンサデータのローカライズに有用である場合がある。
一部の実施形態では、ユニットは、長期間のローカライゼーション/ナビゲーションに適したマッピングモードでの比較的高いCPU使用及びローカライゼーションモードでの比較的低いCPU使用を利用する。一部の実施形態では、ユニットは、時々内部リセットを実行することによって長期間動作をサポートする。これは、内部処理中に生成された値の一部が経時的に増える場合に有利である。長期間の作動(例えば、数日)にわたって、値は、コンピュータ内の値のためのストレージの論理的又は物理的制限値などの制限値に達することがあり、リセットの不在で処理を潜在的に失敗させる。一部の事例では、システムは、RAMメモリを自動的にフラッシュして性能を向上させることができる。他の実施形態では、システムは、新しく取得されたデータと古い及び/又は記録されたデータとのリアルタイムの比較を実行する時に必要な場合に古い走査データを選択的にダウンサンプリングすることができる。
他の例示的実施形態では、ユニットは、飛行用途及び空中‐地上マップ統合をサポートすることができる。他の実施形態では、ユニットは、IMU周波数、例えば100Hzで姿勢出力を計算することができる。このような事例では、本発明のソフトウエアは、マップ並びにセンサ姿勢を生成することができる。センサ姿勢は、センサ位置及び展開されているマップに関する指向を知らせる。高周波数及び正確な姿勢出力は、車両モーション制御がこのようなデータを必要とするのでモバイル自律性をサポートする。ユニットは、共分散及び推定信頼度を更に利用してセンサが静止している時の姿勢をロックすることができる。
図17(a)〜17(b)に関して、SLAMの例示的かつ非限定的実施形態を示している。LIDARは、実質的に半球の走査を生成するために回転される。これは、平歯車アセンブリ1704を通じてLIDARマウントに対する平歯車減速を駆動するDCモータを備えた機構によって実行される。平歯車減速アセンブリ1704は、モータ1708からLIDARをオフセットすることを可能にする。LIDARの回転に合致したスリップリングが存在し、電力を供給してスピンしているLIDARからデータを受信する。符号器1706は、LIDARの回転に合致して走査中の機構の向きを記録する。薄いセクション接触ベアリングがLIDAR回転軸を支持する。LIDAR回転プレート上の平行錘が、回転の軸の周りの重量の均衡を取り、回転を滑らかにかつ一定にする。以下のLIDAR駆動機構及び取り付け図に示すように、この機構は、最小のスロップ及びバックラッシュを有するよう設計され、走査点位置の補間のための一定速度の維持を可能にする。モータシャフト1710がLIDARコネクタ1712と物理的に通信する点に留意されたい。
図18に関して、SLAMエンクロージャ1802の例示的かつ非限定的実施形態を示している。SLAMエンクロージャ1802を様々な図及び斜視図に示している。寸法は、LIDAR、オドメトリカメラ、カラー化カメラ、又はユーザインタフェース画面などのような主要な構成要素の一般的な特徴及び向きを維持すると同時にサイズが同様又は異なる場合の実施形態及び非限定的実施形態を表している。
一部の実施形態では、ユニットは、ネックブレース、ショルダーブレース、キャリア、又は他のウェアラブル要素又はデバイス(図示せず)を利用して、個人が歩き回る時にユニットを保持するのを助ける。ユニット又は支持要素又はデバイスは、走査中の揺れ又は振動を低減するための1又は2以上の安定化要素を含むことができる。他の実施形態では、ユニットは、ショルダーバッグなどで運ばれるリモートバッテリを利用して手持式ユニットの重さを低減する場合があり、これによって走査デバイスは外部電源を有する。
他の実施形態では、カメラ及びLIDARは、視野を最大にするよう配置される。カメラ‐レーザ配置はトレードオフを課す。1つの側では、カメラはレーザFOVを遮り、他方の側では、レーザがカメラを遮る。このような配置では、両方がわずかに遮られるが、この遮りがマッピング品質を大きく犠牲にすることはない。一部の実施形態では、視界処理がレーザデータによって支援されるので、カメラはレーザと同じ方向を向く。レーザ範囲測定は、処理中に深度情報を画像特徴に提供する。
一部の実施形態では、空間データの信頼度を表す信頼度メトリックを用いることができる。このような信頼度メトリック測定値は、限定されないが、点の数、点の分布、点の直交性、及び環境の形状などを含むことができる。レーザデータ処理(例えば、走査適合)及び画像処理のために1又は2以上の信頼度メトリックを計算することができる。図19(a)‐19(c)に関して、レーザ適合推定信頼度によって区別される点群を示す例示的かつ非限定的実施例の画像が示されている。実際に、このような画像を図示のようにカラー符号化することができ、軌跡及び点の両方は、記録時に最後の信頼値に基づいて点群内に実線又は破線として描かれる。実施例では、暗い灰色が悪く、明るい灰色が良好である。値>10を有する全てが実線になるように値が閾値化される。実験を通してVelodyne<1は信頼できず、<10は少し信頼でき、>10は非常に良好であることが見出されている。
これらのメトリックを用いることで、本明細書の他の箇所で論じるループ閉止ツールなどを利用した時のモデル課題及びオフラインモデル補正を解決するための自動化試験を可能にすることができる。これらのメトリックの使用は、適合が悪い時にユーザに警告し、可能であれば自動停止する、低信頼度データを却下する、走査する時にユーザに警告することを可能にする。図19(a)は、比較的遅いペースで実行される建物床面の走査を示す。図19(b)は、比較的早いペースで実行される同じ建物フロアの走査を示す。走査が行われる速度から一部発生する遅い走査ペースから取得された走査と比較した時の軽いほつれに留意されたい。図19(c)は、比較的低信頼度の潜在的なトラブルスポットにズームした表示を示す。
図20に関して、フルレーザ走査と以前のフルレーザ走査から構築されたマップとの間の軌道を計算して視覚的に提示することができる走査対走査適合信頼度メトリック処理及び視覚特徴の平均数の例示的かつ非限定的実施形態が示されている。このメトリックは、有用であるが異なる信頼度メトリックを示すことがある。図20では、レーザ走査信頼度メトリック図が左のフレームに示され、同じデータの視覚特徴メトリックの平均数が右フレームに示されている。ここでもまた、暗い灰色の線は、視覚特徴のより低い信頼度及び/又はより少数の平均数を示す。
一部の実施形態では、ループ閉止を用いることができる。例えば、ユニットは、人が部屋の周りで、小部屋で、オフィスを出入りして、次に開始点に戻って歩く時に作動させることができる。理想的には、開始及び終了点からのデータのメッシュを正確に網目にしなければならない。現実には、あるドリフトが存在する可能性がある。本明細書で説明するアルゴリズムはこのようなドリフトを大幅に最小化する。一般的な低減は、10x対従来方法(0.2%対2%)の程度である。この比率は、ループ中に横断された合計距離によって除算された開始点と終了点間の距離の誤差を反映する。一部の実施形態では、本発明のソフトウエアは、開始点に戻り、起点に再度ロックできることを認識している。行われた状態で、変動を取り、収集されたデータの全てにこれを広げることができる。他の実施形態では、データ信頼度が低いことを信頼度メトリックが示す場合に、ある一定の点群データにロックインすることができ、低信頼度を有する区域に調節を加えることができる。
一般的に、システムは、明示的及び暗黙的ループ閉止の両方を利用することができる。一部の事例では、ユーザは、SLAMの一部を形成するユーザインタフェースなどを通じてループが閉じることを示すことができる。この明示的ループ閉止は、開始及び終了取得データを互いにスナップしてループを閉じるためにループの始めで取得されたデータに新しく走査されたデータを適合させるよう作動するソフトウエアを実行するSLAMを結果として生じる場合がある。他の実施形態では、システムは、暗黙的ループ閉止を実行することができる。このような事例では、システムは、システムが走査ループの点又は起点の区域を含む場所を能動的に再走査することを認識する自動化方式で作動することができる。
一部の実施形態では、信頼度ベースのループ閉止を利用することができる。最初に、複数のセグメントを含む区域のループ走査の開始及び終了点を決定することができる。次に、複数のマルチセグメントの信頼度を決定することができる。ループの開始及び終了を合致させるために高品質セグメントよりも低い品質セグメントに調節を行うことができる。
他の例示的実施形態では、マルチループ信頼度ベースのループ閉止を実行することができる。他の実施形態では、構文的に調節された信頼度ベースのループ閉止を利用することができる。例えば、走査された要素の属性から構造的情報、すなわち、床が平坦である、廊下がまっすぐであるなどを得ることができる。
一部の事例では、LIDAR点群データのカラー化を利用することができる。一部の実施形態では、粗いカラー化を収集された点にリアルタイムで利用し、取り込まれたものの識別を助けることができる。他の実施形態では、オフライン写真現実カラー化を利用することができる。他の実施形態では、カメラの各ピクセルを固有のLIDARピクセルにマップすることができる。例えば、点群内のLIDARデータに対応するカラー化カメラのピクセルからカラーデータを取ることができ、カラーデータをLIDARデータに追加することができる。
例示的かつ非限定的実施形態により、ユニットは、順次多層処理パイプラインを用いて粗から細にモーションを解くことができる。最適化の各層で、以前の粗い結果は、最適化問題への初期推測として使用される。パイプラインの段階は以下の通りである。
1.高周波数更新(200Hzの程度)を提供するが、ドリフトの高レベルに影響されるモーション予測のためのIMU機械化によって開始する。
2.次に、この推定値は、カメラのフレーム速度(30‐40Hz)の視覚‐慣性オドメトリ最適化によって精緻化され、最適化問題は、姿勢変化の初期推測としてIMUモーション推定値を使用し、現在のカメラフレームからキーフレームまで追跡されるいくつかの特徴の間のモーションにおける残余平方誤差を最小にしようとしてこの姿勢変化を調節する。
3.次に、この推定値は、「走査フレーム」速度によって決定された低速のレーザオドメトリ最適化によって更に精緻化される。走査データは、継続して発生し、ソフトウエアは、このデータを通常の速度で画像フレームに類似のフレームにセグメント化し、現時点では、この速度は、各走査フレームをデータの全半球にするためのLIDAR回転機構の1つの回転に対してかかる時間である。このデータは、同じ走査フレーム内の点が収集される位置変化の視覚‐慣性推定値を使用して互いに縫い合わされる。LIDARオドメトリ姿勢最適化段階では、視覚オドメトリ推定値が初期推測として取られ、最適化は、以前の走査フレームに適合した現在の走査フレーム内の追跡された特徴における残差を低減しようとする。
4.最終段階では、現在の走査フレームは、これまでのマップ全体に対して適合される。レーザオドメトリ推定値が初期推測として取られ、現在の走査フレーム内の特徴とこれまでのマップ内の特徴の間の残余平方差を最適化が最小にする。
得られるシステムは、密度の高い正確な3Dマップ記録と共に高周波数、低待ち時間エゴモーション推定を可能にする。システムは、各段階が以前の段階内の誤差を補正することができるので失敗モジュールをバイパスする自動再構成によってセンサ劣化に対処することができる。従って、高度に動的なモーションが存在する場合、並びに暗いテクスチャのないかつ構造物のない環境で作動することができる。実験中に、システムは、ナビゲーションの9.3kmにわたる相対位置ドリフトの0.22%、及び走行、ジャンプ、及び更に高速道路高速運転(33m/sまで)に関するロバスト性を明らかにしている。
このようなシステムの他の主要な特徴は以下を含むことができる。
深度あり及び深度なしの視覚特徴最適化:ソフトウエアは、最初に追跡された視覚特徴の深度をレーザデータに関連付けることを試み、次にカメラフレーム間の深度を三角測量することを試みることによって、追跡された視覚特徴の深度の決定を試みることができる。特徴最適化ソフトウエアは、1つは深度を有する特徴、及び1つは深度なしの特徴の2つの異なる誤差計算を備えた全ての特徴を用いることができる。
レーザ特徴決定:ソフトウエアは、走査フレーム全体ではなく走査線データが来る時のレーザ走査特徴を抽出することができる。これは、平坦な特徴として最も平滑な点及びエッジ特徴として最も尖った点をラベル付けするこの点とこの点のいずれかの側のK最隣接点との間の相対距離によって定義される各点の平滑度を見ることによってより容易であり、かつそれによって行われる。これは、悪い特徴である可能性がある一部の点の削除も可能にする。
マップ適合及びボクセル化:レーザ適合がリアルタイムでどのように機能するかの部分は、マップ及び特徴データがどのように格納されるかである。この格納されたデータのプロセッサ負荷を追跡することは、長期の走査及び選択的なボクセル化、又は正確な適合に必要であることを維持しながら格納されるデータを最小にするために3次元ベースユニットにダウンサンプリングすることに対して必須である。プロセッサ負荷に基づいて無線でダウンサンプリングのボクセルサイズ又は基本ユニットを調節することは、大きなマップ内のリアルタイムの性能を維持する機能を改善することができる。
並行処理:ソフトウエアは、プロセッサが処理できるよりも高速でデータが来る場合にリアルタイムの性能を維持するために平行処理を利用することができるように設定することができる。これは、Velodyneのような高速点/秒LIDARに該当する。
ロバスト性:システムが使用する方法は、次の推定値の一部(初期推測とは別に)が一部の固有のロバスト性を生じる場合に前の段階の推定値を含むことなく最適化段階を分離する。
信頼度メトリック:この処理における各最適化段階は、固有の結果における信頼度の情報を提供することができる。特に、各段階では、最適化後の残りの残余平方差及びフレーム間で追跡される特徴の数などを評価し、結果における信頼度の尺度を提供することができる。
デバイスによって取得されているデータを用いて準備されているマルチスペクトラルモデルのダウンスケール(例えば、サブサンプル)バージョンをユーザに提示することができる。実施例では、モデルデータの各測定された3cmx3cmx3cmキューブは、単一のピクセルとしてユーザインタフェースに提示されるスケールダウンバージョンで表現することができる。表示のために選択されたピクセルは、キューブの中心に最も近いピクセルとすることができる。SLAMの作動中に生成された代表ダウンスケール表示を以下に示す。説明するように、容積内の単一のピクセルを表示する決定は、定義された次元の空間キューブを占める点群の1又は2以上の点の存在又はいずれかのこのような点の不在のいずれかを示すバイナリ結果を表す。他の例示的実施形態では、選択されたピクセルによって表される定義されたキューブの内側のピクセルの数を示す値などの属性を選択されたピクセルに備えることができる。この属性は、属性の値を反映させるためにカラー及び/又は強度を利用する各選択されたピクセルなどを表示することによってサブサンプル点群を表示する時に利用することができる。
視覚フレームは、カラーカメラからの単一の2Dカラー画像を含む。LIDARセグメントは、LIDARスキャナのフル360度回転を含む。視覚フレーム及びLIDARセグメントは同期され、これによってこれらは、オドメトリ(例えば、高速黒/白)カメラなどのIMU及び関係付けられたセンサから取り込まれたユニット位置データに基づいて既存のモデルデータと組み合わされてこれに位置合わせすることができる。
より低い信頼度メトリックに起こる問題は、限定されないが、光沢のある壁、ガラス、透明なガラス、及び狭い通路からの反射を含む。一部の実施形態では、ユニットのユーザは、例えば、停止ボタンを叩く及び/又は過去の予め決められた又は要求された秒数である点までの巻き戻しを要求することなどによって走査を停止かつ再開することができる。
例示的かつ非限定的実施形態により、走査中の巻き戻しは、以下のように進めることができる。最初に、システムのユーザが、巻き戻す希望を示す。これは、SLAMの一部を形成するユーザインタフェースの操作を通じて達成することができる。巻き戻し要求を示す結果として、システムは、持続時間に対応する走査されたデータ点の一部を削除又はそうでなければ取り除く。全ての走査されたデータ点がタイムスタンプされる場合、システムは、予め決められた時間後のデータ点を効率的に取り除くことができ、従って、走査の以前の点に「巻き戻す」。本明細書で論じるように、カメラからの画像が各走査中に収集されてタイムスタンプされる。この結果、予め決められた時間点後のデータ点を取り除いた後、システムは、予め決められた時間点まで巻き戻された走査点群を表示しながら予め決められた時間点で記録された画像の表示をユーザに提供することができる。画像はガイドとして作用し、システムのユーザが、以前に予め決められた時間点のSLAMの向き及び姿勢に密接に適合する位置にSLAMを向け直すのを助ける。ユーザが予め決められた時間点のSLAMの以前の向きの近くに向けられた状態で、ユーザは、SLAMのユーザインタフェース上の「進む」ボタンに係合することなどによって走査を再開する希望を示すことができる。走査再開の指令に応答して、SLAMは、新しく走査されたデータを利用する処理パイプラインの実行に進み、SLAM場所及び向きの初期推定を形成することができる。この処理中に、SLAMは、新しいデータを走査に追加することはできないが、新しく走査されたデータを用いてユーザの場所の瞬間信頼水準、並びに新しく取得されたデータが以前の走査データに対応する程度の視覚表現を決定及び表示することができる。最後に、SLAMの場所及び向きが以前に走査されたデータに対して十分に決定されたことが確立された状態で、走査を続行することができる。
前述のように、この巻き戻す機能は、格納されたデータによって一部可能になる。1秒あたりにもたらされる点の数を推定し、「巻き戻す」量を推定することができる。ユニットは、ユーザがx秒前に居た場所をユーザに通知し、ユーザがこの場所に移動してユーザが適切な場所に居ることを確認するのに数走査行うことができる。例えば、ユーザは、行くべき適切な場所を知らされる(又はユーザが再開したい場所を示す)。ユーザが十分に近い場合、ユニットは、ユーザが居る場所を把握してユーザが十分近いかをユーザに知らせることができる。
他の例示的実施形態では、ユニットは、空間間の移行において作動することができる。例えば、ユーザが狭い出入り口を素早く歩いた場合、新しい空間のユーザの場所を決定するための十分なデータ及び時間がない可能性がある。詳細には、この例では、ドアフレームの境界は、それを通って進む前に、ユーザの場所を設定するのに十分なドアを超える環境の一部をLIDARが画像化するのを阻止することがある。1つのオプションは、この信頼度メトリック及び信号の低下をオペレータに対して検出し、視覚インジケータを点滅させる又は画面のカラーなどを変えることによって狭い通路に近づいて行くユーザの行動を遅くするように修正することである。
図21に関して、SLAMユニット2100の概略の例示的かつ非限定的実施形態が示されている。SLAMユニット2100は、IMU2106のパルス/秒(PPS)信号から得られた複数の信号を生成するためのタイミングサーバを含むことができる。生成された信号を用いて、ユニット内の異なるセンサから収集されたデータを同期させることができる。マイクロコントローラ2102を用いて信号を生成し、CPU2104と通信することができる。直交復号器2108は、マイクロコントローラ内に又は外部IC上に組み込むことができる。
一部の例示的実施形態では、IMU2206は、システムの他の部分のためのタイミングパルスを生成するために使用される立ち上がりPPS信号を供給する。カメラは、上述のような1つの立ち上がり信号及び2つの立下り信号、GPIOI(持続する1つのフレーム)及びGPIO2(持続する2つのフレーム)を図22に関して示すように含むIMU PPS信号から生成される3つの信号を受信することができる。
図のように、各カメラは、約30Hz又は40Hzの高フレーム速度及び約0.5Hz‐5Hzの高解像度を有するIMU PPSと同期されたトリガ信号を受信する。
各IMU PPSパルスは、マイクロコントローラ2202の内部のカウンタをゼロにすることができる。LIDARの同期出力は、以下の事象をトリガすることができる。
・直交復号器を通して現在の符号器値を読み取る。
・現在のカウンタ値を読み取る。
符号器及びカウンタ値を一緒に保存してCPUに送信することができる。これは、図23に関して図示したLIDAR同期出力によって示される40Hz毎に発生することができる。
代替時間同期技術は、センサとコンピュータプロセッサの同期を容易にするIMUベースのパルス/秒同期を含むことができる。このタイプの同期の例示的かつ非限定的実施形態を図24に関して示している。
IMU2400は、パルス/秒(PPS)信号2406をLIDAR2402に送信するように構成することができる。PPSが送信される度に、コンピュータ2404は、IMUデータストリーム内のフラグを認識することによって通知される。コンピュータ2404は、追跡して時間ストリングをLIDAR2402に送信する。LIDAR2402はPPS2406に同期し、受信された時間ストリングに基づいてLIDARデータストリーム内の時間スタンプを符号化する。
第1のPPS2406の受信時に、コンピュータ2404は、そのシステム時間を記録する。第2のPPSから開始して、コンピュータ2404は、1秒毎に記録された時間を増やし、得られる時間ストリングをLIDAR2402に送信し、固有のシステム時間を訂正してPPS2506を追跡する。
この時間同期方式では、IMU2400は、時間サーバとして機能し、初期時間がコンピュータシステム時間から取得される。IMU2400データストリームは、その固有のクロックに基づいて時間スタンプに関連づけられ、第1のPPS2406が送信された時にコンピュータシステム時間によって初期化される。従って、IMU2400、LIDAR2402、及びコンピュータ2404は全時間同期される。実施形態では、LIDAR2402は、VelodyneLIDARとすることができる。
例示的かつ非限定的実施形態により、ユニットは、走査のためのCOMエクスプレスボード及び単一ボタンインタフェースを含む。
例示的かつ非限定的実施形態により、処理IMU、ビジョン、及びレーザデータセンサを結合することができる。ユニットは、長期間にわたって暗闇又は構造物のない環境で作用することができる。一部の実施形態では、4つのCPUスレッドは、走査適合のために利用することができ、Velodyneデータを有する各CPUスレッドが5Hzで実行される。上述のように、ユニットのモーションは高速である可能性があり、ユニットは、以前のマップにローカライズしてローカライゼーションを使用してマップを拡張することができる。ユニットは、マッピングモードでは比較的高いCPU使用を示し、かつローカライゼーションモードでは比較的低いCPU使用を示し、従ってそれを長期にわたって適するようにする。
以下の条項は、本明細書で開示する実施形態に関する追加の陳述を提供する。
条項1.少なくとも地理空間座標とセグメントとに各々が帰する複数の点を含むLIDAR点群を取得する段階と、同じセグメントに帰する複数の点の計算された精度を示す信頼水準を各セグメントに割り当てる段階と、信頼水準に少なくとも部分的に基づいて、同じセグメントに帰する複数の点の少なくとも一部の各々の地理空間座標を調節する段階とを含む方法。
条項2.信頼水準がループ閉止の信頼水準である条項1の方法。
条項3.地理空間座標の調節が、決定されたループ閉止誤差に応答する条項1の方法。
条項4.地理空間座標を調節するためのセグメントが、少なくとも1つの他のセグメントよりも低い信頼水準を有する条項1の方法。
条項5.開始場所を有し、かつ少なくとも地理空間座標とセグメントとに各々が帰する複数の点を含むLIDAR点群をSLAMによって取得することを開始する段階と、LIDAR点群を取得する間にループを横断する段階と、SLAMが開始場所に近接している時に走査終了点を決定する段階とを含む方法。
条項6.走査終了点を決定する段階が、ループが横断されたというSLAMのユーザからの指示を受信する段階を含む条項6の方法。
条項7.走査終了点を決定する段階が、開始場所への近接度を示すセグメント内の点に基づく条項6の方法。
条項8.開始場所を含むセグメント以外のセグメント内の点が、開始場所に近接する地理空間座標に帰する条項6の方法。
条項9.各々が少なくとも地理空間座標及びタイムスタンプに帰する複数の点を含むLIDAR点群を取得する段階と、地理空間座標及びタイムスタンプの少なくとも一方に各々が帰する複数の画像を含むカラー画像データを取得する段階と、カラー化される各点のタイムスタンプに時間的に近いタイムスタンプを有し、かつカラー化された複数の点の地理空間座標に近い地理空間座標を有する画像から得られたカラー情報を有する複数の点の少なくとも一部分をカラー化する段階とを含む方法。
条項10.カラー化がリアルタイム及びほぼリアルタイムの一方で実行される条項9の方法。
条項11.SLAMシステムの一部を形成するIMUを使用してSLAMシステムのためのモーション推定値を導出する段階と、視覚−慣性オドメトリ最適化処理を通してモーション推定値を精緻化し、精緻化した推定値を生成する段階と、現在の走査における少なくとも1つの特徴と少なくとも1つの以前に走査された特徴との間の少なくとも1つの残余平方誤差を最小化することによってレーザオドメトリ最適化処理を通して精緻化された推定値を生成する段階とを含む方法。
条項12.モーション推定値を導出する段階が、約200Hzの周波数のIMU更新を受信する段階を含む条項11の方法。
条項13.IMU更新の周波数が190Hzと210Hzの間である条項12の方法。
条項14.モーション推定値を精緻化する段階が、SLAMシステムの一部を形成するカメラのフレーム速度に等しい速度のモーション推定値を精緻化する段階を含む条項11の方法。
条項15.フレーム速度が30Hzと40Hzの間である条項14の方法。
条項16.レーザオドメトリ最適化処理が、SLAMの一部を形成するLIDAR回転機構がデータの全半球を走査する走査フレーム速度で実行される条項11の方法。
条項17.SLAMシステムの一部を形成するカメラを使用して複数のカメラフレーム内の複数の深度追跡視覚特徴を取得する段階と、複数の視覚特徴にSLAMの一部を形成するLIDARから取得されたLIDAR導出点群を関連付ける段階と、少なくとも2つのカメラフレーム間の少なくとも1つの視覚特徴の深度を三角測量する段階とを含む方法。
条項18.関連付け及び三角測量段階が、並列演算を利用するプロセッサで実行される条項17の方法。
条項19.マイクロコントローラ、複数のタイミング信号を生成するよう適応された慣性測定ユニット(IMU)、及び複数のタイミング信号から得られる複数の同期信号を生成するよう適応されたタイミングサーバを含み、同期信号が、SLAMデバイスの一部を形成する少なくとも2つのセンサを同期するように作動するSLAMデバイス。
条項20.少なくとも2つのセンサが、LIDAR、カメラ、及びIMUから構成される群から選択される条項20のSLAMデバイス。
条項21.少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群を取得する段階と、少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の画像を含むカラー画像データを取得する段階と、カラー化される各点のタイムスタンプに時間的に近いタイムスタンプとカラー化される各点の地理空間座標までの距離が近い地理空間座標とのうちの少なくとも一方を有する画像から取得されたカラー情報を有する複数の点の少なくとも一部分をカラー化する段階と、複数の点のカラー化部分を表示する段階とを含む方法。
条項22.表示された複数の点上のオーバレイとしてカメラからの出力を表示する段階を更に含む条項21の方法。
条項23.少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群を取得する段階と、カラー情報を有する複数の点の少なくとも一部分をカラー化する段階とを含み、複数の点の各々が、強度パラメータ、密度パラメータ、時間パラメータ、及び地理空間場所パラメータから構成される群から選択される取得されたLIDAR点群データのパラメータに対応するカラーでカラー化される方法。
条項24.対応する近くの環境から導出された複数の近距離場点と対応する遠距離場環境から導出されて近い環境に位置付けられた1又は2以上の要素間の1又は2以上の空間を通して走査される複数の遠距離場点とを含むLIDAR点群をSLAMによって取得する段階と、近い環境から遠い環境に移動する時にSLAMを方向付けする複数の遠距離場点を利用する段階とを含む方法。
本発明の開示の一部の実施形態しか図示及び説明していないが、多くの変形及び修正が特許請求の範囲に示す本発明の開示の精神及び範囲から逸脱することなく本明細書に実行することができることは当業者に明らかであろう。外国及び国内両方の全ての特許出願及び特許、及び本明細書に引用のする全ての他の公開は、法律によって認められる限度まで全体が本明細書に組み込まれている。
本明細書に説明する方法及びシステムは、コンピュータソフトウエア、プログラムコード、及び/又は命令をプロセッサで実行する機械を通じて部分的又は完全に配備することができる。本発明の開示は、機械における方法として、機械の一部又は機械に関したシステム又は装置として、又は機械の1又は2以上で実行されるコンピュータ可読媒体を用いて実施されるコンピュータプログラム製品として実施することができる。実施形態では、本発明のプロセッサは、サーバ、クラウドサーバ、クライアント、ネットワークインフラストラクチャ、移動コンピュータプラットフォーム、固定コンピュータプラットフォーム、又は他のコンピュータプラットフォームの一部とすることができる。プロセッサは、プログラム命令、コード、バイナリ命令などを実行することができる計算又は処理デバイスのいずれかの種類とすることができる。プロセッサは、信号プロセッサ、デジタルプロセッサ、組み込み式プロセッサ、マイクロプロセッサ、又はコプロセッサのようなあらゆる変形(数学コプロセッサ、グラフィックコプロセッサ、通信コプロセッサなど)及び格納しているプログラムコード又はプログラム命令の実行を直接又は間接的に容易にすることができるものとすることができ、又はこれらを含むことができる。更に、プロセッサは、複数のプログラム、スレッド、及びコードの実行を可能にすることができる。スレッドは、プロセッサの性能を拡張して用途の同時作動を容易にするために同時に実行することができる。実施により、本明細書に説明する方法、プログラムコード、プログラム命令などを1又は2以上のレッドを用いて実施することができる。スレッドは、これらに関連付けられた優先度を割り当てることができる他のスレッドを発生させることができ、プロセッサは、優先度又はプログラムコードで提供される命令に基づくあらゆる他の順序に基づいてこれらのスレッドを実行することができる。プロセッサ、又はプロセッサを利用するあらゆる機械は、本明細書及び他に説明する方法、コード、命令及びプログラムを格納する非一時的メモリを含むことができる。プロセッサは、本明細書及び他で説明する方法、コード、及び命令を格納することができる非一時的ストレージ媒体にインタフェースを通じてアクセス可能である。方法、プログラム、コード、プログラム命令、又はコンピュータ又は処理デバイスによって実行することができる他のタイプの命令を格納するためのプロセッサに関連付けられたストレージ媒体は、限定されないが、CD−ROM、DVD、メモリ、ハードディスク、フラッシュドライブ、RAM、ROM、キャッシュなどのうちの1又は2以上を含むことができる。
プロセッサは、マルチプロセッサの速度及び性能を拡張することができる1又は2以上のコアを含むことができる。実施形態では、処理は、2又は3以上の独立コア(ダイと呼ぶ)を組み合わせるデュアルコアプロセッサ、クアドコアプロセッサ、他のチップレベルマルチプロセッサなどとすることができる。
本明細書に説明する方法及びシステムは、サーバ、クライアント、ファイヤウォール、ゲートウェイ、ハブ、ルータ、又は他のそのようなコンピュータ及び/又はネットワーキングハードウエアでコンピュータソフトウエアを実行する機械を通じて一部又は全てを配備することができる。ソフトウエアプログラムは、ファイルサーバ、プリントサーバ、ドメインサーバ、インターネットサーバ、イントラネットサーバ、クラウドサーバ、及び2次サーバ、ホストサーバ、分散サーバのような他の変形を含むことができるサーバに関連付けることができる。サーバは、メモリ、プロセッサ、コンピュータ可読媒体、ストレージ媒体、ポート(物理的及び仮想的)、通信デバイスなどのサーバ、クライアント、機械、及びデバイスに、有線又は無線媒体などを通じてアクセス可能なインタフェースの1又は2以上を含むことができる。本明細書及び他で説明する方法、プログラム、又はコードは、サーバによって実行することができる。更に、この出願で説明する方法の実行に必要な他のデバイスは、サーバに関連付けられたインフラストラクチャの一部として考えることができる。
サーバは、以下に限定されるものではないが、クライアント、他のサーバ、プリンタ、データベースサーバ、プリントサーバ、ファイルサーバ、通信サーバ、分散サーバ、ソーシャルネットワークなどを含む他のデバイスへのインタフェースを提供することができる。これに加えて、この結合及び/又は接続は、ネットワークを通じてプログラムのリモート実行を容易にすることができる。これらのデバイスの一部又は全てのネットワーキングは、本発明の開示の範囲から逸脱することなく1又は2以上の位置でプログラム又は方法の並行処理を容易にすることができる。更に、インタフェースを通じてサーバに接続されたデバイスのいずれも、方法、プログラム、コード、及び/又は命令を格納することができる少なくとも1つのストレージ媒体を含むことができる。中央リポジトリは、異なるデバイスで実行されるプログラム命令を提供することができる。この実施では、リモートリポジトリは、プログラムコード、命令、及びプログラムのためのストレージ媒体として作用することができる。
ソフトウエアプログラムは、ファイルクライアント、プリントクライアント、ドメインクライアント、インターネットクライアント、イントラネットクライアント及び2次クライアント、ホストクライアント、分散クライアントのような他の変形を含むことができるクライアントに関連付けることができる。クライアントは、メモリ、プロセッサ、コンピュータ可読媒体、ストレージ媒体、ポート(物理的及び仮想的)、通信デバイスなどのクライアント、サーバ、機械、及びデバイスに有線又は無線媒体などを通じてアクセス可能なインタフェースの1又は2以上を含むことができる。本明細書及び他で説明する方法、プログラム、又はコードは、クライアントによって実行することができる。更に、この出願で説明する方法の実行に必要な他のデバイスは、クライアントに関連付けられたインフラストラクチャの一部として考えることができる。
クライアントは、以下に限定されるものではないが、サーバ、他のクライアント、プリンタ、データベースサーバ、プリントサーバ、ファイルサーバ、通信サーバ、分散サーバなどを含む他のデバイスへのインタフェースを提供することができる。これに加えて、この結合及び/又は接続は、ネットワーク全体のプログラムのリモート実行を容易にすることができる。これらのデバイスの一部又は全てのネットワーキングは、本発明の開示の範囲から逸脱することなく1又は2以上の位置でのプログラム又は方法の並行処理を容易にすることができる。更に、インタフェースを通じてクライアントに接続されたデバイスのいずれも、方法、プログラム、用途、コード及び/又は命令を格納することができる少なくとも1つのストレージ媒体を含むことができる。中央リポジトリは、異なるデバイスで実行されるプログラム命令を提供することができる。この実施では、リモートリポジトリは、プログラムコード、命令、及びプログラムのためのストレージ媒体として作用することができる。
本明細書に説明する方法及びシステムは、ネットワークインフラストラクチャを通じて一部又は全てを配備することができる。このネットワークインフラストラクチャは、コンピュータデバイス、サーバ、ルータ、ハブ、ファイヤウォール、クライアント、パーソナルコンピュータ、通信デバイス、経路指定デバイス、及び他のアクティブ及びパッシブデバイス、モジュール、及び/又は当業技術で公知の構成要素のような要素を含むことができる。ネットワークインフラストラクチャに関連付けられたコンピュータ及び/又は非コンピュータデバイスは、他の構成要素以外に、フラッシュメモリ、バッファ、スタック、RAM、ROMのようなストレージ媒体を含むことができる。本明細書及び他で説明する処理、方法、プログラムコード、命令は、ネットワークインフラストラクチャ要素の1又は2以上によって実行することができる。本明細書に説明する方法及びシステムは、ソフトウエア・アズ・ア・サービス(SaaS)、プラットフォーム・アズ・ア・サービス(PaaS)、及び/又はインフラストラクチャ・アズ・ア・サービス(IaaS)の特徴を含有する特徴を含むプライベート、コミュニティ、又はハイブリッドクラウドコンピュータネットワーク又はクラウドコンピュータ環境のあらゆる種類と共に使用するように適応させることができる。
本明細書及び他で説明する方法、プログラム、コード、及び命令は、セルラーネットワークhaa送信者制御式接触媒体コンテンツ項目マルチセル上で実施することができる。セルラーネットワークは、周波数分割多元接続(FDMA)ネットワーク又は符号分割多元接続(CDMA)ネットワークのいずれかとすることができる。セルラーネットワークは、モバイルデバイス、セルサイト、基地局、リピータ、アンテナ、タワーなどを含むことができる。セルネットワークは、GSM(登録商標)、GPRS、3G、EVDO、メッシュ、又は他のネットワークタイプとすることができる。
本明細書及び他で説明する方法、プログラムコード、及び命令は、モバイルデバイスで又はモバイルデバイスを通じて実施することができる。モバイルデバイスは、ナビゲーションデバイス、携帯電話、移動電話、移動携帯情報端末、ラップトップ、パームトップ、ネットブック、ポケットベル、電子書籍読取器、音楽プレーヤなどを含むことができる。これらのデバイスは、他の構成要素以外にフラッシュメモリ、バッファ、RAM、ROM、及び1又は2以上のコンピュータデバイスのようなストレージ媒体を含むことができる。モバイルデバイスに関連付けられたコンピュータデバイスは、格納しているプログラムコード、方法、及び命令を実行することができる。これに代えて、モバイルデバイスは、他のデバイスと協働して命令を実行するように構成することができる。モバイルデバイスは、サーバに接続されてプログラムコードを実行するように構成された基地局と通信することができる。モバイルデバイスは、ピア・ツー・ピアネットワーク、メッシュネットワーク、又は他の通信ネットワーク上で通信することができる。プログラムコードは、サーバに関連付けられたストレージ媒体に格納されてサーバ内に組み込まれたコンピュータデバイスによって実行することができる。基地局は、コンピュータデバイス及びストレージ媒体を含むことができる。ストレージデバイスは、基地局に関連付けられたコンピュータデバイスによって実行されるプログラムコード及び命令を格納することができる。
コンピュータソフトウエア、プログラムコード、及び/又は命令は、コンピュータ構成要素、デバイス、及び何らかの時間間隔にわたって計算するのに使用されるデジタルデータを保存する記録媒体、ランダムアクセスメモリ(RAM)として公知の固体ストレージ、一般的に光学ディスク、ハードディスク、テープ、ドラム、カード、及び他のタイプのような磁気ストレージの形態のような恒久的ストレージのための大容量ストレージ、プロセッサレジスタ、キャッシュメモリ、揮発性メモリ、不揮発性メモリ、CD、DVDのような光学ストレージ、フラッシュメモリ(例えば、USBスティック又はキー)、フロッピーディスク、磁気テープ、紙テープ、パンチカード、独立RAMディスク、Zipドライブ、着脱可能大容量ストレージ、オフラインのような着脱可能媒体、動的メモリ、静的メモリ、読取/書込ストレージ、変異ストレージ、読取専用、ランダムアクセス、シーケンシャルアクセス、位置アドレス可能、ファイルアドレス可能、コンテンツアドレスア可能、ネットワーク付属ストレージ、ストレージエリアネットワーク、バーコード、磁気リンクのような他のコンピュータメモリを含むことができる機械可読媒体上に格納される及び/又はそこにアクセス可能である。
本明細書に説明する方法及びシステムは、物理的及び/又は非有形アイテムを1つの状態から別の状態に変形することができる。本明細書に説明する方法及びシステムはまた、物理的及び/又は非有形アイテムを表すデータを1つの状態から別の状態に変形することができる。
本明細書に説明して図示する流れ図及び図面全体のブロック図に含む要素は要素間の論理的境界を意味する。しかし、ソフトウエア又はハードウエア工学の慣例により、図示の要素及びその機能は、コンピュータ実行可能媒体haa送信者制御式接触媒体コンテンツ項目を通じて機械を用いて実施することができ、プロセッサは、モノリシックソフトウエア構造として、独立ソフトウエアモジュールとして、又は外部ルーチン、コード、サービスなどを利用するモジュールとして、又はこれらのあらゆる組合せとして格納されたプログラム命令を実行することができ、全てのそのような実施は本発明の開示の範囲にあるものとすることができる。そのような機械の例は、限定されないが、携帯情報端末、ラップトップ、パーソナルコンピュータ、移動電話、他の手持ち式コンピュータデバイス、医療機器、有線又は無線通信デバイス、変換器、チップ、計算機、衛星、タブレットPC、電子書籍、ガジェット、電子デバイス、デバイスhaa送信者制御式接触媒体コンテンツ項目人工知能、コンピュータデバイス、ネットワーキング機器、サーバ、ルータなどを含むことができる。流れ図及びブロック図に示す要素又はあらゆる他の論理的構成要素は、プログラム命令を実行することができる機械を用いて実施することができる。従って、上述の図面及び説明は開示したシステムの機能的態様を示し、これらの機能的態様を実施するためのソフトウエアの特定の構成は、明示的に記載するか又は他に関連から明らかでない限り、これらの説明からは推測されない。同様に、上記に識別及び説明した様々な段階を変更することができること、及び段階の順序を本明細書に開示する技術の特定の応用に適応することができることは認められるであろう。全てのそのような変形及び修正は、本発明の開示の範囲に入るものとする。同様に、様々な段階の順序の図示及び/又は説明は、特定の応用によって要求される又は明示的に記載する又は他に関連から明らかでない限り、これらの段階を実行する特定の順序を必要とすると理解してはならない。
上述の方法及び/又は処理、及び本明細書に関連付けられた段階は、特定の応用に適するハードウエア、ソフトウエア、又はハードウエアとソフトウエアのあらゆる組合せで達成することができる。ハードウエアは、汎用コンピュータ及び/又は専用コンピュータデバイス又は特定のコンピュータデバイス又は特定のコンピュータデバイスの特定の態様又は構成要素を含むことができる。処理は、内部及び/又は外部メモリと共に1又は2以上のマイクロプロセッサ、マイクロコントローラ、組み込み式マイクロコントローラ、プログラマブルデジタル信号プロセッサ、又は他のプログラマブルデバイスで達成することができる。処理は、特定用途向け集積回路、プログラマブルゲートアレイ、プログラマブルアレイ論理部、又は電子信号を処理するように構成することができるあらゆる他のデバイス又はデバイスの組合せとすることができ、又はこれらを用いて実施することができる。処理の1又は2以上は、機械可読媒体で実行することができるコンピュータ実行可能コードとして達成することができることが更に認められるであろう。
コンピュータ実行可能コードは、上述のデバイスの1つ、並びにプロセッサの異種組合せ、プロセッサアーキテクチャ、又は異なるハードウエア及びソフトウエアの組合せ、又はプログラム命令を実行することができるあらゆる他の機械の1つで実行するために格納、コンパイル、又は解釈することができるCのような構造化プログラミング言語、C++のようなオブジェクト指向プログラミング言語、又はあらゆる他の高レベル又は低レベルプログラミング言語(アセンブリ言語、ハードウエア記述言語、及びデータベースプログラミング言語及び技術を含む)を使用して作成することができる。
すなわち、一態様では、上述の方法及びその組合せは、1又は2以上のコンピュータデバイスで実行された時にこれらの段階を実行するコンピュータ実行可能コードを用いて実施することができる。別の態様では、本方法は、この段階を実行するシステムを用いて実施することができ、いくつかの方法でデバイスにわたって分散させることができ、又は機能の全てを専用、独立デバイス、又は他のハードウエアに統合することができる。別の態様では、上述の処理に関連付けられた段階を実行するための手段は、上述のハードウエア及び/又はソフトウエアのいずれかを含むことができる。全てのそのような置換及び組合せは、本発明の開示の範囲に入るものとする。
本発明の開示は、図示して詳細に説明した好ましい実施形態に関して開示したものであり、本発明の開示の様々な修正及び改良は、当業者には容易に明らかになるであろう。従って、本発明の開示の精神及び範囲は、上述の例によって制限されず、むしろ法律によって許容可能な様々な意味で理解されるものとする。
本発明の開示を説明する関連(特に、特許請求の範囲の関連)における「a」及び「an」及び「the」という語及び類似の表示語は、本明細書に他に表示がないか又は関連によって明確に矛盾しない限り、単数形及び複数形の両方を含むものと解釈しなければならない。「comprising」、「haa送信者制御式接触媒体コンテンツ項目」、「including」、及び「cotaining」は、他に示されない限り、非限定的語として解釈されるものとする(すなわち、「限定されないが含む」を意味する)。本明細書の値の範囲の列挙は、本明細書に特に示さない限り値内に入る各それぞれの値を個々に指す簡単な方法として機能するものとし、個別の各値は、本明細書に個々に説明されているように本明細書に組み込まれる。本明細書に説明する全ての方法は、本明細書で特に示さない限り又は関連によって明確に矛盾しない限り、あらゆる適切な順序で実行することができる。本明細書に提供するいずれか及び全ての例、又は例示的言語(例えば、「のような」)の使用は、単に本発明の開示を的確に説明するものであり、他に主張されない限り、本発明の開示の範囲に制限を設けることはない。本明細書の言語は、本発明の開示の実施に不可欠ないずれかの主張されない要素を示すものとして解釈すべきではない。
以上の説明は、当業者が現時点で最良のモードと考えられるものを使用することを可能にするものであり、当業者は、本明細書の特定の実施形態、方法、及び例の変形、組合せ、及び均等物の存在を理解かつ認めるであろう。従って、本発明の開示は、上述の実施形態、方法、及び例によって制限すべきではなく、むしろ本発明の開示の精神及び範囲内の全ての実施形態及び方法によって制限されるべきである。
本明細書で参照した全ての文書は、これにより引用によって組み込まれる。
2100 SLAMユニット
2102 マイクロコントローラ
2106 IMU
2108 直交復号器
PPS パルス/秒

Claims (26)

  1. 少なくとも地理空間座標に各々が帰する複数の点を含むLIDAR取得点群を含むデータセットにアクセスする段階と、
    前記複数の点の少なくとも一部分をサブサンプリングして該複数の点の代表サンプルを導出する段階と、
    前記複数の点の前記代表サンプルを表示する段階と、
    を含むことを特徴とする方法。
  2. 前記LIDAR取得点群は、可搬型同時位置付け及びマッピング(SLAM)システムによって取得されることを特徴とする請求項1に記載の方法。
  3. 前記代表サンプルを表示する段階は、前記可搬型SLAMシステムのインタフェース表示時に発生することを特徴とする請求項2に記載の方法。
  4. 前記代表サンプルを表示する段階は、前記LIDAR取得点群の前記取得中にリアルタイムで発生することを特徴とする請求項2に記載の方法。
  5. 前記複数の点の少なくとも一部分をサブサンプリングする段階は、前記点群によって表された容積を部分容積に分割する段階と、該部分容積の各々に値を割り当てる段階とを含むことを特徴とする請求項1に記載の方法。
  6. 前記部分容積は、実質的に等しいサイズのものであることを特徴とする請求項5に記載の方法。
  7. 各部分容積の前記割り当てられた値は、前記複数の点のいずれかが該部分容積内に位置付けられるか否かを示すことを特徴とする請求項5に記載の方法。
  8. 前記複数の点の各々が、該点からの赤外線(IR)光の反射の強度に対応する強度を用いて表示されることを特徴とする請求項1に記載の方法。
  9. 前記複数の点の各々が、該点からの赤外線(IR)光の反射の強度に対応するカラーを用いて表示されることを特徴とする請求項1に記載の方法。
  10. 前記複数の点の各々が、強度パラメータ、密度パラメータ、時間パラメータ、及び地理空間場所パラメータから構成される群から選択された前記取得データのパラメータに対応するカラーを用いて表示されることを特徴とする請求項1に記載の方法。
  11. 少なくとも地理空間座標とセグメントとに各々が帰する複数の点を含むLIDAR点群を取得する段階と、
    同じセグメントに帰する前記複数の点の計算された精度を示す信頼水準を各セグメントに割り当てる段階と、
    前記割り当てられた信頼水準をユーザに表示する段階と、
    を含むことを特徴とする方法。
  12. 各信頼水準が、前記点群の点密度、前記複数の点の直交性、該点群が取得された環境の形状、及び別々の空間の間の移行の状態のうちの少なくとも1つに少なくとも部分的に基づいて割り当てられることを特徴とする請求項11に記載の方法。
  13. 前記表示する段階は、前記割り当てられた信頼水準を割り当てられた信頼水準を示すカラーを利用して前記ユーザに表示する段階を含むことを特徴とする請求項11に記載の方法。
  14. 前記表示する段階は、手持式SLAMデバイスの一部を形成するディスプレイ上で実行されることを特徴とする請求項13に記載の方法。
  15. 前記割り当てられた信頼水準をユーザに表示する段階は、リアルタイム又はほぼリアルタイムのうちの一方で発生することを特徴とする請求項11に記載の方法。
  16. 少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群をSLAMシステムを用いて取得する段階と、
    前記複数の点の少なくとも一部分を表示する段階と、
    前記点群の前記取得をそこまで巻き戻す指定時間の指示を受信する段階と、
    前記指定時間後のタイムスタンプに各々が帰する前記複数の点の一部分をタグ付けする段階と、
    を含むことを特徴とする方法。
  17. 前記指定時間後のタイムスタンプを有する点の前記タグ付けされた部分を消去する段階を更に含むことを特徴とする請求項16に記載の方法。
  18. 前記SLAMユニットが、前記指定時間に対応する地理空間座標を有する少なくとも1つの点に近いという指示をユーザから受信する段階と、
    前記点群の取得を再開する段階と、
    を更に含むことを特徴とする請求項16に記載の方法。
  19. タグ付けする段階は、前記複数の点の前記部分を低信頼度として割り当てる段階を含むことを特徴とする請求項16に記載の方法。
  20. 許容可能な信頼水準を有する置換点が取得された後に前記複数の点の前記タグ付けされた部分を取り除く段階を更に含むことを特徴とする請求項16に記載の方法。
  21. 指定時間の指示を受信する段階は、該指定時間を参照するユーザ要求を受信する段階を含むことを特徴とする請求項16に記載の方法。
  22. 前記指定時間は、予め決められた閾値よりも下への点群密度の変化に関連付けられた時間を含むことを特徴とする請求項16に記載の方法。
  23. 少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群をSLAMシステムを用いて取得する段階と、
    前記複数の点の少なくとも一部分を表示する段階と、
    予め決められた閾値よりも下の点密度を示す前記点群の一部分の指示をユーザに表示する段階と、
    を含むことを特徴とする方法。
  24. 未走査区域の指示を前記ユーザに表示する段階を更に含むことを特徴とする請求項23に記載の方法。
  25. 走査を再開する地理空間座標の指示を前記ユーザに表示する段階を更に含むことを特徴とする請求項23に記載の方法。
  26. 予め決められた閾値よりも下の点密度を示す前記点群の一部分の指示をユーザに表示する段階は、走査を再開するためのターゲット場所を表示する段階を含むことを特徴とする請求項23に記載の方法。
JP2019519657A 2016-10-11 2017-10-10 リアルタイムオンラインエゴモーション推定を有するレーザスキャナ Pending JP2019532433A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662406910P 2016-10-11 2016-10-11
US62/406,910 2016-10-11
PCT/US2017/021120 WO2017155970A1 (en) 2016-03-11 2017-03-07 Laser scanner with real-time, online ego-motion estimation
USPCT/US2017/021120 2017-03-07
PCT/US2017/055938 WO2018071416A1 (en) 2016-10-11 2017-10-10 Laser scanner with real-time, online ego-motion estimation

Publications (1)

Publication Number Publication Date
JP2019532433A true JP2019532433A (ja) 2019-11-07

Family

ID=61906369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519657A Pending JP2019532433A (ja) 2016-10-11 2017-10-10 リアルタイムオンラインエゴモーション推定を有するレーザスキャナ

Country Status (3)

Country Link
EP (1) EP3526626A4 (ja)
JP (1) JP2019532433A (ja)
WO (1) WO2018071416A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111337036A (zh) * 2020-05-19 2020-06-26 北京数字绿土科技有限公司 重叠区域数据优化方法、装置及终端设备
US10962370B2 (en) 2016-03-11 2021-03-30 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11398075B2 (en) 2018-02-23 2022-07-26 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
JP7224682B1 (ja) 2021-08-17 2023-02-20 忠北大学校産学協力団 自律走行のための3次元多重客体検出装置及び方法
US11815601B2 (en) 2017-11-17 2023-11-14 Carnegie Mellon University Methods and systems for geo-referencing mapping systems
US11830136B2 (en) 2018-07-05 2023-11-28 Carnegie Mellon University Methods and systems for auto-leveling of point clouds and 3D models

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019006289A1 (en) * 2017-06-30 2019-01-03 Kaarta, Inc. SYSTEMS AND METHODS FOR SCAN ENHANCEMENT AND CORRECTION
WO2018140701A1 (en) * 2017-01-27 2018-08-02 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US20190377066A1 (en) * 2018-06-06 2019-12-12 DSCG Solutions, Inc. Tracking objects using video images and lidar
DE102018117660A1 (de) * 2018-07-20 2020-01-23 Man Truck & Bus Se Verfahren und system zum bestimmen einer position eines fahrzeugs
CN112513713B (zh) * 2018-07-23 2022-07-15 奇跃公司 用于地图构建的系统和方法
US20210310349A1 (en) * 2018-08-08 2021-10-07 Four Flags Pty Ltd Blast hole measurement and logging
US11166048B2 (en) * 2018-10-02 2021-11-02 Tencent America LLC Method and apparatus for video coding
US11398040B2 (en) 2018-10-08 2022-07-26 Ulc Technologies, Llc System and method for data acquisition
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
JP6893200B2 (ja) * 2018-10-16 2021-06-23 株式会社きんでん 自走制御プログラム、および、自走式作業装置
EP3671261A1 (en) 2018-12-21 2020-06-24 Leica Geosystems AG 3d surveillance system comprising lidar and multispectral imaging for object classification
CN111398980B (zh) * 2018-12-29 2023-06-06 广东瑞图万方科技股份有限公司 一种机载LiDAR数据处理的方法及装置
US11391574B2 (en) 2019-01-18 2022-07-19 Ford Global Technologies, Llc Object detection
US11608078B2 (en) 2019-01-30 2023-03-21 Baidu Usa Llc Point clouds registration system for autonomous vehicles
CN109959937B (zh) * 2019-03-12 2021-07-27 广州高新兴机器人有限公司 长廊环境基于激光雷达的定位方法、存储介质及电子设备
US11243081B2 (en) 2019-03-29 2022-02-08 Trimble Inc. Slam assisted INS
CN110196044A (zh) * 2019-05-28 2019-09-03 广东亿嘉和科技有限公司 一种基于gps闭环检测的变电站巡检机器人建图方法
CN110298103A (zh) * 2019-06-25 2019-10-01 中国电建集团成都勘测设计研究院有限公司 基于无人机机载三维激光扫描仪的高陡危岩体调查方法
US11506502B2 (en) * 2019-07-12 2022-11-22 Honda Motor Co., Ltd. Robust localization
US11828617B2 (en) 2019-07-16 2023-11-28 Ulc Technologies, Llc System and method for asset identification and mapping
CN115308734A (zh) * 2019-12-26 2022-11-08 华为技术有限公司 一种呼吸数据计算方法以及相关设备
CN113535672B (zh) * 2020-04-16 2024-03-12 中国科学院沈阳自动化研究所 一种基于自主水下机器人平台的浊度数据处理方法
CN112862818B (zh) * 2021-03-17 2022-11-08 合肥工业大学 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法
CN113188447B (zh) * 2021-05-12 2022-12-27 深圳市国匠数控科技有限公司 一种提高高频激光扫描仪精度的办法
US20230184950A1 (en) * 2021-12-09 2023-06-15 Raytheon Company Non-Contiguous 3D LIDAR Imaging Of Targets With Complex Motion
WO2024050332A2 (en) * 2022-08-29 2024-03-07 Edge AI Solutions Inc. Devices, systems, and methods for precision data collection & survey-grade infrastructure assessments via a disposable, carbon neutral, & minimally invasive robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010533307A (ja) * 2007-06-27 2010-10-21 プリズム インコーポレイテッド 発光スクリーンを有するビームディスプレイシステムを走査する際に指定された走査サーボビームに基づくサーボフィードバック制御
JP2013054660A (ja) * 2011-09-06 2013-03-21 Asia Air Survey Co Ltd 植生図作成装置及び植生図作成プログラム
JP2015210186A (ja) * 2014-04-25 2015-11-24 東芝プラントシステム株式会社 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム
JP2016080572A (ja) * 2014-10-20 2016-05-16 朝日航洋株式会社 レーザ計測システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090262974A1 (en) * 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
EP2133662B1 (en) * 2008-06-09 2012-02-01 Honeywell International Inc. Methods and system of navigation using terrain features
GB2489179B (en) * 2010-02-05 2017-08-02 Trimble Navigation Ltd Systems and methods for processing mapping and modeling data
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
KR102515213B1 (ko) * 2012-09-10 2023-03-29 에이매스, 아이엔씨. 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
DE102014019671B4 (de) 2014-12-30 2017-09-14 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010533307A (ja) * 2007-06-27 2010-10-21 プリズム インコーポレイテッド 発光スクリーンを有するビームディスプレイシステムを走査する際に指定された走査サーボビームに基づくサーボフィードバック制御
JP2013054660A (ja) * 2011-09-06 2013-03-21 Asia Air Survey Co Ltd 植生図作成装置及び植生図作成プログラム
JP2015210186A (ja) * 2014-04-25 2015-11-24 東芝プラントシステム株式会社 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム
JP2016080572A (ja) * 2014-10-20 2016-05-16 朝日航洋株式会社 レーザ計測システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BONG KEUN KIM: "Indoor localization and point cloud generation for building interior modeling", 2013 IEEE RO-MAN, JPN6021038939, 2013, US, pages 186 - 191, XP032502266, ISSN: 0004850587, DOI: 10.1109/ROMAN.2013.6628442 *
石井 雅博: "入力・出力", 画像ラボ 第23巻 第3号 IMAGE LABORATORY, vol. 第23巻, JPN6021038941, 2012, JP, pages 14 - 18, ISSN: 0004850588 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962370B2 (en) 2016-03-11 2021-03-30 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11506500B2 (en) 2016-03-11 2022-11-22 Kaarta, Inc. Aligning measured signal data with SLAM localization data and uses thereof
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US11585662B2 (en) 2016-03-11 2023-02-21 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11815601B2 (en) 2017-11-17 2023-11-14 Carnegie Mellon University Methods and systems for geo-referencing mapping systems
US11398075B2 (en) 2018-02-23 2022-07-26 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US11830136B2 (en) 2018-07-05 2023-11-28 Carnegie Mellon University Methods and systems for auto-leveling of point clouds and 3D models
CN111337036A (zh) * 2020-05-19 2020-06-26 北京数字绿土科技有限公司 重叠区域数据优化方法、装置及终端设备
JP7224682B1 (ja) 2021-08-17 2023-02-20 忠北大学校産学協力団 自律走行のための3次元多重客体検出装置及び方法
JP2023027736A (ja) * 2021-08-17 2023-03-02 忠北大学校産学協力団 自律走行のための3次元多重客体検出装置及び方法

Also Published As

Publication number Publication date
WO2018071416A1 (en) 2018-04-19
EP3526626A4 (en) 2020-05-27
EP3526626A1 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
US20230130320A1 (en) Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) Aligning measured signal data with slam localization data and uses thereof
JP2019532433A (ja) リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
JP7141403B2 (ja) 実時間オンライン自己運動推定を備えたレーザスキャナ
US20190346271A1 (en) Laser scanner with real-time, online ego-motion estimation
US11585662B2 (en) Laser scanner with real-time, online ego-motion estimation
US10096129B2 (en) Three-dimensional mapping of an environment
EP3656138A1 (en) Aligning measured signal data with slam localization data and uses thereof
US11328158B2 (en) Visual-inertial positional awareness for autonomous and non-autonomous tracking
US10390003B1 (en) Visual-inertial positional awareness for autonomous and non-autonomous device
US11313684B2 (en) Collaborative navigation and mapping
JP2021152662A (ja) リアルタイムのマッピングと位置確認のための方法及び装置
Weiss et al. Intuitive 3D maps for MAV terrain exploration and obstacle avoidance
CN109084746A (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
Kalisperakis et al. A modular mobile mapping platform for complex indoor and outdoor environments
Alliez et al. Indoor localization and mapping: Towards tracking resilience through a multi-slam approach
Liu et al. LSFB: A low-cost and scalable framework for building large-scale localization benchmark
Xiang Fast and lightweight loop closure detection in LiDAR-based simultaneous localization and mapping
Wendel Scalable visual navigation for micro aerial vehicles using geometric prior knowledge
Xu Geometric, Semantic, and System-Level Scene Understanding for Improved Construction and Operation of the Built Environment
Ji Robust visual SLAM for autonomous vehicles in challenging environments
Baldwin Large-scale urban localisation with a pushbroom LIDAR
Li LIDAR BASED MULTI-SENSOR FUSION FOR LOCALIZATION, MAPPING, AND TRACKING

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220817

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230410