JP2019518222A - リアルタイムオンラインエゴモーション推定を有するレーザスキャナ - Google Patents

リアルタイムオンラインエゴモーション推定を有するレーザスキャナ Download PDF

Info

Publication number
JP2019518222A
JP2019518222A JP2018567003A JP2018567003A JP2019518222A JP 2019518222 A JP2019518222 A JP 2019518222A JP 2018567003 A JP2018567003 A JP 2018567003A JP 2018567003 A JP2018567003 A JP 2018567003A JP 2019518222 A JP2019518222 A JP 2019518222A
Authority
JP
Japan
Prior art keywords
measurement
processor
prediction
data
scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018567003A
Other languages
English (en)
Other versions
JP6987797B2 (ja
Inventor
ジー ジャン
ジー ジャン
サンジヴ シング
サンジヴ シング
Original Assignee
カールタ インコーポレイテッド
カールタ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カールタ インコーポレイテッド, カールタ インコーポレイテッド filed Critical カールタ インコーポレイテッド
Publication of JP2019518222A publication Critical patent/JP2019518222A/ja
Application granted granted Critical
Publication of JP6987797B2 publication Critical patent/JP6987797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

慣性測定ユニットと、カメラユニットと、レーザ走査ユニットと、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットと通信するコンピュータシステムとを含み、コンピュータシステムが、第1の周波数での慣性測定ユニットからの慣性測定データに基づく第1の測定予測と、第1の測定予測及び第2の周波数でのカメラユニットからの視覚測定データに基づく第2の測定予測と、第2の測定予測及び第3の周波数でのレーザ走査ユニットからのレーザ測距データに基づく第3の測定予測とを計算するマッピングシステム。【選択図】図12

Description

〔優先権の表記〕
この出願は、引用により本明細書にその開示が全体的に全ての目的に対して組み込まれている2016年3月11日出願の「リアルタイムオンラインエゴモーション推定を有するレーザスキャナ」という名称の米国仮特許出願第62/307,061号の利益を主張するものである。
自律移動デバイスは、それがそこで作動する地形に関する情報を要求する場合がある。そのようなデバイスは、地形を提示する予め定められたマップ及びそこに見出される場合があるあらゆる障害物に頼る場合がある。これに代えて、デバイスは、リアルタイムデータを提供するために1又は2以上のセンサを備えたコンピュータベースのマッピングシステムを含む固定又は運動中のいずれかの間にその地形をマップする機能を有する場合がある。モバイルコンピュータベースマッピングシステムは、その位置の変化を経時的に推定する(走行距離計)及び/又は3次元空間のポイントクラウドのような3次元マップ表現を発生させることができる。
例示的マッピングシステムは、マップをそこから構築することができるデータを提供する様々なセンサを含むことができる。一部のマッピングシステムは、1つのそのようなセンサとしてステレオカメラシステムを使用する場合がある。これらのシステムは、モーション推定のスケールを決定するために基準として2つのカメラの間のベースラインから恩恵を得ている。単眼システムは、追加のセンサからデータを受信する又はデバイスのモーションに関して仮定を行うことなしでは画像のスケールを分解することができない場合があるので、2鏡システムが単眼システムよりも好ましい。近年では、RGB−Dカメラが研究分野で人気を得ている。そのようなカメラは、個々のピクセルに関連付けられた深度情報を提供することができ、従って、スケールの決定を助けることができる。しかし、RGB−Dカメラを含む一部の方法は、深度情報のカバレージを有する画像区域のみを使用する場合があり、これは、特に深度が疎にのみ利用可能である可能性がある開放環境では大きい画像区域が浪費されることをもたらす場合がある。
マッピングシステムの他の例では、スケール制約をIMU加速から提供することができるようにIMUを1又は2以上のカメラに結合することができる。一部の例では、単眼鏡カメラをカルマンフィルタによってIMUにきつく又は緩く結合することができる。他のマッピングシステムは、モバイルシステムのモーションに関して解くために最適化方法を使用する場合がある。
マッピングシステムの代替例は、モーション推定のためのレーザスキャナの使用を含むことができる。しかし、レーザの走査速度から、そのようなデータの使用の難しさが生じる場合がある。システムが移動している間は、固定位置レーザスキャナとは異なってレーザポイントは、スキャナの相対移動によって影響を受ける。従って、この移動の影響は、異なる時間にシステムに到着するレーザポイントの要因である場合がある。その結果、走査速度がマッピングシステムのモーションに対して遅い時は、レーザの外部モーションに起因して走査歪みが存在する場合がある。モーション効果は、レーザ自体によって補償することができるが、補償は、必要な補正を提供するための独立したモーションモデルを要求する場合がある。一例として、モーションは、一定速度として又はガウス過程としてモデル化することができる。一部の例では、IMUは、モーションモデルを提供することができる。そのような方法は、レーザポイントクラウドによって形成された空間−時間パッチを適合させてセンサモーションを推定し、かつオフラインバッチ最適化でIMUバイアスを補正する。
ローリングシャッターカメラの使用では、モーション歪みの類似の問題が見出される場合がある。具体的には、画像ピクセルが経時的に継続して受信される場合があり、カメラの外因性モーションによって引き起こされる画像歪みをもたらす。一部の例では、視覚的走行距離計測方法は、ピクセルの読み出し時間が与えられるとローリングシャッター効果を補償するためにIMUを使用することができる。
一部の例では、GPS/INS技術を使用してモバイルマッピングデバイスの位置を決定することができる。しかし、高精度GPS/INSソリューションは、用途がGPS拒否型、軽量、又は費用重視である時に実用的ではない場合がある。正確なGPSマッピングは、GPS受信機と少なくとも4つのGPS衛星(5が好ましいが)の間の見通し通信を要求することが認識されている。一部の環境では、例えば陸橋及び他の障害物を含む場合がある都会環境では、4つの衛星から歪みのない信号を受信することは困難であると考えられる。
すなわち、特にマッピングデバイスが運動中である間は、自律マッピングデバイスの周りの地形のロバストマップを発生させるために光学デバイスからのデータを他のモーション測定デバイスと融合させることに関連付けられたいくつかの技術的な課題があることを認めることができる。以下に開示するのは、光学マッピング情報を取得し、かつ歪みを低減したロバストマップを生成することができるマッピングデバイスの方法及びシステムである。
この節での例は、単に一部の可能な実施形態を表すものであるが、この出願で開示する全ての可能な実施形態、要素の組合せ、又は発明を反映するものではない。一例では、マッピングシステムは、慣性測定ユニットと、カメラユニットと、レーザ走査ユニットと、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットと通信するコンピュータシステムとを含むことができる。コンピュータシステムは、少なくとも1つのプロセッサ、少なくとも1つの1次メモリユニット、及び少なくとも1つの2次メモリユニットから構成することができる。1次メモリユニットは、少なくとも1つのプロセッサによって実行されるソフトウエアを格納することができ、ソフトウエアは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の周波数での慣性測定ユニットからの慣性測定データに基づいて第1の測定予測を計算させる第1の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の測定予測及び第2の周波数でのカメラユニットからの視覚測定データに基づいて第2の測定予測を計算させる第2の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第2の測定予測及び第3の周波数でのレーザ走査ユニットからのレーザ測距データに基づいて第3の測定予測を計算させる第3の計算モジュールとを含むことができる。
マッピングシステムの例では、第1の計算モジュールは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第2の測定予測及び第3の測定予測に基づいて第1の測定予測内のバイアス誤差を補正させるソフトウエアを更に含むことができる。
マッピングシステムの例では、第1の周波数は、第2の周波数よりも高く、第2の周波数は、第3の周波数よりも高い。
マッピングシステムの例では、第2の計算モジュールは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の測定期間中に視覚測定データが劣化したか否かを決定させ、かつ視覚測定データが第1の測定期間中に劣化したという決定時に第1の測定期間中の第1の測定予測に等しい第1の測定期間中の第2の測定予測を計算させるソフトウエアを更に含むことができる。
マッピングシステムの例では、第3の計算モジュールは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサにレーザ測距データが第2の測定期間中に劣化したか否かを決定させ、かつレーザ測距データが第2の測定期間中に劣化したという決定時に第2の測定期間中の第2の測定予測に等しい第2の測定期間中の第3の測定予測を計算させるソフトウエアを更に含むことができる。
マッピングシステムの例では、1次メモリデバイスは、第1及び第2のセットのボクセルを格納することができ、第1及び第2のセットのボクセルは、第3の予測測定に基づいている。第1のセットのボクセルの各ボクセルは、空間の第1の容積に対応することができ、第2のセットのボクセルの各ボクセルは、空間の第2の容積に対応することができる。空間の第2の容積は、空間の第1の容積よりも小さい場合があり、第1のセットのボクセルの各ボクセルは、第2のセットのボクセルの複数のボクセルにマップ可能である場合がある。
マッピングシステムの例では、2次メモリユニットは、第3の予測測定から発生したポイントクラウドデータを格納することができる。
一例では、マッピングシステムは、モバイルユニットを更に含むことができ、慣性測定ユニットが、モバイルユニット上にあり、カメラユニットが、モバイルユニット上にあり、レーザ走査ユニットが、モバイルユニット上にあり、コンピュータシステムが、モバイルユニット上にある。
マッピングシステムの例では、モバイルユニットは、モバイルユニットを案内するためのナビゲーションシステムを含むことができ、ナビゲーションシステムは、第3の測定予測を使用して自律モバイルユニットを案内することができる。
マッピングシステムの例では、第3の計算モジュールは、走査適合アルゴリズムを使用して第3の測定予測を計算することができる。少なくとも1つのプロセッサは、複数の処理スレッドを含むことができる。1次メモリデバイスは、少なくとも1つのプロセッサによって実行された時に第1のスレッドがレーザ測距データの第1の走査を走査適合させるように割り当てられるような複数のスレッドによってレーザ測距データの走査の処理を管理することができるソフトウエアを格納することができる。第1のスレッドは、第1のスレッドが第2の走査の到着前に第1の走査を処理することができる時に、第1の走査後の時点からレーザ測距データの第2の走査を走査適合させるように割り当てることができる。第2のスレッドは、第1のスレッドが第2の走査の到着前に第1の走査を処理できない時に、レーザ測距データの第2の走査を走査適合させるように割り当てることができる。
マッピングシステムの例では、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットは、走査データのダウンサンプルバージョンが3次元表現で提示される対話型ディスプレイにコンピュータシステムを通じてインタフェース接続することができる。
例示的かつ非限定的実施形態により、マッピングシステムは、慣性測定ユニットと、カメラユニットと、レーザ走査ユニットと、慣性測定ユニット、カメラユニット、及びレーザ走査ユニットと通信するコンピュータシステムとを含み、コンピュータシステムは、少なくとも1つのプロセッサ、少なくとも1つの1次メモリユニット、及び少なくとも1つの2次メモリユニットを含み、1次メモリユニットは、少なくとも1つのプロセッサによって実行されるソフトウエアを格納し、ソフトウエアは、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに第1の周波数での慣性測定ユニットからの慣性測定データに少なくとも部分的に基づく少なくとも1つの第1の測定予測を計算させる第1の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに少なくとも1つの第1の測定予測及び第2の周波数でのカメラユニットからの視覚測定データに少なくとも部分的に基づく少なくとも1つの第2の測定予測を計算させる第2の計算モジュールと、少なくとも1つのプロセッサによって実行された時に少なくとも1つのプロセッサに少なくとも1つの第2の測定予測及び第3の周波数でのレーザ走査ユニットからのレーザ測距データに基づく少なくとも1つの第3の測定予測を計算させる第3の計算モジュールとを含む。
例示的かつ非限定的実施形態により、マッピングシステムは、双方向情報フローの問題に対処するためにモジュール式システム構造から構成される。具体的には、3つのモジュールが、粗から細のデータの問題に段階的に対処する。データ処理フローは、IMU予測モジュールから視覚−慣性走行距離計測モジュールに、更に走査適合精緻化モジュールに進むことができ、一方でフィードバックフローが、IMUのバイアスを補正するために逆の順に発生する。
例示的かつ非限定的実施形態により、マッピングシステムは、動的に再構成可能である。例えば、視覚特徴が視覚−慣性走行距離計測に不十分である場合に、IMU予測モジュールは、視覚−慣性走行距離計測モジュールを(部分的に)バイパスし、ローカルにレーザポイントを記録する。他方、環境構造が走査適合に不十分である場合に、視覚−慣性走行距離計測出力は、走査適合精緻化モジュールを(部分的に)バイパスし、マップ上にレーザポイントを記録する。
例示的かつ非限定的実施形態により、マッピングシステムは、IMUバイアス補正のための優先度フィードバックを使用する。例えば、視覚−慣性走行距離計測モジュール及び走査適合精緻化モジュールの両方は、IMUバイアスを補正するためにIMU予測モジュールにフィードバックを提供することができる。フィードバックは、組み合わされて視覚−慣性走行距離計測モジュールに優先度を与えることができる。換言すると、走査適合精緻化モジュールからのフィードバックは、視覚−慣性走行距離計測モジュールが劣化した方向に視覚−慣性走行距離計測モジュールを補償する。
例示的かつ非限定的実施形態により、マッピングシステムは、マップの2層ボクセル表現を使用する。第1の層は、大きいボクセルから構成される。この層は、マップストレージのためのものである。センサに近い各大きいボクセルに対して、ボクセルは、走査適合のためにマップを正確に取り出すための小さいボクセルの第2の層を含有する。
例示的かつ非限定的実施形態により、マッピングシステムは、走査適合のマルチスレッド処理を使用する。走査適合は、KDツリー構築、ポイントクエリ、及び非線形最適化のための逆行列などを利用することができる。openMPのような標準的な並行処理は、ポイントクエリを加速することができるだけであり、全体時間を実質的に低減するのに寄与しない。対照的に、本発明のシステムは、各スレッド上で異なる走査を処理する。換言すると、4つのスレッドは、1つの走査の代わりに4つの連続走査を処理する。
マッピングシステムの実施形態を示すブロック図である。 図1のマッピングシステムの3つの計算モジュール及びそれらのそれぞれのフィードバック特徴のブロック図の実施形態を示す図である。 位置情報をマップの中に精緻化するためのカルマンフィルタモデルの実施形態を示す図である。 位置情報をマップの中に精緻化するための因子グラフ最適化モデルの実施形態を示す図である。 視覚−慣性走行距離計測サブシステムの実施形態を示す図である。 走査適合サブシステムの実施形態を示す図である。 粗詳細解像度を有する大面積マップの実施形態を示す図である。 細詳細解像度を有する小面積マップの実施形態を示す図である。 マルチスレッド走査適合の実施形態を示す図である。 単一スレッド走査適合の実施形態を示す図である。 視覚−慣性走行距離計測ユニットからのフィードバックデータがデータ劣化に起因して抑制される3つの計算モジュールのブロック図の実施形態を示す図である。 走査適合ユニットからのフィードバックデータがデータ劣化に起因して抑制される3つの計算モジュールの実施形態を示す図である。 視覚−慣性走行距離計測ユニット及び走査適合ユニットからのフィードバックデータがデータ劣化に起因して部分的に抑制される3つの計算モジュールの実施形態を示す図である。 モバイルマッピングデバイスの推定される軌跡の実施形態を示す図である。 例示的かつ非限定的実施形態による双方向情報フローを示す図である。 例示的かつ非限定的実施形態による動的再構成可能システムを示す図である。 例示的かつ非限定的実施形態による動的再構成可能システムを示す図である。 例示的かつ非限定的実施形態によるIMUバイアス補正のため優先度フィードバックを示す図である。 例示的かつ非限定的実施形態によるマップの2層ボクセル表現を示す図である。 例示的かつ非限定的実施形態によるマップの2層ボクセル表現を示す図である。 例示的かつ非限定的実施形態による走査適合のマルチスレッド処理を示す図である。 例示的かつ非限定的実施形態による走査適合のマルチスレッド処理を示す図である。
1つの一般的態様では、本発明は、位置の変化を経時的に推定する(走行距離計)及び/又は3次元空間のポイントクラウドのような3次元マップ表現を発生させるモバイルコンピュータベースマッピングシステムに関する。本発明のマッピングシステムは、以下に限定されるものではないが、慣性測定ユニット(IMU)、カメラ、及び/又は3Dレーザスキャナを含む複数のセンサを含むことができる。それはまた、経時的にシステムの位置の変化を推定する及び/又は周囲環境のマップ表現を発生させるためにセンサからの出力を処理するように構成された複数のセンサと通信する少なくとも1つのプロセッサを有するコンピュータシステムを含むことができる。マッピングシステムは、高密度の正確な3Dマッピング記録と共に、高周波数、低周波数、オンライン、リアルタイムのエゴモーション推定を可能にすることができる。本発明の開示の実施形態は、同時位置付け及びマッピング(SLAM)システムを含むことができる。SLAMシステムは、GPS独立であってリアルタイム同時位置付け及びマッピングを提供する多次元(例えば、3D)レーザ走査及び範囲測定システムを含むことができる。SLAMシステムは、環境内の物体からのレーザ走査の反射から生じる高精度ポイントクラウドのデータを発生及び管理することができる。ポイントクラウド内のポイントのうちのいずれかの移動は、経時的に正確に追跡され、それによってSLAMシステムは、場所の基準ポイントとしてポイントクラウドのポイントを使用してそれが環境を通って移動した時の場所及び向きの正確な理解を維持することができる。
一実施形態では、モバイルマッピングシステムの位置及びモーションの解像度は、一連の粗対細更新で逐次精緻化することができる。非限定例では、離散計算モジュールを使用して、急速更新速度を有する粗解像度からより遅い更新速度を有する細解像度までモバイルマッピングシステムの位置及びモーションを更新することができる。例えば、IMUデバイスは、データを第1の計算モジュールに提供して高速更新速度でマッピングシステムのモーション又は位置を予測することができる。視覚−慣性走行距離計測システムは、データを第2の計算モジュールに提供して低速更新速度でマッピングシステムのモーション又は位置解像度を改善することができる。これに加えて、レーザスキャナは、第3の計算走査適合モジュールにデータを提供して、更に低速の更新速度でモーション推定値を更に精緻化してマップを記録することができる。一非限定例では、細位置データ及び/又はモーション解像度データを処理するように構成された計算モジュールからのデータは、粗位置データ及び/又はモーション解像度データを処理するように構成された計算モジュールにフィードバックすることができる。別の非限定例では、計算モジュールは、欠陥、間違い、不完全、又は存在しないデータのソースになっているセンサに関連付けられた計算モジュールを自動的にバイパスすることにより、センサ劣化の問題に対処するための欠陥許容値を組み込むことができる。すなわち、マッピングシステムは、高度に動的なモーションの存在下で、並びに暗く、テクスチャがなく、かつ構造のない環境で作動することができる。
多くがオフラインバッチシステムである既存のマップ発生技術とは対照的に、本明細書に開示するマッピングシステムは、運動している間にリアルタイムで作動してマップを発生することができる。この機能は、2つの実際的な利点を提供する。第1に、ユーザは、三脚又は他の非固定マウント上に固定されたスキャナに制限されない。代わりに、本明細書に開示するマッピングシステムは、モバイルデバイスに関連付けることができ、それによってリアルタイムでマップすることができる環境の範囲を増大する。第2に、リアルタイム特徴は、データが収集される間に現在マップされている区域のフィードバックをユーザに与えることができる。オンライン発生マップはまた、自律ナビゲーション及び障害物回避に関してロボット又は他のデバイスを補助することができる。一部の非限定的実施形態では、そのようなナビゲーション機能は、マッピングシステム自体に組み込むことができる。代替非限定的実施形態では、マップデータは、外部ソースのマップを要求する場合があるナビゲーション機能を有する追加のロボットに提供することができる。
3Dモデリング、シーンマッピング、及び環境推論のようなセンサのいくつかの潜在的用途が存在する。本発明のマッピングシステムは、更に別の処理のための入力としてポイントクラウドを取る他のアルゴリズムのためのポイントクラウドマップを提供することができる。更に、本発明のマッピングシステムは、屋内及び屋外の両方で機能することができる。そのような実施形態は、外部照明を必要とせず、暗闇で作動することができる。カメラを有する実施形態は、高速モーションを扱うことができ、カメラからの画像でレーザポイントクラウドをカラー化することができるが、外部照明が必要である場合がある。SLAMシステムは、ユーザが歩いている、自転車に乗っている、運転している、飛んでいる、及びその組合せの時のようなユーザが環境を運動中の時にポイントクラウドをリアルタイムで構築及び維持することができる。マップは、マップ器が環境を進んでいる時にリアルタイムで構成される。SLAMシステムは、ポイントとして数千の特徴を追跡することができる。マップ器が移動すると、ポイントが追跡されてモーションの推定を可能にする。従って、SLAMシステムは、リアルタイムでかつGPSのような外部位置付け技術に関係なく作動する。実施形態では、物体のような環境の複数の(多くの場合に非常に多数の)特徴が三角測量のためのポイントとして使用され、システムは、リアルタイムで多くの場所及び向き計算を実行及び更新し、SLAMシステムが環境を移動した時の位置及び向きの正確な現在の推定値を維持する。実施形態では、環境内の特徴の相対的なモーションを使用して移動特徴(人、車両、及び他の移動品目など)から固定特徴(壁、扉、窓、家具、及び作り付け備品など)を区別することができ、それによって固定特徴を位置及び向き計算に使用することができる。水中SLAMシステムは、減衰を低減するために青緑色のレーザを使用する場合がある。
マッピングシステム設計は、エゴモーション推定のドリフトがモジュール固有の周波数よりも低い周波数を有するという観察に従っている。3つの計算モジュールは、従って、減少する周波数の順番で並べられる。高周波モジュールは、積極的なモーションを扱うように特化されるが、低周波モジュールは、以前のモジュールのドリフトを打ち消す。逐次処理は計算にも有利であり、前にあるモジュールは、計算をあまり費やすことなく高周波で実行し、完全な処理のために後ろのモジュールに十分な時間を与える。マッピングシステムは、従って、リアルタイムでオンライン実行しながら高レベルの精度を達成することができる。
更に、システムは、センサ劣化を扱うように構成することができる。カメラが機能しない場合(例えば、暗闇、大きい照明の変化、又はテクスチャの少ない環境により)、又はレーザが機能しない場合(例えば、構造の少ない環境により)、対応するモジュールをバイパスすることができ、システムの残りは、確実に機能するように交互配置することができる。システムは、多数の実験を通じて試験され、結果は、システムが環境的劣化及び積極的なモーションに対してナビゲーションの数キロメートルにわたる高精度及びロバスト性を生じることができることを示している。
以下に開示するモジュール式マッピングシステムは、多層最適化構造を使用することにより、距離センサ、視覚センサ、及び慣性センサからのデータを処理してモーション推定及びマッピングを実行するように構成される。モジュール式マッピングシステムは、以下を含むことができる特徴を組み込むことにより、高精度、ロバスト性、及び低ドリフトを達成することができる:
・計算モジュールを動的に再構成する機能、
・計算モジュールの故障モードを完全に又は部分的にバイパスし、かつセンサ及び/又はセンサデータの劣化を扱う方式で残りのモジュールからのデータを組合せ、それによって環境的に誘導されたデータ劣化及びモバイルマッピングシステムの積極的なモーションに対処する機能、及び
・リアルタイムの性能を提供するために計算モジュールを協働的に統合する機能。
本明細書に開示するのは、3Dレーザ、カメラ、及びIMUからのデータによってオンラインエゴモーション推定をするマッピングシステムである。推定されたモーションは、横断された環境のマップを構築するためにレーザポイントを記録する。多くの現実世界の用途では、エゴモーション推定及びマッピングは、リアルタイムで行わなくてはならない。自律ナビゲーションシステムでは、マップは、モーション計画及び障害物回避に重要であり、同時にモーション推定は、車両制御及び操縦に重要である。
図1は、本発明の一実施形態によるマッピングシステム100の単純化ブロック図を示している。特定の構成要素を以下に開示するが、これらの構成要素は例としてだけ提示され、他の均等物又は類似の構成要素に関して制限するものではない。例示的なシステムは、Xsens(記録商標)MTi−30IMUのようなIMUシステム102、IDS(記録商標)UI−1220SEモノクロカメラのようなカメラシステム104、及びVelodynePUCK(記録商標)VLP−16レーザスキャナのようなレーザスキャナ106を含む。IMU102は、x−y−z加速度計、ロール・ピッチ・ヨージャイロスコープ、及び磁気探知器の1又は2以上から得られた慣性モーションデータを提供することができ、第1の周波数での慣性データを提供することができる。一部の非限定例では、第1の周波数は、約200Hzとすることができる。カメラシステム104は、約752x480ピクセルの解像度、76°水平視野(FOV)、及び第2の周波数でのフレーム取り込み速度を有することができる。一部の非限定例では、フレーム取り込み速度は、約50Hzの第2の周波数で作動することができる。レーザスキャナ106は、360°水平FOV、30°垂直FOVを有することができ、レーザスピン速度を表す第3の周波数で30万ポイント/秒を受信することができる。一部の非限定例では、第3の周波数は、約5Hzとすることができる。図1に示すように、レーザスキャナ106を符号器109を組み込むモータ108に接続してモータ回転角度を測定することができる。一非限定例では、レーザモータ符号器109は、約0.25°の分解能で作動させることができる。
IMU102、カメラ104、レーザスキャナ106、及びレーザスキャナモータ符号器109は、1又は2以上のプロセッサ134を有するあらゆるコンピュータデバイスとすることができるコンピュータシステム110と、十分な処理パワーを有する関連のメモリ120、160及び望ましい走行距離計測方法及び/又はマッピングを実行するためのメモリとにデータ通信することができる。例えば、2.6GHz i7quad−coreプロセッサ(各コアで2スレッド及び全体で8スレッド)及び一体型GPUメモリを備えたラップトップコンピュータを使用することができる。更に、コンピュータシステムは、1又は2以上のタイプのRAMのような1次又は動的メモリ120、及び1又は2以上のタイプのハードディスク又はフラッシュROMのような2次又はストレージメモリ160を有することができる。特定の計算モジュール(IMUモジュール122、視覚−慣性走行距離計測モジュール126、及びレーザ走査モジュール132)を上記に開示したが、そのようなモジュールが単に上述の機能を有する例示的モジュールにすぎず、非限定的であることを認識しなければならない。同様に、上記に開示したタイプのコンピュータデバイス110は、単にそのようなセンサと共に使用することができるコンピュータデバイスの1つのタイプの例にすぎず、かつ本明細書に開示する目的のためのものであり、決して限定ではない。
図1に示すように、マッピングシステム100は、粗対細方式(図2を参照)でモーションを順次に回復する個々の計算モジュールを含む計算モデルを組み込んでいる。IMU102(IMU予測モジュール122)からのモーション予測から始めて、視覚−慣性密接結合方法(視覚−慣性走行距離計測モジュール126)は、モーションを推定し、レーザポイントをローカルに記録する。走査適合方法(走査適合精緻化モジュール132)は、推定されたモーションを更に精緻化する。走査適合精緻化モジュール132は、ポイントクラウドデータ165を記録してマップ(ボクセルマップ134)を構築する。このマップは、任意的なナビゲーションシステム136の一部としてマッピングシステムによって使用することができる。ナビゲーションシステム136は、搭載コンピュータシステム、1次メモリ内の計算モジュールとして含めることができ、又は全く個別のシステムを構成することができることは認識することができる。
各計算モジュールは、センサシステムの各々のうちの1つからのデータを処理することができることを認識することができる。従って、IMU予測モジュール122は、IMUシステム102から得られたデータから粗マップを発生させ、視覚−慣性走行距離計測モジュール126は、カメラシステム104からの精緻化されたデータを処理し、走査適合精緻化モジュール132は、レーザスキャナ106及びモータ符号器109からの最細粒度解像度データを処理する。更に、細粒度解像度モジュールの各々は、粗粒度モジュールから提示されるデータを更に処理する。視覚−慣性走行距離計測モジュール126は、IMU予測モジュール122から受信されてそれによって計算されたマッピングデータを精緻化する。同様に、走査適合精緻化モジュール132は、視覚−慣性走行距離計測モジュール126によって提示されたデータを更に処理する。上記に開示したように、センサシステムの各々は異なる速度でデータを収集する。一非限定例では、IMU102は、約200Hzの速度でデータ収集を更新することができ、カメラ104は、約50Hzの速度でデータ収集を更新することができ、レーザスキャナ106は、約5Hzの速度でデータ収集を更新することができる。これらの速度は制限ではなく、例えば、それぞれのセンサのデータ収集速度を反映することができる。粗粒度データは、細粒度データよりも速い速度で収集することができ、粗粒度データは、細粒度データよりも速い速度で処理することができることは認識することができる。データ収集の特定周波数値及び様々な計算モジュールによる処理を上記に開示したが、絶対的周波数もそれらの相対的周波数も限定ではない。
マッピング及び/又はナビゲーショナルデータは、粗レベルデータ及び細レベルデータを含むと考えることができる。従って、1次メモリ(動的メモリ120)では、粗位置データは、計算モジュール122、126、132のいずれかによってアクセス可能にすることができるボクセルマップ134に格納することができる。走査適合精緻化モジュール132によって発生されるポイントクラウドデータ165としてのファイル詳細マッピングデータは、ハードドライブ、フラッシュドライブ、又は他の永続メモリのような2次メモリ160にプロセッサ150を通じて格納することができる。
粗粒度データが細粒度計算のために計算モジュールによって使用されるだけでなく、視覚−慣性走行距離計測モジュール126及び走査適合精緻化モジュール132(細等級位置情報及びマッピング)は、IMU位置予測を更新するための基礎として更に精緻化されたマッピングデータをそれぞれのフィードバック経路128及び138を通じてIMU予測モジュール122にフィードバックすることができる。この方式で、粗位置及びマッピングデータは、順次に解像度を精緻化することができ、精緻化された解像度データは、粗解像度計算のフィードバック基準として寄与する。
図2は、3つの計算モジュールのそれぞれのデータ経路に沿ったブロック図を示している。IMU予測モジュール122は、IMU(図1の102)からIMU位置データ223を受信することができる。視覚−慣性走行距離計測モジュール126は、IMU予測モジュール122からのモデルデータ、並びにカメラ(図1の104)からの1又は2以上の個々に追跡された視覚特徴227a、227bからの視覚データを受信することができる。レーザスキャナ(図1の106)は、視覚−慣性走行距離計測モジュール126によって供給される位置データに加えて走査適合精緻化モジュール132に供給されるレーザ決定式ランドマーク233a、233bに関するデータを発生させることができる。視覚−慣性走行距離計測モジュール126からの位置推定モデルは、フィードバック128されてIMU予測モジュール122によって計算された位置モデルを精緻化することができる。同様に、走査適合精緻化モジュール132からの精緻化マップデータは、フィードバック138されてIMU予測モジュール122によって計算された位置モデルに追加の補正を加えることができる。
図2に示すようにかつ上記に開示したように、モジュール式マッピングシステムは、粗対細方式でモーション関連データを順次に回復及び精緻化することができる。更に、各モジュールのデータ処理は、モジュールにデータを供給するデバイスの各々のデータ収集及び処理速度によって決定することができる。IMUからのモーション予測から開始して、視覚−慣性密接結合方法は、モーションを推定してローカルにレーザポイントを記録する。次に、走査適合方法は、推定されたモーションを更に精緻化する。走査適合精緻化モジュールは、ポイントクラウドを記録してマップを構築することができる。その結果、マッピングシステムは、データが利用可能になる時に各精緻化フェーズを処理するように時間最適化される。
図3は、図1に示す同じセンサタイプから得られたデータに基づく標準的カルマンフィルタモデルを示している。図3に示すように、カルマンフィルタモデルは、データの分解機能に関わらずセンサのいずれかからのあらゆるデータの受信に応答して位置及び/又はマッピングデータを更新する。従って、例えば、IMUデータに基づく位置情報推定値の状態に関わらずこれらのデータが利用可能になるいずれの時間にも視覚−慣性走行距離計測データを使用して位置情報を更新することができる。従って、カルマンフィルタモデルは、各タイプの測定の相対的な解像度を利用しない。図3は、位置データを最適化するための標準カルマンフィルタベースの方法のブロック図を示している。カルマンフィルタは、データが提示された時に順次に位置モデル322a−322nを更新する。従って、初期位置予測モデル322aから開始して、カルマンフィルタは、IMU機械化データ323の受信に基づいて精緻化することができる次の位置モデル322bを予測することができる324a。位置予測モデルは、個々の視覚特徴又はレーザランドマークでシードされた更新段階の前に予測段階324aでIMU機械化データ323に応答して更新することができる322b。
図4は、因子−グラフ方法に基づく位置最適化を示している。この方法では、第1の時間410のモバイルマッピングシステムの姿勢をデータの受信に応答して第2の時間420の姿勢に更新することができる。因子−グラフ最適化モデルは、各精緻化計算中の全センサからの制約を組み合わせる。従って、カメラからのIMUデータ323、特徴データ327a、327bなど、及びレーザランドマークデータ333a、333bなどは、全て各更新段階に使用される。そのような方法は、望ましい大量のデータによる各位置精緻化段階の計算の複雑さを増すことは認めることができる。センサは、大きさの程度によって異なる場合がある独立速度でデータを提供することができるので、全精緻化段階は、最も遅いセンサのデータ収集時間に時間的に制限される。その結果、そのようなモデルは高速リアルタイムマッピングに適切ではない場合がある。図1及び2に示すモジュール式システムは、粗対細方式におけるモーションを順次に回復する。この方式では、モーション精緻化の程度は、各タイプのデータの利用可能性によって決定される。
仮定、座標、及び問題
仮定及び座標系
図1に示すように、モバイルマッピングシステムのセンサシステムは、レーザ106、カメラ104、及びIMU102を含むことができる。カメラは、固有のパラメータが公知であるピンホールカメラモデルとしてモデル化することができる。3つのセンサの全ての間の外因性パラメータは較正することができる。カメラとレーザ間の相対的姿勢及びレーザとIMU間の相対的姿勢は、当業技術で公知の方法に従って決定することができる。単一座標系をカメラ及びレーザに使用することができる。一非限定例では、カメラ座標系を使用することができ、全てのレーザポイントを前処理でカメラ座標系に投影することができる。一非限定例では、IMU座標系は、カメラ座標系に平行にすることができ、従って、IMU測定は、収集に応答して回転させながら補正することができる。座標系は、以下のように定義することができる。
・カメラ座標系{C}は、x軸が左を指し、y軸が上を指し、z軸がカメラ主軸に一致する前方を指すカメラ光学中心から派生することができる。
・IMU座標系{I}は、x−、y−、及びz−軸が{c}に平行であり、同じ方向を指すIM測定中心から派生することができる。
・世界座標系{W}は、開始姿勢の{C}に一致する座標系とすることができる。
MAP推定問題
状態推定問題は、機能的最大確率(MAP)推定問題として定式化することができる。本発明者は、システム状態のセットU={ui}としてx={xi}、i∈{1;2;...,m}、制御入力のセットとしてi∈{1;2;...,m}、及びランドマーク測定のセットとしてZ={zk}、k∈{1;2;...,n}を定義することができる。提案するシステムが与えられる場合と、Zは、視覚特徴とレーザランドマークの両方を含むことができる。システムの複合確率は以下のように定義される。
式1
P(x0)は、第1のシステム状態のプライアーであり、
は、モーションモデルを表し、
は、ランドマーク測定モデルを表している。(1)として定式化された各問題に対して、問題の対応するベイズ簡略ネットワーク表現がある。MAP推定は式1を最大にすることである。ゼロ平均ガウスノイズの仮定の下で、問題は最小二乗問題と同等である。
式2
ここで、
は、モーションモデル及びランドマーク測定モデルにそれぞれ関連付けられた残差である。
式2を解く標準的な方法は、全てのセンサデータ、例えば、視覚特徴、レーザランドマーク、及びIMU測定値を大型因子−グラフ最適化問題に組み合わせることである。提案するデータ処理パイプラインは、代わりに、複数の小さい最適化問題を定式化して問題を粗対細方式で解く。最適化問題は以下のように言い直すことができる。
問題:レーザ、カメラ、及びIMUから与えられたデータは、(2)として問題を定式化及び解いて、{W}に対して{C}の姿勢を決定し、次に、推定された姿勢を使用してレーザポイントを記録して{W}の横断された環境のマップを構築する。
IMU予測サブシステム
IMU機械化
この小節ではIMU予測サブシステムを説明する。システムは基本的なセンサ座標系として{C}を考えているので、IMUは、{C}に対して特徴付けることができる。「仮定及び座標系」という名称の小節で上記に開示したように、{I}及び{C}は平行座標系であり、ω(t)及びα(t)は、時間tの{C}の角速度及び加速度それぞれを示す2つの3x1ベクトルとすることができる。対応するバイアスは、bω(t)及びbα(t)として示すことができ、nω(t)及びnα(t)は対応するノイズである。ベクトル、バイアス、及びノイズの項は{C}で定義される。更に、gは、{W}の一定重力ベクトルとして示すことができる。IMU測定項は次式の通りである。
式3
式4
ここで、
は、{W}から{C}への回転行列であり、
は、{C}及び{I}の間の変換ベクトルである。

は、回転中心({C}の始点)が{I}の始点とは異なるという事実による遠心力を表している。視覚−慣性ナビゲーション方法の一部の例は、この遠心力項を推定するために{I}のモーションをモデル化する。本明細書に開示する計算方法では、深度情報あり及びなしの視覚特徴が使用され、{C}から{I}の深度なしの変換特徴は直接的ではない(以下を参照)。その結果、本明細書に開示するシステムは、代わりに、{C}のモーションの全てをモデル化する。実際的にカメラ及びIMUは、項の影響を最大限低減するために互いに近づけて装着される。
IMUバイアスはゆっくり変化する変数とすることができる。この結果、最も新しく更新されたバイアスは、モーション積分に使用される。最初に、式3は時間で積分される。次に、得られる向きは、二度の時間積分のために式4と共に使用され、加速度データからの変換を取得する。
バイアス補正
IMUバイアス補正は、カメラ又はレーザのいずれかからのフィードバックによって行うことができる(図1及び2の128、138をそれぞれ参照)。各フィードバック項は、短時間にわたる推定区分的モーションを含有する。バイアスは、区分的モーション中に一定になるようにモデル化することができる。式3から開始して、推定された向きをIMU積分と比較することによってbω(t)を計算することができる。更新されたbω(t)は、推定された変換と比較された変換を再度計算してbα(t)を計算するために更に一巡の積分に使用される。
高周波数ノイズの影響を低減するために、バイアスの既知の数を維持するスライディングウィンドウが利用される。スライディングウィンドウに使用されるバイアスの数の非限定例は、200HzIMU速度に基づく400バイアスの推奨される数を有する200から1000バイアスを含むことができる。100HzのIMU速度を有するスライディングウィンドウのバイアスの数の非限定例は、一般的に200バイアスの値を有する100から500である。スライディングウィンドウからの平均化バイアスが使用される。この実施では、スライディングウィンドウの長さは、バイアスの更新速度を決定するためのパラメータとして機能する。バイアスをモデル化するための代替方法は当業技術で公知であるが、開示する実施は、個別のかつ異なるモジュールとしてIMU処理モジュールを維持するのに使用される。スライディングウィンドウ方法は、本発明のシステムの動的再構成を可能にすることができる。この方式では、IMUは、カメラ、レーザ、又は必要に応じてカメラとレーザの両方に結合することができる。例えば、カメラが機能しない場合に、IMUバイアスは、代わりに、レーザだけによって補正することができる。
視覚−慣性走行距離計測サブシステム
視覚−慣性走行距離計測サブシステムのブロックシステム図を図5に示している。最適化モジュール510は、モーション推定550の深度情報を有するか又は持たない光学特徴データに基づいてカメラ制約515と共にIMU予測モジュール520からの姿勢制約512を使用する。深度マップ記録モジュール545は、レーザポイント540から得られた深度情報を有する追跡カメラ特徴530の深度マップ記録及び深度アソシエーションを含むことができる。深度マップ記録モジュール545は、前の計算から得られたモーション推定550を組み込むことができる。本方法は、視覚とIMUを密接に結合する。各々は、区分的モーション550を推定する最適化モジュール510に制約512、515をそれぞれ提供する。同時に、本方法は、深度情報を深度マップ記録モジュール545の一部として視覚特徴に関連付ける。特徴が、レーザ範囲測定が利用可能な区域に位置付けられる場合に、深度がレーザポイントから得られる。そうでなければ、深度は、前に推定されたモーションシーケンスを使用して三角測量から計算される。最後のオプションとして、本方法は、異なる方法で制約を定式化することによっていずれの深度もない特徴を使用することができる。これは、レーザ範囲カバレージを持たないか又はカメラモーションの方向に十分長く追跡又は位置付けられないので三角測量できない特徴に対して真である。
カメラ制約
視覚−慣性走行距離計測方法は、キー−フレームベースの方法である。新しいキー−フレームは、ある一定の数の特徴よりも多くが追跡を失うか又は画像オーバラップがある比率よりも下である場合に決定される535。従って、右の上付き文字l、l∈Z+は最後のキー−フレームを示すことができ、c、c∈Z+、及びc>kは、現在のフレームを示すことができる。上記に開示したように、本方法は、深度あり及び深度なしで特徴を組み合わせる。キー−フレームlの深度に関連付けられた特徴は、X1={C1}の[x1、y1、x1Tとして示すことができる。相応に、深度なしの特徴は、代わりに、標準化座標を使用して、
として示される。
及び
は、システム状態を表す式1の
とは異なる。キー−フレームの特徴は、2つの理由で深度に関連付けることができる:1)深度アソシエーションが処理の何らかの量を取り、キー−フレームのコンピュータ深度アソシエーションだけが計算強度を低減することができ、2)深度マップがフレームcで利用できず、従って、記録が設定された深度マップに依存するのでレーザポイントを記録することができない。{Cc}の標準化特徴は、
として示すことができる。
は、フレームl及びcの間の3x3回転行列及び3x1変換ベクトルとし、ここで、
変換を形成する。フレームlとcの間のモーション関数を次式のように書くことができる。
式5
cは未知の深度を有する。dcを深度とし、ここで、
である。Xcを
で置換して式5の第1及び第2の行と第3の行とを組み合わせてdcを除き、次式をもたらす。
式6
式7


の第h行である。深度を特徴に利用できない場合に、d1をキー−フレームlの未知の深度とする。Xl及びXc
それぞれで置換し、dk及びdcを除くために式5の全ての3つの行を組み合わせて別の制約をもたらす。
式8
モーション推定
モーション推定処理510は、1)式6−7の公知の深度を有する特徴から、2)式8の未知の深度を有する特徴から、及び3)IMU予測520からの制約の3つのセットを組み合わせる最適化問題を解くのに必要である。
は、フレームaとbの間の4x4変換行列として定義することができる。
式9
ここで、
は、対応する回転行列及び変換ベクトルである。更に、
に対応する3x1ベクトルとすると、
は、回転角度である。各
のセットに対応する。
フレームlとc−1の間で解かれたモーション変換、すなわち、
を使用して、IMU姿勢制約を定式化することができる。
として示される最後の2つのフレームc−1とcの間の予測される変換は、IMU機械化から取得することができる。フレームcの予測変換は以下として計算される。
式10
は、
に対応する6−DOFモーションである。IMU予測変換
は、向きに依存することは理解することができる。一例として、向きは、式4の回転行列を通じて重力ベクトルの予測
、従って、積分される加速度を決定することができる。
の関数として定式化することができ、
として書き直すことができる。IMU予測モジュール122(図1及び2)によって提供される200Hz姿勢、並びに視覚−慣性走行距離計測モジュール126(図1及び2)によって提供される50Hz姿勢は、両方とも姿勢関数であることは理解することができる。
の計算は、フレームcで開始することができ、加速度は、時間に関して逆積分することができる。
は解かれるモーションである。制約を次式として表すことができる。
式11
ここで、
は、カメラ制約に対して姿勢制約を適切にスケーリングする相対的共分散行列である。
視覚−慣性走行距離計測サブシステムでは、姿勢制約がモーションモデルを満足してカメラ制約が式2のランドマーク測定モデルを満足する。最適化問題は、異常値特徴除去のためのロバストな当て嵌めフレームワークに適応されたニュートン勾配−降下方法を使用することによって解くことができる。この問題では、状態空間が
を含有する。従って、フルスケールMAP推定は実行されないが、マージン化問題を解くためだけに使用される。ランドマーク位置は最適化されず、従って、状態空間の6つの未知数だけが使用され、それによって計算強度を低く維持する。従って、本発明の方法は、レーザ範囲測定を伴い、特徴に正確な深度情報を提供し、モーション推定の精度を保証する。その結果、バンドル精緻化を通じた特徴の深度の更に別の最適化は必要ない。
深度アソシエーション
深度マップ記録モジュール545は、以前に推定されたモーションを使用して深度マップ上にレーザポイントを記録する。カメラの視野内のレーザポイント540は、ある一定の時間量に対して維持される。深度マップは一定密度を維持するためにダウンサンプリングされ、高速インデキシングのための2DのKDツリーに格納される。KDツリーでは、全てのレーザポイントが、カメラ中心の周りの単位球面に投影される。ポイントはポイントの2つの角座標によって表される。深度を特徴に関連付ける時に、特徴を球面に投影することができる。3つの最も近いレーザポイントが各特徴に対して球面上に見出される。次に、それらの有効性は、直交空間の3つのポイント間の距離を計算することによって得られる。距離が閾値よりも大きい場合に、ポイントが、物体、例えば、壁及び壁の前面の物体とは異なる機会が高く、有効性検査が失敗する。最終的に、深度は、直交空間内にローカル平面パッチを有する3つのポイントから補間される。
レーザ範囲カバレージのない特徴は、それらがある一定の距離にわたって追跡され、かつカメラモーションの方向に位置付けられない場合に、特徴が追跡される画像シーケンスを使用して三角測量することができる。そのような手順では、ベイズ確率モードに基づいて各フレームの深度を更新することができる。
走査適合サブシステム
このサブシステムは、レーザ走査適合による前のモジュールからのモーション推定値を精緻化する。図6は、走査適合サブシステムのブロック図を示している。サブシステムは、提供された走行距離計測推定550を使用してローカルポイントクラウドでレーザポイント540を受信してこれらを記録する620。次に、図形特徴がポイントクラウドから検出され640、かつマップに適合される。走査適合は、当業技術で公知の多くの方法と同様に特徴対マップの距離を最小にする。しかし、走行距離計測推定550は、最適化610で姿勢制約612を提供する。最適化は、レーザ制約617によって発見及び更に処理される特徴対応性615を有する姿勢制約を処理する段階を含み、デバイス姿勢650を発生させる。この姿勢650は、特徴対応性615の発見を容易にするマップ記録処理655を通じて処理される。この実施はマップのボクセル表現を使用する。更に、それは、1から複数のCPUスレッドに並行して実行されるように動的に構成することができる。
レーザ制約
レーザ走査を受信する時に、本方法は、最初に走査620からのポイントを共通座標系に記録する。
は、走査数を示すのに使用することができる。カメラ座標系をカメラとレーザの両方に使用することができることは理解される。走査mは、
として示される走査の最初のカメラ座標系に関連付けることができる。視覚−慣性走行距離計測からレーザポイント540、走行距離計測推定550をローカルに記録620することは、キー−ポイントとして取ることができ、IMU測定を使用してキー−ポイントの間を補間することができる。
は、走査mからのローカルに記録されたポイントクラウドとする。Pmからの図形特徴の2つのセットを抽出することができ、一方はシャープエッジで、すなわち、エッジポイントで
として示され、他方はローカル平面表面で、すなわち、平面ポイントで
として示されている。これは、ローカル走査での曲率の計算を通じたものである。塞いだ領域の境界上のポイント及びローカル表面がレーザビームに平行になるように近いポイントのような近傍ポイントが既に選択されているポイントは避けられる。これらのポイントは、大きいノイズを含有するか又はセンサが移動する時に経時的に位置を変える場合がある。
図形特徴は、構築された現在のマップに適合される。
は{W}で定義される。
のポイントは、エッジポイント及び平面ポイントをそれぞれ含有する2つのセットに分離される。ボクセルを使用して、センサの周りのある一定の距離で切り捨てられたマップを格納することができる。各ボクセルに対して、2つの3DのKDツリーを構築することができ、一方はエッジポイントに対して、片方は平面ポイントに対してのものである。個々のボクセルのKDツリーの使用は、クエリポイントが与えられているのでポイント検索を加速し、単一ボクセルに関連付けられた特定のKDツリーを検索する必要がある(以下を参照)。
走査を適合させる時に、{W}への
が、最初に、利用可能なモーションの最良推測を使用して投影され、次に、
の各ポイントに対して、最も近いポイントのクラスターが、マップ上の対応するセットから見出される。ポイントクラスターの図形分布を検証するために、関連付けられた固有値及び固有ベクトルを調べることができる。特に、1つの大きい及び2つの小さい固有値がエッジラインセグメントを示し、2つの大きい及び1つの小さい固有値がローカル平面パッチを示している。適合が有効である場合に、式は、ポイントから対応するポイントクラスターまでの距離に関して定式化される。
式12
ここで、
のポイントであり、
は、{W}での{Cm}の6−DOF姿勢を示している。
モーション推定
走査適合は、式12によって説明した全体的な距離を最小にする最適化問題610に定式化される。最適化は、前のモーションからの姿勢制約612を含有する。
を{W}での
の姿勢に関する4×4変換行列とすると、
は、最後の走査を処理することによって発生される。
は、走行距離計測推定によって提供される{Cm-1}から{Cm}への姿勢変換とする。式10と同様に、{W}での{Cm}の予測される姿勢変換は次式である。
式13
に対応する6−DOF姿勢とし、
は、相対的共分散行列とする。制約は次式になる。
式14
式14は、前のモーションが視覚−慣性走行距離計測からのものである場合を示し、カメラが機能していると仮定する。そうでなければ、制約はIMU予測からのものである。
を使用して、IMU機械化による同じ項を示すことができる。加速度の積分が向き(式11の

の関数である。IMU姿勢制約は次式になる。
式15
ここで、
は、対応する相対的共有結合行列である。最適化問題では、式14及び15は、制約の1つのセットに直線的に組み合わされる。線形組合せは、視覚−慣性走行距離計測の作動モードによって決定される。最適化問題は、ロバストな当て嵌めフレームワークに適用されるニュートン勾配−下降方法によって解かれる
ボクセル内のマップ
マップ上のポイントはボクセルで維持される。A2−レベルボクセル実施を図7A及び7Bに示している。
は、最後の走査を処理した後の第1のレベルマップ700上のボクセルのセット702、704を示している。センサ706の周りのボクセル704は、
を形成する。6−DOFセンサ姿勢、
が与えられた状態で、マップ上のセンサと共に移動する対応する
がある。センサがマップの境界に近づいた時は、境界の反対側725上のボクセルが、マップ境界730を拡張するために移動される。移動したボクセルのポイントは消え、マップの切り捨てをもたらす。
図7Bに示すように、第2のレベルマップ750の各ボクセル、
は、第1のレベルマップ700よりも大きさが小さい
として示されるボクセルのセットによって形成される。走査を適合させる前に、
のポイントは、モーションの最良推測を使用してマップに投影され、これを
に充填する。
からのポイントによって占められるボクセル708は、
を形成するために抽出され、走査適合のために3DのKDツリーに格納される。ボクセル710は、
からのポイントによって占められないものである。走査適合の完了に応答して、走査は、マップを備えたボクセル708に融合される。この後で、マップポイントは、ある一定の密度を維持するためにダウンサイジングされる。第1のレベルマップ700の各ボクセルが第2のレベルマップ750のサブボクセルよりも大きい空間の容積に対応することは理解することができる。従って、第1のレベルマップ700の各ボクセルは、第2のレベルマップ750の複数のサブボクセルを含み、第2のレベルマップ750の複数のサブボクセルにマップすることができる。
図7A及び7Bに関して上述したように、ボクセルの2つのレベル(第1のレベルマップ700及び第2のレベルマップ750)は、マップ情報を格納するのに使用される。
に対応するボクセルが第1のレベルマップ700を維持するのに使用され、第2のレベルマップ750の
に対応するボクセルは、走査適合のためのセンサの周りのマップを取り出すのに使用される。マップは、センサがマップ境界に近づく時だけ切り捨てられる。従って、センサがマップの内側をナビゲートする場合に、切り捨ては必要ない。別の考慮は、2つのKDツリーが
における各個々のボクセルに使用され、一方がエッジポイントに、他方が平面ポイントに使用される。上述のように、そのようなデータ構造は、ポイント検索を加速することができる。この方式では、複数のKDツリーの検索は、
で各個々のボクセルに対する2つのKDツリーの使用とは対照的に避けられる。後者は、KDツリー構築及び保守に多くのリソースを必要とする。
表1は、異なるボクセル及びKDツリー構成を使用するCPU処理時間を比較するものである。この時間は、閉じられた環境及び開かれた環境、構造物のある環境及び植生区域を含む異なるタイプの環境から収集された複数のデータセットから平均化される。ボクセルの1つのレベルのみ、
の使用が、KDツリー構築及びクエリに約2倍の処理時間をもたらすことを見ることができる。これは、ボクセルの第2のレベル、
が、マップの正確な検索を補助するためである。これらのボクセルなしでは、より多くのポイントが
に含有され、KDツリーに蓄積される。更に、各ボクセルに対してKDツリーを使用することにより、
で全てのボクセルに対してKDツリーを使用することに比べて僅かに処理時間が低減される。
(表1)表1.KDツリー作動における平均CPU処理時間の比較
並行処理
走査適合は、KDツリーを構築する段階及び特徴対応性を繰返し見出す段階を伴う。この処理は、時間を消費し、システムの主要な計算を費やす。1つのCPUスレッドが望ましい更新周波数を保証できない場合に、マルチスレッド実施が複雑な処理の問題に対処することができる。図8Aは、2つの適合化器プログラム812、815が並行して実行される場合を示している。走査の受信に応答して、マネージャプログラム810は、これを利用可能な最新のマップに適合させるように並べる。複数の構造物及び複数の視覚特徴を有するクラスター化環境から構成される一例では、適合が遅く、次の走査の到着前に完了できない場合がある。2つの適合化器812及び815が代わりに呼び出される。1つの適合化器812では、

813nそれぞれに適合される。同様に、第2の適合化器815では、

(k=奇数の整数)816nそれぞれに適合される。このインターリーブ処理の使用は、処理のために2倍の時間量をもたらす場合がある。いくつかの構造物又は視覚特徴を備えた清浄な環境から構成される代替の例では、計算が軽い。そのような例(図8B)では、単一適合化器820だけを呼び出すことができる。インターリーブが必要ないので、
にそれぞれ適合される(827a、827b、827nを参照)。実施は4つのスレッドの最大値を使用するように構成することができるが、一般的に2つのスレッドだけが必要になる。
変換積分
最終モーション推定は、図2に示す3つのモジュールからの出力の積分である。5Hz走査適合出力は最も正確なマップを発生し、50Hz視覚−慣性走行距離計測出力及び200HzIMU予測は、高周波数モーション推定のために積分される。
ロバスト性に関して
システムのロバスト性は、センサ劣化を扱う機能によって決定される。IMUは、システムのバックボーンとしての信頼できる機能であると常に仮定される。カメラは、劇的照明変化の影響を受け易く、暗闇/テクスチャの少ない環境又は重大なモーションのぼけが存在する(それによって視覚特徴追跡の損失を引き起こす)時に失敗する場合がある。レーザは、構造物の少ない環境、例えば、単一平面によって支配されるシーンに対処することができない。これに代えて、レーザデータ劣化は、積極的なモーションによるデータの疎らさによって発生する場合がある。
視覚−慣性走行距離計測及び走査適合モジュールの両方は、式2に従って最適化問題を定式化して解く。欠陥が引き起こされた時に、これは劣化最適化問題に相当し、すなわち、問題の一部の方向における制約は条件が悪く、ノイズが、解を決定する場合に支配的になる。1つの非限定的方法では、問題に関連付けられた

として示される固有ベクトルを計算することができる。センサの状態空間が6−DOF(6の自由度)を含有するので6つの固有値/固有ベクトルが存在する。一般性を排除することなく、
は、減少する順序で並べ替えることができる。各固有値は、解がその対応する固有ベクトルの方向にどのように確実に条件付けられるかを説明する。固有値と閾値を比較することにより、確実に条件付けられた方向は、状態空間の劣化した方向から分離することができる。
を確実に条件付けされた方向の数とする。2つの行列を次式として定義することができる。
式16
最適化問題を解く時は、非線形反復を初期推測によって開始することができる。図2に示す順次パイプラインにより、IMU予測は、出力が走査適合のための初期推測として取られる視覚−慣性走行距離計測のための初期推測を提供する。追加の2つのモジュール(視覚−慣性走行距離計測及び走査適合モジュール)に対して、xを解及びΔxを非線形反復におけるxの更新とし、Δxは、線形化システム式を解くことによって計算される。最適化処理中に、全ての方向のxを更新する代わりに、xを確実に条件付けられた方向でのみ更新することができ、代わりに劣化方向における初期推測を保持する。
式17
式17では、システムは、粗対細順序でモーションを解き、IMU予測から開始して、追加の2つのモジュールが、可能な限り多くのモーションを更に解く/精緻化する。問題が確実に条件付けられた場合に、精緻化は全ての6−DOFを含むことができる。そうでなければ、問題が部分的にのみ確実に条件付けられた場合に、精緻化は、0から5−DOFを含むことができる。問題が完全に劣化した場合に、
図14及び15に示す姿勢制約に戻って、2つの式が走査適合問題に直線的に組み合わされたことを理解することができる。式16に定義したように、
は、視覚−慣性走行距離計測モジュールからの固有ベクトルを含有する行列を示し、

以下の通りである。
式18

カメラが機能している標準的な場合では、
及び式18は、式14の視覚−慣性走行距離計測からの姿勢制約から構成される。しかし、カメラデータが完全に劣化した場合に、
姿勢制約から構成される。
カメラ劣化の事例研究
図9Aに示すように、視覚特徴が視覚−慣性走行距離計測に不十分にしか利用できない場合に、IMU予測122は、視覚−慣性走行距離計測問題で確実に条件付けられた方向の数に応答して、視覚−慣性走行距離計測モジュール126を点線に示すように完全に又は部分的にバイパスする924。走査適合モジュール132は、走査適合のためのレーザポイントをローカルに記録することができる。IMU予測のバイパスはドリフトの影響を受ける。レーザフィードバック138は、カメラフィードバック128が利用できない方向にのみIMUの速度ドリフト及びバイアスを補正するカメラフィードバック128を補償する。従って、カメラフィードバックは、カメラデータが劣化しなかった時にこれを適合させる高周波数に起因してより高い優先度を有する。十分な視覚特徴が見出された時に、レーザフィードバックは使用されない。
レーザ劣化の事例研究
図9Bに示すように、環境構造がモーション推定を精緻化するための走査適合132に対して不十分である場合に、視覚−慣性走行距離計測モジュール126出力は、点線に示すようにマップ930上のレーザポイントを記録するために走査適合モジュールを十分に又は部分的にバイパスする。確実に条件付けられた方向が走査適合問題に存在する場合に、レーザフィードバックは、これらの方向の精緻化されたモーション推定値を含有する。そうでなければ、レーザフィードバックが空白になる138。
カメラ及びレーザ劣化の事例研究
更に複雑な例では、カメラとレーザの両方が少なくともある程度は劣化する。図10はそのような例を示している。6つの行を有する垂直バーは6−DOF姿勢を表し、各行は、式16の固有ベクトルに対応するDOF(自由度)である。この例では、視覚−慣性走行距離計測及び走査適合の各々がモーションの3DOFを更新し、他の3−DOFのモーションは変化させない。IMU予測1022a−fは初期IMU予測値1002を含むことができる。視覚−慣性走行距離計測は一部の3−DOF(1026c、1026e、1026f)を更新し1004、精緻化済み予測1026a−1026fをもたらす。走査適合は、一部の3−DOF(1032b、1032d、1032f)を更新し1006、更に別の精緻化済み予測1032a−1032fをもたらす。カメラフィードバック128はカメラ更新1028a−1028fを含有し、レーザフィードバック138はレーザ更新1038a−1038fをそれぞれ含有する。図10を参照すると、陰影付けされていないセル(1028a、1028b、1028d、1038a、1038c、1038e)は、それぞれのモジュールからのいずれの更新情報も含有しない。IMU予測モジュールへの合計更新1080a−1080fは、カメラフィードバック128からの更新1028a−1028f及びレーザフィードバック138からの更新1038a−1038fの組合せである。フィードバックがカメラ(例えば、1028f)及びレーザ(例えば、1038f)の両方から利用可能な1又は2以上の自由度では、カメラ更新(例えば、1028f)は、レーザ更新(例えば、1038f)よりも優先度を有することができる。
しかし、実際には、視覚−慣性走行距離計測モジュール及び走査適合モジュールは異なる周波数で実行する場合があり、各々がその固有の劣化方向を有する場合がある。IMUメッセージを使用して走査適合出力からの姿勢の間を補間することができる。この方式で、視覚−慣性走行距離計測出力に時間位置合わせされた区分的モーションを発生させることができる。
をフレームc−1とcの間の視覚−慣性走行距離計測によって推定される6−DOFモーションとし、ここで
である。
を時間補間後の走査適合によって推定される対応する項とする。
は、視覚−慣性走行距離計測モジュールからの固有ベクトルを含有する式16で定義された行列とすることができ、
劣化した方向を表している。
は、走査適合モジュールからの同じ行列とする。以下の式は組み合わされたフィードバック、
式19
従って、
は、カメラ及びレーザフィードバックを表している。
式20
式21
だけが状態空間のサブ空間に解かれたモーションを含有することに注意しなければならない。IMU予測からのモーション、すなわち、

式22
を使用して、式3及び4の積分を通じて
の関数として定式化されたIMU予測モーションを示すことができる。向き

の両方に依存する。バイアスは、以下の式を解くことによって計算することができる。
式23
システムが正常に機能している時に、

は、ゼロ行列である。それに応じて、
から計算される。劣化した場合では、IMU予測モーション、
は、モーションが解かれない方向に使用される(例えば、図10の組み合わされたフィードバックの白い行1080a)。結果は、前に計算されたバイアスがこれらの方向で維持される。
実験
スキャナによる試験
走行距離計測及びマッピングソフトウエアシステムは2つのセンサ組で検証される。第1のセンサ組では、VelodyneLIDAR(記録商標)HDL−32EレーザスキャナがUI−1220SE白黒カメラ及びXsens(記録商標)MTi−30IMUに取り付けられる。レーザスキャナは、360°水平FOV、40°垂直FOVを有し、5Hzスピン速度で70万ポイント/秒を受信する。カメラは、752x480ピクセルの解像度、76°水平FOV、及び50Hzフレーム速度から構成される。IMU周波数は200Hzで設定される。第2のセンサ組では、VelodyneLIDAR(記録商標)VLP−16レーザスキャナが同じカメラ及びIMUに取り付けられる。このレーザスキャナは、360°水平FOV、30°垂直FOVを有し、5Hzスピン速度で30万ポイント/秒を受信する。両方のセンサ組が、データ収集のために路上で及びオフロードの地形で運転される車両にそれぞれ取り付けられる。
両方のセンサ組では、300Harrisコーナの最大値が追跡された。視覚特徴を均等に分配するために、画像は、5x6の同一副領域に分割され、各副領域は最大10特徴を提供する。特徴が追跡を失った時に、新しい特徴が各副領域の特徴数を維持するために発生される。
本発明のソフトウエアは、ロボットオペレーティングシステム(ROS)を実行するLinux(登録商標)システムで2.6GHz i7クアドコアプロセッサ(各コアに2スレッド及び全体で8スレッド)及び一体型GPUを有するラップトップコンピュータで実行される。ソフトウエアの2つのバージョンが、GPU及びCPUそれぞれで実行される視覚特徴追跡によって実施される。処理時間を表2に示している。視覚−慣性走行距離計測によって使用される時間(図2の126)は、環境又はセンサ構成に対してあまり変化しない。GPUバージョンでは50Hzで実行されるCPUスレッドの約25%を消費する。CPUバージョンではスレッドの約75%を取る。センサの第1の組は、第2のセンサ組より僅かに多い処理時間をもたらす。これは、スキャナが多くのポイントを受信し、プログラムが深度マップを維持し、深度を視覚特徴に関連付けるのに多くの時間を必要とするからである。
走査適合(図2の132)は、環境及びセンサ構成に関して変化する処理時間を多く消費する。第1のセンサ組では、構造物のある環境で作動された場合に走査適合は5Hzで実行するスレッドの約75%を取る。しかし、植物のある環境では、多くのポイントがマップに記録されプログラムは、一般的にスレッドの約135%を消費する。第2のセンサ組では、スキャナが受信するポイントが少ない。走査適合モジュール132は、環境に依存してスレッドの約50−95%を使用する。IMU予測(図2の132)によって使用される時間は、他の2つのモジュールに比べて無視することができるものである。
精度試験
提案するシステムの精度を認めるために試験が行われた。これらの試験では、第1のセンサ組が使用された。センサは、大学のキャンパスの周りで運転するオフロード車両に設けられた。16分以内で2.7km運転した後で、キャンパスマップが構築される。試験中の平均速度は2.8m/sであった。
(表2)表2.第1及び第2のセンサ組を使用した平均CPU処理時間
試験中のモーション推定ドリフトを評価するために、推定された軌跡及び記録されたレーザポイントが衛星画像上で位置合わせされた。従って、地面のレーザポイントが手動で取り除かれる。軌跡を衛星画像上で街路と適合させることにより、水平誤差の上限が<1:0mであることが決定された。同じフロア上の建物を比較することにより、垂直誤差が<2:0mであったことが決定された。これは最後には移動された距離の<0.09%になる全体的な相対的位置ドリフトを与える。精度が測定に対して保証されないことは理解することができ、従って、位置ドリフトの上限だけが計算された。
乗客車両に設けられた同じセンサを有する更に包括的な試験が行われた。乗客車両は、構造物のある道路上を9.3km移動して運転された。経路は、植生された環境、橋、丘の地形、及び交通量の多い街路を横断し、最後に開始位置に戻る。上昇は経路に沿って70m以上変化する。信号機を待つことを除いて、車両速度は、試験中に9−18m/sの間である。経路の始め及び終わりの両方で見出された建物が2つの中に記録されると決定された。2つの記録は、経路の長さにわたるモーション推定ドリフトのために発生する。従って、第1の記録は、試験の最初の車両に対応し、第2の記録は試験の終わりに車両に対応する。間隙が<20mであると測定され、移動した距離の<0:22%の最後の相対的位置誤差をもたらす。
システムの各モジュールは全体的な精度に寄与する。図11は精度試験の推定される軌跡を示している。視覚−慣性走行距離計測システムによって発生される移動センサの軌跡の第1の軌跡プロット1102は、IMUモジュール122及び視覚−慣性走行距離計測モジュール126を使用する(図2を参照)。第1の軌跡プロット1102に使用された構成は、図9Bに示すものに類似である。第2の軌跡プロット1104は、IMUモジュール122からのIMU予測を視覚−慣性走行距離計測をバイパスする走査適合モジュール132(図2を参照)への直接転送に基づいている。この構成は図9Aに示すものに類似である。完全なパイプラインの第3の軌跡プロット1108は、IMUモジュール122、視覚−慣性走行距離計測モジュール126、及び走査適合モジュール132(図2を参照)の組合せに基づいて最小量のドリフトを有する。第1の2つの構成、軌跡プロット1102及び1104の位置誤差は、それぞれ約4及び2倍大きい。
第1の軌跡プロット1102及び第2の軌跡プロット1104は、個々のセンサ劣化に遭遇した時に予測されるシステム性能として見ることができる。走査適合が劣化した場合に(図9Bを参照)、システムは、第1の軌跡プロット1102によって示されたモードに低下する。視野が劣化した場合に(図9Aを参照)、システムは、第2の軌跡プロット1104に示すモードに低下する。センサのどれも劣化していない場合に(図2を参照)、システムは、軌跡プロット1108をもたらす最適化関数の全てを組み込んでいる。別の例では、システムは、初期推測としてIMU予測を取ることができるが、レーザ周波数(5Hz)で実行される。システムは、第4の軌跡プロット1106を発生させる。得られる精度は、視覚−慣性走行距離計測方法を通過するレーザに直接に結合されたIMUを使用する第2の軌跡プロット1104と比較して僅かに良いだけである。結果は、互いにスタックされた全ての制約を有する問題を解く場合にカメラの機能が十分利用されないことを示している。
システムの別の精度試験は、オリジナルの1x速度及び加速された2x速度で実行する移動センサを含む。2x速度で実行された時に、全ての3つのセンサのあらゆる他のデータフレームが抑制され、試験を通じてより積極的なモーションをもたらす。結果を表3に列挙する。各速度で3つの構成が評価された。2x速度では、視覚−慣性走行距離計測及びIMU+走査適合構成の精度が、1x速度の精度に比べて移動した距離の0.54%及び0.38%大幅に低減される。しかし、完全なパイプラインは、ごく僅かの0.04%だけしか精度を低減しない。結果は、カメラ及びレーザが互いに補償し、全体的な精度を維持することを示している。これは特にモーションが積極的である時に真である。
(表3)表3.移動した距離の百分率としての相対的位置誤差
(図11の軌跡に対応する1x速度の誤差)
図12を参照すると、双方向情報フローの例示的かつ非限定的実施形態が示されている。例示するように、IMU予測モジュール、視覚−慣性走行距離計測モジュール、及び走査−適合精緻化モジュールを含む3つのモジュールは、粗から細への段階的に問題を解く。データ処理フローは、左から右に3つのモジュールをそれぞれ通過し、フィードバックフローは右から左にIMUのバイアスを補正する。
図13a及び13bを参照すると、動的再構成可能システムの例示的かつ非限定的実施形態が示されている。図13aに示すように、視覚特徴が視覚−慣性走行距離計測に不十分である場合に、IMU予測(部分的)が視覚−慣性走行距離計測モジュールをバイパスしてレーザポイントをローカルに記録する。一方では、図13bに示すように環境構造が走査適合に不十分である場合に、視覚−慣性走行距離計測出力(部分的)は走査適合精緻化モジュールをバイパスしてマップにレーザポイントを記録する。
図14を参照すると、IMUバイアス補正のため優先度フィードバックの例示的かつ非限定的実施形態が示されている。例示するように、垂直バーは、6−DOF姿勢を表し、各行がDOFである。劣化した場合では、全ての6行が「IMU」と示されている左のIMU予測から始めて、視覚−慣性走行距離計測方法が3−DOFを更新し、行の指定が「カメラ」になり、次に、走査適合が別の3−DOFを更新し、行の指定が「レーザ」に変わる。カメラ及びレーザフィードバックは左の垂直バーのように組み合わされる。カメラフィードバックは高優先度を有し、カメラフィードバックからの「カメラ」行が存在しない場合は、レーザフィードバックからの「レーザ」行だけが充填される。
図15a及び15bを参照すると、マップの2層ボクセル表現の例示的かつ非限定的実施形態が示されている。マップ上のボクセルMm-1(図15aの全てのボクセル)、及びセンサの周りのボクセルSm-1(点で充填されたボクセル)が示されている。Sm-1は、Mm-1の部分集合である。センサがマップの境界に近づいた場合に、境界の反対側のボクセル(下の行)がマップ境界を延びるように移動する。移動したボクセル上のポイントはクリアされ、マップが切り捨てられる。図15bに示すように、各ボクセル
(図15aの点で充填されたボクセル)が、大きさが小さいボクセルのセット
走査適合の前に、レーザ走査は、モーションの最良推測を使用してマップ上に投影される。
は、クロスハッチでラベル付けされる。次に、クロスハッチボクセル内のマップポイントが抽出され、走査適合のための3DのKDツリーに格納される。
図16を参照すると、走査適合のマルチスレッド処理の例示的かつ非限定的実施形態が示されている。例示するように、マネージャプログラムは、個別のCPUスレッドで実行される複数の適合化器プログラムを呼び出し、走査を利用可能な最新のマップに適合させる。図16aは2スレッドの場合を示している。2倍の処理時間量が与えられると、走査
に適合される。比較すると、図16bは1スレッドの場合を示し、従って、
に適合される。実施は、最大4つのスレッドを使用して動的に構成可能である。
本発明の開示の一部の実施形態しか図示及び説明していないが、多くの変形及び修正が特許請求の範囲に示す本発明の開示の精神及び範囲から逸脱することなく本明細書に実行することができることは当業者に明らかであろう。外国及び国内両方の全ての特許出願及び特許、及び本明細書に引用のする全ての他の公開は、法律によって認められる限度まで全体が本明細書に組み込まれている。
本明細書に説明する方法及びシステムは、コンピュータソフトウエア、プログラムコード、及び/又は命令をプロセッサで実行する機械を通じて部分的又は完全に配備することができる。本発明の開示は、機械における方法として、機械の一部又は機械に関したシステム又は装置として、又は機械の1又は2以上で実行されるコンピュータ可読媒体を用いて実施されるコンピュータプログラム製品として実施することができる。実施形態では、本発明のプロセッサは、サーバ、クラウドサーバ、クライアント、ネットワークインフラストラクチャ、移動コンピュータプラットフォーム、固定コンピュータプラットフォーム、又は他のコンピュータプラットフォームの一部とすることができる。プロセッサは、プログラム命令、コード、バイナリ命令などを実行することができる計算又は処理デバイスのいずれかの種類とすることができる。プロセッサは、信号プロセッサ、デジタルプロセッサ、組み込み式プロセッサ、マイクロプロセッサ、又はコプロセッサのようなあらゆる変形(数学コプロセッサ、グラフィックコプロセッサ、通信コプロセッサなど)及び格納しているプログラムコード又はプログラム命令の実行を直接又は間接的に容易にすることができるものとすることができ、又はこれらを含むことができる。更に、プロセッサは、複数のプログラム、スレッド、及びコードの実行を可能にすることができる。スレッドは、プロセッサの性能を拡張して用途の同時作動を容易にするために同時に実行することができる。実施により、本明細書に説明する方法、プログラムコード、プログラム命令などを1又は2以上のレッドを用いて実施することができる。スレッドは、これらに関連付けられた優先度を割り当てることができる他のスレッドを発生させることができ、プロセッサは、優先度又はプログラムコードで提供される命令に基づくあらゆる他の順序に基づいてこれらのスレッドを実行することができる。プロセッサ、又はプロセッサを利用するあらゆる機械は、本明細書及び他に説明する方法、コード、命令及びプログラムを格納する非一時的メモリを含むことができる。プロセッサは、本明細書及び他で説明する方法、コード、及び命令を格納することができる非一時的ストレージ媒体にインタフェースを通じてアクセス可能である。方法、プログラム、コード、プログラム命令、又はコンピュータ又は処理デバイスによって実行することができる他のタイプの命令を格納するためのプロセッサに関連付けられたストレージ媒体は、限定されないが、CD−ROM、DVD、メモリ、ハードディスク、フラッシュドライブ、RAM、ROM、キャッシュなどのうちの1又は2以上を含むことができる。
プロセッサは、マルチプロセッサの速度及び性能を拡張することができる1又は2以上のコアを含むことができる。実施形態では、処理は、2又は3以上の独立コア(ダイと呼ぶ)を組み合わせるデュアルコアプロセッサ、クアドコアプロセッサ、他のチップレベルマルチプロセッサなどとすることができる。
本明細書に説明する方法及びシステムは、サーバ、クライアント、ファイヤウォール、ゲートウェイ、ハブ、ルータ、又は他のそのようなコンピュータ及び/又はネットワーキングハードウエアでコンピュータソフトウエアを実行する機械を通じて一部又は全てを配備することができる。ソフトウエアプログラムは、ファイルサーバ、プリントサーバ、ドメインサーバ、インターネットサーバ、イントラネットサーバ、クラウドサーバ、及び2次サーバ、ホストサーバ、分散サーバのような他の変形を含むことができるサーバに関連付けることができる。サーバは、メモリ、プロセッサ、コンピュータ可読媒体、ストレージ媒体、ポート(物理的及び仮想的)、通信デバイスなどのサーバ、クライアント、機械、及びデバイスに、有線又は無線媒体などを通じてアクセス可能なインタフェースの1又は2以上を含むことができる。本明細書及び他で説明する方法、プログラム、又はコードは、サーバによって実行することができる。更に、この出願で説明する方法の実行に必要な他のデバイスは、サーバに関連付けられたインフラストラクチャの一部として考えることができる。
サーバは、以下に限定されるものではないが、クライアント、他のサーバ、プリンタ、データベースサーバ、プリントサーバ、ファイルサーバ、通信サーバ、分散サーバ、ソーシャルネットワークなどを含む他のデバイスへのインタフェースを提供することができる。これに加えて、この結合及び/又は接続は、ネットワークを通じてプログラムのリモート実行を容易にすることができる。これらのデバイスの一部又は全てのネットワーキングは、本発明の開示の範囲から逸脱することなく1又は2以上の位置でプログラム又は方法の並行処理を容易にすることができる。更に、インタフェースを通じてサーバに接続されたデバイスのいずれも、方法、プログラム、コード、及び/又は命令を格納することができる少なくとも1つのストレージ媒体を含むことができる。中央リポジトリは、異なるデバイスで実行されるプログラム命令を提供することができる。この実施では、リモートリポジトリは、プログラムコード、命令、及びプログラムのためのストレージ媒体として作用することができる。
ソフトウエアプログラムは、ファイルクライアント、プリントクライアント、ドメインクライアント、インターネットクライアント、イントラネットクライアント及び2次クライアント、ホストクライアント、分散クライアントのような他の変形を含むことができるクライアントに関連付けることができる。クライアントは、メモリ、プロセッサ、コンピュータ可読媒体、ストレージ媒体、ポート(物理的及び仮想的)、通信デバイスなどのクライアント、サーバ、機械、及びデバイスに有線又は無線媒体などを通じてアクセス可能なインタフェースの1又は2以上を含むことができる。本明細書及び他で説明する方法、プログラム、又はコードは、クライアントによって実行することができる。更に、この出願で説明する方法の実行に必要な他のデバイスは、クライアントに関連付けられたインフラストラクチャの一部として考えることができる。
クライアントは、以下に限定されるものではないが、サーバ、他のクライアント、プリンタ、データベースサーバ、プリントサーバ、ファイルサーバ、通信サーバ、分散サーバなどを含む他のデバイスへのインタフェースを提供することができる。これに加えて、この結合及び/又は接続は、ネットワーク全体のプログラムのリモート実行を容易にすることができる。これらのデバイスの一部又は全てのネットワーキングは、本発明の開示の範囲から逸脱することなく1又は2以上の位置でのプログラム又は方法の並行処理を容易にすることができる。更に、インタフェースを通じてクライアントに接続されたデバイスのいずれも、方法、プログラム、用途、コード及び/又は命令を格納することができる少なくとも1つのストレージ媒体を含むことができる。中央リポジトリは、異なるデバイスで実行されるプログラム命令を提供することができる。この実施では、リモートリポジトリは、プログラムコード、命令、及びプログラムのためのストレージ媒体として作用することができる。
本明細書に説明する方法及びシステムは、ネットワークインフラストラクチャを通じて一部又は全てを配備することができる。このネットワークインフラストラクチャは、コンピュータデバイス、サーバ、ルータ、ハブ、ファイヤウォール、クライアント、パーソナルコンピュータ、通信デバイス、経路指定デバイス、及び他のアクティブ及びパッシブデバイス、モジュール、及び/又は当業技術で公知の構成要素のような要素を含むことができる。ネットワークインフラストラクチャに関連付けられたコンピュータ及び/又は非コンピュータデバイスは、他の構成要素以外に、フラッシュメモリ、バッファ、スタック、RAM、ROMのようなストレージ媒体を含むことができる。本明細書及び他で説明する処理、方法、プログラムコード、命令は、ネットワークインフラストラクチャ要素の1又は2以上によって実行することができる。本明細書に説明する方法及びシステムは、ソフトウエア・アズ・ア・サービス(SaaS)、プラットフォーム・アズ・ア・サービス(PaaS)、及び/又はインフラストラクチャ・アズ・ア・サービス(IaaS)の特徴を含有する特徴を含むプライベート、コミュニティ、又はハイブリッドクラウドコンピュータネットワーク又はクラウドコンピュータ環境のあらゆる種類と共に使用するように適応させることができる。
本明細書及び他で説明する方法、プログラム、コード、及び命令は、セルラーネットワークhaa送信者制御式接触媒体コンテンツ項目マルチセル上で実施することができる。セルラーネットワークは、周波数分割多元接続(FDMA)ネットワーク又は符号分割多元接続(CDMA)ネットワークのいずれかとすることができる。セルラーネットワークは、モバイルデバイス、セルサイト、基地局、リピータ、アンテナ、タワーなどを含むことができる。セルネットワークは、GSM(登録商標)、GPRS、3G、EVDO、メッシュ、又は他のネットワークタイプとすることができる。
本明細書及び他で説明する方法、プログラムコード、及び命令は、モバイルデバイスで又はモバイルデバイスを通じて実施することができる。モバイルデバイスは、ナビゲーションデバイス、携帯電話、移動電話、移動携帯情報端末、ラップトップ、パームトップ、ネットブック、ポケットベル、電子書籍読取器、音楽プレーヤなどを含むことができる。これらのデバイスは、他の構成要素以外にフラッシュメモリ、バッファ、RAM、ROM、及び1又は2以上のコンピュータデバイスのようなストレージ媒体を含むことができる。モバイルデバイスに関連付けられたコンピュータデバイスは、格納しているプログラムコード、方法、及び命令を実行することができる。これに代えて、モバイルデバイスは、他のデバイスと協働して命令を実行するように構成することができる。モバイルデバイスは、サーバに接続されてプログラムコードを実行するように構成された基地局と通信することができる。モバイルデバイスは、ピア・ツー・ピアネットワーク、メッシュネットワーク、又は他の通信ネットワーク上で通信することができる。プログラムコードは、サーバに関連付けられたストレージ媒体に格納されてサーバ内に組み込まれたコンピュータデバイスによって実行することができる。基地局は、コンピュータデバイス及びストレージ媒体を含むことができる。ストレージデバイスは、基地局に関連付けられたコンピュータデバイスによって実行されるプログラムコード及び命令を格納することができる。
コンピュータソフトウエア、プログラムコード、及び/又は命令は、コンピュータ構成要素、デバイス、及び何らかの時間間隔にわたって計算するのに使用されるデジタルデータを保存する記録媒体、ランダムアクセスメモリ(RAM)として公知の固体ストレージ、一般的に光学ディスク、ハードディスク、テープ、ドラム、カード、及び他のタイプのような磁気ストレージの形態のような恒久的ストレージのための大容量ストレージ、プロセッサレジスタ、キャッシュメモリ、揮発性メモリ、不揮発性メモリ、CD、DVDのような光学ストレージ、フラッシュメモリ(例えば、USBスティック又はキー)、フロッピーディスク、磁気テープ、紙テープ、パンチカード、独立RAMディスク、Zipドライブ、着脱可能大容量ストレージ、オフラインのような着脱可能媒体、動的メモリ、静的メモリ、読取/書込ストレージ、変異ストレージ、読取専用、ランダムアクセス、シーケンシャルアクセス、位置アドレス可能、ファイルアドレス可能、コンテンツアドレスア可能、ネットワーク付属ストレージ、ストレージエリアネットワーク、バーコード、磁気リンクのような他のコンピュータメモリを含むことができる機械可読媒体上に格納される及び/又はそこにアクセス可能である。
本明細書に説明する方法及びシステムは、物理的及び/又は非有形品目を1つの状態から別の状態に変形することができる。本明細書に説明する方法及びシステムはまた、物理的及び/又は非有形品目を表すデータを1つの状態から別の状態に変形することができる。
本明細書に説明して図示する流れ図及び図面全体のブロック図に含む要素は要素間の論理的境界を意味する。しかし、ソフトウエア又はハードウエア工学の慣例により、図示の要素及びその機能は、コンピュータ実行可能媒体haa送信者制御式接触媒体コンテンツ項目を通じて機械を用いて実施することができ、プロセッサは、モノリシックソフトウエア構造として、独立ソフトウエアモジュールとして、又は外部ルーチン、コード、サービスなどを利用するモジュールとして、又はこれらのあらゆる組合せとして格納されたプログラム命令を実行することができ、全てのそのような実施は本発明の開示の範囲にあるものとすることができる。そのような機械の例は、限定されないが、携帯情報端末、ラップトップ、パーソナルコンピュータ、移動電話、他の手持ち式コンピュータデバイス、医療機器、有線又は無線通信デバイス、変換器、チップ、計算機、衛星、タブレットPC、電子書籍、ガジェット、電子デバイス、デバイスhaa送信者制御式接触媒体コンテンツ項目人工知能、コンピュータデバイス、ネットワーキング機器、サーバ、ルータなどを含むことができる。流れ図及びブロック図に示す要素又はあらゆる他の論理的構成要素は、プログラム命令を実行することができる機械を用いて実施することができる。従って、上述の図面及び説明は開示したシステムの機能的態様を示し、これらの機能的態様を実施するためのソフトウエアの特定の構成は、明示的に記載するか又は他に関連から明らかでない限り、これらの説明からは推測されない。同様に、上記に識別及び説明した様々な段階を変更することができること、及び段階の順序を本明細書に開示する技術の特定の応用に適応することができることは認められるであろう。全てのそのような変形及び修正は、本発明の開示の範囲に入るものとする。同様に、様々な段階の順序の図示及び/又は説明は、特定の応用によって要求される又は明示的に記載する又は他に関連から明らかでない限り、これらの段階を実行する特定の順序を必要とすると理解してはならない。
上述の方法及び/又は処理、及び本明細書に関連付けられた段階は、特定の応用に適するハードウエア、ソフトウエア、又はハードウエアとソフトウエアのあらゆる組合せで達成することができる。ハードウエアは、汎用コンピュータ及び/又は専用コンピュータデバイス又は特定のコンピュータデバイス又は特定のコンピュータデバイスの特定の態様又は構成要素を含むことができる。処理は、内部及び/又は外部メモリと共に1又は2以上のマイクロプロセッサ、マイクロコントローラ、組み込み式マイクロコントローラ、プログラマブルデジタル信号プロセッサ、又は他のプログラマブルデバイスで達成することができる。処理は、特定用途向け集積回路、プログラマブルゲートアレイ、プログラマブルアレイ論理部、又は電子信号を処理するように構成することができるあらゆる他のデバイス又はデバイスの組合せとすることができ、又はこれらを用いて実施することができる。処理の1又は2以上は、機械可読媒体で実行することができるコンピュータ実行可能コードとして達成することができることが更に認められるであろう。
コンピュータ実行可能コードは、上述のデバイスの1つ、並びにプロセッサの異種組合せ、プロセッサアーキテクチャ、又は異なるハードウエア及びソフトウエアの組合せ、又はプログラム命令を実行することができるあらゆる他の機械の1つで実行するために格納、コンパイル、又は解釈することができるCのような構造化プログラミング言語、C++のようなオブジェクト指向プログラミング言語、又はあらゆる他の高レベル又は低レベルプログラミング言語(アセンブリ言語、ハードウエア記述言語、及びデータベースプログラミング言語及び技術を含む)を使用して作成することができる。
すなわち、一態様では、上述の方法及びその組合せは、1又は2以上のコンピュータデバイスで実行された時にこれらの段階を実行するコンピュータ実行可能コードを用いて実施することができる。別の態様では、本方法は、この段階を実行するシステムを用いて実施することができ、いくつかの方法でデバイスにわたって分散させることができ、又は機能の全てを専用、独立デバイス、又は他のハードウエアに統合することができる。別の態様では、上述の処理に関連付けられた段階を実行するための手段は、上述のハードウエア及び/又はソフトウエアのいずれかを含むことができる。全てのそのような置換及び組合せは、本発明の開示の範囲に入るものとする。
本発明の開示は、図示して詳細に説明した好ましい実施形態に関して開示したものであり、本発明の開示の様々な修正及び改良は、当業者には容易に明らかになるであろう。従って、本発明の開示の精神及び範囲は、上述の例によって制限されず、むしろ法律によって許容可能な様々な意味で理解されるものとする。
本発明の開示を説明する関連(特に、特許請求の範囲の関連)における「a」及び「an」及び「the」という語及び類似の指示語は、本明細書に他に指示がないか又は関連によって明確に矛盾しない限り、単数形及び複数形の両方を含むものと解釈しなければならない。「comprising」、「haa送信者制御式接触媒体コンテンツ項目」、「including」、及び「cotaining」は、他に示されない限り、非限定的語として解釈されるものとする(すなわち、「限定されないが含む」を意味する)。本明細書の値の範囲の列挙は、本明細書に特に示さない限り値内に入る各それぞれの値を個々に指す簡単な方法として機能するものとし、個別の各値は、本明細書に個々に説明されているように本明細書に組み込まれる。本明細書に説明する全ての方法は、本明細書で特に示さない限り又は関連によって明確に矛盾しない限り、あらゆる適切な順序で実行することができる。本明細書に提供するいずれか及び全ての例、又は例示的言語(例えば、「のような」)の使用は、単に本発明の開示を的確に説明するものであり、他に主張されない限り、本発明の開示の範囲に制限を設けることはない。本明細書の言語は、本発明の開示の実施に不可欠ないずれかの主張されない要素を示すものとして解釈すべきではない。
以上の説明は、当業者が現時点で最良のモードと考えられるものを使用することを可能にするものであり、当業者は、本明細書の特定の実施形態、方法、及び例の変形、組合せ、及び均等物の存在を理解かつ認めるであろう。従って、本発明の開示は、上述の実施形態、方法、及び例によって制限すべきではなく、むしろ本発明の開示の精神及び範囲内の全ての実施形態及び方法によって制限されるべきである。
本明細書で参照した全ての文書は、これにより引用によって組み込まれる。
IMU 慣性測定ユニット

Claims (16)

  1. マッピングシステムであって、
    慣性測定ユニットと、
    カメラユニットと、
    レーザ走査ユニットと、
    前記慣性測定ユニットと、前記カメラユニットと、前記レーザ走査ユニットとに通信し、少なくとも1つのプロセッサと、少なくとも1つの1次メモリユニットと、少なくとも1つの2次メモリユニットとを含むコンピュータシステムと、
    を含み、
    前記1次メモリユニットは、前記少なくとも1つのプロセッサによって実行されるソフトウエアを格納し、該ソフトウエアは、
    前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに第1の周波数での前記慣性測定ユニットからの慣性測定データに少なくとも部分的に基づいて少なくとも1つの第1の測定予測を計算させる第1の計算モジュールと、
    前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに前記少なくとも1つの第1の測定予測と第2の周波数での前記カメラユニットからの視覚測定データとに少なくとも部分的に基づいて少なくとも1つの第2の測定予測を計算させる第2の計算モジュールと、
    前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに前記少なくとも1つの第2の測定予測及と第3の周波数での前記レーザ走査ユニットからのレーザ測距データとに基づいて少なくとも1つの第3の測定予測を計算させる第3の計算モジュールと、
    を含む、
    ことを特徴とするマッピングシステム。
  2. 前記第1の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに前記少なくとも1つの第2の測定予測と前記少なくとも1つの第3の測定予測とに少なくとも部分的に基づいて前記少なくとも1つの第1の測定予測内のバイアス誤差を補正させるソフトウエアを更に含むことを特徴とする請求項1に記載のマッピングシステム。
  3. 前記第1の周波数は、前記第2の周波数よりも高く、該第2の周波数は、前記第3の周波数よりも高いことを特徴とする請求項1に記載のマッピングシステム。
  4. 前記第2の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに
    前記視覚測定データが第1の測定期間中に劣化したか否かを決定させ、かつ
    前記視覚測定データが前記第1の測定期間中に劣化したという決定時に、該第1の測定期間中の前記少なくとも1つの第1の測定予測に等しい該第1の測定期間中の前記少なくとも1つの第2の測定予測を計算させる、
    更に別のソフトウエアを更に含むことを特徴とする請求項1に記載のマッピングシステム。
  5. 前記第3の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに
    前記レーザ測距データが第2の測定期間中に劣化したか否かを決定させ、かつ
    前記レーザ測距データが前記第2の測定期間中に劣化したという決定時に、該第2の測定期間中の前記少なくとも1つの第2の測定予測に等しい該第2の測定期間中の前記少なくとも1つの第3の測定予測を計算させる、
    更に別のソフトウエアを含むことを特徴とする請求項4に記載のマッピングシステム。
  6. 前記1次メモリデバイスは、第1のセットのボクセル及び第2のセットのボクセルを格納し、
    前記第1のセットのボクセル及び前記第2のセットのボクセルは、前記少なくとも1つの第3の予測測定に基づいており、
    前記第1のセットのボクセルの各ボクセルが、空間の第1の容積に対応し、
    前記第2のセットのボクセルの各ボクセルが、空間の第2の容積に対応し、
    空間の前記第2の容積は、空間の前記第1の容積よりも小さく、
    前記第1のセットのボクセルの各ボクセルが、前記第2のセットのボクセルの複数のボクセルにマップ可能である、
    ことを特徴とする請求項1に記載のマッピングシステム。
  7. 前記2次メモリユニットは、前記少なくとも1つの第3の予測測定から発生したポイントクラウドデータを格納することを特徴とする請求項1に記載のマッピングシステム。
  8. モバイルユニットを更に含み、
    前記慣性測定ユニットは、前記モバイルユニットの一部を形成し、
    前記カメラユニットは、前記モバイルユニットの一部を形成し、
    前記レーザ走査ユニットは、前記モバイルユニットの一部を形成し、
    前記コンピュータシステムは、前記モバイルユニットの一部を形成する、
    ことを特徴とする請求項1に記載のマッピングシステム。
  9. 前記モバイルユニットは、該モバイルユニットを案内するためのナビゲーションシステムを含み、
    前記ナビゲーションシステムは、前記自律モバイルユニットを案内するために前記少なくとも1つの第3の測定予測を使用する、
    ことを特徴とする請求項8に記載のマッピングシステム。
  10. 前記第3の計算モジュールは、走査適合アルゴリズムを使用して前記少なくとも1つの第3の測定予測を計算し、
    前記少なくとも1つのプロセッサは、複数の処理スレッドを含み、
    前記1次メモリデバイスは、前記少なくとも1つのプロセッサによって実行された時に、
    第1のスレッドが、前記レーザ測距データの第1の走査を走査適合させるように割り当てられ、
    前記第1のスレッドが、前記第1の走査後の時点から前記レーザ測距データの第2の走査を走査適合させるように割り当てられ、それによって該第1のスレッドが、該第2の走査の到着の前に該第1の走査を処理し、かつ
    第2のスレッドが、前記第1のスレッドが前記第2の走査の前記到着の前に前記第1の走査を処理できない時に、前記レーザ測距データの前記第2の走査を走査適合させるように割り当てられる、
    ように、前記複数のスレッドによる前記レーザ測距データの走査の処理を管理するソフトウエアを格納する、
    ことを特徴とする請求項1に記載のマッピングシステム。
  11. 前記少なくとも1つの第1の測定予測は、複数の自由度を含む姿勢の少なくとも1つの自由度の予測を含み、
    前記少なくとも1つの第2の測定予測は、複数の自由度を含む前記姿勢の少なくとも1つの自由度の予測を含み、かつ
    前記少なくとも1つの第3の測定予測は、複数の自由度を含む前記姿勢の少なくとも1つの自由度の予測を含む、
    ことを特徴とする請求項1に記載のマッピングシステム。
  12. 前記第2の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに
    前記視覚測定データのいずれかが第1の測定期間中に劣化したか否かを決定させ、かつ
    前記視覚測定データのいずれかが前記第1の測定期間中に劣化したという決定時に、非劣化視覚測定データに対する前記少なくとも1つの第2の測定予測の複数の自由度を計算させる、
    更に別のソフトウエアを含むことを特徴とする請求項11に記載のマッピングシステム。
  13. 前記第3の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに
    前記レーザ測距データのいずれかが第2の測定期間中に劣化したか否かを決定させ、かつ
    前記レーザ測距データのいずれかが前記第2の測定期間中に劣化したという決定時に、非劣化レーザ測距データに対する前記少なくとも1つの第3の測定予測の複数の自由度を計算させる、
    更に別のソフトウエアを含むことを特徴とする請求項11に記載のマッピングシステム。
  14. 前記第1の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに前記少なくとも1つの第1の測定予測の前記少なくとも1つの自由度と、前記少なくとも1つの第2の測定予測の前記少なくとも1つの自由度と、前記少なくとも1つの第3の測定予測の前記少なくとも1つの自由度とに少なくとも部分的に基づいて前記姿勢のバイアス誤差を補正させる更に別のソフトウエアを含むことを特徴とする請求項11に記載のマッピングシステム。
  15. 前記第2の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに
    前記視覚測定データのいずれかが第1の測定期間中に劣化したか否かを決定させ、かつ
    前記視覚測定データのいずれかが前記第1の測定期間中に劣化したという決定時に、非劣化視覚測定データに対する前記少なくとも1つの第2の測定予測の複数の自由度を計算させる、
    更に別のソフトウエアを含み、かつ
    前記第3の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに
    前記レーザ測距データのいずれかが第2の測定期間中に劣化したか否かを決定させ、かつ
    前記レーザ測距データのいずれかが前記第2の測定期間中に劣化したという決定時に、非劣化レーザ測距データに対する前記少なくとも1つの第3の測定予測の複数の自由度を計算させる、
    更に別のソフトウエアを含む、
    ことを特徴とする請求項11に記載のマッピングシステム。
  16. 前記第1の計算モジュールは、前記少なくとも1つのプロセッサによって実行された時に該少なくとも1つのプロセッサに前記第1の測定予測の前記少なくとも1つの自由度と、前記少なくとも1つの第2の測定予測の前記少なくとも1つの自由度と、該少なくとも1つの第2の測定予測の自由度ではない前記第3の測定予測の少なくとも1つの自由度とに基づいて前記姿勢のバイアス誤差を補正させる更に別のソフトウエアを含むことを特徴とする請求項15に記載のマッピングシステム。
JP2018567003A 2016-03-11 2017-03-07 リアルタイムオンラインエゴモーション推定を有するレーザスキャナ Active JP6987797B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662307061P 2016-03-11 2016-03-11
US62/307,061 2016-03-11
PCT/US2017/021120 WO2017155970A1 (en) 2016-03-11 2017-03-07 Laser scanner with real-time, online ego-motion estimation

Publications (2)

Publication Number Publication Date
JP2019518222A true JP2019518222A (ja) 2019-06-27
JP6987797B2 JP6987797B2 (ja) 2022-01-05

Family

ID=59789779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567003A Active JP6987797B2 (ja) 2016-03-11 2017-03-07 リアルタイムオンラインエゴモーション推定を有するレーザスキャナ

Country Status (5)

Country Link
US (2) US10962370B2 (ja)
EP (1) EP3427008B1 (ja)
JP (1) JP6987797B2 (ja)
CN (1) CN109313024B (ja)
WO (1) WO2017155970A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962370B2 (en) 2016-03-11 2021-03-30 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11398075B2 (en) 2018-02-23 2022-07-26 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US11815601B2 (en) 2017-11-17 2023-11-14 Carnegie Mellon University Methods and systems for geo-referencing mapping systems
US11830136B2 (en) 2018-07-05 2023-11-28 Carnegie Mellon University Methods and systems for auto-leveling of point clouds and 3D models

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD823920S1 (en) 2016-11-23 2018-07-24 Kaarta, Inc. Simultaneous localization and mapping (SLAM) device
CN106705965A (zh) * 2017-01-12 2017-05-24 苏州中德睿博智能科技有限公司 场景三维数据配准方法及导航系统误差校正方法
EP3574285A4 (en) * 2017-01-27 2020-12-02 Kaarta, Inc. LASER SCAN DEVICE WITH REAL-TIME ESTIMATE OF CLEAN MOTION ONLINE
US10684372B2 (en) 2017-10-03 2020-06-16 Uatc, Llc Systems, devices, and methods for autonomous vehicle localization
CN108489482B (zh) * 2018-02-13 2019-02-26 视辰信息科技(上海)有限公司 视觉惯性里程计的实现方法及系统
US11761767B2 (en) * 2018-02-26 2023-09-19 Cloudminds Robotics Co., Ltd. Method, device, apparatus, and application for cloud-based trajectory map generation
US20210223397A1 (en) 2018-05-30 2021-07-22 Vi3D Labs Inc. Three-dimensional surface scanning
CN109059927A (zh) * 2018-08-21 2018-12-21 南京邮电大学 复杂环境下多传感器的移动机器人slam建图方法和系统
CN110909088B (zh) * 2018-09-14 2023-01-13 阿里巴巴(中国)有限公司 激光坐标系和惯导坐标系的标定方法和装置以及存储介质
EP3803273A4 (en) 2018-10-29 2021-11-17 DJI Technology, Inc. REAL-TIME MAPPING TECHNIQUES IN A MOBILE OBJECT ENVIRONMENT
EP3669141A4 (en) 2018-11-09 2020-12-02 Beijing Didi Infinity Technology and Development Co., Ltd. VEHICLE POSITIONING SYSTEM USING A LIDAR
CN110032962B (zh) * 2019-04-03 2022-07-08 腾讯科技(深圳)有限公司 一种物体检测方法、装置、网络设备和存储介质
WO2020215198A1 (zh) * 2019-04-23 2020-10-29 深圳市大疆创新科技有限公司 一种数据处理方法、装置、设备及可移动平台
WO2020217377A1 (ja) 2019-04-25 2020-10-29 三菱電機株式会社 移動量推定装置、移動量推定方法、および移動量推定プログラム
US10955245B2 (en) 2019-04-30 2021-03-23 Samsung Electronics Co., Ltd. System and method for low latency, high performance pose fusion
CN110243375A (zh) * 2019-06-26 2019-09-17 汕头大学 一种同时构建二维地图和三维地图的方法
US11208117B2 (en) * 2019-07-09 2021-12-28 Refraction Ai, Inc. Method and system for autonomous vehicle control
CN112444820B (zh) * 2019-08-28 2023-06-09 深圳市优必选科技股份有限公司 一种机器人位姿确定方法、装置、可读存储介质及机器人
CN110686687B (zh) * 2019-10-31 2021-11-09 珠海市一微半导体有限公司 视觉机器人构建地图的方法、机器人和芯片
CN110989619B (zh) * 2019-12-23 2024-01-16 阿波罗智能技术(北京)有限公司 用于定位对象的方法、装置、设备和存储介质
CN111275764B (zh) * 2020-02-12 2023-05-16 南开大学 基于线段阴影的深度相机视觉里程测量方法
CN111337021B (zh) * 2020-03-19 2022-08-16 深圳国信泰富科技有限公司 一种基于复杂现场的机器人的定位系统及定位方法
CN111913185B (zh) * 2020-07-09 2024-04-02 生态环境部南京环境科学研究所 针对高寒脆弱区低矮灌丛样地调查的tls测度方法
KR20220061769A (ko) * 2020-11-06 2022-05-13 삼성전자주식회사 Slam을 가속화하는 방법 및 이를 이용한 장치
CN112946660A (zh) * 2021-01-28 2021-06-11 西北工业大学 一种基于多波束前视声呐的同时定位与建图方法
CN113012191B (zh) * 2021-03-11 2022-09-02 中国科学技术大学 一种基于点云多视角投影图的激光里程计算法
CN113076988B (zh) * 2021-03-25 2022-06-03 重庆邮电大学 基于神经网络的移动机器人视觉slam关键帧自适应筛选方法
CN112985416B (zh) * 2021-04-19 2021-07-30 湖南大学 激光与视觉信息融合的鲁棒定位和建图方法及系统
CN113465605B (zh) * 2021-06-09 2022-10-25 西安交通大学 一种基于光电传感测量网络的移动机器人定位系统及方法
CN113495281B (zh) * 2021-06-21 2023-08-22 杭州飞步科技有限公司 可移动平台的实时定位方法及装置
CN114612348B (zh) * 2022-05-11 2022-07-15 季华实验室 激光点云运动畸变校正方法、装置、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09142236A (ja) * 1995-11-17 1997-06-03 Mitsubishi Electric Corp 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
JP2006276012A (ja) * 2005-03-29 2006-10-12 Leica Geosystems Ag 物体の六つの自由度を求めるための測定システム
JP2007298332A (ja) * 2006-04-28 2007-11-15 Mitsubishi Electric Corp 地形データ補正装置及び地形データ補正方法
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
JP2010175423A (ja) * 2009-01-30 2010-08-12 Mitsubishi Electric Corp 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム
JP2011529569A (ja) * 2008-07-31 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ ナビゲーションデータを三次元で表示するコンピュータ装置および方法
JP3173419U (ja) * 2011-06-21 2012-02-09 光男 植村 測量装置
JP2012507011A (ja) * 2008-10-28 2012-03-22 ザ・ボーイング・カンパニー 空間照会のための手持ち型位置決めインタフェース
JP2012063173A (ja) * 2010-09-14 2012-03-29 Konica Minolta Opto Inc レーザ測距装置
JP2013093738A (ja) * 2011-10-26 2013-05-16 Nippon Hoso Kyokai <Nhk> 移動距離計測装置及び撮影カメラ
JP2015200615A (ja) * 2014-04-10 2015-11-12 国際航業株式会社 レーザー計測結果解析システム

Family Cites Families (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6111582A (en) 1996-12-20 2000-08-29 Jenkins; Barry L. System and method of image generation and encoding using primitive reprojection
US6208347B1 (en) 1997-06-23 2001-03-27 Real-Time Geometry Corporation System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture
DE19829986C1 (de) * 1998-07-04 2000-03-30 Lis Laser Imaging Systems Gmbh Verfahren zur Direktbelichtung von Leiterplattensubstraten
USD432930S (en) 1999-10-05 2000-10-31 Solar Wide Industrial Ltd. Distance measuring device
US6771840B1 (en) 2000-05-18 2004-08-03 Leica Geosystems Hds, Inc. Apparatus and method for identifying the points that lie on a surface of interest
EP1347418A3 (en) 2002-02-28 2005-11-23 Canon Europa N.V. Texture map editing
JP2005537535A (ja) 2002-07-10 2005-12-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー オブジェクトの3次元電子モデルを生成するシステム
US7177737B2 (en) 2002-12-17 2007-02-13 Evolution Robotics, Inc. Systems and methods for correction of drift via global localization with a visual landmark
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7373473B2 (en) 2004-03-10 2008-05-13 Leica Geosystems Hds Llc System and method for efficient storage and manipulation of extremely large amounts of scan data
US7324687B2 (en) 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
US7567731B2 (en) 2004-07-15 2009-07-28 Harris Corporation Method and system for simultaneously registering multi-dimensional topographical points
EP2450763B1 (en) * 2005-07-26 2017-03-01 MacDonald, Dettwiler and Associates Inc. Global position and orientation estimation system for a vehicle in a passageway environment
US7737973B2 (en) 2005-10-31 2010-06-15 Leica Geosystems Ag Determining appearance of points in point cloud based on normal vectors of points
US9070101B2 (en) 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
US20070262988A1 (en) * 2006-05-09 2007-11-15 Pixar Animation Studios Method and apparatus for using voxel mip maps and brick maps as geometric primitives in image rendering process
US7854518B2 (en) 2006-06-16 2010-12-21 Hewlett-Packard Development Company, L.P. Mesh for rendering an image frame
US20080112610A1 (en) 2006-11-14 2008-05-15 S2, Inc. System and method for 3d model generation
US7752483B1 (en) 2006-12-13 2010-07-06 Science Applications International Corporation Process and system for three-dimensional urban modeling
US7733505B2 (en) 2007-03-26 2010-06-08 The Boeing Company Attitude detection system and method
US7878657B2 (en) 2007-06-27 2011-02-01 Prysm, Inc. Servo feedback control based on invisible scanning servo beam in scanning beam display systems with light-emitting screens
CA2652639C (en) 2008-02-06 2013-01-08 Halliburton Energy Services, Inc. Geodesy via gps and insar integration
US20090262974A1 (en) * 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
EP2133662B1 (en) 2008-06-09 2012-02-01 Honeywell International Inc. Methods and system of navigation using terrain features
EP2535883B1 (en) 2008-07-10 2014-03-19 Mitsubishi Electric Corporation Train-of-vehicle travel support device
CN102112845B (zh) * 2008-08-06 2013-09-11 形创有限公司 用于表面特征自适应性三维扫描的系统
BRPI0917864A2 (pt) 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
CN101718859A (zh) 2008-10-09 2010-06-02 日电(中国)有限公司 以自适应分辨率定位目标的方法和系统
US8406994B1 (en) 2008-11-07 2013-03-26 Infogation Corporation Electronically generated realistic-like map
US8180107B2 (en) 2009-02-13 2012-05-15 Sri International Active coordinated tracking for multi-camera systems
WO2010102119A1 (en) 2009-03-04 2010-09-10 Imricor Medical Systems, Inc. Combined field location and mri tracking
FR2945624B1 (fr) 2009-05-15 2011-06-10 Mbda France Procede et systeme d'estimation d'une trajectoire d'un mobile
US8855929B2 (en) 2010-01-18 2014-10-07 Qualcomm Incorporated Using object to align and calibrate inertial navigation system
WO2011097018A1 (en) * 2010-02-05 2011-08-11 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
WO2012021192A2 (en) 2010-05-12 2012-02-16 Irobot Corporation Remote vehicle control system and method
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US9189862B2 (en) 2010-06-10 2015-11-17 Autodesk, Inc. Outline approximation for point cloud of building
JP5343042B2 (ja) 2010-06-25 2013-11-13 株式会社トプコン 点群データ処理装置および点群データ処理プログラム
US9031809B1 (en) * 2010-07-14 2015-05-12 Sri International Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
DE212011100130U1 (de) 2010-08-05 2013-06-24 Philips Intellectual Property & Standards Gmbh Auf gleicher Ebene und interaktiv stattfindende Oberflächennetz-Anpassung
JP5465128B2 (ja) 2010-08-11 2014-04-09 株式会社トプコン 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
US8676498B2 (en) 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
JP5592855B2 (ja) 2011-09-06 2014-09-17 アジア航測株式会社 植生図作成装置及び植生図作成プログラム
CN102508258A (zh) * 2011-11-29 2012-06-20 中国电子科技集团公司第二十七研究所 一种测绘信息获取激光三维成像雷达
US10481265B2 (en) 2011-12-21 2019-11-19 Robotic paradigm Systems LLC Apparatus, systems and methods for point cloud generation and constantly tracking position
CN102607526B (zh) 2012-01-03 2014-01-15 西安电子科技大学 双介质下基于双目视觉的目标姿态测量方法
US9324190B2 (en) 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
GB2501466A (en) 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
JP6267700B2 (ja) 2012-07-18 2018-01-24 クレアフォーム・インコーポレイテッドCreaform Inc. 3d走査および位置決めのインターフェース
CN102819863B (zh) * 2012-07-31 2015-01-21 中国科学院计算技术研究所 一种三维人体运动的实时在线获取方法及其系统
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
CN104904200B (zh) 2012-09-10 2018-05-15 广稹阿马斯公司 捕捉运动场景的设备、装置和系统
EP2711670B1 (en) 2012-09-21 2019-01-30 NavVis GmbH Visual localisation
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
JP2015532077A (ja) 2012-09-27 2015-11-05 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法
US9043069B1 (en) * 2012-11-07 2015-05-26 Google Inc. Methods and systems for scan matching approaches for vehicle heading estimation
US9234758B2 (en) 2012-12-20 2016-01-12 Caterpillar Inc. Machine positioning system utilizing position error checking
US9292936B2 (en) 2013-01-09 2016-03-22 Omiimii Ltd. Method and apparatus for determining location
US9367065B2 (en) 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US10254118B2 (en) 2013-02-21 2019-04-09 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
ITTO20130202A1 (it) * 2013-03-15 2014-09-16 Torino Politecnico Dispositivo e sistema di scansione tridimensionale, e relativo metodo.
US8874454B2 (en) 2013-03-15 2014-10-28 State Farm Mutual Automobile Insurance Company Systems and methods for assessing a roof
US9453730B2 (en) * 2013-03-20 2016-09-27 Cognex Corporation Machine vision 3D line scan image acquisition and processing
US9037403B2 (en) 2013-03-26 2015-05-19 Toyota Motor Engineering & Manufacturing North America, Inc. Intensity map-based localization with adaptive thresholding
EP2787322B1 (de) 2013-04-05 2017-10-04 Leica Geosystems AG Geodätisches Referenzieren von Punktwolken
EP2981843A1 (en) 2013-04-05 2016-02-10 Lockheed Martin Corporation Underwater platform with lidar and related methods
US9025861B2 (en) 2013-04-09 2015-05-05 Google Inc. System and method for floorplan reconstruction and three-dimensional modeling
US9377310B2 (en) 2013-05-02 2016-06-28 The Johns Hopkins University Mapping and positioning system
US9607401B2 (en) * 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
US9069080B2 (en) 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US9443297B2 (en) 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
US9811714B2 (en) 2013-08-28 2017-11-07 Autodesk, Inc. Building datum extraction from laser scanning data
CN103489218B (zh) 2013-09-17 2016-06-29 中国科学院深圳先进技术研究院 点云数据质量自动优化方法及系统
US9315192B1 (en) 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
DE102013016974A1 (de) * 2013-10-14 2014-03-20 Daimler Ag Verfahren zur Erfassung eines einem Fahrzeug vorausliegenden Straßenhöhenprofils
EP3074832A4 (en) * 2013-11-27 2017-08-30 The Trustees Of The University Of Pennsylvania Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav)
EP3550513B1 (en) 2014-02-26 2021-10-13 NavVis GmbH Method of generating panorama views on a mobile mapping system
EP2918972B1 (de) * 2014-03-14 2019-10-09 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
JP6359868B2 (ja) 2014-04-25 2018-07-18 東芝プラントシステム株式会社 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム
US9430038B2 (en) 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
IL233684B (en) * 2014-07-17 2018-01-31 Shamir Hanan Stabilizing and displaying remote images
US9903950B2 (en) * 2014-08-27 2018-02-27 Leica Geosystems Ag Multi-camera laser scanner
CN105492985B (zh) 2014-09-05 2019-06-04 深圳市大疆创新科技有限公司 一种用于在环境内控制可移动物体的系统及方法
DE102014019671B4 (de) 2014-12-30 2017-09-14 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
US9607388B2 (en) 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
JP2016080572A (ja) 2014-10-20 2016-05-16 朝日航洋株式会社 レーザ計測システム
US9143413B1 (en) 2014-10-22 2015-09-22 Cognitive Systems Corp. Presenting wireless-spectrum usage information
EP3180775B1 (en) 2014-11-18 2019-02-13 St. Jude Medical, Cardiology Division, Inc. Method and system for generating a patch surface model of a geometric structure
GB2532494A (en) 2014-11-21 2016-05-25 The Chancellor Masters And Scholars Of The Univ Of Oxford Localising portable apparatus
US20160260250A1 (en) * 2015-03-05 2016-09-08 Dejan Jovanovic Method and system for 3d capture based on structure from motion with pose detection tool
EP3265845A4 (en) 2015-03-05 2019-01-09 Commonwealth Scientific and Industrial Research Organisation STRUCTURE MODELING
US9715016B2 (en) 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing
US20160349746A1 (en) 2015-05-29 2016-12-01 Faro Technologies, Inc. Unmanned aerial vehicle having a projector and being tracked by a laser tracker
EP3109589B1 (en) 2015-06-23 2019-01-30 Volvo Car Corporation A unit and method for improving positioning accuracy
US20160379366A1 (en) 2015-06-25 2016-12-29 Microsoft Technology Licensing, Llc Aligning 3d point clouds using loop closures
WO2017009923A1 (ja) 2015-07-13 2017-01-19 日産自動車株式会社 自己位置推定装置及び自己位置推定方法
GB2543749A (en) 2015-10-21 2017-05-03 Nokia Technologies Oy 3D scene rendering
EP3165945B1 (de) 2015-11-03 2024-01-03 Leica Geosystems AG Oberflächenvermessungsgerät zur bestimmung von 3d-koordinaten einer oberfläche
US9754406B2 (en) 2015-12-28 2017-09-05 Volkswagon Ag Multiple light source simulation in computer graphics
US10156441B2 (en) 2016-01-05 2018-12-18 Texas Instruments Incorporated Ground plane estimation in a computer vision system
US20190346271A1 (en) 2016-03-11 2019-11-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
WO2018071416A1 (en) 2016-10-11 2018-04-19 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
USD823920S1 (en) 2016-11-23 2018-07-24 Kaarta, Inc. Simultaneous localization and mapping (SLAM) device
EP3574285A4 (en) 2017-01-27 2020-12-02 Kaarta, Inc. LASER SCAN DEVICE WITH REAL-TIME ESTIMATE OF CLEAN MOTION ONLINE
US10442431B2 (en) 2017-02-17 2019-10-15 Fca Us Llc Automatic speed limiter set speed adjustment
US11194938B2 (en) 2020-01-28 2021-12-07 Middle Chart, LLC Methods and apparatus for persistent location based digital content
US10296828B2 (en) 2017-04-05 2019-05-21 Here Global B.V. Learning a similarity measure for vision-based localization on a high definition (HD) map
EP3646058A4 (en) 2017-06-30 2020-12-02 Kaarta, Inc. SYSTEMS AND METHODS FOR IMPROVING SCAN AND IMAGING
EP3656138A4 (en) 2017-07-17 2021-05-12 Kaarta, Inc. ALIGNMENT OF MEASURED SIGNAL DATA WITH SLAM LOCATION DATA AND ASSOCIATED USES
US10447973B2 (en) 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
US11009884B2 (en) 2017-09-29 2021-05-18 Direct Current Capital LLC Method for calculating nominal vehicle paths for lanes within a geographic region
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10551850B2 (en) 2018-01-03 2020-02-04 Uatc, Llc Low quality pose
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
WO2019178429A1 (en) 2018-03-15 2019-09-19 Kaarta, Inc. Methods and systems for filtering point cloud map data for use with acquired scan frame data
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
EP4061112A4 (en) 2019-11-20 2023-12-13 Farmwise Labs, Inc. METHOD FOR ANALYZING INDIVIDUAL PLANTS IN AN AGRICULTURAL FIELD

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09142236A (ja) * 1995-11-17 1997-06-03 Mitsubishi Electric Corp 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
JP2006276012A (ja) * 2005-03-29 2006-10-12 Leica Geosystems Ag 物体の六つの自由度を求めるための測定システム
JP2007298332A (ja) * 2006-04-28 2007-11-15 Mitsubishi Electric Corp 地形データ補正装置及び地形データ補正方法
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
JP2011529569A (ja) * 2008-07-31 2011-12-08 テレ アトラス ベスローテン フエンノートシャップ ナビゲーションデータを三次元で表示するコンピュータ装置および方法
JP2012507011A (ja) * 2008-10-28 2012-03-22 ザ・ボーイング・カンパニー 空間照会のための手持ち型位置決めインタフェース
JP2010175423A (ja) * 2009-01-30 2010-08-12 Mitsubishi Electric Corp 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム
JP2012063173A (ja) * 2010-09-14 2012-03-29 Konica Minolta Opto Inc レーザ測距装置
JP3173419U (ja) * 2011-06-21 2012-02-09 光男 植村 測量装置
JP2013093738A (ja) * 2011-10-26 2013-05-16 Nippon Hoso Kyokai <Nhk> 移動距離計測装置及び撮影カメラ
JP2015200615A (ja) * 2014-04-10 2015-11-12 国際航業株式会社 レーザー計測結果解析システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962370B2 (en) 2016-03-11 2021-03-30 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11506500B2 (en) 2016-03-11 2022-11-22 Kaarta, Inc. Aligning measured signal data with SLAM localization data and uses thereof
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US11585662B2 (en) 2016-03-11 2023-02-21 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11815601B2 (en) 2017-11-17 2023-11-14 Carnegie Mellon University Methods and systems for geo-referencing mapping systems
US11398075B2 (en) 2018-02-23 2022-07-26 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US11830136B2 (en) 2018-07-05 2023-11-28 Carnegie Mellon University Methods and systems for auto-leveling of point clouds and 3D models

Also Published As

Publication number Publication date
US11585662B2 (en) 2023-02-21
CN109313024A (zh) 2019-02-05
US20190003836A1 (en) 2019-01-03
US10962370B2 (en) 2021-03-30
JP6987797B2 (ja) 2022-01-05
WO2017155970A1 (en) 2017-09-14
EP3427008A4 (en) 2019-10-16
EP3427008B1 (en) 2022-09-07
CN109313024B (zh) 2022-06-17
EP3427008A1 (en) 2019-01-16
US20210293544A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
JP6987797B2 (ja) リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US20230130320A1 (en) Laser scanner with real-time, online ego-motion estimation
JP7141403B2 (ja) 実時間オンライン自己運動推定を備えたレーザスキャナ
US10096129B2 (en) Three-dimensional mapping of an environment
CN109084746B (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
JP2019532433A (ja) リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
Li et al. Multi-sensor fusion for navigation and mapping in autonomous vehicles: Accurate localization in urban environments
US10794710B1 (en) High-precision multi-layer visual and semantic map by autonomous units
US20190346271A1 (en) Laser scanner with real-time, online ego-motion estimation
Ros et al. Visual slam for driverless cars: A brief survey
Li et al. Tightly coupled integration of GNSS, INS, and LiDAR for vehicle navigation in urban environments
Gao et al. Towards autonomous wheelchair systems in urban environments
Srinara et al. Performance analysis of 3D NDT scan matching for autonomous vehicles using INS/GNSS/3D LiDAR-SLAM integration scheme
Lin et al. GLO-SLAM: A slam system optimally combining GPS and LiDAR odometry
US11561553B1 (en) System and method of providing a multi-modal localization for an object
Andersson et al. Simultaneous localization and mapping for vehicles using ORB-SLAM2
Liu et al. FR-LIO: Fast and robust lidar-inertial odometry by tightly-coupled iterated Kalman smoother and robocentric voxels
Tong et al. 3D SLAM for planetary worksite mapping
Liu et al. Fast and Robust LiDAR-Inertial Odometry by Tightly-Coupled Iterated Kalman Smoother and Robocentric Voxels
Salleh Study of vehicle localization optimization with visual odometry trajectory tracking
Nejad Design and implementation of a localization system for surveying robot based on visual odometry
Bai Outlier-aware GNSS/INS/visual integrated navigation system in urban canyons
Ahmadi Visual-LiDAR Simultaneous Localization and Mapping
Yu Localization for Autonomous Navigation Systems in Large-Scale Outdoor Environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R150 Certificate of patent or registration of utility model

Ref document number: 6987797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150