JP2019532433A - リアルタイムオンラインエゴモーション推定を有するレーザスキャナ - Google Patents
リアルタイムオンラインエゴモーション推定を有するレーザスキャナ Download PDFInfo
- Publication number
- JP2019532433A JP2019532433A JP2019519657A JP2019519657A JP2019532433A JP 2019532433 A JP2019532433 A JP 2019532433A JP 2019519657 A JP2019519657 A JP 2019519657A JP 2019519657 A JP2019519657 A JP 2019519657A JP 2019532433 A JP2019532433 A JP 2019532433A
- Authority
- JP
- Japan
- Prior art keywords
- points
- data
- scan
- point
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 150
- 238000013507 mapping Methods 0.000 claims description 97
- 230000036961 partial effect Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 2
- 230000033001 locomotion Effects 0.000 description 115
- 230000000670 limiting effect Effects 0.000 description 69
- 238000005259 measurement Methods 0.000 description 62
- 230000006978 adaptation Effects 0.000 description 61
- 238000012545 processing Methods 0.000 description 53
- 238000005457 optimization Methods 0.000 description 41
- 238000004364 calculation method Methods 0.000 description 39
- 230000000007 visual effect Effects 0.000 description 39
- 230000008569 process Effects 0.000 description 35
- 238000003860 storage Methods 0.000 description 28
- 230000015556 catabolic process Effects 0.000 description 19
- 238000006731 degradation reaction Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000012360 testing method Methods 0.000 description 14
- 230000009466 transformation Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000001143 conditioned effect Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 9
- 238000013480 data collection Methods 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000010276 construction Methods 0.000 description 7
- 230000010354 integration Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 230000004807 localization Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000007670 refining Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 238000013439 planning Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- RLLPVAHGXHCWKJ-IEBWSBKVSA-N (3-phenoxyphenyl)methyl (1s,3s)-3-(2,2-dichloroethenyl)-2,2-dimethylcyclopropane-1-carboxylate Chemical compound CC1(C)[C@H](C=C(Cl)Cl)[C@@H]1C(=O)OCC1=CC=CC(OC=2C=CC=CC=2)=C1 RLLPVAHGXHCWKJ-IEBWSBKVSA-N 0.000 description 1
- 238000010146 3D printing Methods 0.000 description 1
- 241000208140 Acer Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 239000002028 Biomass Substances 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
- G01S7/4813—Housing arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
Description
この出願は、2017年3月7日出願の「リアルタイムオンラインエゴモーション推定を有するレーザスキャナ」という名称のPCT出願番号PCT/US2017/021120に対する優先権を主張し、かつその一部継続出願である。この出願は、2016年10月11日出願の「リアルタイムオンラインエゴモーション推定を有するレーザスキャナ」という名称の米国仮特許出願第62/406,910号に対する優先権を更に主張するものである。PCT/US2017/021120及び米国仮出願第62/406,910号の両方の開示は、その全体が全ての目的に対して引用により本明細書に組み込まれている。
・計算モジュールを動的に再構成する機能、
・計算モジュールの故障モードを完全に又は部分的にバイパスし、かつセンサ及び/又はセンサデータの劣化を扱う方式で残りのモジュールからのデータを組合せ、それによって環境的に誘導されたデータ劣化及びモバイルマッピングシステムの積極的なモーションに対処する機能、及び
・リアルタイムの性能を提供するために計算モジュールを協働的に統合する機能。
仮定及び座標系
図1に示すように、モバイルマッピングシステムのセンサシステムは、レーザ106、カメラ104、及びIMU102を含むことができる。カメラは、固有のパラメータが公知であるピンホールカメラモデルとしてモデル化することができる。3つのセンサの全ての間の外因性パラメータは較正することができる。カメラとレーザ間の相対的姿勢及びレーザとIMU間の相対的姿勢は、当業技術で公知の方法に従って決定することができる。単一座標系をカメラ及びレーザに使用することができる。一非限定例では、カメラ座標系を使用することができ、全てのレーザ点を前処理でカメラ座標系に投影することができる。一非限定例では、IMU座標系は、カメラ座標系に平行にすることができ、従って、IMU測定は、収集に応答して回転させながら補正することができる。座標系は、以下のように定義することができる。
・カメラ座標系{C}は、x軸が左を指し、y軸が上を指し、z軸がカメラ主軸に一致する前方を指すカメラ光学中心から派生することができる。
・IMU座標系{I}は、x−、y−、及びz−軸が{c}に平行であり、同じ方向を指すIM測定中心から派生することができる。
・世界座標系{W}は、開始姿勢の{C}に一致する座標系とすることができる。
状態推定問題は、機能的最大確率(MAP)推定問題として定式化することができる。本発明者は、システム状態のセットU={ui}としてx={xi}、i∈{1;2;...,m}、制御入力のセットとしてi∈{1;2;...,m}、及びランドマーク測定のセットとしてZ={zk}、k∈{1;2;...,n}を定義することができる。提案するシステムが与えられる場合と、Zは、視覚特徴とレーザランドマークの両方を含むことができる。システムの複合確率は以下のように定義される。
式1
は、モーションモデルを表し、
は、ランドマーク測定モデルを表している。(1)として定式化された各問題に対して、問題の対応するベイズ簡略ネットワーク表現がある。MAP推定は式1を最大にすることである。ゼロ平均ガウスノイズの仮定の下で、問題は最小二乗問題と同等である。
式2
は、モーションモデル及びランドマーク測定モデルにそれぞれ関連付けられた残差である。
問題:レーザ、カメラ、及びIMUから与えられたデータは、(2)として問題を定式化及び解いて、{W}に対して{C}の姿勢を決定し、次に、推定された姿勢を使用してレーザ点を記録して{W}の横断された環境のマップを構築する。
IMU機械化
この小節ではIMU予測サブシステムを説明する。システムは基本的なセンサ座標系として{C}を考えているので、IMUは、{C}に対して特徴付けることができる。「仮定及び座標系」という名称の小節で上記に開示したように、{I}及び{C}は平行座標系であり、ω(t)及びα(t)は、時間tの{C}の角速度及び加速度それぞれを示す2つの3x1ベクトルとすることができる。対応するバイアスは、bω(t)及びbα(t)として示すことができ、nω(t)及びnα(t)は対応するノイズである。ベクトル、バイアス、及びノイズの項は{C}で定義される。更に、gは、{W}の一定重力ベクトルとして示すことができる。IMU測定項は次式の通りである。
式3
式4
ここで、
は、{W}から{C}への回転行列であり、
は、{C}及び{I}の間の変換ベクトルである。
は、回転中心({C}の始点)が{I}の始点とは異なるという事実による遠心力を表している。視覚−慣性ナビゲーション方法の一部の例は、この遠心力項を推定するために{I}のモーションをモデル化する。本明細書に開示する計算方法では、深度情報あり及びなしの視覚特徴が使用され、{C}から{I}の深度なしの変換特徴は直接的ではない(以下を参照)。その結果、本明細書に開示するシステムは、代わりに、{C}のモーションの全てをモデル化する。実際的にカメラ及びIMUは、項の影響を最大限低減するために互いに近づけて装着される。
IMUバイアス補正は、カメラ又はレーザのいずれかからのフィードバックによって行うことができる(図1及び2の128、138をそれぞれ参照)。各フィードバック項は、短時間にわたる推定区分的モーションを含有する。バイアスは、区分的モーション中に一定になるようにモデル化することができる。式3から開始して、推定された向きをIMU積分と比較することによってbω(t)を計算することができる。更新されたbω(t)は、推定された変換と比較された変換を再度計算してbα(t)を計算するために更に一巡の積分に使用される。
視覚−慣性オドメトリサブシステムのブロックシステム図を図5に示している。最適化モジュール510は、モーション推定550の深度情報を有するか又は持たない光学特徴データに基づいてカメラ制約515と共にIMU予測モジュール520からの姿勢制約512を使用する。深度マップ記録モジュール545は、レーザ点540から得られた深度情報を有する追跡カメラ特徴530の深度マップ記録及び深度アソシエーションを含むことができる。深度マップ記録モジュール545は、前の計算から得られたモーション推定550を組み込むことができる。本方法は、視覚とIMUを密接に結合する。各々は、区分的モーション550を推定する最適化モジュール510に制約512、515をそれぞれ提供する。同時に、本方法は、深度情報を深度マップ記録モジュール545の一部として視覚特徴に関連付ける。特徴が、レーザ範囲測定が利用可能な区域に位置付けられる場合に、深度がレーザ点から得られる。そうでなければ、深度は、前に推定されたモーションシーケンスを使用して三角測量から計算される。最後のオプションとして、本方法は、異なる方法で制約を定式化することによっていずれの深度もない特徴を使用することができる。これは、レーザ範囲カバレージを持たないか又はカメラモーションの方向に十分長く追跡又は位置付けられないので三角測量できない特徴に対して真である。
視覚−慣性オドメトリ方法は、キー−フレームベースの方法である。新しいキー−フレームは、ある一定の数の特徴よりも多くが追跡を失うか又は画像オーバラップがある比率よりも下である場合に決定される535。従って、右の上付き文字l、l∈Z+は最後のキー−フレームを示すことができ、c、c∈Z+、及びc>kは、現在のフレームを示すことができる。上記に開示したように、本方法は、深度あり及び深度なしで特徴を組み合わせる。キー−フレームlの深度に関連付けられた特徴は、X1={C1}の[x1、y1、x1]Tとして示すことができる。相応に、深度なしの特徴は、代わりに、標準化座標を使用して、
として示される。
及び
は、システム状態を表す式1の
とは異なる。キー−フレームの特徴は、2つの理由で深度に関連付けることができる:1)深度アソシエーションが処理の何らかの量を取り、キー−フレームのコンピュータ深度アソシエーションだけが計算強度を低減することができ、2)深度マップがフレームcで利用できず、従って、記録が設定された深度マップに依存するのでレーザ点を記録することができない。{Cc}の標準化特徴は、
として示すことができる。
変換を形成する。フレームlとcの間のモーション関数を次式のように書くことができる。
式5
である。Xcを
で置換して式5の第1及び第2の行と第3の行とを組み合わせてdcを除き、次式をもたらす。
式6
式7
の第h行である。深度を特徴に利用できない場合に、d1をキー−フレームlの未知の深度とする。Xl及びXcを
それぞれで置換し、dk及びdcを除くために式5の全ての3つの行を組み合わせて別の制約をもたらす。
式8
モーション推定処理510は、1)式6−7の公知の深度を有する特徴から、2)式8の未知の深度を有する特徴から、及び3)IMU予測520からの制約の3つのセットを組み合わせる最適化問題を解くのに必要である。
は、フレームaとbの間の4x4変換行列として定義することができる。
式9
は、対応する回転行列及び変換ベクトルである。更に、
に対応する3x1ベクトルとすると、
は、回転角度である。各
のセットに対応する。
を使用して、IMU姿勢制約を定式化することができる。
として示される最後の2つのフレームc−1とcの間の予測される変換は、IMU機械化から取得することができる。フレームcの予測変換は以下として計算される。
式10
に対応する6−DOFモーションである。IMU予測変換
は、向きに依存することは理解することができる。一例として、向きは、式4の回転行列を通じて重力ベクトルの予測
、従って、積分される加速度を決定することができる。
の関数として定式化することができ、
として書き直すことができる。IMU予測モジュール122(図1及び2)によって提供される200Hz姿勢、並びに視覚−慣性オドメトリモジュール126(図1及び2)によって提供される50Hz姿勢は、両方とも姿勢関数であることは理解することができる。
の計算は、フレームcで開始することができ、加速度は、時間に関して逆積分することができる。
は解かれるモーションである。制約を次式として表すことができる。
式11
ここで、
は、カメラ制約に対して姿勢制約を適切にスケーリングする相対的共分散行列である。
を含有する。従って、フルスケールMAP推定は実行されないが、マージン化問題を解くためだけに使用される。ランドマーク位置は最適化されず、従って、状態空間の6つの未知数だけが使用され、それによって計算強度を低く維持する。従って、本発明の方法は、レーザ範囲測定を伴い、特徴に正確な深度情報を提供し、モーション推定の精度を保証する。その結果、バンドル精緻化を通じた特徴の深度の更に別の最適化は必要ない。
深度マップ記録モジュール545は、以前に推定されたモーションを使用して深度マップ上にレーザ点を記録する。カメラの視野内のレーザ点540は、ある一定の時間量に対して維持される。深度マップは一定密度を維持するためにダウンサンプリングされ、高速インデキシングのための2DのKDツリーに格納される。KDツリーでは、全てのレーザ点が、カメラ中心の周りの単位球面に投影される。点は点の2つの角座標によって表される。深度を特徴に関連付ける時に、特徴を球面に投影することができる。3つの最も近いレーザ点が各特徴に対して球面上に見出される。次に、それらの有効性は、直交空間の3つの点間の距離を計算することによって得られる。距離が閾値よりも大きい場合に、点が、物体、例えば、壁及び壁の前面の物体とは異なる機会が高く、有効性検査が失敗する。最終的に、深度は、直交空間内にローカル平面パッチを有する3つの点から補間される。
このサブシステムは、レーザ走査適合による前のモジュールからのモーション推定値を精緻化する。図6は、走査適合サブシステムのブロック図を示している。サブシステムは、提供されたオドメトリ推定550を使用してローカル点群でレーザ点540を受信してこれらを記録する620。次に、図形特徴が点群から検出され640、かつマップに適合される。走査適合は、当業技術で公知の多くの方法と同様に特徴対マップの距離を最小にする。しかし、オドメトリ推定550は、最適化610で姿勢制約612を提供する。最適化は、レーザ制約617によって発見及び更に処理される特徴対応性615を有する姿勢制約を処理する段階とを含み、デバイス姿勢650を発生させる。この姿勢650は、特徴対応性615の発見を容易にするマップ記録処理655を通じて処理される。この実施はマップのボクセル表現を使用する。更に、それは、1から複数のCPUスレッドに並行して実行されるように動的に構成することができる。
レーザ走査を受信する時に、本方法は、最初に走査620からの点を共通座標系に記録する。
は、走査数を示すのに使用することができる。カメラ座標系をカメラとレーザの両方に使用することができることは理解される。走査mは、
として示される走査の最初のカメラ座標系に関連付けることができる。視覚−慣性オドメトリからレーザ点540、オドメトリ推定550をローカルに記録620することは、キー−点として取ることができ、IMU測定を使用してキー−点の間を補間することができる。
として示され、他方はローカル平面表面で、すなわち、平面点で
として示されている。これは、ローカル走査での曲率の計算を通じたものである。塞いだ領域の境界上の点及びローカル表面がレーザビームに平行になるように近い点のような近傍点が既に選択されている点は避けられる。これらの点は、大きいノイズを含有するか又はセンサが移動する時に経時的に位置を変える場合がある。
は{W}で定義される。
の点は、エッジ点及び平面点をそれぞれ含有する2つのセットに分離される。ボクセルを使用して、センサの周りのある一定の距離で切り捨てられたマップを格納することができる。各ボクセルに対して、2つの3DのKDツリーを構築することができ、一方はエッジ点に対して、片方は平面点に対してのものである。個々のボクセルのKDツリーの使用は、クエリ点が与えられているので点検索を加速し、単一ボクセルに関連付けられた特定のKDツリーを検索する必要がある(以下を参照)。
が、最初に、利用可能なモーションの最良推測を使用して投影され、次に、
の各点に対して、最も近い点のクラスターが、マップ上の対応するセットから見出される。点クラスターの図形分布を検証するために、関連付けられた固有値及び固有ベクトルを調べることができる。特に、1つの大きい及び2つの小さい固有値がエッジラインセグメントを示し、2つの大きい及び1つの小さい固有値がローカル平面パッチを示している。適合が有効である場合に、式は、点から対応する点クラスターまでの距離に関して定式化される。
式12
ここで、
の点であり、
は、{W}での{Cm}の6−DOF姿勢を示している。
走査適合は、式12によって説明した全体的な距離を最小にする最適化問題610に定式化される。最適化は、前のモーションからの姿勢制約612を含有する。
を{W}での
の姿勢に関する4×4変換行列とすると、
は、最後の走査を処理することによって発生される。
は、オドメトリ推定によって提供される{Cm-1}から{Cm}への姿勢変換とする。式10と同様に、{W}での{Cm}の予測される姿勢変換は次式である。
式13
は、相対的共分散行列とする。制約は次式になる。
式14
を使用して、IMU機械化による同じ項を示すことができる。加速度の積分が向き(式11の
の関数である。IMU姿勢制約は次式になる。
式15
ここで、
は、対応する相対的共有結合行列である。最適化問題では、式14及び15は、制約の1つのセットに直線的に組み合わされる。線形組合せは、視覚−慣性オドメトリの作動モードによって決定される。最適化問題は、ロバストな当て嵌めフレームワークに適用されるニュートン勾配−下降方法によって解かれる。
マップ上の点はボクセルで維持される。A2−レベルボクセル実施を図7A及び7Bに示している。
は、最後の走査を処理した後の第1のレベルマップ700上のボクセルのセット702、704を示している。センサ706の周りのボクセル704は、
を形成する。6−DOFセンサ姿勢、
が与えられた状態で、マップ上のセンサと共に移動する対応する
がある。センサがマップの境界に近づいた時は、境界の反対側725上のボクセルが、マップ境界730を拡張するために移動される。移動したボクセルの点は消え、マップの切り捨てをもたらす。
は、第1のレベルマップ700よりも大きさが小さい
として示されるボクセルのセットによって形成される。走査を適合させる前に、
の点は、モーションの最良推測を使用してマップに投影され、これを
に充填する。
からの点によって占められるボクセル708は、
を形成するために抽出され、走査適合のために3DのKDツリーに格納される。ボクセル710は、
からの点によって占められないものである。走査適合の完了に応答して、走査は、マップを備えたボクセル708に融合される。この後で、マップ点は、ある一定の密度を維持するためにダウンサイジングされる。第1のレベルマップ700の各ボクセルが第2のレベルマップ750のサブボクセルよりも大きい空間の容積に対応することは理解することができる。従って、第1のレベルマップ700の各ボクセルは、第2のレベルマップ750の複数のサブボクセルを含み、第2のレベルマップ750の複数のサブボクセルにマップすることができる。
に対応するボクセルが第1のレベルマップ700を維持するのに使用され、第2のレベルマップ750の
に対応するボクセルは、走査適合のためのセンサの周りのマップを取り出すのに使用される。マップは、センサがマップ境界に近づく時だけ切り捨てられる。従って、センサがマップの内側をナビゲートする場合に、切り捨ては必要ない。別の考慮は、2つのKDツリーが
における各個々のボクセルに使用され、一方がエッジ点に、他方が平面点に使用される。上述のように、そのようなデータ構造は、点検索を加速することができる。この方式では、複数のKDツリーの検索は、
で各個々のボクセルに対する2つのKDツリーの使用とは対照的に避けられる。後者は、KDツリー構築及び保守に多くのリソースを必要とする。
の使用が、KDツリー構築及びクエリに約2倍の処理時間をもたらすことを見ることができる。これは、ボクセルの第2のレベル、
が、マップの正確な検索を補助するためである。これらのボクセルなしでは、より多くの点が
に含有され、KDツリーに蓄積される。更に、各ボクセルに対してKDツリーを使用することにより、
で全てのボクセルに対してKDツリーを使用することに比べて僅かに処理時間が低減される。
走査適合は、KDツリーを構築する段階及び特徴対応性を繰返し見出す段階を伴う。この処理は、時間を消費し、システムの主要な計算を費やす。1つのCPUスレッドが望ましい更新周波数を保証できない場合に、マルチスレッド実施が複雑な処理の問題に対処することができる。図8Aは、2つの適合化器プログラム812、815が並行して実行される場合を示している。走査の受信に応答して、マネージャプログラム810は、これを利用可能な最新のマップに適合させるように並べる。複数の構造物及び複数の視覚特徴を有するクラスター化環境から構成される一例では、適合が遅く、次の走査の到着前に完了できない場合がある。2つの適合化器812及び815が代わりに呼び出される。1つの適合化器812では、
813nそれぞれに適合される。同様に、第2の適合化器815では、
(k=奇数の整数)816nそれぞれに適合される。このインターリーブ処理の使用は、処理のために2倍の時間量をもたらす場合がある。いくつかの構造物又は視覚特徴を備えた清浄な環境から構成される代替の例では、計算が軽い。そのような例(図8B)では、単一適合化器820だけを呼び出すことができる。インターリーブが必要ないので、
にそれぞれ適合される(827a、827b、827nを参照)。実施は4つのスレッドの最大値を使用するように構成することができるが、一般的に2つのスレッドだけが必要になる。
最終モーション推定は、図2に示す3つのモジュールからの出力の積分である。5Hz走査適合出力は最も正確なマップを発生し、50Hz視覚−慣性オドメトリ出力及び200HzIMU予測は、高周波数モーション推定のために積分される。
システムのロバスト性は、センサ劣化を扱う機能によって決定される。IMUは、システムのバックボーンとしての信頼できる機能であると常に仮定される。カメラは、劇的照明変化の影響を受け易く、暗闇/テクスチャの少ない環境又は重大なモーションのぼけが存在する(それによって視覚特徴追跡の損失を引き起こす)時に失敗する場合がある。レーザは、構造物の少ない環境、例えば、単一平面によって支配されるシーンに対処することができない。これに代えて、レーザデータ劣化は、積極的なモーションによるデータのスパースさによって発生する場合がある。
として示される固有ベクトルを計算することができる。センサの状態空間が6−DOF(6の自由度)を含有するので6つの固有値/固有ベクトルが存在する。一般性を排除することなく、
は、減少する順序で並べ替えることができる。各固有値は、解がその対応する固有ベクトルの方向にどのように確実に条件付けられるかを説明する。固有値と閾値を比較することにより、確実に条件付けられた方向は、状態空間の劣化した方向から分離することができる。
を確実に条件付けされた方向の数とする。2つの行列を次式として定義することができる。
式16
式17
は、視覚−慣性オドメトリモジュールからの固有ベクトルを含有する行列を示し、
以下の通りである。
式18
及び式18は、式14の視覚−慣性オドメトリからの姿勢制約から構成される。しかし、カメラデータが完全に劣化した場合に、
姿勢制約から構成される。
図9Aに示すように、視覚特徴が視覚−慣性オドメトリに不十分にしか利用できない場合に、IMU予測122は、視覚−慣性オドメトリ問題で確実に条件付けられた方向の数に応答して、視覚−慣性オドメトリモジュール126を点線に示すように完全に又は部分的にバイパスする924。走査適合モジュール132は、走査適合のためのレーザ点をローカルに記録することができる。IMU予測のバイパスはドリフトの影響を受ける。レーザフィードバック138は、カメラフィードバック128が利用できない方向にのみIMUの速度ドリフト及びバイアスを補正するカメラフィードバック128を補償する。従って、カメラフィードバックは、カメラデータが劣化しなかった時にこれを適合させる高周波数に起因してより高い優先度を有する。十分な視覚特徴が見出された時に、レーザフィードバックは使用されない。
図9Bに示すように、環境構造がモーション推定を精緻化するための走査適合132に対して不十分である場合に、視覚−慣性オドメトリモジュール126出力は、点線に示すようにマップ930上のレーザ点を記録するために走査適合モジュールを十分に又は部分的にバイパスする。確実に条件付けられた方向が走査適合問題に存在する場合に、レーザフィードバックは、これらの方向の精緻化されたモーション推定値を含有する。そうでなければ、レーザフィードバックが空白になる138。
更に複雑な例では、カメラとレーザの両方が少なくともある程度は劣化する。図10はそのような例を示している。6つの行を有する垂直バーは6−DOF姿勢を表し、各行は、式16の固有ベクトルに対応するDOF(自由度)である。この例では、視覚−慣性オドメトリ及び走査適合の各々がモーションの3DOFを更新し、他の3−DOFのモーションは変化させない。IMU予測1022a−fは初期IMU予測値1002を含むことができる。視覚−慣性オドメトリは一部の3−DOF(1026c、1026e、1026f)を更新し1004、精緻化済み予測1026a−1026fをもたらす。走査適合は、一部の3−DOF(1032b、1032d、1032f)を更新し1006、更に別の精緻化済み予測1032a−1032fをもたらす。カメラフィードバック128はカメラ更新1028a−1028fを含有し、レーザフィードバック138はレーザ更新1038a−1038fをそれぞれ含有する。図10を参照すると、陰影付けされていないセル(1028a、1028b、1028d、1038a、1038c、1038e)は、それぞれのモジュールからのいずれの更新情報も含有しない。IMU予測モジュールへの合計更新1080a−1080fは、カメラフィードバック128からの更新1028a−1028f及びレーザフィードバック138からの更新1038a−1038fの組合せである。フィードバックがカメラ(例えば、1028f)及びレーザ(例えば、1038f)の両方から利用可能な1又は2以上の自由度では、カメラ更新(例えば、1028f)は、レーザ更新(例えば、1038f)よりも優先度を有することができる。
をフレームc−1とcの間の視覚−慣性オドメトリによって推定される6−DOFモーションとし、ここで
である。
を時間補間後の走査適合によって推定される対応する項とする。
は、視覚−慣性オドメトリモジュールからの固有ベクトルを含有する式16で定義された行列とすることができ、
劣化した方向を表している。
は、走査適合モジュールからの同じ行列とする。以下の式は組み合わされたフィードバック、
式19
従って、
は、カメラ及びレーザフィードバックを表している。
式20
式21
式22
の関数として定式化されたIMU予測モーションを示すことができる。向き
の両方に依存する。バイアスは、以下の式を解くことによって計算することができる。
式23
は、ゼロ行列である。それに応じて、
から計算される。劣化した場合では、IMU予測モーション、
は、モーションが解かれない方向に使用される(例えば、図10の組み合わされたフィードバックの白い行1080a)。結果は、前に計算されたバイアスがこれらの方向で維持される。
スキャナによる試験
オドメトリ及びマッピングソフトウエアシステムは2つのセンサ組で検証される。第1のセンサ組では、VelodyneLIDAR(記録商標)HDL−32EレーザスキャナがUI−1220SE白黒カメラ及びXsens(記録商標)MTi−30IMUに取り付けられる。レーザスキャナは、360°水平FOV、40°垂直FOVを有し、5Hzスピン速度で70万点/秒を受信する。カメラは、752x480ピクセルの解像度、76°水平FOV、及び50Hzフレーム速度から構成される。IMU周波数は200Hzで設定される。第2のセンサ組では、VelodyneLIDAR(記録商標)VLP−16レーザスキャナが同じカメラ及びIMUに取り付けられる。このレーザスキャナは、360°水平FOV、30°垂直FOVを有し、5Hzスピン速度で30万点/秒を受信する。各センサ組が、データ収集のために路上で及びオフロードの地形で運転される車両にそれぞれ取り付けられる。
提案するシステムの精度を認めるために試験が行われた。これらの試験では、第1のセンサ組が使用された。センサは、大学のキャンパスの周りで運転するオフロード車両に設けられた。16分以内で2.7km運転した後で、キャンパスマップが構築される。試験中の平均速度は2.8m/sであった。
(図15aの点で充填されたボクセル)が、大きさが小さいボクセルのセット
走査適合の前に、レーザ走査は、モーションの最良推測を使用してマップ上に投影される。
は、クロスハッチでラベル付けされる。次に、クロスハッチボクセル内のマップ点が抽出され、走査適合のための3DのKDツリーに格納される。
に適合される。比較すると、図16bは1スレッドの場合を示し、従って、
に適合される。実施は、最大4つのスレッドを使用して動的に構成可能である。
2102 マイクロコントローラ
2106 IMU
2108 直交復号器
PPS パルス/秒
Claims (26)
- 少なくとも地理空間座標に各々が帰する複数の点を含むLIDAR取得点群を含むデータセットにアクセスする段階と、
前記複数の点の少なくとも一部分をサブサンプリングして該複数の点の代表サンプルを導出する段階と、
前記複数の点の前記代表サンプルを表示する段階と、
を含むことを特徴とする方法。 - 前記LIDAR取得点群は、可搬型同時位置付け及びマッピング(SLAM)システムによって取得されることを特徴とする請求項1に記載の方法。
- 前記代表サンプルを表示する段階は、前記可搬型SLAMシステムのインタフェース表示時に発生することを特徴とする請求項2に記載の方法。
- 前記代表サンプルを表示する段階は、前記LIDAR取得点群の前記取得中にリアルタイムで発生することを特徴とする請求項2に記載の方法。
- 前記複数の点の少なくとも一部分をサブサンプリングする段階は、前記点群によって表された容積を部分容積に分割する段階と、該部分容積の各々に値を割り当てる段階とを含むことを特徴とする請求項1に記載の方法。
- 前記部分容積は、実質的に等しいサイズのものであることを特徴とする請求項5に記載の方法。
- 各部分容積の前記割り当てられた値は、前記複数の点のいずれかが該部分容積内に位置付けられるか否かを示すことを特徴とする請求項5に記載の方法。
- 前記複数の点の各々が、該点からの赤外線(IR)光の反射の強度に対応する強度を用いて表示されることを特徴とする請求項1に記載の方法。
- 前記複数の点の各々が、該点からの赤外線(IR)光の反射の強度に対応するカラーを用いて表示されることを特徴とする請求項1に記載の方法。
- 前記複数の点の各々が、強度パラメータ、密度パラメータ、時間パラメータ、及び地理空間場所パラメータから構成される群から選択された前記取得データのパラメータに対応するカラーを用いて表示されることを特徴とする請求項1に記載の方法。
- 少なくとも地理空間座標とセグメントとに各々が帰する複数の点を含むLIDAR点群を取得する段階と、
同じセグメントに帰する前記複数の点の計算された精度を示す信頼水準を各セグメントに割り当てる段階と、
前記割り当てられた信頼水準をユーザに表示する段階と、
を含むことを特徴とする方法。 - 各信頼水準が、前記点群の点密度、前記複数の点の直交性、該点群が取得された環境の形状、及び別々の空間の間の移行の状態のうちの少なくとも1つに少なくとも部分的に基づいて割り当てられることを特徴とする請求項11に記載の方法。
- 前記表示する段階は、前記割り当てられた信頼水準を割り当てられた信頼水準を示すカラーを利用して前記ユーザに表示する段階を含むことを特徴とする請求項11に記載の方法。
- 前記表示する段階は、手持式SLAMデバイスの一部を形成するディスプレイ上で実行されることを特徴とする請求項13に記載の方法。
- 前記割り当てられた信頼水準をユーザに表示する段階は、リアルタイム又はほぼリアルタイムのうちの一方で発生することを特徴とする請求項11に記載の方法。
- 少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群をSLAMシステムを用いて取得する段階と、
前記複数の点の少なくとも一部分を表示する段階と、
前記点群の前記取得をそこまで巻き戻す指定時間の指示を受信する段階と、
前記指定時間後のタイムスタンプに各々が帰する前記複数の点の一部分をタグ付けする段階と、
を含むことを特徴とする方法。 - 前記指定時間後のタイムスタンプを有する点の前記タグ付けされた部分を消去する段階を更に含むことを特徴とする請求項16に記載の方法。
- 前記SLAMユニットが、前記指定時間に対応する地理空間座標を有する少なくとも1つの点に近いという指示をユーザから受信する段階と、
前記点群の取得を再開する段階と、
を更に含むことを特徴とする請求項16に記載の方法。 - タグ付けする段階は、前記複数の点の前記部分を低信頼度として割り当てる段階を含むことを特徴とする請求項16に記載の方法。
- 許容可能な信頼水準を有する置換点が取得された後に前記複数の点の前記タグ付けされた部分を取り除く段階を更に含むことを特徴とする請求項16に記載の方法。
- 指定時間の指示を受信する段階は、該指定時間を参照するユーザ要求を受信する段階を含むことを特徴とする請求項16に記載の方法。
- 前記指定時間は、予め決められた閾値よりも下への点群密度の変化に関連付けられた時間を含むことを特徴とする請求項16に記載の方法。
- 少なくとも地理空間座標とタイムスタンプとに各々が帰する複数の点を含むLIDAR点群をSLAMシステムを用いて取得する段階と、
前記複数の点の少なくとも一部分を表示する段階と、
予め決められた閾値よりも下の点密度を示す前記点群の一部分の指示をユーザに表示する段階と、
を含むことを特徴とする方法。 - 未走査区域の指示を前記ユーザに表示する段階を更に含むことを特徴とする請求項23に記載の方法。
- 走査を再開する地理空間座標の指示を前記ユーザに表示する段階を更に含むことを特徴とする請求項23に記載の方法。
- 予め決められた閾値よりも下の点密度を示す前記点群の一部分の指示をユーザに表示する段階は、走査を再開するためのターゲット場所を表示する段階を含むことを特徴とする請求項23に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662406910P | 2016-10-11 | 2016-10-11 | |
US62/406,910 | 2016-10-11 | ||
PCT/US2017/021120 WO2017155970A1 (en) | 2016-03-11 | 2017-03-07 | Laser scanner with real-time, online ego-motion estimation |
USPCT/US2017/021120 | 2017-03-07 | ||
PCT/US2017/055938 WO2018071416A1 (en) | 2016-10-11 | 2017-10-10 | Laser scanner with real-time, online ego-motion estimation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019532433A true JP2019532433A (ja) | 2019-11-07 |
Family
ID=61906369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019519657A Pending JP2019532433A (ja) | 2016-10-11 | 2017-10-10 | リアルタイムオンラインエゴモーション推定を有するレーザスキャナ |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3526626A4 (ja) |
JP (1) | JP2019532433A (ja) |
WO (1) | WO2018071416A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111337036A (zh) * | 2020-05-19 | 2020-06-26 | 北京数字绿土科技有限公司 | 重叠区域数据优化方法、装置及终端设备 |
US10962370B2 (en) | 2016-03-11 | 2021-03-30 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US10989542B2 (en) | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
US11398075B2 (en) | 2018-02-23 | 2022-07-26 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
JP7224682B1 (ja) | 2021-08-17 | 2023-02-20 | 忠北大学校産学協力団 | 自律走行のための3次元多重客体検出装置及び方法 |
US11815601B2 (en) | 2017-11-17 | 2023-11-14 | Carnegie Mellon University | Methods and systems for geo-referencing mapping systems |
US11830136B2 (en) | 2018-07-05 | 2023-11-28 | Carnegie Mellon University | Methods and systems for auto-leveling of point clouds and 3D models |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019006289A1 (en) * | 2017-06-30 | 2019-01-03 | Kaarta, Inc. | SYSTEMS AND METHODS FOR SCAN ENHANCEMENT AND CORRECTION |
WO2018140701A1 (en) * | 2017-01-27 | 2018-08-02 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US20190377066A1 (en) * | 2018-06-06 | 2019-12-12 | DSCG Solutions, Inc. | Tracking objects using video images and lidar |
DE102018117660A1 (de) * | 2018-07-20 | 2020-01-23 | Man Truck & Bus Se | Verfahren und system zum bestimmen einer position eines fahrzeugs |
CN112513713B (zh) * | 2018-07-23 | 2022-07-15 | 奇跃公司 | 用于地图构建的系统和方法 |
US20210310349A1 (en) * | 2018-08-08 | 2021-10-07 | Four Flags Pty Ltd | Blast hole measurement and logging |
US11166048B2 (en) * | 2018-10-02 | 2021-11-02 | Tencent America LLC | Method and apparatus for video coding |
US11398040B2 (en) | 2018-10-08 | 2022-07-26 | Ulc Technologies, Llc | System and method for data acquisition |
US10878580B2 (en) * | 2018-10-15 | 2020-12-29 | Tusimple, Inc. | Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method |
JP6893200B2 (ja) * | 2018-10-16 | 2021-06-23 | 株式会社きんでん | 自走制御プログラム、および、自走式作業装置 |
EP3671261A1 (en) | 2018-12-21 | 2020-06-24 | Leica Geosystems AG | 3d surveillance system comprising lidar and multispectral imaging for object classification |
CN111398980B (zh) * | 2018-12-29 | 2023-06-06 | 广东瑞图万方科技股份有限公司 | 一种机载LiDAR数据处理的方法及装置 |
US11391574B2 (en) | 2019-01-18 | 2022-07-19 | Ford Global Technologies, Llc | Object detection |
US11608078B2 (en) | 2019-01-30 | 2023-03-21 | Baidu Usa Llc | Point clouds registration system for autonomous vehicles |
CN109959937B (zh) * | 2019-03-12 | 2021-07-27 | 广州高新兴机器人有限公司 | 长廊环境基于激光雷达的定位方法、存储介质及电子设备 |
US11243081B2 (en) | 2019-03-29 | 2022-02-08 | Trimble Inc. | Slam assisted INS |
CN110196044A (zh) * | 2019-05-28 | 2019-09-03 | 广东亿嘉和科技有限公司 | 一种基于gps闭环检测的变电站巡检机器人建图方法 |
CN110298103A (zh) * | 2019-06-25 | 2019-10-01 | 中国电建集团成都勘测设计研究院有限公司 | 基于无人机机载三维激光扫描仪的高陡危岩体调查方法 |
US11506502B2 (en) * | 2019-07-12 | 2022-11-22 | Honda Motor Co., Ltd. | Robust localization |
US11828617B2 (en) | 2019-07-16 | 2023-11-28 | Ulc Technologies, Llc | System and method for asset identification and mapping |
CN115308734A (zh) * | 2019-12-26 | 2022-11-08 | 华为技术有限公司 | 一种呼吸数据计算方法以及相关设备 |
CN113535672B (zh) * | 2020-04-16 | 2024-03-12 | 中国科学院沈阳自动化研究所 | 一种基于自主水下机器人平台的浊度数据处理方法 |
CN112862818B (zh) * | 2021-03-17 | 2022-11-08 | 合肥工业大学 | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 |
CN113188447B (zh) * | 2021-05-12 | 2022-12-27 | 深圳市国匠数控科技有限公司 | 一种提高高频激光扫描仪精度的办法 |
US20230184950A1 (en) * | 2021-12-09 | 2023-06-15 | Raytheon Company | Non-Contiguous 3D LIDAR Imaging Of Targets With Complex Motion |
WO2024050332A2 (en) * | 2022-08-29 | 2024-03-07 | Edge AI Solutions Inc. | Devices, systems, and methods for precision data collection & survey-grade infrastructure assessments via a disposable, carbon neutral, & minimally invasive robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010533307A (ja) * | 2007-06-27 | 2010-10-21 | プリズム インコーポレイテッド | 発光スクリーンを有するビームディスプレイシステムを走査する際に指定された走査サーボビームに基づくサーボフィードバック制御 |
JP2013054660A (ja) * | 2011-09-06 | 2013-03-21 | Asia Air Survey Co Ltd | 植生図作成装置及び植生図作成プログラム |
JP2015210186A (ja) * | 2014-04-25 | 2015-11-24 | 東芝プラントシステム株式会社 | 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム |
JP2016080572A (ja) * | 2014-10-20 | 2016-05-16 | 朝日航洋株式会社 | レーザ計測システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262974A1 (en) * | 2008-04-18 | 2009-10-22 | Erik Lithopoulos | System and method for obtaining georeferenced mapping data |
EP2133662B1 (en) * | 2008-06-09 | 2012-02-01 | Honeywell International Inc. | Methods and system of navigation using terrain features |
GB2489179B (en) * | 2010-02-05 | 2017-08-02 | Trimble Navigation Ltd | Systems and methods for processing mapping and modeling data |
US9323250B2 (en) * | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
KR102515213B1 (ko) * | 2012-09-10 | 2023-03-29 | 에이매스, 아이엔씨. | 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐 |
US9383753B1 (en) * | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
DE102014019671B4 (de) | 2014-12-30 | 2017-09-14 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera |
-
2017
- 2017-10-10 JP JP2019519657A patent/JP2019532433A/ja active Pending
- 2017-10-10 EP EP17860192.8A patent/EP3526626A4/en active Pending
- 2017-10-10 WO PCT/US2017/055938 patent/WO2018071416A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010533307A (ja) * | 2007-06-27 | 2010-10-21 | プリズム インコーポレイテッド | 発光スクリーンを有するビームディスプレイシステムを走査する際に指定された走査サーボビームに基づくサーボフィードバック制御 |
JP2013054660A (ja) * | 2011-09-06 | 2013-03-21 | Asia Air Survey Co Ltd | 植生図作成装置及び植生図作成プログラム |
JP2015210186A (ja) * | 2014-04-25 | 2015-11-24 | 東芝プラントシステム株式会社 | 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム |
JP2016080572A (ja) * | 2014-10-20 | 2016-05-16 | 朝日航洋株式会社 | レーザ計測システム |
Non-Patent Citations (2)
Title |
---|
BONG KEUN KIM: "Indoor localization and point cloud generation for building interior modeling", 2013 IEEE RO-MAN, JPN6021038939, 2013, US, pages 186 - 191, XP032502266, ISSN: 0004850587, DOI: 10.1109/ROMAN.2013.6628442 * |
石井 雅博: "入力・出力", 画像ラボ 第23巻 第3号 IMAGE LABORATORY, vol. 第23巻, JPN6021038941, 2012, JP, pages 14 - 18, ISSN: 0004850588 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10962370B2 (en) | 2016-03-11 | 2021-03-30 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US10989542B2 (en) | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
US11506500B2 (en) | 2016-03-11 | 2022-11-22 | Kaarta, Inc. | Aligning measured signal data with SLAM localization data and uses thereof |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
US11585662B2 (en) | 2016-03-11 | 2023-02-21 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US11815601B2 (en) | 2017-11-17 | 2023-11-14 | Carnegie Mellon University | Methods and systems for geo-referencing mapping systems |
US11398075B2 (en) | 2018-02-23 | 2022-07-26 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
US11830136B2 (en) | 2018-07-05 | 2023-11-28 | Carnegie Mellon University | Methods and systems for auto-leveling of point clouds and 3D models |
CN111337036A (zh) * | 2020-05-19 | 2020-06-26 | 北京数字绿土科技有限公司 | 重叠区域数据优化方法、装置及终端设备 |
JP7224682B1 (ja) | 2021-08-17 | 2023-02-20 | 忠北大学校産学協力団 | 自律走行のための3次元多重客体検出装置及び方法 |
JP2023027736A (ja) * | 2021-08-17 | 2023-03-02 | 忠北大学校産学協力団 | 自律走行のための3次元多重客体検出装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2018071416A1 (en) | 2018-04-19 |
EP3526626A4 (en) | 2020-05-27 |
EP3526626A1 (en) | 2019-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230130320A1 (en) | Laser scanner with real-time, online ego-motion estimation | |
US10989542B2 (en) | Aligning measured signal data with slam localization data and uses thereof | |
JP2019532433A (ja) | リアルタイムオンラインエゴモーション推定を有するレーザスキャナ | |
JP7141403B2 (ja) | 実時間オンライン自己運動推定を備えたレーザスキャナ | |
US20190346271A1 (en) | Laser scanner with real-time, online ego-motion estimation | |
US11585662B2 (en) | Laser scanner with real-time, online ego-motion estimation | |
US10096129B2 (en) | Three-dimensional mapping of an environment | |
EP3656138A1 (en) | Aligning measured signal data with slam localization data and uses thereof | |
US11328158B2 (en) | Visual-inertial positional awareness for autonomous and non-autonomous tracking | |
US10390003B1 (en) | Visual-inertial positional awareness for autonomous and non-autonomous device | |
US11313684B2 (en) | Collaborative navigation and mapping | |
JP2021152662A (ja) | リアルタイムのマッピングと位置確認のための方法及び装置 | |
Weiss et al. | Intuitive 3D maps for MAV terrain exploration and obstacle avoidance | |
CN109084746A (zh) | 用于具有辅助传感器的自主平台引导系统的单目模式 | |
Kalisperakis et al. | A modular mobile mapping platform for complex indoor and outdoor environments | |
Alliez et al. | Indoor localization and mapping: Towards tracking resilience through a multi-slam approach | |
Liu et al. | LSFB: A low-cost and scalable framework for building large-scale localization benchmark | |
Xiang | Fast and lightweight loop closure detection in LiDAR-based simultaneous localization and mapping | |
Wendel | Scalable visual navigation for micro aerial vehicles using geometric prior knowledge | |
Xu | Geometric, Semantic, and System-Level Scene Understanding for Improved Construction and Operation of the Built Environment | |
Ji | Robust visual SLAM for autonomous vehicles in challenging environments | |
Baldwin | Large-scale urban localisation with a pushbroom LIDAR | |
Li | LIDAR BASED MULTI-SENSOR FUSION FOR LOCALIZATION, MAPPING, AND TRACKING |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211006 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220817 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221116 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230410 |