JP2018156660A - 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 - Google Patents
回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 Download PDFInfo
- Publication number
- JP2018156660A JP2018156660A JP2018075247A JP2018075247A JP2018156660A JP 2018156660 A JP2018156660 A JP 2018156660A JP 2018075247 A JP2018075247 A JP 2018075247A JP 2018075247 A JP2018075247 A JP 2018075247A JP 2018156660 A JP2018156660 A JP 2018156660A
- Authority
- JP
- Japan
- Prior art keywords
- state
- measurements
- gps
- sensors
- aircraft
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims description 38
- 238000005259 measurement Methods 0.000 claims abstract description 120
- 238000000034 method Methods 0.000 claims description 29
- 230000003190 augmentative effect Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 abstract description 33
- 238000002474 experimental method Methods 0.000 description 39
- 230000000007 visual effect Effects 0.000 description 25
- 230000033001 locomotion Effects 0.000 description 24
- 238000013507 mapping Methods 0.000 description 15
- 238000012937 correction Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000001276 controlling effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000000644 propagated effect Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 6
- 230000003416 augmentation Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000012886 linear function Methods 0.000 description 5
- 230000007257 malfunction Effects 0.000 description 5
- 230000036961 partial effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 101100347605 Arabidopsis thaliana VIII-A gene Proteins 0.000 description 2
- 241000272194 Ciconiiformes Species 0.000 description 2
- 241000220010 Rhode Species 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- VDRGNAMREYBIHA-UHFFFAOYSA-N 2c-e Chemical compound CCC1=CC(OC)=C(CCN)C=C1OC VDRGNAMREYBIHA-UHFFFAOYSA-N 0.000 description 1
- 241000714197 Avian myeloblastosis-associated virus Species 0.000 description 1
- 244000180534 Berberis hybrid Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000446313 Lamella Species 0.000 description 1
- 101150037717 Mavs gene Proteins 0.000 description 1
- 244000025271 Umbellularia californica Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010367 cloning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000003875 gradient-accelerated spectroscopy Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- QHOQHJPRIBSPCY-UHFFFAOYSA-N pirimiphos-methyl Chemical compound CCN(CC)C1=NC(C)=CC(OP(=S)(OC)OC)=N1 QHOQHJPRIBSPCY-UHFFFAOYSA-N 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013112 stability test Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/028—Micro-sized aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/80—UAVs characterised by their small size, e.g. micro air vehicles [MAV]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/40—Modular UAVs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1654—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本願は2013年11月27日に出願された米国仮特許願第61/910022号の優先権を主張する。
本発明は、海軍研究所によって付与された認可番号N00014−07−1−0829、N00014−08−1−0696、N00014−09−1−1031およびN00014−09−1−1051、全米科学財団によって付与された認可番号1138847、113830および1138110、空軍科学研究所により付与された認可番号W911NF−08−2−0004およびW911NF−10−2−0016、並びに陸軍研究所によって付与された認可番号FA9550−10−1−0567の下で政府の支援によって為された。
しかし、実際には、この余分な情報は無視されるか、センサの統合ソフト間の切換えに使用される[文献10]。
我々は、全ての利用可能なセンサ情報を融合するために、カルマンフィルタの非線形(非一次)変量のごときコンスタントなコンピュータ計算の複雑性のフィルタ処理ベースのアプローチを適用することに関心がある。我々は、SLAMベースのマルチセンサ融合アプローチ[文献12、13]は最良の結果を提供するが、自律制御を目的としたリアルタイムのステートフィードバックのためのコンピュータ処理はコスト高になることを強調する。
は複数の相対測定値の融合をサポートしない。
我々はワールドフレームとボディフレームのベクトルをそれぞれ(・)ωおよび(・)bと定義する。簡単にするため、我々は全ての搭載センサがキャリブレーション処理を経ており、ボディフレームに取り付けられているものと想定する。MACの主ステートは以下のように定義される:
ここで、pw=[xw,yw,zw]Tはワールドフレームの3Dポジション(位置)であり、Φw=[Ψw,Θw,φw]Tは偏飛行、上下振動および横揺れオイラー角であり、ワールドフレームのボディの3D指向性を表わしており、ボディフレームからワールドフレームへのベクトルの回転を表わす行列Rwbがそこから得られる。pbはボディフレームの3D速度である。
と
は加速度計とジャイロスコープのバイアスであり、それら両方はボディフレーム内で表現される。
はワールドフレームのレーザ高度計及び/又は圧力高度計のバイアスをモデル化している。
ここでuはボディフレームの線状(一次)加速とIMUからの角速度の測定値である。
はプロセスノイズである。vaとvωはジャイロスコープおよび加速度計に関与する付加ノイズを表わす。vba、vbω、vbzは、ジャイロスコープ、加速度計および高度計のバイアスのガウスランダムウォークをモデル化するものである。関数f(・)は連続的時間動力学式のディスクリートバージョンである[文献6]。
測定値を絶対的または相対的であると考える。我々は随意の数の絶対測定モデルまたは相対測定モデルを許容する。
全ての絶対測定値は次の形態でモデル化できる:
ここで、
は、加法性あるいは非加法性の測定ノイズである。ha(・)は一般的に非線形(非一次)関数である。絶対測定値は現在ステートをセンサ出力に接続する。その例はセクションV−Bで示されている。
相対測定値は現在ステートおよび過去ステートをセンサ出力と結び付ける。それを以下のよう表すことができる:
この式は、オドメータがステートの2つの時点間のインクレメンタル(増分的)変化量を測定するので、オドメトリ(路程測定)アルゴリズムの特性を正確にモデル化したものである(セクションV−CおよびセクションV−D)。我々はまた、時間ドリフトを回避するために、大抵の従来レーザ/ビジュアルオドメトリアルゴリズムがキーフレームベースであることに着目した。よって、我々は、同じ過去ステートxtに対応する複数の未来測定値(m∈M,|M|>1)を許容した。
我々は、経験が浅いユーザであっても容易に拡張できるモジュール型センサ融合フィルタをデザインすることを望んだ。すなわち、センサの追加/削減のためのコード化および数学的偏差の量を最小にすることである。一般的なEKFベースのフィルタ処理フレームワークの弱点は、ヤコビ行列を計算する必要性であるが、これは困難であり、複雑なMAVシステムのために時間を要する作業であることが判明している。よって、我々は導関数が関与しないUKFベースのアプローチ[文献1]を採用した。UKFの重要要素は、シグマポイントのプロパゲーションを介した非一次関数を利用したガウスランダムベクトルのプロパゲーションの近似計算(概算)である。
とし、非一次関数を考察した:
さらにXを以下とする:
ここで、g(・)は非一次関数であり、λはUKFパラメータである。
は共分散行列平方根のi番目の縦列であり、通常はコレスキー分解を介して計算される。Xはシグマポイントと呼ばれるものである。ランダムベクトルyの平均分散と、xとyの間の交差共分散は次のように近似計算できる:
ここで、
と
はシグマポイントの加重値である。このアンセンテッド変換はステートプロパゲーションと測定値更新の両方における共分散のトラッキング維持に使用でき、よってヤコビアンベースの共分散近似計算の必要性が回避される。
相対測定値は現在ステートと過去ステートの両方に依存するので、測定は現在ステートだけに依存すべきであるというカルマンフィルタの根本的な想定に反する。この問題に対処する1つの方法はステートオーグメンテーション[文献11]を介することである。そこでは過去ステートの複製がフィルタに維持される。ここで我々は、随意数の相対測定値モデルを取り扱うために、複数の測定値が同じ増大されたステートに対応するという見込みで、文献[11]の拡張を提案する。我々の一般的なフィルタリングフレームワークは、絶対測定値モデルおよび相対測定値モデルの便利なセットアップ、追加および除去を許容する。
ステートを
と定義する。
xiはxの随意サブセットである。我々はバイナリ選択行列(binary selection matrix
)サイズnixnのBiをxi=Bixと定義する。ある時点を考察すると、I個の増大されたステートがフィルタ内に共分散と共に存在する:
ここでは、
および
である。更新されている増大されたステート共分散は次のようになる:
得られる共分散行列
は正定値とはならなく、ステートプロパゲーションのためのコレスキー分解(式5)は有効に機能しないであろう(非唯一性)。我々は、EKFのためのヤコビ行列に類似してはいるが、陽関数表示的にヤコビアンを計算しない何かを有することを希望した。
文献[16]では、著作者は線形(一次)回帰カルマンフィルタ(LRKF)としてUKFの新規な解釈を提示する。LRKFにおいて我々は、分布の加重された離散(またはシグマポイント(式6))表現
が与えられたときの非一次関数(式4)の最良一次近似式y=Ax+b+eを求めた。その目的は回帰行列Aと、線形化誤差eを最小化するベクトルbを発見することであった:
式(9)の一次回帰行列Aは非一次関数(式4)の一次近似として機能する。それはEKF式におけるヤコビアンに類似する。従って、UKFでのプロパゲーションおよび更新ステップはEKFのごとき類似した手法で実行できる。
ステートプロパゲーション時に主ステートだけが変化するという事実を観察して、我々
は増大されたステートと共分散(式7)を以下のように隔絶することから始めた:
から発生されたシグマポイントを介して主ステートxのみをプロパゲーションでき、交差共分散
を更新するためにUKFヤコビアンFtを使用することができた。主ステート
の共分散行列は常に正定値であるため、我々はコレスキー分解の不首尾の問題を回避した。
並びに
と
を取得した。式(9)に続いて次が知れた:
2つの測定値間にm個のステートプロパゲーションを存在させ、我々は最新測定値が到来したときに
と
を維持した。J番目の増大されたステートに依存する相対測定値(式3)を考えると、測定推定値およびその一次回帰近似値は以下であり得る:
は正定値として保証され、よって式(5)と式(6)でのごとくにシグマポイントプロパゲーションを実行することは安全である。我々は
および次の式を取得した:
我々はEKFに類似する測定値のアップデートを適用した:
zt+mは実際のセンサ測定値である。主ステートおよび増大されたステートは測定値アップデート時に訂正されるであろう。我々は、不活性な増大されたステートに対応するHt+m|tのエントリがゼロであることに着目した。これは行列乗算を加速するのに利用が可能である。
および対応する絶対測定値モデル(式2)を適用することにより簡単に実行できる。
複数の測定値を融合するとき、測定値がフィルタに順番が狂って到着することがある。すなわち、初期ステートに対応する測定値が後続ステートに対応する測定値の後に到着することがある。これはカルマンフィルタのマルコフ想定に反する。また、センサの処理遅延によって、測定値がステートプロパゲーションより遅れることもある。
飛行体が環境内を移動する際にGPSおよび磁力計からグローバルポーズ測定値が入手できる。グローバルポーズ測定値としてGPSを融合し、最良のステート推定値を発生させるのは容易である。しかし、現実的な適用にとってそれは最善ではないかもしれない。GPSが利用できない環境内で運用される飛行体は蓄積されたドリフトの影響を受けるかもしれない。飛行体がGPS信号を図3(a)で示すように取得するとき、GPS測定値と推定ステート(z5〜s5)との間には大きな不一致が存在するかもしれない。GPSをグローバル測定値として直接的に適用することは、推定(大きな線形化誤差)と制御(急激ポーズ変化)の両方に不都合な現象を招く結果となるであろう。
が2DポーズであるポーズのみのグラフSLAMを考察する。我々は、レーザ/ビジュアルオドメトリからのインクレメンタルモーション制限dk、スペースループクロージャ(空間ループ閉鎖)制限1kおよびGPSからの絶対ポーズ制限zkが与えられとき、ポーズグラフの最良の形態(相対配置)を発見することを試みた:
ポーズグラフSLAMは非最良sk−lとSLAM最良
ステートとの間の変換を提供する。この変換は、グローバルGPS測定値をsk−1と整合するように変換させるのに利用できる:
ここで、
と
は文献[19]において定義されているようなポーズ複合オペレーションである。△t−1の共分散
と、続く
の共分散
は文献[19]に従って計算できる。この式は
と
との間の不一致を最小化し、ステート推定におけるスムーズ性(滑らかさ、平滑度)を維持する。変換された
は絶対測定値としてUKF(Fig.4(a))に対して適用される。
A.実験プラットフォーム
図1で示す実験プラットフォームは、アセンディングテクノロジーGmbH(社)(http://www.asctec.de/)のペリカンクアドロータに基づいている。このプラットフォーム
はIMUとユーザプログラマブルARM7マイクロコントローラで成るオートパイロトボードを本来的に備えている。搭載された主計算装置は、1.8GHzコアi3プロセッサを備えたインテルNUCであり、8GBのRAMと120GBのSSDを備えていた。センサ統合ソフトはublox LEA−6T GPSモジュール、ホクヨUTM−30LX LiDARおよび25Hzで752x480の画像を撮影する魚眼レンズを備えた2体のmvBlueFOX−1VILC200wグレイスケールHDRラメラを含んだ。我々はフレーム同期化のためのハードウェアトリガ動作を活用した。この搭載自動露出コントローラは微調整によって急速明度変化時に急速適応することができる。3Dプリントされたレーザハウジングは高度測定のためのレーザビームの一部を方向変化させる。プラットフォームの全重量は1.87kgであった。全アルゴリズムはインターフェースロボットミドルウェアとしてのロボット操作システム(ROS)(http://ros.org)を使用してC++にて開発された。
搭載センサによっては絶対測定値を発生させることができる(セクション111−A)。以下はその詳細である:
1)GPSおよび磁力計:
2)レーザ/圧力高度計:
3)擬似重力ベクトル:もしMAVがホバリング(空中浮遊)状態あるいはほぼ一定の速度で移動しているなら、我々は、加速度計の出力が重力ベクトルの擬似測定値を提供すると述べるであろう。g=[0,0,g]Tとすると、以下が得られた:
我々は、我々が過去に開発したレーザベースのオドメトリ[文献4]を活用した。人工屋内環境はたいていの場合に垂直壁を含むという観察に基づき、我々は2.5Dの環境を想定した。この想定に基づき、我々はレーザスキャナを共通の地表に投射するために搭載された横揺れと縦揺れの推定値を利用することができた。このように、飛行体のインクレメンタル(増分的)水平動作の推定に2Dスキャンマッチングが利用できる。我々はホバリング最中のドリフトを回避するためにローカルマップを保持した。
ここで、
であり、
および
は文献[19]で定義されているような2Dポーズ複合オペレーション(運用)である。
我々は、旧来のキーフレームベースビジュアルオドメトリアルゴリズムを実施した。キ
ーフレームベースのアプローチは時間ドリフト現象が発生しない利点を有する。我々は軽量コーナ特徴部を利用するが、高レート(25Hz)でアルゴリズムを実行するように選択した。特徴部はKLTトラッキング装置を介して複数の画像でトラッキングされた。三角測量された特徴ポイントのセットを備えたキーフレームが与えられると、我々は、キーフレームに関して飛行体の6−DOFモーションを推定するために、安定した反復2D−3Dポーズ推定を実行した[文献8]。移動した距離および有効な3Dポイントの現在数に応じて新キーフレームが挿入された。
大きな方向性(配向性)の変更を伴うこともある異なる環境に跨る安定した飛行を達成するため、我々は非線形誤差計量を伴う位置トラッキングコントローラ[文献20]を使用することを選択した。100Hzのフィルタ出力(セクションIV)がコントローラのためのフィードバックとして直接的に使用された。我々の実践では、飛行姿勢コントローラはMAVの自動操縦ボード上のARMプロセッサで1kHzにて運用され、位置トラッキングコントローラは主コンピュータで100Hzにて運用された。我々は、フレキシブルな運用を許容するために、セットポイント飛行経路トラッキングおよび速度コントロールの両方を実施した。
我々のシステムの安定性を示すために幾つかの実験が実施された。我々は、モーションキャプチャ(捕獲)システムを備えた実験室環境内での量的評価から始めた。続いて我々は我々のシステムを、産業複合団地および並木道キャンパスを含んだ2つの現実世界自律飛行実験で試験した。
我々は我々の搭載推定装置の限界にチャレンジすることを希望した。従って、我々はパイロットにクアドロータを積極的に最大3.5m/sの速度にて40°までの大きな飛行姿勢で飛行させた。搭載ステート推定値は、モーションキャプチャシステムからのグランドツルースに匹敵した。屋内でのGPS測定値は存在しないため、我々のシステムはレーザおよびビジョンからの相対測定値の融合に依存した。我々は2.5Dの想定(セクションV−C)に反する大きな飛行姿勢のために時にレーザ不調を観察した。しかし、マルチセンサフィルタはそれでも飛行体のステートを全体的にトラッキングした(図5)。非制限状態であったので、我々は絶対ポーズ誤差を定量化しなかった。しかしボディフレーム速度(図5(b))はそれぞれx、y、z{0.1021,0.1185,0.0755}T(m/s)の標準偏差のグランドツルースにほぼ匹敵した。
我々は厳しい条件の産業コンプレックス(複合団地)で我々のシステムを試験した。試験サイトは多様な環境を含んでおり、屋内空間、密集林、入り乱れた高層建物領域および屋内環境が含まれていた(図6)。MAVは搭載ステート推定を使用することで自律的に制御された。しかし、人間のオペレータは常に高レベルの中間地点または高レベル速度コマンドを飛行体に送るという選択をした。トータル飛行時間は約8分であり、飛行体は445mを平均速度1.5m/秒で飛行した。マップ整合経路(図7)で示すように、実験中には頻繁にセンサ不調が発生し(図8)、マルチセンサ融合の必要性を示した。図9は
飛行体がGPS陰領域を飛行したときの共分散の進化を示す。グローバルなx、yおよび偏飛行誤差はGPS測定によって制限されたが、それがなければ誤差は制限なく広がったであろう。これは観察可能性分析結果と合致した。GPSの利用性に拘わらずボディフレーム速度に関する誤差が広がらないことは着目すべきである。図9の速度共分散におけるスパイク現象は直接陽光に面したカメラによるものであった。
我々は図10に示すように並木キャンパス環境でも実験を行った。このような環境での自律飛行は困難である。なぜなら飛行体が立木の陰に出入りするとき無視できない明暗条件の変化があるからである。飛行体の上方の樹木によるGPS不調のリスクもまた非常に大きい。レーザベースオドメトリは建物に接近しているときのみ機能する。全経路長は281mであった。
ここでの開示において、異なっており変動する時間間隔で絶対観測値または相対観測値を生み出す複数の異質センサからのノイズを含んだ測定値を統合するために、我々はモジュール形態の拡張可能なアプローチを提供する。我々のアプローチは自律飛行のための高レートのステート推定値をリアルタイムで発生させる。提案されているアプローチは複数の異質センサを装備した我々の新1.9kgMAVプラットフォームを機上で操作する。我々は、産業団地および並木キャンパスを通過する大スケールの屋内および屋外自律飛行実験での我々のフレームワークの安定性を実証した。
テップ202で、以前のステートに依存するセンサの一部によって発生される相対出力測定値が、増大されたステートに依存する測定値に変換される。そのような変換を実行するプロセスはセクションIV(A)において前述されている。ステップ204において、異なるセンサが組み合わされてフィルタリングされた。例えば、測定値はアンセンティドカルマンフィルタを使用して組み合わせることができる。ステップ206において、組み合わされた測定値はユーザによって入力された中間地点と共に飛行経路ジェネレータ(飛行経路生成器)に出力される。ステップ208において飛行経路ジェネレータは回転翼飛行体MAVの動きを制御するために使用される。
[1]S.J.ジュリエールおよびJ.K.アールマン「非線形システムへのカルマンフィルタの新規拡張」SPIE(国際光学技術協会)会報、I.カダール著、第3068巻、1997年7月、182〜193ページ
[2]R.V.D.マーウィ、E.A.ワンおよびS.I.ジュリエール「非線形推定のためのシグマポイントカルマンフィルタ:集積ナビゲーションへの適用」AIAA(米国航空宇宙工学協会)ガイダンス、ナビゲーションおよび制御会議、会報、プロビデンス市、ロードアイランド州、2004年8月
[3]A.バカラッチ、S.プレンティス、R.ヒーおよびN.ロイ「GPS否定環境でのRANGE安定自律ナビゲーション」実地ロボット工学誌、第28巻5号、644666ページ、2011年
[4]S.シェン、N.ミッチェルおよびV.クマール「コンピュータ的に規制されたMAVでの自律複床屋内ナビゲーション」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、20〜25ページ
[5]S.ワイズ、M.W.アキテリック、S.ライネン、M.チリおよびR.シーグワート「未知環境におけるリアルタイム搭載ビジュアル慣性ステート推定およびmaysの自動キャリブレーション」ロボットおよび自律に関するIEEE国際会議、会報、セントポール市、ミネソタ州、2012年5月、957〜964ページ
[6]D.G.コッタス、J.A.ヘッシュ、S.L.バウマンおよびS.I.ロウメリオティス「ビジョン補助慣性ナビゲーションの一貫性」エクスポロボット国際シンポジウム、会報、ケベック州、カナダ国、2012年6月
[7]F.フランドルファ、L.ヘング、D.ホネガー、G.H.リー、L.メイア、P.タンスカネンおよびM.ポレフェイズ「クアドロータMAVを利用したビジョンベースの自律マッピングおよび開発」bztell.ロボットおよびシステムに関するIEEE/RSJ国際会議、会報、ビラモウラ、アルガルベ、ポルトガル国、2012年10月
[8]K.シュミット、T.トーニオ、E.ルエス、H.ヒルクルニューラおよびM.スッパ「ロボットを飛行させるステレオビジョンベースの屋内/屋外ナビゲーション」知的ロボットおよびシステムに関するIEEE/RSJ国際会議、会報、Cozzi、日本国東京、2013年11月
[9]A.S.ファン、A.バクラッチ、P.ヘンリ、M.クライニン、D.マツラナ、D.フォックスおよびN.ロイ「RGB−Dカメラを使用した自律飛行のためのビジュアルオドメトリおよびマッピング」ロボット研究国際spit.会報、フラッグスタッフ市、アリゾナ州、2011年8月
[10]T.トミック、K.シュミット、P.ルッツ、A.ドメル、M.カセッカ、E.メイア、I.L.グリクサ、F.ルエス、M.スッパおよびD.バーシュカ「自律UAV:屋内および屋外都市部探索および救助のための研究プラットフォーム」ロボットおよび自律に関するIEEE、会報、第19巻3号、46〜56ページ、2012年
[11]S.I.ロウメリオティスおよびJ.W.バーディック「確率的なクローン技術:相対ステート測定値処理のための汎用フレームワーク」ロボットおよび自律に関するIEEE国際会議、会報、ワシントンDC、2002年5月、1788〜1795ページ
[12]J.カールソン「GPS補助SLAMでの大型都市環境マッピング」博士論文、CMU、ピッツバーグ市、ペンシルバニア州、2010年7月
[13]D.シュライチャ、L.M.バーガサ、M.オカア、R.バレアおよびE.ロペス「都市環境におけるリアルタイム階層GPS補助ビジュアルSLAM」ロボットおよび自律に関するIEEE国際会議、会報、神戸市、日本国、2009年5月、4381〜4386ページ
[14]S.シェン、Y.ムルガオンカ、N.ミッチェルおよびV.クマール「四回転翼での高速飛行のためのビジョンベースステート推定および飛行経路制御」ロボット:科学とシステム、会報、ベルリン市、ドイツ国、2013年
[15]S.ライネン、M.W.アクテリック、S.ワイズ、M.チリおよびR.シーグワート「MAYナビゲーションに適用される安定モジュール形態マルチセンサ融合アプローチ」知的ロボットとシステムに関するIEEE/RSJ国際会議、会報、東京都、日本国、2013年11月
[16]T.レフェブア、H.ブルイニンクスおよびJ.D.シュラ「フィルタおよび推定装置における手段と共分散の非線形変換のための新規方法に対するコメント」変換、自律、制御に関するIEEE、第47巻8号、1406〜1409ページ、2002年
[17]D.C.ムーア、A.S.ファン、M.ウォルタおよびE.オルソン「ロボットナビゲーションのための同時的ローカルおよび全地球的ステート推定」ロボットおよび自律に関するIEEE国際会議、会報、神戸市、日本国、2009年5月、3794〜3799ページ
[18]R.クエマール、G.グリセッティ、H.ストラスダット、K.コンオルジェおよびW.バーガード「G20:グラフ最良化のための汎用フレームワーク」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、3607〜3613ページ
[19]R.スミス、M.セルフおよびP.チーズマン「ロボット不確定空間関係の推定」ロボットと自律に関するIEEE国際会議、会報、第4巻、ラレイ市、ノースカロライナ州、1987年3月、850ページ
[20]T.リー、M.レオキおよびN.マクラムロック「SE(3)上の四回転翼UAVの地形的追跡制御」決定および制御国際会議、報告書、アトランタ市ジョージア州、2010年12月、5420〜5425ページ
ここで説明する主題は、前方対面カメラと安価なIMUのみを装備した軽量クアドロータに複合環境を自律的にナビゲーションし、効率的にマッピングさせることができるシステムデザインを提供する。我々は、高レート搭載ビジョンベースのステート推定と制御、低レート搭載ビジュアルSLAM、およびオンライン計画および飛行経路発生アプローチの安定した統合に焦点を合わせた。急激な中間地点変更および大スケールのループ閉鎖等の困難な条件下での滑らかな飛行経路の安定した追跡が達成された。提案されているシステムの性能は、複雑な屋内および屋外環境での実験を介して実証されている。
クアドロータ小型飛行体(MAV)は、その小型サイズと卓越した俊敏性によって、閉じられた屋内環境および屋外環境における調査および探索並びに救助のための理想的なプ
ラットフォームである。このような目的においては、オペレータの作業量を最少化するにはクアドロータが自律的であることが必須である。このオペレーションにおいては、我々は、複雑な未知の屋内および屋外環境の自律的なナビゲーションのために、リアルタイムでロボットに搭載された必須の制御用コンピュータ装置を運用し、搭載センサのみを使用した軽量の既製クアドロータの利用に関心があった。
我々はシステム構成および方法論、並びに我々のデザインに必要なハードウェアおよびソフトウェアのコンポーネントの大要を提供することから始める。主要コンポーネントの詳細な説明はシステムブロック図(図15)の論理的流れ説明部に続くセクションで提供されている。
実験プラットフォーム(図14)はアセンディングテクノロジーズ(http:/www.asctec/de参照)のハミングバードクアドロータに基づいている。この既製プラットフォームは
、廉価なIMUとユーザプログラム可能ARM7マイクロコントローラを備えたオートパ
イロットボードを備えている。搭載されている高レベルコンピュータはインテルAtom1.6GHzのプロセッサおよび1GBのRAMを含んでいる。搭載コンピュータと地上ステーションとの間の交信は802.11nの無線ネットワークを介して行われた。プラットフォームに新たに加える唯一のものはハードウェアHDRを備えた2体のグレイスケールmvBlueFOX−MLC200wカメラであった。全てのカメラには魚眼レンズが備わっている。カメラとIMUとの間の同期化はハードウェアトリガリングを介して確実化された。プラットフォームの総重量は740gであった。
ソフトウェア構成は図15に示されている。この構成は我々に搭載されている低レベル(低性能)および高レベル(高性能)のプロセッサ並びに機外地上ステーションとの間で計算を分割させた。搭載されている高レベルコンピュータにおいて、ビジョンベースエスティメータは20Hzで6−DOFポーズ推定値を提供した。我々はポーズ推定値をIMU測定値と融合させ、非一次(非線形)トラッキングコントローラのためのフィードバックとして直接的に使用される100Hzのステート推定値を発生させるためにアンセンテッドカルマンフィルタ(UKF)を採用した。地上ステーションでは、ステレオベースのビジュアルSLAMモジュールが、高レベルプランナー(計画者)のために3Dボクセルグリップマップを発生させた。このSLAMモジュールは全地球ポーズ補正値も提供する。しかし、我々は、このポーズ補正値をビジョンベースのステート推定値と直接的には融合しなかった。なぜなら、そうすると、大きなループ閉鎖の際に重大なポーズ断絶が発生する可能性があったからである。その代わりに、我々は、もし飛行体がそれら変更された中間地点に従うなら、それでも飛行体がグローバル目標地点に到達できるように、そのポーズ補正値を使用して中間地点を変更した。我々はさらに、搭載されている高レベルコンピュータを100Hzで運用し、所望の中間地点を滑らかな多項飛行経路に変換させる飛行経路発生装置を開発した。
A.ビジョンベースポーズ推定
我々は、飛行体の6−DOFポーズを推定するために我々の先の成果[文献11]の改良を活用した。我々はプラットフォームに2つのカメラを装備させたが、我々は旧来のステレオベースステート推定を実行しなかった。事実、我々は主カメラとして、20Hzで画像を撮る1台のカメラをセットし、他方のカメラは1Hzで画像を撮るように設計した。我々は高レート不等計算を実行しなかったので、必要な計算力は低下していた。しかし、そのステレオ形態は我々に、局所マップとポーズ推定値のスケールを保存する数量的情報を推定させた。
主要な魚眼カメラによって撮影される画像のために、我々はFASTコーナを検出し[文献12]、KLTトラッキング装置を使用してそれらをトラッキングした[文献13]。主要カメラの高フレームレートのおかげで、我々は歪められた魚眼画像に対して直接的にトラッキングを実行することができ、画像忠実性に対するオーバヘッドの追加の計算を回避できた。我々は、ジャイロスコープ測定の短期一体化からの増分的回転推定値を利用し、トラッキングの孤立値を拒絶するために2ポイントRANSACを実行した。我々は、まだ三角測量されていない遠方の特徴部を活用するために、分離された配向性と位置推定スキームを提案する。ドリフトを最少とすべく、ルックバックヒストリでロボットRjの配向性がエピ極性拘束を介して推定された。三角測量された3D特徴部pi、i∈Iで成る完全な3Dローカルマップの存在を想定すれば、ロボットrjの位置は以下の一次系を解くことで効率的に見つけられる。
ここで、uijは単位長特徴部観察ベクトル;
と
6−DOFポーズが見つけられると、特徴部piの位置は次の一次系を解くことで見つけられる。
前述のポーズ推定アプローチは、単眼ベース三角測量の蓄積された誤差によってスケールドリフトの悪影響を受ける。全瞬間ステレオ(立体)測定値がスケールドリフト補正のために活用される。Kを両方のカメラによって見られた特徴部のセットとする。我々は平均場面深度の相違を以下の式で計算できる。
ここで、
は、ステレオ三角測量だけを介して得られた3D特徴部の位置である。次に我々は、式(4)のごとくにbijを修正することでスケールドリフトを補正し、式(2)を再び解くことができる。
ビジョンシステムからの20Hzポーズ推定のみではロボットを制御するのには十分ではない。遅延測定値補正でのUKFが、100Hzでのロボットのポーズおよび速度を推定するのに使用された[文献14]。このシステムのステートは次で定義される。
ここで、rはロボットの3D位置であり、qはロボットの3D配向性の四元数であり、abはボディフレーム内の加速度計測定値のバイアス(偏り)である。我々は、システムステートをプロパゲーションさせるために従来のIMUベースプロセスモデルと、ステート訂正のために6−DOFポーズで成る一次測定値モデルとを使用する。
図16は、定義済み飛行経路の自律トラッキング中のバイコンモーションキャプチャシステム2からのグランドツルースに対するVINSエスティメータの性能の比較を示す(セクションVIII−A)。搭載速度推定値は、標準偏差が
={0.0500,0.0706,0.0309}(m/秒)でバイコン推定値(全てボディフレームに変換)にほぼ匹敵した。しかし、VINSエスティメータのグローバルバンドル(一括)調節の欠如は、帰納(回帰)式によって、推定されたポーズの長期ドリフトの結果を招いた。よって我々は、そのようなドリフト現象を表わすためにオドメトリフレーム
を導入した。
我々はVINSシステムのドリフトを排除するためにビジュアルSLAMモジュールを利用した。ビジュアルSLAMは広く研究された分野である。小さな活用スペースにおいては、回帰フィルタリング[文献15]または平行トラッキングおよびマッピング技術[文献16]を使用するアプローチは正確な結果を提供する。単眼カメラ[文献17]またはステレオカメラ[文献18]による大きなスケールのマッピングは、ポーズグラフベース式を使用して達成される。我々のシステムにおいては、制限された搭載計算リソース、制限された無線伝送バンド幅および搭載エスティメータの精度によって、高レートビジュアルSLAMは不要であり、実行不可能である。従って、我々のビジュアルSLAMモジュールは1Hzの最大レートにて機外で運用される。ポーズグラフベースSLAMの後端は、ワイドなベースラインループ閉鎖検出のためのSURF特徴部[文献19]を利用する前端と共に、そのような低レートにて安定した性能を発揮する。我々は、ポーズグラフのためのノードを発生させるべく推定されたロボットの飛行経路をほとんどサンプリングしなかった。それぞれのノードのために、我々はステレオ画像間のSURF特徴部を検出してマッチングさせることで散在する3Dポイントを計算処理した。高密度の不同画像および高密度のポイントクラウドも計算された。
で表わされる。
オドメトリフレームと世界フレームとの間の変換として機能するビジュアルSLAM
からのポーズ訂正が以下のように式化された:
ここで、
は文献[23]で定義されているポーズ更新関数である。従来のアプローチとは異なり、我々は、VINSシステムのドリフトを訂正するためにグローバルポーズ測定値として
を使用しなかった。その代わりに我々は、
を飛行経路発生装置に供給し(セクションVI)、ループ閉鎖によって、ビジュアルSLAMポーズ推定値に大きな断絶が存在しても(すなわち、
が大きくても)、スムーズであることが保証される飛行経路を計算した。これは存在するアプローチからの我々のシステムの大きな離脱であり、複雑な環境内での高速自律ナビゲーションを可能にする鍵である。さらなる詳細はセクションVIに提供されている。
我々は2段階プラニングアプローチを採用した。さらに高いレベルでは、世界フレームのユーザ特定中間地点が与えられ、クアドロータをシリンダとして扱うとすれば、所望の3D位置と偏飛行角の配列で成り、現在ロボット位置と所望ゴールを接続する高レベル経路(パス)は、オープンモーションプラニングライブラリ(OMPL)[文献25]で実行されているように、RRT*[文献24]を使用して発生された。得られたパスは最低数のK中間地点
に簡素化され、さらなる改善のために飛行経路発生手段(セクションVI)に送られた。このパスはマップ更新として同じ周波数での衝突の可能性のためにチェックされた(1Hz、セクションIV)。高レベルプランナー(計画機)は中庸的な計算リソースを必要とするだけであるが、我々は、高レベルプラニングのために必要な全情報が機外のビジュアルSLAMモジュールから入ってくるので、それを機外で運用した。我々はまた、ユーザにプラナーをバイパスさせ、中間地点の配列を明確にセットさせた。
我々は、ビジュアルSLAM(式6)からの最新ポーズ訂正を使用してオドメトリフレーム内に高レベルプランナー(計画機)からの全中間地点をまず変換した。
フィードバック制御のために、オドメトリフレームのステート推定値を使用してロボットが全ての変換された中間地点を通過して飛行するなら、それは世界フレームの同じセットの中間地点も通過して飛行するであろう。さらに、もし大きなスケールのループ閉鎖が存在すれば(すなわち
に大きな変化が存在すれば)、ロボットが向かっている中間地点のセットは大きく変化するであろう。しかしながら、もし我々がロボットの現在ステートに等しい当初条件でスムーズな飛行経路を再発生できるなら、飛行経路間の移行はスムーズになり、搭載ステートエスティメータおよびコントローラ内に特別な操作は不要であろう。
大きな視認フィールドのため、急速平行移動がトラッキング性能にほとんど影響を及ぼさないことが理解されるであろう。しかし、急速回転は画像を簡単にピンボケさせ、KLTトラッカーの不調状態を引き起こすことがある。この観察は、横揺れ、および縦揺れの角速度を最少にする飛行経路を我々に設計させた。
ここで、yはそれぞれの中間地点での所望導関数値の集合であり、非固定あるいは固定のものでよい。我々は、再プラニングおよびループ閉鎖中にスムーズな飛行経路を維持するために、最初の中間地点で位置、速度、加速度をロボットの現在ステートとなるように固定した。最後の中間地点のためには速度および加速度はゼロにセットされた。その他の全ての中間地点のためには、位置のみが固定され、飛行経路発生手段は速度と加速度のプロフィールを提供した。多項性飛行経路の係数sは線形マッピングs=Myを介して見つけられる。
A.位置トラッキングコントローラ
この業績のため、我々は、大きな角度変化および大きな加速が関与する高度に動力学的な動作におけるその優れた性能のために、非線形(非一次)的誤差測定性能を備えた位置トラッキングコントローラ[文献29]の使用を選択した。VINSシステム(セクションIII)からの100Hzステート推定値がコントローラのためのフィードバックとして直接的に使用された。我々の実施形態では、飛行姿勢コントローラはロボットのオートパイロットボードのARMプロセッサにて1kHzで運用され、位置トラッキング制御はアトムプロセッサにて100kHzで操作された。
我々の目標は完全に自律した飛行体を開発することであるが、実験のある時点で、人間のオペレータが、飛行体の単純であるが直接的な制御を希望するかもしれない。よって、我々は、人とロボットの相互作用を許容する有限ステートマシンベースハイブリッドシステムコントローラ(図19)を開発した。このコントローラには4つのモードが存在し、セクションVILAのコントローラは位置モードで運用される。任意の時に、オペレータは遠隔モードを介して入力を伝送できる。これらコマンドは飛行体によって運動速度コマンドとして解釈される(ホバリングステートとなるコマンドが存在しない場合)。我々は、1Hzの画像とグローバル3Dマップのみを使用し、直接的な視線を介在させずに、不慣れなオペレータが飛行体を制御できるという意味合いにおいて速度制御モードが容易に使用できることを実験的に試した。ホバリングモードはアイドリングステートとして機能し、飛行体はオペレータからのコマンドを待つ。
我々は、提案システムの性能を実証するために3つの代表的な実験を提示する。第1の実験は、グローバルに一貫したトラッキングを維持するための提案システムの能力を実証した。我々は、性能を定量化するためにグランドツルースとの比較を提供する。第2の実験では、ロボットが大きなループ(約190m)を備えた屋内環境をナビゲーションし、1回のバッテリ充電内でループを完成させた(5分未満の飛行時間)。最後に、我々は、環境変化および強力な風の妨害に対する提案システムの安定性を強調する屋外ナビゲーション実験を提示する。
この実験において、ロボットは約1m/sの速度で方形パターンから発生されたスムーズな飛行経路に沿って飛行した。バイコンからのグランドツルースが使用され、グローバルトラッキング性能が定量化された。図20(a)と図20(b)に見られるように、VINSステート推定値には遅い位置ドリフトが存在する。しかし、機外ビジュアルSLAMからのグローバル補正は、グローバルに一貫したオペレーションをもたらす。グローバルループ閉鎖はシステムに明確に統合されているが、ロボットはVINSステート推定値を使用して制御されることに留意。ビジュアルSLAMから訂正によって、オドメトリフレームの所望のスムーズな飛行経路は継時的に再発生および変化する。図20(b)から、ロボットの実際の位置は所望の位置に収束し、標準偏差
={0.1108,0.1186,0.0834}(m/s)を有し、トラッキングがグローバルに一貫していることが理解できるであろう。
我々は、ループを備えた大スケールの環境を通過してロボットが自律的にナビゲーションする場合を考察する。ループのサイズ(約190m)と、短いバッテリ寿命サイクル(5分未満)によって、その任務を完遂するために、我々は高速ナビゲーションを達成しなければならない。この環境は、無特徴床部(図21)によって、下方に面したカメラを使用するアプローチ[文献6、7]に対して重大な挑戦を提起した。しかしながら、提案システムによって信頼できるステート推定値が得られ、ロボットは最大速度1.5m/s、平均速度1m/sで成功裏に実験を完了した。大スケールのループ閉鎖は257秒で検出された(図22(c))。その間、SLAMポーズと3Dマップの両方が大きく変化した(図22(a)と図22(b))。しかし、図22(c)で見られるように、ロボットの
フィードバック制御のために使用されたステート推定値は実験を通してスムーズな状態を保ち、オドメトリフレームの変換された中間地点を辿ることでロボットはグローバル始点に戻ることができた(セクションVI)。
この実験は、屋内環境における提案システムの性能を立証する。実験はペンシルベニア州フィラデルフィア市において、ある典型的な冬日に実施された。そこでは風速が20km/時まで高まった。総航行距離は約170mであり、総飛行時間は166秒(図23)であった。ビデオカメラからのスナップショットおよび搭載カメラで撮られた画像は図24に示されている。この屋外環境はほぼ構造物がなく、立木と植物で構成されており、非建造物環境において運行できるシステムの性能が立証された。
ここで説明しているように、我々は、搭載カメラおよびセンサとしてのIMUだけを使用して軽量の既製クアドロータによる複雑環境内でのグローバルに一貫した自律ナビゲーションを可能にするシステムのデザインを提案する。我々は、急激な中間地点変更やループ閉鎖等の困難な状況時にスムーズな飛行経路のトラッキングを維持する課題に対処する。提案システムの性能を立証するために屋内環境および屋外環境の両方におけるオンライン実験結果が提示されている。
引用文献
[1]A.バカラッチ、S.プレンティス、R.ヒーおよびN.ロイ「GPS否定環境でのRANGE安定自律ナビゲーション」実地ロボット工学学会誌、第28巻5号、644666ページ、2011年
[2]S.グルゾンカ、G.グリセッティおよびW.バーガード「完全自律屋内クアドロータ」IEEE、輸送ロボット、PP巻99号、1から11ページ、2011年
[3]S.シェン、N.ミッチェルおよびV.クマール「コンピュータ的に規制されたMAVでの自律複床屋内ナビゲーション」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、20〜25ページ
[4]S.シェラ、J.レフダ、S.アチャ、H.カバー、A.チャンバーズ、S.ヌスケおよびS.シン「飛行ロボットからの河川マッピング:河川検出および障害物マッピング」自律ロボット、第33巻1−2号、189〜14ページ、2012年8月
[5]A.クシュレイエブ、B.マクアリスタおよびM.リクハチェブ「空中備品配達における着地点選択のためのプラニング」IEEE/RSJ知的ロボットおよびシステム国際会議、会報、サンフランシスコ市、カルフォルニア州、2011年9月、1146〜1153ページ
[6]S.ワイズ、M.W.アキテリック、S.ライネン、M.チリおよびR.シーグワート「未知の環境におけるリアルタイム搭載ビジュアル慣性ステート推定およびMAYSの自己キャリブレーション」ロボットおよび自律に関するIEEE国際会議、会報、セントポール市、ミネソタ州、2012年5月、957〜964ページ
[7]F.フランドルファ、L.ヘング、D.ホネガー、G.H.リー、L.メイア、P.タンスカネンおよびM.ポレフェイズ「クアドロータMAVを使用したビジョンベース自律マッピングおよび探検」知的ロボットおよびシステムに関するIEEE/RSJ国際会議、会報、ビラモウラ、アルガルベ市、ポルトガル国、2012年10月
[8]A.S.ファン、A.バクラッチ、P.ヘンリ、M.クライニン、D.マツラナ、
D.フォックスおよびN.ロイ「RGB−Dカメラを使用した自律飛行のためのビジュアルオドメトリおよびマッピング」ロボット研究の国際シンポジウム、会報、フラッグスタッフ市、アリゾナ州、2011年8月
[9]C.ビルズ、J.チェンおよびA.サクセナ「単一の画像眺望キューを使用した屋内環境での自律MAV飛行」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、5776〜5783ページ
[10]G.ドクルーン、C.D.ワグターブ、B.レメスブおよびR.ルイジュシンクブ「サブサンプリング:微小飛行体のためのリアルタイムビジョン」ロボットおよび自律システム、第60巻2号、167から81ページ、2012年2月
[11]S.シェン、Y.ムルガオンカ、N.ミッチェルおよびV.クマール「複雑環境における自律回転体MAVのためのビジョンベースステート推定」ロボットおよび自律に関するIEEE国際会議、会報、カールスルーヒ市、ドイツ国、2013年5月、発行予定
[12]E.ロステンンおよびT.ドルモンド「高速コーナ検出のためのマシン学習」コンピュータビジョンに関する欧州会議、会報、グラツ市、オーストリア国、2006年5月
[13]B.D.ルーカスおよびT.カナデ「ステレオビジョンへの適用を伴う反復画像レジストレーション技術」人工知能に関する国際共同会議、会報、バンクーバ市、カナダ国、1981年8月、24〜28ページ
[14]R.V.D.マーウィ、E.A.ワンおよびS.I.ジュリエール「非線形推定のためのシグマポイントカルマンフィルタ:一体化ナビゲーションへの適用」AIAA(米国航空宇宙工学協会)ガイダンス、ナビゲーションおよび制御に関する会議、会報、プロビデンス市、ロードアイランド州、2004年8月
[15]J.シベラ、A.J.ダビソンおよびJ.モンティエル「単眼SLAMのための逆深度パラメータ化」IEEE、輸送ロボット、第24巻、5号、932〜945ページ、2008年10月
[16]G.クレインおよびD.ムレイ「小型AR作業領域のための平行トラッキングおよびマッピング」混成および増大された現実(ISMAR’07)に関する第6回IEEEおよびACM国際シンポジウム、会報、奈良市、日本国、2007年11月
[17]H.ストラスダット、J.M.M.モンティエルおよびA.J.ダビソン「スケールドリフト認識大スケール単眼SLAM」ロボット:科学およびシステム、会報、ザラゴザ市、スペイン国、2010年6月
[18]C.メイ、G.シブレイ、M.カミングズ、P.ニューマンおよびI.レイド「PSLAM:ステレオを使用した定時での大スケールマッピングのためのシステム」コンピュータビジョンの国際学会誌、1〜7ページ、2010年6月
[19]H.ベイ、T.ツイテラースおよびL.V.グール「SURF:加速された安定特徴」コンピュータビジョンに関する欧州会議、会報、グラツ市、オーストリア国、2006年5月
[20]F.モレノ−ノグエル、V.レペチートおよびP.フュア「PnP問題に対する高精度非反復0(n)解」コンピュータビジョンに関するIEEE国際会議、会報、リオデジャネイロ市、ブラジル国、2007年10月
[21]E.B.オルソン「安定した効率的ロボットマッピング」博士論文、MIT、ケンブリッジ市、マサチューセッツ州、2008年6月
[22]M.カエス、A.ランガネーサンおよびF.デラート「iSAM:増分的スムーズ化およびマッピング」IEEE、輸送ロボット、第24巻6号、1365〜1378ページ、2008年12月
[23]R.スミス、M.セルフおよびP.チーズマン「ロボット工学における不確定空間関係の推定」ロボットおよび自律に関するIEEE国際会議、会報、第4巻、ラレイ市、ノースカロライナ州、1987年3月、850ページ
[24]S.カラマンおよびE.フラゾリ「最良モーションプラニングのための増分的サ
ンプリングベースアルゴリズム」ロボット;科学およびシステム、会報、ザラゴザ市、スペイン国、2010年6月
[25]I.A.スキャン、M.モールおよびL.E.カブラキ「オープンモーションプラニングライブラリ」IEEE、ロボットおよび自律学会誌、第19巻4号、72〜82ページ、2012年12月
http://ompl.kavrakilab.org
[26]N.マイケル、D.メリンジャ、Q.リンゼイおよびV.クマー「GRASPマルチ微小UAVテスト床」IEEE、ロボットおよび自律学会誌、第17巻3号、56〜65ページ、2010年9月
[27]C.リヒタ、A.ブライおよびN.ロイ「クアドロータ飛行のための多項飛行経路プラニング」ロボットおよび自律IEEE国際会議、会報、カールスルーヘ市、ドイツ国、2013年5月、出版予定
[28]D.メリンジャおよびV.クマー「クアドロータのための最少スナップショットによる飛行経路発生および制御」ロボットおよび自律IEEE国際会議、会報、上海市、中国、2011年5月、2520〜525ページ
[29]T.リー、M.レオキおよびN.マクラムロック「SE(3)上のクアドロータUAVの地形的トラッキング制御」決定および制御国際会議、会報、アトランタ市、ジョージア州、2010年12月、5420〜5425ページ
Claims (16)
- 屋内環境および屋外環境における飛行体の自律制御を可能にするシステムであって、
センサからの現在および以前の測定値、並びに飛行体の以前の推定された状態が与えられると、前記飛行体の現在の状態を推定すべく、異なる様式の複数のセンサからの測定値を組み合わせるためのセンサ融合モジュールを含んでおり、
該センサ融合モジュールは、1以上のセンサが不正確な情報を提供したとき、全地球測位システム(GPS)測定値が利用可能期間後に利用できなくなったとき、あるいは、GPS測定値が利用不能期間後に利用できるようになったとき、前記飛行体の状態の推定値の滑らかさを維持するように設計されており、本システムはさらに、
推定された現在の状態と、ユーザまたはさらに高いレベルの計画者によって提供されたゴールあるいは中間地点に基づいて前記飛行体の飛行経路を制御するための計画を発生させる飛行経路ジェネレータを含んでいる、
ことを特徴とするシステム。
- 前記センサは、慣性測定装置(IMU)と、圧力高度計、磁力計、レーザスキャナ、カメラ、下方対面光学センサ、および全地球測位システム(GPS)レシーバのうちの少なくとも1つとを含んでいる、請求項1記載のシステム。
- 前記センサ融合モジュールは、異なる様式のセンサからの測定値を組み合わせるためにアンセンティッドカルマンフィルタ(UKF)を使用するように設計されており、該センサ融合モジュールのソフトウェアを再設計することなく、センサの追加および削減を可能にしている、請求項1記載のシステム。
- 前記センサ融合モジュールは、現在の相対測定値および前記フィルタ内の増大された過去の状態の複製を使用して、現在の状態を推定するように設計されている、請求項3記載のシステム。
- 前記センサ融合モジュールは、思慮分別的に、前記フィルタから増大された状態を排除し、該フィルタに新規の増大された状態を追加するように設計されている、請求項3記載のシステム。
- 前記センサ融合モジュールは、前記フィルタに順番を乱して到着する前記センサからの測定値を融合するように設計されている、請求項3記載のシステム。
- 屋内環境および屋外環境における飛行体の自律制御を可能にする方法であって、
センサからの現在の測定値、並びに飛行体の以前の推定された状態が与えられると、前記飛行体の現在の状態の推定値を発生すべく、異なる様式の複数のセンサからの測定値を組み合わせるステップと、
推定された現在の状態と、ユーザまたはさらに高いレベルの計画者によって入力されたゴールあるいは中間地点に基づいて前記飛行体の飛行経路を計画するための信号を発生させるステップと、
1以上の前記センサからの出力が不正確であるとき、全地球測位システム(GPS)測定値が利用不能期間後に利用できるようになったとき、あるいは、GPS測定値が利用可
能期間後に利用できなくなったとき、前記飛行体の状態の変化を平滑化するステップと、を含んでいることを特徴とする方法。
- 前記センサは、慣性測定装置(IMU)と、圧力高度計、磁力計、レーザスキャナ、カメラ、下方対面光学センサ、および全地球測位システム(GPS)レシーバのうちの少なくとも1つとを含んでいる、請求項7記載の方法。
- 前記測定値を組み合わせるステップは、異なる様式のセンサからの測定値を組み合わせるためにアンセンティッドカルマンフィルタ(UKF)を使用し、センサ融合モジュールを再設計することなく、センサの追加および削減を可能化にすることを含んでいる、請求項7記載の方法。
- 現在の状態の推定は、現在の相対測定値および前記フィルタ内の増大された過去の状態の複製の使用を含んでいる、請求項9記載の方法。
- 新規の増大された状態の追加に応じて、フィルタから増大された状態を排除することを含んでおり、バイナリ選択行列は以前の増大された状態の追加に対応している、請求項9記載の方法。
- フィルタに順番を乱して到着するセンサからの測定値を融合することを含んでいる、請求項9記載の方法。
- コンピュータのプロセッサで実行されると、以下のステップを実施するように該コンピュータを制御する実行可能な指示を保存している非一時的コンピュータ可読媒体:
センサからの現在の測定値、並びに飛行体の以前の推定された状態が与えられると、飛行体の現在の状態の推定値を発生すべく、異なる様式の複数のセンサからの測定値を組み合わせるステップ;
推定された現在の状態と、ユーザまたはさらに高いレベルの計画者によって入力されたゴールあるいは中間地点に基づいて前記飛行体の飛行経路を計画するための信号を発生させるステップ;
1以上のセンサからの出力が不正確であるとき、全地球測位システム(GPS)測定値が利用不能期間後に利用できるようになったとき、あるいは、GPS測定値が利用可能期間後に利用できなくなったとき、前記飛行体の状態の変化を平滑化するステップ。
- 前記飛行体は、回転翼型小型飛行体(MAV)を含むことを特徴とする請求項1に記載のシ
ステム。
- 前記飛行体は、回転翼型小型飛行体(MAV)を含むことを特徴とする請求項7に記載の方
法。
- 前記飛行体は、回転翼型小型飛行体(MAV)を含むことを特徴とする請求項13に記載の
非一時的コンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361910022P | 2013-11-27 | 2013-11-27 | |
US61/910,022 | 2013-11-27 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016534969A Division JP2016540211A (ja) | 2013-11-27 | 2014-11-28 | 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018156660A true JP2018156660A (ja) | 2018-10-04 |
JP6739463B2 JP6739463B2 (ja) | 2020-08-12 |
Family
ID=53524461
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016534969A Withdrawn JP2016540211A (ja) | 2013-11-27 | 2014-11-28 | 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 |
JP2018075247A Active JP6739463B2 (ja) | 2013-11-27 | 2018-04-10 | 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016534969A Withdrawn JP2016540211A (ja) | 2013-11-27 | 2014-11-28 | 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 |
Country Status (6)
Country | Link |
---|---|
US (2) | US20170212529A1 (ja) |
EP (2) | EP3074832A4 (ja) |
JP (2) | JP2016540211A (ja) |
CN (2) | CN109885080B (ja) |
CA (1) | CA2931632C (ja) |
WO (1) | WO2015105597A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102258505B1 (ko) * | 2019-12-09 | 2021-05-28 | 금오공과대학교 산학협력단 | 무인항공기의 군집 내비게이션 방법 |
Families Citing this family (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014018147A2 (en) | 2012-04-30 | 2014-01-30 | The Trustees Of The University Of Pennsylvania | Three-dimensional manipulation of teams of quadrotors |
EP3074832A4 (en) | 2013-11-27 | 2017-08-30 | The Trustees Of The University Of Pennsylvania | Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav) |
CN103941748B (zh) * | 2014-04-29 | 2016-05-25 | 百度在线网络技术(北京)有限公司 | 自主导航方法及系统和地图建模方法及系统 |
CN106030431B (zh) | 2014-08-15 | 2017-11-03 | 深圳市大疆创新科技有限公司 | 传感器的自动标定系统及方法 |
US10395115B2 (en) | 2015-01-27 | 2019-08-27 | The Trustees Of The University Of Pennsylvania | Systems, devices, and methods for robotic remote sensing for precision agriculture |
US10037028B2 (en) | 2015-07-24 | 2018-07-31 | The Trustees Of The University Of Pennsylvania | Systems, devices, and methods for on-board sensing and control of micro aerial vehicles |
US10884430B2 (en) | 2015-09-11 | 2021-01-05 | The Trustees Of The University Of Pennsylvania | Systems and methods for generating safe trajectories for multi-vehicle teams |
WO2017071143A1 (en) | 2015-10-30 | 2017-05-04 | SZ DJI Technology Co., Ltd. | Systems and methods for uav path planning and control |
CN107209854A (zh) | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的系统和方法 |
DE102016211805A1 (de) * | 2015-10-09 | 2017-04-13 | Volkswagen Aktiengesellschaft | Fusion von Positionsdaten mittels Posen-Graph |
DE102015226365A1 (de) * | 2015-12-21 | 2017-06-22 | Robert Bosch Gmbh | Verfahren zur Messung der Varianz in einem Messsignal, Verfahren zur Datenfusion, Computerprogramm, Maschinenlesbares Speichermedium und Vorrichtung |
US10156441B2 (en) * | 2016-01-05 | 2018-12-18 | Texas Instruments Incorporated | Ground plane estimation in a computer vision system |
CN105425818B (zh) * | 2016-01-15 | 2018-08-31 | 中国人民解放军国防科学技术大学 | 一种无人飞行器自主安全飞行控制方法 |
JP6663606B2 (ja) * | 2016-03-08 | 2020-03-13 | 国立大学法人京都大学 | 無人航空機位置推定方法及びシステム |
JP6987797B2 (ja) | 2016-03-11 | 2022-01-05 | カールタ インコーポレイテッド | リアルタイムオンラインエゴモーション推定を有するレーザスキャナ |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
US10989542B2 (en) | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
US20190127067A1 (en) * | 2016-05-03 | 2019-05-02 | Sunshine Aerial Systems, Inc. | Autonomous aerial vehicle |
US10234856B2 (en) * | 2016-05-12 | 2019-03-19 | Caterpillar Inc. | System and method for controlling a machine |
US10604236B2 (en) * | 2016-06-01 | 2020-03-31 | Regents Of The University Of Minnesota | Fault-tolerant aircraft flight control using a subset of aerodynamic control surfaces |
CN107543540B (zh) * | 2016-06-27 | 2020-05-15 | 杭州海康机器人技术有限公司 | 一种飞行设备的数据融合和飞行模式切换方法及装置 |
CN106094840B (zh) * | 2016-07-20 | 2019-03-01 | 深圳洲际通航投资控股有限公司 | 飞行控制系统及方法 |
CN106125751A (zh) * | 2016-07-21 | 2016-11-16 | 天津津宇凯创航空科技发展有限公司 | 一种巡查飞行器安全控制系统 |
US10474148B2 (en) * | 2016-07-27 | 2019-11-12 | General Electric Company | Navigating an unmanned aerial vehicle |
CA3032812A1 (en) | 2016-08-04 | 2018-02-08 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US11164149B1 (en) * | 2016-08-31 | 2021-11-02 | Corvus Robotics, Inc. | Method and system for warehouse inventory management using drones |
CN106526542A (zh) * | 2016-10-17 | 2017-03-22 | 西南大学 | 一种基于确定性采样的增广卡尔曼滤波方法 |
WO2018086133A1 (en) * | 2016-11-14 | 2018-05-17 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
WO2018125939A1 (en) * | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Visual odometry and pairwise alignment for high definition map creation |
TW201823687A (zh) * | 2016-12-30 | 2018-07-01 | 鴻海精密工業股份有限公司 | 導航系統及其使用方法 |
JP6275887B2 (ja) * | 2017-01-05 | 2018-02-07 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | センサ較正方法及びセンサ較正装置 |
WO2018136753A1 (en) * | 2017-01-19 | 2018-07-26 | Vtrus Inc. | Indoor mapping and modular control for uavs and other autonomous vehicles, and associated systems and methods |
EP3574285A4 (en) * | 2017-01-27 | 2020-12-02 | Kaarta, Inc. | LASER SCAN DEVICE WITH REAL-TIME ESTIMATE OF CLEAN MOTION ONLINE |
US11747144B2 (en) * | 2017-03-29 | 2023-09-05 | Agency For Science, Technology And Research | Real time robust localization via visual inertial odometry |
US10386843B2 (en) * | 2017-04-03 | 2019-08-20 | Bell Helicopter Textron Inc. | System and method for determining a position of a rotorcraft |
KR101982822B1 (ko) * | 2017-04-06 | 2019-05-29 | 명지대학교 산학협력단 | 멀티센서 기반의 웨어러블 실내공간정보 구축시스템 |
KR101956447B1 (ko) * | 2017-04-20 | 2019-03-12 | 한국과학기술원 | 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법 |
US10379545B2 (en) * | 2017-07-03 | 2019-08-13 | Skydio, Inc. | Detecting optical discrepancies in captured images |
CN110998266B (zh) | 2017-07-21 | 2021-12-10 | 日本电气株式会社 | 数据处理设备、驱动控制设备、数据处理方法和存储介质 |
CN107478220B (zh) * | 2017-07-26 | 2021-01-15 | 中国科学院深圳先进技术研究院 | 无人机室内导航方法、装置、无人机及存储介质 |
CN109387192B (zh) * | 2017-08-02 | 2022-08-26 | 湖南云箭格纳微信息科技有限公司 | 一种室内外连续定位方法及装置 |
USD886694S1 (en) * | 2017-08-11 | 2020-06-09 | Trifo, Inc. | Autonomous vehicle sensor housing |
CN107577646A (zh) * | 2017-08-23 | 2018-01-12 | 上海莫斐信息技术有限公司 | 一种高精度轨迹运算方法及系统 |
WO2019055025A1 (en) * | 2017-09-15 | 2019-03-21 | Sanyal Amit K | INTEGRATED GUIDE AND FEEDBACK CONTROL FOR AUTONOMOUS VEHICLE |
US10606277B2 (en) * | 2017-09-18 | 2020-03-31 | Baidu Usa Llc | Speed optimization based on constrained smoothing spline for autonomous driving vehicles |
US10591926B2 (en) * | 2017-09-18 | 2020-03-17 | Baidu Usa Llc | Smooth road reference for autonomous driving vehicles based on 2D constrained smoothing spline |
CN107544533A (zh) * | 2017-10-12 | 2018-01-05 | 中国人民解放军国防科技大学 | 多功能便携式微型无人机系统 |
WO2019099605A1 (en) | 2017-11-17 | 2019-05-23 | Kaarta, Inc. | Methods and systems for geo-referencing mapping systems |
CN109153457A (zh) * | 2017-11-24 | 2019-01-04 | 深圳市大疆创新科技有限公司 | 无人机及其航电系统 |
WO2019165194A1 (en) | 2018-02-23 | 2019-08-29 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
US11548166B2 (en) * | 2018-03-07 | 2023-01-10 | Skylla Technologies, Inc. | Collaborative task execution with humans and robotic vehicles |
CN110633336B (zh) * | 2018-06-05 | 2022-08-05 | 杭州海康机器人技术有限公司 | 激光数据搜索范围的确定方法、装置及存储介质 |
US11119507B2 (en) * | 2018-06-27 | 2021-09-14 | Intel Corporation | Hardware accelerator for online estimation |
WO2020009826A1 (en) | 2018-07-05 | 2020-01-09 | Kaarta, Inc. | Methods and systems for auto-leveling of point clouds and 3d models |
EP3627447B1 (en) * | 2018-09-24 | 2022-06-29 | Tata Consultancy Services Limited | System and method of multirotor dynamics based online scale estimation for monocular vision |
US11866198B2 (en) * | 2018-10-29 | 2024-01-09 | California Institute Of Technology | Long-duration, fully autonomous operation of rotorcraft unmanned aerial systems including energy replenishment |
US11173921B2 (en) | 2018-11-19 | 2021-11-16 | Micron Technology, Inc. | Sensor fusion to determine reliability of autonomous vehicle operation |
CN109375647A (zh) * | 2018-11-20 | 2019-02-22 | 中国航空工业集团公司西安航空计算技术研究所 | 微型多源感知计算系统 |
US11312379B2 (en) * | 2019-02-15 | 2022-04-26 | Rockwell Collins, Inc. | Occupancy map synchronization in multi-vehicle networks |
CN109931926B (zh) * | 2019-04-04 | 2023-04-25 | 山东智翼航空科技有限公司 | 一种基于站心坐标系的小型无人机无缝自主式导航方法 |
CN109916394A (zh) * | 2019-04-04 | 2019-06-21 | 山东智翼航空科技有限公司 | 一种融合光流位置和速度信息的组合导航算法 |
CN110081881B (zh) * | 2019-04-19 | 2022-05-10 | 成都飞机工业(集团)有限责任公司 | 一种基于无人机多传感器信息融合技术的着舰引导方法 |
US11960297B2 (en) * | 2019-05-03 | 2024-04-16 | Lg Electronics Inc. | Robot generating map based on multi sensors and artificial intelligence and moving based on map |
US11565807B1 (en) | 2019-06-05 | 2023-01-31 | Gal Zuckerman | Systems and methods facilitating street-level interactions between flying drones and on-road vehicles |
CN110427046B (zh) * | 2019-07-26 | 2022-09-30 | 沈阳航空航天大学 | 一种三维平滑随机游走无人机群移动模型 |
CN112578788B (zh) * | 2019-09-30 | 2023-05-02 | 北京百度网讯科技有限公司 | 车辆避障二次规划方法、装置、设备和可读存储介质 |
US11389957B2 (en) * | 2019-09-30 | 2022-07-19 | Mitsubishi Electric Research Laboratories, Inc. | System and design of derivative-free model learning for robotic systems |
US10717528B1 (en) * | 2019-10-03 | 2020-07-21 | Trung Vo Tran | Automatic flying delivery drone in precalculated flight routes and method for delivering merchandises |
CN110954101B (zh) * | 2019-11-13 | 2023-05-30 | 南昌大学 | 一种利用Vicon的无人机激光定位的调试系统 |
TWI715358B (zh) * | 2019-12-18 | 2021-01-01 | 財團法人工業技術研究院 | 移動載具及其狀態估測與感測融合切換方法 |
CN111006694B (zh) * | 2019-12-29 | 2022-03-18 | 北京理工大学 | 基于航迹规划的长航时惯性导航系统轨迹发生器设计方法 |
CN112198887B (zh) * | 2019-12-31 | 2022-04-01 | 北京理工大学 | 一种多旋翼无人机机载计算机性能评估系统方法 |
FR3106571B1 (fr) | 2020-01-27 | 2022-08-12 | Airbus Helicopters | Drone multirotor équipé d’une protection périphérique et procédé de commande d’un tel drone multirotor |
US11662472B2 (en) | 2020-04-20 | 2023-05-30 | Honeywell International Inc. | Integrity monitoring of odometry measurements within a navigation system |
CN111578940B (zh) * | 2020-04-24 | 2021-05-11 | 哈尔滨工业大学 | 一种基于跨传感器迁移学习的室内单目导航方法及系统 |
CN111337037B (zh) * | 2020-05-19 | 2020-09-29 | 北京数字绿土科技有限公司 | 移动激光雷达slam制图装置及数据处理方法 |
CN111722614B (zh) * | 2020-06-15 | 2021-07-09 | 南京航空航天大学 | 一种基于广义观测器的四旋翼无人机故障估计方法 |
US20220060628A1 (en) * | 2020-08-19 | 2022-02-24 | Honeywell International Inc. | Active gimbal stabilized aerial visual-inertial navigation system |
CN111896008A (zh) * | 2020-08-20 | 2020-11-06 | 哈尔滨工程大学 | 一种改进的鲁棒无迹卡尔曼滤波组合导航方法 |
AT523734B1 (de) | 2020-11-10 | 2021-11-15 | Alpen Adria Univ Klagenfurt | Verfahren und System zur Schätzung von Zustandsgrößen eines beweglichen Objekts mit modularer Sensorfusion |
CN112414365B (zh) * | 2020-12-14 | 2022-08-16 | 广州昂宝电子有限公司 | 位移补偿方法和设备及速度补偿方法和设备 |
EP4095746A1 (en) * | 2021-05-24 | 2022-11-30 | Zenseact AB | Ads perception development |
CN113361194B (zh) * | 2021-06-04 | 2022-10-04 | 安徽农业大学 | 一种基于深度学习的传感器漂移校准方法、电子设备及存储介质 |
CN114489124B (zh) * | 2022-01-05 | 2023-07-28 | 南京邮电大学 | 一种保证无人机编队一致性动作的方法 |
US11814158B1 (en) | 2022-04-28 | 2023-11-14 | Beta Air, Llc | Systems and methods for determining areas of discrepancy in flight for an electric aircraft |
CN114967751B (zh) * | 2022-06-21 | 2022-12-06 | 深圳华创电科技术有限公司 | 飞行器航迹追踪方法、装置、设备及存储介质 |
CN115235475B (zh) * | 2022-09-23 | 2023-01-03 | 成都凯天电子股份有限公司 | 一种基于mcc的ekf-slam后端导航路径优化方法 |
CN117250855B (zh) * | 2023-11-14 | 2024-02-13 | 安徽大学 | 一种基于多目标优化的飞行机器人轨迹规划方法 |
CN117310773B (zh) * | 2023-11-30 | 2024-02-02 | 山东省科学院海洋仪器仪表研究所 | 基于双目立体视觉的水下机器人自主定位方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090248304A1 (en) * | 2008-03-28 | 2009-10-01 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
JP2010066073A (ja) * | 2008-09-09 | 2010-03-25 | Nec Corp | 移動体位置推定システム、移動体位置推定方法、及び移動体位置推定プログラム |
US8577539B1 (en) * | 2010-01-27 | 2013-11-05 | The United States Of America As Represented By The Secretary Of The Air Force | Coded aperture aided navigation and geolocation systems |
Family Cites Families (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2697796B1 (fr) | 1992-11-10 | 1994-12-09 | Sextant Avionique | Dispositif d'évitement de collisions pour aéronef notamment avec le sol. |
US6278945B1 (en) | 1997-11-24 | 2001-08-21 | American Gnc Corporation | Fully-coupled positioning process and system thereof |
US6308911B1 (en) | 1998-10-30 | 2001-10-30 | Lockheed Martin Corp. | Method and apparatus for rapidly turning a vehicle in a fluid medium |
US6422508B1 (en) | 2000-04-05 | 2002-07-23 | Galileo Group, Inc. | System for robotic control of imaging data having a steerable gimbal mounted spectral sensor and methods |
TW539866B (en) * | 2001-07-20 | 2003-07-01 | American Gnc Corp | Integrated GPS/IMU method and microsystem thereof |
US6876945B2 (en) | 2002-03-25 | 2005-04-05 | Nicholas Jon Emord | Seamless sensory system |
US8712144B2 (en) | 2003-04-30 | 2014-04-29 | Deere & Company | System and method for detecting crop rows in an agricultural field |
US7343232B2 (en) | 2003-06-20 | 2008-03-11 | Geneva Aerospace | Vehicle control system including related methods and components |
US7289906B2 (en) | 2004-04-05 | 2007-10-30 | Oregon Health & Science University | Navigation system applications of sigma-point Kalman filters for nonlinear estimation and sensor fusion |
US7818127B1 (en) | 2004-06-18 | 2010-10-19 | Geneva Aerospace, Inc. | Collision avoidance for vehicle control systems |
US7228227B2 (en) | 2004-07-07 | 2007-06-05 | The Boeing Company | Bezier curve flightpath guidance using moving waypoints |
US7249730B1 (en) | 2004-09-23 | 2007-07-31 | United States Of America As Represented By The Secretary Of The Army | System and method for in-flight trajectory path synthesis using the time sampled output of onboard sensors |
US8019544B2 (en) | 2005-01-03 | 2011-09-13 | The Boeing Company | Real-time refinement method of spacecraft star tracker alignment estimates |
CA2605177C (en) * | 2005-04-19 | 2011-06-21 | Jaymart Sensors, Llc | Miniaturized inertial measurement unit and associated methods |
US20070235592A1 (en) | 2005-12-05 | 2007-10-11 | Horn Phillippe L | Minimum time or thrust separation trajectory for spacecraft emergency separation |
US8050863B2 (en) | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
CN101109640A (zh) * | 2006-07-19 | 2008-01-23 | 北京航空航天大学 | 基于视觉的无人驾驶飞机自主着陆导航系统 |
US7643893B2 (en) | 2006-07-24 | 2010-01-05 | The Boeing Company | Closed-loop feedback control using motion capture systems |
US7925049B2 (en) | 2006-08-15 | 2011-04-12 | Sri International | Stereo-based visual odometry method and system |
AU2007354885B2 (en) * | 2006-12-06 | 2011-10-20 | Honeywell International, Inc. | Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles |
US20080195316A1 (en) | 2007-02-12 | 2008-08-14 | Honeywell International Inc. | System and method for motion estimation using vision sensors |
CN101676744B (zh) * | 2007-10-31 | 2012-07-11 | 北京航空航天大学 | 一种复杂背景低信噪比下弱小目标高精度跟踪方法 |
US8675068B2 (en) | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8442355B2 (en) | 2008-05-23 | 2013-05-14 | Samsung Electronics Co., Ltd. | System and method for generating a multi-dimensional image |
US8040981B2 (en) * | 2008-07-10 | 2011-10-18 | Xilinx, Inc. | Symbol detection in a MIMO communication system |
US20110082566A1 (en) | 2008-09-04 | 2011-04-07 | Herr Hugh M | Implementing a stand-up sequence using a lower-extremity prosthesis or orthosis |
US8521339B2 (en) * | 2008-09-09 | 2013-08-27 | Aeryon Labs Inc. | Method and system for directing unmanned vehicles |
US20100114408A1 (en) * | 2008-10-31 | 2010-05-06 | Honeywell International Inc. | Micro aerial vehicle quality of service manager |
US8380362B2 (en) | 2009-07-10 | 2013-02-19 | The Boeing Company | Systems and methods for remotely collaborative vehicles |
CN101598556B (zh) * | 2009-07-15 | 2011-05-04 | 北京航空航天大学 | 一种未知环境下无人机视觉/惯性组合导航方法 |
US8398920B2 (en) | 2009-07-28 | 2013-03-19 | The Invention Science Fund I, Llc | Drinking vessels and related systems and methods |
EP2280241A3 (en) | 2009-07-30 | 2017-08-23 | QinetiQ Limited | Vehicle control |
CN101655561A (zh) * | 2009-09-14 | 2010-02-24 | 南京莱斯信息技术股份有限公司 | 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法 |
DE112011100529T5 (de) | 2010-02-14 | 2012-12-06 | Trimble Navigation Limited | GNSS-Signalverarbeitungmit regionalern Augmentationsnetzwerk |
US9568321B2 (en) | 2010-04-19 | 2017-02-14 | Honeywell International Inc. | Systems and methods for determining inertial navigation system faults |
FR2959812B1 (fr) | 2010-05-05 | 2012-11-16 | Thales Sa | Procede d'elaboration d'une phase de navigation dans un systeme de navigation impliquant une correlation de terrain. |
US9031809B1 (en) | 2010-07-14 | 2015-05-12 | Sri International | Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion |
US8676498B2 (en) * | 2010-09-24 | 2014-03-18 | Honeywell International Inc. | Camera and inertial measurement unit integration with navigation data feedback for feature tracking |
US9058633B2 (en) | 2010-10-25 | 2015-06-16 | Trimble Navigation Limited | Wide-area agricultural monitoring and prediction |
US8756001B2 (en) | 2011-02-28 | 2014-06-17 | Trusted Positioning Inc. | Method and apparatus for improved navigation of a moving platform |
US8868323B2 (en) * | 2011-03-22 | 2014-10-21 | Honeywell International Inc. | Collaborative navigation using conditional updates |
WO2013105926A1 (en) | 2011-03-22 | 2013-07-18 | Aerovironment Inc. | Invertible aircraft |
US20140032167A1 (en) | 2011-04-01 | 2014-01-30 | Physical Sciences, Inc. | Multisensor Management and Data Fusion via Parallelized Multivariate Filters |
US9035774B2 (en) | 2011-04-11 | 2015-05-19 | Lone Star Ip Holdings, Lp | Interrogator and system employing the same |
US10027952B2 (en) | 2011-08-04 | 2018-07-17 | Trx Systems, Inc. | Mapping and tracking system with features in three-dimensional space |
US9784582B2 (en) | 2011-09-14 | 2017-10-10 | Invensense, Inc. | Method and apparatus for navigation with nonlinear models |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN103814570A (zh) | 2011-11-30 | 2014-05-21 | 三菱电机株式会社 | 影像监视系统 |
FR2985581B1 (fr) | 2012-01-05 | 2014-11-28 | Parrot | Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs |
US9104201B1 (en) | 2012-02-13 | 2015-08-11 | C&P Technologies, Inc. | Method and apparatus for dynamic swarming of airborne drones for a reconfigurable array |
US8874360B2 (en) | 2012-03-09 | 2014-10-28 | Proxy Technologies Inc. | Autonomous vehicle and method for coordinating the paths of multiple autonomous vehicles |
WO2014018147A2 (en) | 2012-04-30 | 2014-01-30 | The Trustees Of The University Of Pennsylvania | Three-dimensional manipulation of teams of quadrotors |
WO2013181558A1 (en) | 2012-06-01 | 2013-12-05 | Agerpoint, Inc. | Systems and methods for monitoring agricultural products |
US20140008496A1 (en) | 2012-07-05 | 2014-01-09 | Zhou Ye | Using handheld device to control flying object |
US9004973B2 (en) | 2012-10-05 | 2015-04-14 | Qfo Labs, Inc. | Remote-control flying copter and method |
JP6055274B2 (ja) | 2012-10-31 | 2016-12-27 | 株式会社トプコン | 航空写真測定方法及び航空写真測定システム |
US9723230B2 (en) | 2012-11-30 | 2017-08-01 | University Of Utah Research Foundation | Multi-spectral imaging with diffractive optics |
FR3000813B1 (fr) | 2013-01-04 | 2016-04-15 | Parrot | Drone a voilure tournante comprenant des moyens de determination autonome de position dans un repere absolu lie au sol. |
US10254118B2 (en) * | 2013-02-21 | 2019-04-09 | Regents Of The University Of Minnesota | Extrinsic parameter calibration of a vision-aided inertial navigation system |
WO2014165031A1 (en) | 2013-03-13 | 2014-10-09 | Double Robotics, Inc. | Accessory robot for mobile device |
US20140312165A1 (en) | 2013-03-15 | 2014-10-23 | Armen Mkrtchyan | Methods, apparatus and systems for aerial assessment of ground surfaces |
US9536427B2 (en) | 2013-03-15 | 2017-01-03 | Carnegie Mellon University | Methods and software for managing vehicle priority in a self-organizing traffic control system |
US20140263822A1 (en) | 2013-03-18 | 2014-09-18 | Chester Charles Malveaux | Vertical take off and landing autonomous/semiautonomous/remote controlled aerial agricultural sensor platform |
US9607401B2 (en) * | 2013-05-08 | 2017-03-28 | Regents Of The University Of Minnesota | Constrained key frame localization and mapping for vision-aided inertial navigation |
US10063782B2 (en) | 2013-06-18 | 2018-08-28 | Motorola Solutions, Inc. | Method and apparatus for displaying an image from a camera |
WO2014202258A1 (en) * | 2013-06-21 | 2014-12-24 | National University Of Ireland, Maynooth | A method for mapping an environment |
US20150321758A1 (en) | 2013-08-31 | 2015-11-12 | II Peter Christopher Sarna | UAV deployment and control system |
US10302435B2 (en) | 2013-09-17 | 2019-05-28 | Invensense, Inc. | Method and system for enhanced navigation with multiple sensors assemblies |
DE102014211166A1 (de) | 2013-11-20 | 2015-05-21 | Continental Teves Ag & Co. Ohg | Verfahren, Fusionsfilter und System zur Fusion von Sensorsignalen mit unterschiedlichen zeitlichen Signalausgabeverzügen zu einem Fusionsdatensatz |
EP3827654A1 (en) | 2013-11-20 | 2021-06-02 | Rowbot Systems LLC | Agricultural robot for performing multiple functions in argicultural systems |
EP3074832A4 (en) | 2013-11-27 | 2017-08-30 | The Trustees Of The University Of Pennsylvania | Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav) |
US9741140B2 (en) * | 2014-05-19 | 2017-08-22 | Microsoft Technology Licensing, Llc | Fast solving for loop closure using a relative state space |
CA2957081A1 (en) | 2014-08-22 | 2016-02-25 | The Climate Corporation | Methods for agronomic and agricultural monitoring using unmanned aerial systems |
US9129355B1 (en) | 2014-10-09 | 2015-09-08 | State Farm Mutual Automobile Insurance Company | Method and system for assessing damage to infrastructure |
FR3028186A1 (fr) | 2014-11-12 | 2016-05-13 | Parrot | Equipement de telecommande de drone a longue portee |
WO2016076586A1 (en) | 2014-11-14 | 2016-05-19 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
US20160214715A1 (en) | 2014-11-21 | 2016-07-28 | Greg Meffert | Systems, Methods and Devices for Collecting Data at Remote Oil and Natural Gas Sites |
US20160214713A1 (en) | 2014-12-19 | 2016-07-28 | Brandon Cragg | Unmanned aerial vehicle with lights, audio and video |
US9915956B2 (en) | 2015-01-09 | 2018-03-13 | Workhorse Group Inc. | Package delivery by means of an automated multi-copter UAS/UAV dispatched from a conventional delivery vehicle |
US10395115B2 (en) | 2015-01-27 | 2019-08-27 | The Trustees Of The University Of Pennsylvania | Systems, devices, and methods for robotic remote sensing for precision agriculture |
US10037028B2 (en) | 2015-07-24 | 2018-07-31 | The Trustees Of The University Of Pennsylvania | Systems, devices, and methods for on-board sensing and control of micro aerial vehicles |
US10884430B2 (en) | 2015-09-11 | 2021-01-05 | The Trustees Of The University Of Pennsylvania | Systems and methods for generating safe trajectories for multi-vehicle teams |
-
2014
- 2014-11-28 EP EP14878289.9A patent/EP3074832A4/en not_active Withdrawn
- 2014-11-28 JP JP2016534969A patent/JP2016540211A/ja not_active Withdrawn
- 2014-11-28 EP EP18210780.5A patent/EP3470787B1/en active Active
- 2014-11-28 CN CN201910048778.2A patent/CN109885080B/zh active Active
- 2014-11-28 CN CN201480064737.8A patent/CN106030430A/zh active Pending
- 2014-11-28 WO PCT/US2014/067822 patent/WO2015105597A2/en active Application Filing
- 2014-11-28 CA CA2931632A patent/CA2931632C/en active Active
-
2016
- 2016-05-26 US US15/165,846 patent/US20170212529A1/en not_active Abandoned
-
2017
- 2017-08-23 US US15/684,700 patent/US10732647B2/en active Active
-
2018
- 2018-04-10 JP JP2018075247A patent/JP6739463B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090248304A1 (en) * | 2008-03-28 | 2009-10-01 | Regents Of The University Of Minnesota | Vision-aided inertial navigation |
JP2010066073A (ja) * | 2008-09-09 | 2010-03-25 | Nec Corp | 移動体位置推定システム、移動体位置推定方法、及び移動体位置推定プログラム |
US8577539B1 (en) * | 2010-01-27 | 2013-11-05 | The United States Of America As Represented By The Secretary Of The Air Force | Coded aperture aided navigation and geolocation systems |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102258505B1 (ko) * | 2019-12-09 | 2021-05-28 | 금오공과대학교 산학협력단 | 무인항공기의 군집 내비게이션 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN109885080B (zh) | 2022-09-20 |
CA2931632C (en) | 2020-07-14 |
EP3074832A4 (en) | 2017-08-30 |
WO2015105597A3 (en) | 2015-10-01 |
WO2015105597A4 (en) | 2015-12-10 |
CN109885080A (zh) | 2019-06-14 |
US20180088597A1 (en) | 2018-03-29 |
EP3470787A1 (en) | 2019-04-17 |
US10732647B2 (en) | 2020-08-04 |
US20170212529A1 (en) | 2017-07-27 |
EP3074832A2 (en) | 2016-10-05 |
WO2015105597A2 (en) | 2015-07-16 |
CA2931632A1 (en) | 2015-07-16 |
CN106030430A (zh) | 2016-10-12 |
JP2016540211A (ja) | 2016-12-22 |
JP6739463B2 (ja) | 2020-08-12 |
EP3470787B1 (en) | 2020-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6739463B2 (ja) | 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 | |
Shen et al. | Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft MAV | |
Qin et al. | Robust initialization of monocular visual-inertial estimation on aerial robots | |
US10565732B2 (en) | Sensor fusion using inertial and image sensors | |
EP3158293B1 (en) | Sensor fusion using inertial and image sensors | |
CN111792034B (zh) | 使用传感器融合估计可移动物体的状态信息的方法及系统 | |
EP3158411B1 (en) | Sensor fusion using inertial and image sensors | |
Chambers et al. | Robust multi-sensor fusion for micro aerial vehicle navigation in GPS-degraded/denied environments | |
Steiner et al. | A vision-aided inertial navigation system for agile high-speed flight in unmapped environments: Distribution statement a: Approved for public release, distribution unlimited | |
Shen | Autonomous navigation in complex indoor and outdoor environments with micro aerial vehicles | |
Weiss et al. | Inertial optical flow for throw-and-go micro air vehicles | |
Hinzmann et al. | Monocular visual-inertial SLAM for fixed-wing UAVs using sliding window based nonlinear optimization | |
JP2019023865A (ja) | エラー回復を実行するための方法、システム、及びプログラム | |
Nyholm | Globally consistent map generation in GPS-degraded environments | |
Ellingson | Cooperative Navigation of Fixed-Wing Micro Air Vehicles in GPS-Denied Environments | |
McLain et al. | Relative Navigation in GPS Degraded Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180410 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191001 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200624 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6739463 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |