JP2018156660A - 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 - Google Patents

回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 Download PDF

Info

Publication number
JP2018156660A
JP2018156660A JP2018075247A JP2018075247A JP2018156660A JP 2018156660 A JP2018156660 A JP 2018156660A JP 2018075247 A JP2018075247 A JP 2018075247A JP 2018075247 A JP2018075247 A JP 2018075247A JP 2018156660 A JP2018156660 A JP 2018156660A
Authority
JP
Japan
Prior art keywords
state
measurements
gps
sensors
aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018075247A
Other languages
English (en)
Other versions
JP6739463B2 (ja
Inventor
シェン,シャオジー
Shaojie Shen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Pennsylvania Penn
Original Assignee
University of Pennsylvania Penn
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Pennsylvania Penn filed Critical University of Pennsylvania Penn
Publication of JP2018156660A publication Critical patent/JP2018156660A/ja
Application granted granted Critical
Publication of JP6739463B2 publication Critical patent/JP6739463B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/028Micro-sized aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/80UAVs characterised by their small size, e.g. micro air vehicles [MAV]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/40Modular UAVs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1654Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】回転翼型小型飛行体(MAV)の屋内環境および屋外環境での安定した自立飛行が可能なシステムを提供する。【解決手段】互いに異なり、変化する時間間隔で、絶対または相対観察値を発生させる複数の異種センサである、IMU112、レーザスキャナ118、ステレオカメラ122、圧力高度計123、磁力計116およびGPSレシーバ120からの、ノイズを含んだ測定値をプロセッサ108で統合し、自律飛行のためにリアルタイムにて、スムーズでグローバルに一貫した想定値を提供し、また、モジュール式で拡張が可能なアプローチを含んでいる。【選択図】図12

Description

優先権主張
本願は2013年11月27日に出願された米国仮特許願第61/910022号の優先権を主張する。
政府権益
本発明は、海軍研究所によって付与された認可番号N00014−07−1−0829、N00014−08−1−0696、N00014−09−1−1031およびN00014−09−1−1051、全米科学財団によって付与された認可番号1138847、113830および1138110、空軍科学研究所により付与された認可番号W911NF−08−2−0004およびW911NF−10−2−0016、並びに陸軍研究所によって付与された認可番号FA9550−10−1−0567の下で政府の支援によって為された。
ここで説明する主題は小型飛行体における自律飛行を制御することに関する。特に、ここで説明する主題は、屋内環境および屋外環境における回転翼型小型飛行体(MAV)の安定自律飛行のためのマルチセンサの融合に関する。
小型飛行体、例えば回転翼型小型飛行体は自律的に飛行することができる。自律飛行のための制御入力の提供に利用できる十分なセンサデータが存在すれば正確な自律飛行が達成できる。例えば、全地球測位システム(GPS)が利用できる屋外環境では、自律飛行はGPS信号に基づいて達成できる。しかしながらGPSが利用できない環境では、例えば、屋内環境や、屋外の都市部環境においてさえもGPSのみに基づく自律飛行は可能ではない。屋内環境によっては、構造物によって引き起こされる磁気障害により磁力計の出力が得られなかったり、信頼できなかったりする。よって、回転翼型MAVの飛行を制御するために単一モードのセンサに依存することは望ましくないであろう。
回転翼型MAVの自律飛行を制御する別な目的は、それまでは利用できなかったセンサモードの利用が可能になる様相/状態(以降“ステート”)間の移行をスムーズにすることである。例えば、回転翼型MAVが、GPSが利用できない屋内を飛行しているとき、GPSが急に利用可能になる屋外環境へ移行する際に、その回転翼体が大きく飛行コースから外れていると判断し、直ちに正規の飛行コースに戻す補正を試みるかも知れない。そのような移行は、直ちに飛行コースに戻すために回転翼体の飛行速度や飛行経路を大きく変えるものではなく、スムーズであることが望ましい。
回転翼型小型飛行体の自律飛行を制御するのに複数種のセンサデータを活用することができる。例えば、搭載カメラ、レーザスキャナ、GPSトランシーバ、および加速度計は飛行を制御するための制御入力として適している複数の入力を提供できる。しかし上述したように、これらセンサの1つに依存すると、そのセンサが関与する想定(または仮定)が機能しないときには、飛行は失敗することになる。それぞれのタイプのセンサは、その測定値が独自レベルの不確実性を含んだ独自の出力を発生させるので、回転翼型MAVの屋内環境および屋内環境での安定した自律飛行のためには、マルチセンサを融合させる改善された方法、システムおよびコンピュータ読取可能媒体が必要である。
ここで説明されている主題は、異なっており、且つ変動する時間間隔で絶対的観察または相対的観察を提供する複数の異種センサからのノイズを含んだ測定値を集積一体化し、自律飛行のための滑らかで全地球的(グローバル)に一貫(安定)した位置のリアルタイムでの推定(値)を提供するモジュール形態であって拡張が可能なアプローチ(取り組み)を含んでいる。我々(発明者)はここで、慣性測定装置(IMU)、レーザスキャナ、ステレオカメラ、圧力高度計、磁力計、およびGPSレシーバ(受信機)を備えた新式の1.9kgのMAVプラットフォームのためのアルゴリズムおよびソフトウェアアーキテクチャの開発を説明する。そこでは、ステートの推定および制御がインテルNUC第3世代i3プロセッサによって機上で実行される。我々は、建物内に進入および建物内から脱出する際の風速が約10mph(マイル/時)である条件下、1.5m/秒の平均速度で440メートル以上を飛行する大きなスケールでの屋内−屋外自律飛行ナビゲーション実験により我々のフレームワーク(基本理念)の安定性(確実性)を説明する。
ここで説明する主題は、ハードウェア、ソフトウェア、ファームウェア、あるいはそれらの任意の組み合わせによって実現できる。よって、ここで使用される“ファンクション”、“ノード”または“モジュール”なる用語はハードウェアに言及するものであり、ここで説明している特徴を実行するためのソフトウェア及び/又はファームウェアのコンポーネントも含むことができる。1例示的実施態様においては、ここで説明する主題は、コンピュータのプロセッサで実行されると、プロセスステップを実施するようにコンピュータを制御するコンピュータ実行可能インストラクションを保存した、コンピュータ読取可能媒体を使用して実現できる。ここで説明する主題を実現するのに適した例示的コンピュータ読取可能媒体には、ディスクメモリ装置、チップメモリ装置、プログラム可能ロジック装置、およびアプリケーション特化集積回路などの非一時的コンピュータ読取可能媒体が含まれる。さらに、ここで説明する主題を実現するコンピュータ読取可能媒体は、単一装置またはコンピュータプラットフォームに配置することも、複数の装置あるいは複数のコンピュータプラットフォームに配分されることもできる。
ここで説明する主題を添付の図面に基づいて説明する。
IMU、レーザスキャナ、ステレオカメラ、圧力高度計、磁力計およびGPSレシーバ(GPS受信機)を備えた1.9kgMAVプラットフォームを図示する。全てのコンピュータ処理は第3世代i3プロセッサを備えたインテルNUCコンピュータによって機上にて実施された。 プライオリティキュー(優先順位付き待ち行列)を備えた遅延し、順序が狂った測定値を示す。zの前にzが到着するが、zがまずフィルタに適用された。zはキューに一時的に保存された。zは破棄された。なぜなら、それは現在ステートのtdよりも古いからである。共分散は、最新の測定値がフィルタに適用されるときまでプロパゲーションされるだけである。ステートは最新のIMU入力までプロパゲーションされた。 GPS信号がk=5で再取得され、測定値zとステートs(図3(a))との間に大きな不一致が生じていることを図示する。ポーズ(空間位置/姿勢)グラフSLAMはグローバル(全地球的)に一貫したグラフ(図3(b))を発生させた。 GPS信号がk=5で再取得され、測定値zとステートs(図3(a))との間に大きな不一致が生じていることを図示する。ポーズ(空間位置/姿勢)グラフSLAMはグローバル(全地球的)に一貫したグラフ(図3(b))を発生させた。 代替GPS融合を示しており、変換されたGPS測定値zと非最良ステートsとの間の不一致は最小化されている。そのような間接GPS測定の融合はスムーズ(円滑、滑らか)なステート推定値(sとsの間の破線)に導く。 代替GPS融合を示しており、変換されたGPS測定値zと非最良ステートsとの間の不一致は最小化されている。そのような間接GPS測定の融合はスムーズ(円滑、滑らか)なステート推定値(sとsの間の破線)に導く。 MAVが最大速度3.5m/秒で積極的に飛行する様子を示す(図5(b))。水平位置は多少のドリフトを伴ったグランドツルースに類似する(図5(a))。 MAVが最大速度3.5m/秒で積極的に飛行する様子を示す(図5(b))。水平位置は多少のドリフトを伴ったグランドツルースに類似する(図5(a))。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 搭載カメラからの画像(図6(a)〜図6(d))と、外部カメラからの画像(図6(e)〜図6(h))である。オープンスペース(空間)、立木、複雑な建物構造、および屋内環境を含んだ多様な環境が存在する。MAVの位置は円で示されている。実験のビデオは添付ビデオおよびhttp://mrsl.grasp.upenn.edu/shaojie/ICRA2014.mp4で観ることができる。 衛星画像と整合された飛行体の飛行経路を図示する。異なる彩色はセンサモードの異なる組み合わせを示す。G=GPS、V=ビジョン、L=レーザ 経時的なセンサの利用を図示する。全てのセンサに不具合が発生している。これは、この種の屋内−屋外の任務にはマルチセンサの融合が必須であることを示す。 飛行体が建物密集地域を通って飛行する際の共分散の変動を示す(200sから300sの間、図7の上部)。GPSは建物の陰によって有効状態になったり無効状態になったりした。共分散x、yおよび偏飛行(一時的逸脱)はGPSが無効化すると増加し、GPSが復活すると減少した。ボディフレームの速度はGPS測定値に関係なく観察が可能であり、よってその共分散は小さいままであった。速度の共分散のスパイク現象は飛行体が太陽に直面していることによる。X−Y共分散は共分散の部分行列のフロベニウスノルムから計算される。 衛星マップ上に重ねられた飛行体の飛行経路を図示する。飛行体は並木が立ち並んだキャンパス環境で運用されており、運用中にGPSが不調になる高リスクが介在した。 並木が立ち並んだキャンパス環境をMAVが自律的に飛行する際の搭載(図11(a))および外部(図11(b))カメラの画像を示す。少なからぬ外光の状態に着目。 並木が立ち並んだキャンパス環境をMAVが自律的に飛行する際の搭載(図11(a))および外部(図11(b))カメラの画像を示す。少なからぬ外光の状態に着目。 ここで説明する主題の1実施例によるマルチセンサ融合を実行する回転翼型飛行体MAVのブロック図である。 ここで説明する主題の1実施例による回転翼型飛行体MAVの自律性を制御するマルチセンサ融合の例示的プロセスを図示するフローチャートである。 限定された搭載コンピュータ(インテルAtom1.6GHzプロセッサ)およびセンサ(魚眼レンズと既製の安価なIMUを備えた2つのカメラ)を備えた実験プラットフォームを図示する。プラットフォーム重量は740gであった。 マークされたモジュール間の更新レートと情報フローを備えたシステム構築を図示する。 セクションVIII−Aで提示されている飛行経路の自律トラッキング(追跡)中のボディフレーム速度の推定の成果を示す。 急速平行移動(図17(a)〜図17(b))および急速回転移動(図17(c)〜図17(d))による特性トラッキング性能に対する影響を図示する。トラッキングされた特徴部の数は回転移動後に大きく減少した。 急速平行移動(図17(a)〜図17(b))および急速回転移動(図17(c)〜図17(d))による特性トラッキング性能に対する影響を図示する。トラッキングされた特徴部の数は回転移動後に大きく減少した。 急速平行移動(図17(a)〜図17(b))および急速回転移動(図17(c)〜図17(d))による特性トラッキング性能に対する影響を図示する。トラッキングされた特徴部の数は回転移動後に大きく減少した。 急速平行移動(図17(a)〜図17(b))および急速回転移動(図17(c)〜図17(d))による特性トラッキング性能に対する影響を図示する。トラッキングされた特徴部の数は回転移動後に大きく減少した。 シミュレーションされたクアドロータ(四回転翼体)が一連の中間地点から発生されたスムーズな飛行経路をトラッキングしていることを示す。飛行経路の復帰は20秒(s)での中間地点の変化後に発生した。 シミュレーションされたクアドロータ(四回転翼体)が一連の中間地点から発生されたスムーズな飛行経路をトラッキングしていることを示す。飛行経路の復帰は20秒(s)での中間地点の変化後に発生した。 実験時にオペレータに飛行体(運搬体)と交信させることができるMAVのナビゲーション(航行)に対する有限ステートマシンベースアプローチを示す。 ロボット(自動機)が長方形パターンから発生されたスムーズな飛行経路に従うようにコマンドされたときの所望飛行経路、推定飛行経路および実際の飛行経路を示す。 ロボット(自動機)が長方形パターンから発生されたスムーズな飛行経路に従うようにコマンドされたときの所望飛行経路、推定飛行経路および実際の飛行経路を示す。 搭載カメラにより撮影された画像(図21(b))と共に、屋内環境のスナップ写真画像(図21(a))である。床は無特徴であり、下向カメラに依存するアプローチにとっては挑戦的であり得る。 搭載カメラにより撮影された画像(図21(b))と共に、屋内環境のスナップ写真画像(図21(a))である。床は無特徴であり、下向カメラに依存するアプローチにとっては挑戦的であり得る。 屋内ナビゲーション実験時のマップと推定位置を示す。ループの閉鎖後にSLAMを介して得られた位置推定の無視できない不連続性に着目(図22(c))。 屋内ナビゲーション実験時のマップと推定位置を示す。ループの閉鎖後にSLAMを介して得られた位置推定の無視できない不連続性に着目(図22(c))。 屋内ナビゲーション実験時のマップと推定位置を示す。ループの閉鎖後にSLAMを介して得られた位置推定の無視できない不連続性に着目(図22(c))。 ループの閉鎖後の屋外実験の最終3Dマップと飛行経路を示す。 複雑な屋外環境における自律ナビゲーションの画像を含む。外部ビデオカメラと搭載カメラの両方からの画像が示されている。実験のビデオはhttp://mrsl.grasp.upenn.edu/shaojie/IROS2013.movで観られる。 複雑な屋外環境における自律ナビゲーションの画像を含む。外部ビデオカメラと搭載カメラの両方からの画像が示されている。実験のビデオはhttp://mrsl.grasp.upenn.edu/shaojie/IROS2013.movで観られる。 複雑な屋外環境における自律ナビゲーションの画像を含む。外部ビデオカメラと搭載カメラの両方からの画像が示されている。実験のビデオはhttp://mrsl.grasp.upenn.edu/shaojie/IROS2013.movで観られる。 複雑な屋外環境における自律ナビゲーションの画像を含む。外部ビデオカメラと搭載カメラの両方からの画像が示されている。実験のビデオはhttp://mrsl.grasp.upenn.edu/shaojie/IROS2013.movで観られる。
回転翼型小型飛行体(MAV)は、その小型サイズ、卓越した動作能力、およびホバリング性能のため、閉鎖された屋内および屋外における調査、探索および救助のための理想的なプラットフォーム(ハードウェア環境)である。そのような任務では、オペレータ(操作員)の作業量を最少化するためにMAVが自律飛行できることは非常に重要である。特にMAVの本来的に敏捷な動態能力のため、安定したステート推定は必須である。費用とペイロード(荷重)のため、ほとんどのMAVには、長期のステート推定が不能である安価な固有(自己)受容性センサ(例:MEMS IMU)が装備されている。よって、通常はGPS、カメラおよびレーザスキャナのごとき外部受容性センサが固有受容性センサと融合されて推定精度を改善する。高度に開発されているGPSベースのナビゲーション技術[文献1、2]以外に、レーザスキャナ[文献3、4]、一眼カメラ[文献5、6]、ステレオ(立体)カメラ[文献7、8]およびRGB−Dセンサ[文献9]を使用したGPSが正常機能しない環境における自律飛行のための安定ステート推定に関する最近の文献が存在する。しかし、これら全てのアプローチは一定の環境条件下で機能を発揮するだけである1体の外部受容センサモードに依存している。例えば、レーザベースのアプローチは構造物環境を必要とし、ビジョン(視覚)ベースのアプローチは十分な明度と特徴部とを必要とするが、GPSは屋外で機能するだけである。従って、それらは、環境が大きく変動する可能性がある屋内−屋外移行が関与する大スケールの環境では機能を発揮しない可能性がある。そのような状況下では、GPS、カメラ、およびレーザからの複数の測定値が利用でき、それら測定値の融合は向上した推定精度および安定性を提供する。
しかし、実際には、この余分な情報は無視されるか、センサの統合ソフト間の切換えに使用される[文献10]。
この発明の主たる目的は、異なっており、且つ変動する時間間隔で絶対的または相対的な観察結果を提供する複数の異種センサからのノイズが混入した測定値を統合し、自律飛行のためにスムーズでグローバリに一貫した位置推定をリアルタイムで提供するモジュール形態で拡張が可能なアプローチを開発することである。この発明に中心的な存在である第1の主要な貢献は、フィルタリングフレームワークを使用して一貫した推定値が得られて維持される対象である増大されたステートベクトルを創出すべく、以前のステートの複製で飛行体のステートを増大することによって、文献[11]に構築される相対測定結果を融合することへの原則的アプローチである。第2の重要な貢献は我々のアンセンテッドカルマンフィルタ(UKF)である。そこでは、プロパゲーションステップと更新ステップによって、増大されたステートのための共分散マトリックス(行列)の半確定の結果である困難性が回避される。最後に、我々は、2つの建物に出入りする際の風速が約10mpsの条件下で、平均速度1.5m/秒での440メートルのジグザグ経路が関与する大スケールの屋内−屋外自律飛行ナビゲーション実験において、我々のフレームワークの安定性を示すため、新たな実験プラットフォーム(図1)によって得られた結果を示す。
次に、本発明の基礎である従来の技術を説明する。セクションIVのUKFベースのセンサ融合スキーム(体系)の主要な貢献を提示する前に、セクションIIIにおいてモデルフレームワークが概説されている。実験プラットフォームおよびセクションVIの実験結果の我々の説明において、我々は全ての着想を統合している。
II.従来技術
我々は、全ての利用可能なセンサ情報を融合するために、カルマンフィルタの非線形(非一次)変量のごときコンスタントなコンピュータ計算の複雑性のフィルタ処理ベースのアプローチを適用することに関心がある。我々は、SLAMベースのマルチセンサ融合アプローチ[文献12、13]は最良の結果を提供するが、自律制御を目的としたリアルタイムのステートフィードバックのためのコンピュータ処理はコスト高になることを強調する。
フィルタリング帰納(再帰)式にてGPS、圧力/レーザ高度計のごとき複数の絶対測定値を融合することが直接的であるが、レーザまたはビジュアルオドメータ(飛行距離計)から得られる複数の相対測定値の融合がそれ以上に関与する。相対測定値を蓄積するのは普通であり、以前のステート推定値はそれらを擬似絶対測定値として融合する[文献5、14]。しかし、そのような融合は最良ではない。なぜなら、得られるグローバル位置および偏飛行共分散は実際の推定誤差と較べて矛盾しない程度に小さいからである。これは識別性プロパティに反しており[文献6]、そのことは、そのようなグローバル数量が実際的には識別不能であることを暗示する。よって我々は、マルチセンサからの複数の相対測定値を適用するときのステート不確実性を適切に説明するためにステートオーグメンテーション技術[文献11]に基づいて我々の方法を開発した。
我々は、最低限のコード処理および数学的推論でセンサの簡単な追加と除去を可能にするモジュール形態のフレームワークの開発を目指した。我々は、一般的なEKFベースの定式化[文献5、8]において、ヤコビアン(ヤコビ行列式)のコンピュータ計算がMAVのごとき複雑なシステムにとっては問題化することに着目した。よって、我々は緩くカップリング(結合)している、推定が介在しないアンセンテッドカルマンフィルタ(UKF)フレームワーク[文献1]を採用した。EKFからUKFへの変更は幾つかの困難を提起する。それらはセクションIV−Aにおいて詳細に説明および対処されている。文献[15]は本発明に類似している。しかしながら、文献[15]のEKFベースの推定量
は複数の相対測定値の融合をサポートしない。
III.マルチセンサシステムモデル
我々はワールドフレームとボディフレームのベクトルをそれぞれ(・)ωおよび(・)と定義する。簡単にするため、我々は全ての搭載センサがキャリブレーション処理を経ており、ボディフレームに取り付けられているものと想定する。MACの主ステートは以下のように定義される:
ここで、p=[x,y,zはワールドフレームの3Dポジション(位置)であり、Φ=[Ψ,Θ,φは偏飛行、上下振動および横揺れオイラー角であり、ワールドフレームのボディの3D指向性を表わしており、ボディフレームからワールドフレームへのベクトルの回転を表わす行列Rwbがそこから得られる。pはボディフレームの3D速度である。

は加速度計とジャイロスコープのバイアスであり、それら両方はボディフレーム内で表現される。
はワールドフレームのレーザ高度計及び/又は圧力高度計のバイアスをモデル化している。
我々はIMUベースのステートプロパゲーションモデルを考察する:
ここでuはボディフレームの線状(一次)加速とIMUからの角速度の測定値である。
はプロセスノイズである。vとvωはジャイロスコープおよび加速度計に関与する付加ノイズを表わす。vba、vbω、vbzは、ジャイロスコープ、加速度計および高度計のバイアスのガウスランダムウォークをモデル化するものである。関数f(・)は連続的時間動力学式のディスクリートバージョンである[文献6]。
ステートプロパゲーションにおけるエラー(誤差)を訂正(補正)するには通常では外部受容センサが使用される。文献[11]に従い、我々は関与するセンサの特性に応じて
測定値を絶対的または相対的であると考える。我々は随意の数の絶対測定モデルまたは相対測定モデルを許容する。
A.絶対測定値
全ての絶対測定値は次の形態でモデル化できる:
ここで、
は、加法性あるいは非加法性の測定ノイズである。h(・)は一般的に非線形(非一次)関数である。絶対測定値は現在ステートをセンサ出力に接続する。その例はセクションV−Bで示されている。
B.相対測定値
相対測定値は現在ステートおよび過去ステートをセンサ出力と結び付ける。それを以下のよう表すことができる:
この式は、オドメータがステートの2つの時点間のインクレメンタル(増分的)変化量を測定するので、オドメトリ(路程測定)アルゴリズムの特性を正確にモデル化したものである(セクションV−CおよびセクションV−D)。我々はまた、時間ドリフトを回避するために、大抵の従来レーザ/ビジュアルオドメトリアルゴリズムがキーフレームベースであることに着目した。よって、我々は、同じ過去ステートxに対応する複数の未来測定値(m∈M,|M|>1)を許容した。
IV.UKF−ベースのマルチセンサ融合
我々は、経験が浅いユーザであっても容易に拡張できるモジュール型センサ融合フィルタをデザインすることを望んだ。すなわち、センサの追加/削減のためのコード化および数学的偏差の量を最小にすることである。一般的なEKFベースのフィルタ処理フレームワークの弱点は、ヤコビ行列を計算する必要性であるが、これは困難であり、複雑なMAVシステムのために時間を要する作業であることが判明している。よって、我々は導関数が関与しないUKFベースのアプローチ[文献1]を採用した。UKFの重要要素は、シグマポイントのプロパゲーションを介した非一次関数を利用したガウスランダムベクトルのプロパゲーションの近似計算(概算)である。
とし、非一次関数を考察した:
さらにXを以下とする:
ここで、g(・)は非一次関数であり、λはUKFパラメータである。
は共分散行列平方根のi番目の縦列であり、通常はコレスキー分解を介して計算される。Xはシグマポイントと呼ばれるものである。ランダムベクトルyの平均分散と、xとyの間の交差共分散は次のように近似計算できる:
ここで、

はシグマポイントの加重値である。このアンセンテッド変換はステートプロパゲーションと測定値更新の両方における共分散のトラッキング維持に使用でき、よってヤコビアンベースの共分散近似計算の必要性が回避される。
A.複数相対測定値のためのステートオーグメンテーション(増大)
相対測定値は現在ステートと過去ステートの両方に依存するので、測定は現在ステートだけに依存すべきであるというカルマンフィルタの根本的な想定に反する。この問題に対処する1つの方法はステートオーグメンテーション[文献11]を介することである。そこでは過去ステートの複製がフィルタに維持される。ここで我々は、随意数の相対測定値モデルを取り扱うために、複数の測定値が同じ増大されたステートに対応するという見込みで、文献[11]の拡張を提案する。我々の一般的なフィルタリングフレームワークは、絶対測定値モデルおよび相対測定値モデルの便利なセットアップ、追加および除去を許容する。
測定値はステートxの全てのコンポーネント(構成要素)に影響を及ぼすことはない。例えば、ビジュアルなオドメトリは6−DOF(6自由度)ポーズに影響するだけであり、速度やバイアスの観点には影響しない。我々はi番目の増大(補強:augment)された
ステートを
と定義する。
はxの随意サブセットである。我々はバイナリ選択行列(binary selection matrix
)サイズnxnのBをx=Bxと定義する。ある時点を考察すると、I個の増大されたステートがフィルタ内に共分散と共に存在する:
新たな増大されたステートx+1の追加は以下で実行できる:
同様に、増大されたステートxの除去は次のように実行される:
ここでは、
および
である。更新されている増大されたステート共分散は次のようになる:
オドメトリに類似する測定値モデルのキーフレームの変化は単に増大されたステートxの除去であり、同じBでの別な増大されたステートの追加が続く。我々は同じ増大されたステートに対応する複数の相対測定値を許容しているので、文献[11]とは対照的に、測定値更新後には増大されたステートは削除されない(セクションIV−D)。
このステートオーグメンテーションの系統的論述はEKFセッティングでは有効であるが、我々がそれをUKFに適用しようと試みると問題が発生する。これは、新しい増大されたステートの追加(式8)が本質的には主ステートの複製だからである。
得られる共分散行列
は正定値とはならなく、ステートプロパゲーションのためのコレスキー分解(式5)は有効に機能しないであろう(非唯一性)。我々は、EKFのためのヤコビ行列に類似してはいるが、陽関数表示的にヤコビアンを計算しない何かを有することを希望した。
B.UKFのためのヤコビアン
文献[16]では、著作者は線形(一次)回帰カルマンフィルタ(LRKF)としてUKFの新規な解釈を提示する。LRKFにおいて我々は、分布の加重された離散(またはシグマポイント(式6))表現
が与えられたときの非一次関数(式4)の最良一次近似式y=Ax+b+eを求めた。その目的は回帰行列Aと、線形化誤差eを最小化するベクトルbを発見することであった:
文献[16]で示されているように最良一次回帰は次の式で提供される:
式(9)の一次回帰行列Aは非一次関数(式4)の一次近似として機能する。それはEKF式におけるヤコビアンに類似する。従って、UKFでのプロパゲーションおよび更新ステップはEKFのごとき類似した手法で実行できる。
C.ステートプロパゲーション
ステートプロパゲーション時に主ステートだけが変化するという事実を観察して、我々
は増大されたステートと共分散(式7)を以下のように隔絶することから始めた:
増大されたステート(式7)に適用される非一次ステートプロパゲーション(式1)の一次近似は次のようになる:
そこから我々は全面的な増大されたステートのプロパゲーション(伝播)が実際には不要であることを理解することができた。なぜなら唯一の無視できない回帰行列が主ステートに対応するからである。我々は、
から発生されたシグマポイントを介して主ステートxのみをプロパゲーションでき、交差共分散
を更新するためにUKFヤコビアンFを使用することができた。主ステート
の共分散行列は常に正定値であるため、我々はコレスキー分解の不首尾の問題を回避した。
プロセスのノイズは付加的なものではないので、我々はプロセスノイズで主ステートを増大し、シグマポイントを次の式から発生させた:
次にそのステートは式(11)を式(1)、(5)および(6)に代入してプロパゲーションされた。我々は、tまでの測定値が与えられると時間t+1でxの推定値である
並びに

を取得した。式(9)に続いて次が知れた:
プロパゲーションされている増大されたステートおよびその共分散は式(10)に従ってアップデートされた:
D.測定値更新
2つの測定値間にm個のステートプロパゲーションを存在させ、我々は最新測定値が到来したときに

を維持した。J番目の増大されたステートに依存する相対測定値(式3)を考えると、測定推定値およびその一次回帰近似値は以下であり得る:
同様に、主ステートと1つの増大されたステートのみが各測定値のアップデートに関与するので、我々は別な増大されたステートを、可能な非追加測定ノイズと共に構築できる:
ステートプロパゲーション(式12)後、
は正定値として保証され、よって式(5)と式(6)でのごとくにシグマポイントプロパゲーションを実行することは安全である。我々は
および次の式を取得した:
我々はEKFに類似する測定値のアップデートを適用した:
t+mは実際のセンサ測定値である。主ステートおよび増大されたステートは測定値アップデート時に訂正されるであろう。我々は、不活性な増大されたステートに対応するHt+m|tのエントリがゼロであることに着目した。これは行列乗算を加速するのに利用が可能である。
絶対測定値の融合は、
および対応する絶対測定値モデル(式2)を適用することにより簡単に実行できる。
図9で示すように、複数の相対測定値の融合は緩やかな成長をもたらすが、グローバル位置および偏飛行における無限界共分散となる。これは、これらのグローバルな量が観察不能となる文献[6]の結果と一致する。
E.遅延した順序不順測定値のアップデート
複数の測定値を融合するとき、測定値がフィルタに順番が狂って到着することがある。すなわち、初期ステートに対応する測定値が後続ステートに対応する測定値の後に到着することがある。これはカルマンフィルタのマルコフ想定に反する。また、センサの処理遅延によって、測定値がステートプロパゲーションより遅れることもある。
我々は、測定値をプライオリティ列(優先順位付き待ち行列)に保存することで、これらの2つの問題に対処した。そこでは、プライオリティ列の上段は最古測定値に対応する。予め定義されている最大許容可能センサ遅延t100msが我々のMAVプラットフォームのために設定された。現在のステートからのtよりも古いステートに対応する新着の測定値(ステートプロパゲーションにより発生)は直接的に破棄された。各ステートプロパゲーション後に、我々はプライオリティ列をチェックし、tよりも古いプライオリティ列内の全ての測定値を処理した。プライオリティ列は本質的に、現在のステートからのtより古くはない全ての測定値の測定値再順序化メカニズムとして機能する(図2)。フィルタ内で、我々は、そのステートを前方にプロパゲーションさせるため、常に最新のIMU測定値を利用した。しかしながら、我々は、需要に応じて共分散をプロパゲーションするだけであった。図2で示すように、共分散は、最後の測定時間から現在測定にプロパゲーションされるだけである。
F.グローバルポーズ測定値を扱う別方法
飛行体が環境内を移動する際にGPSおよび磁力計からグローバルポーズ測定値が入手できる。グローバルポーズ測定値としてGPSを融合し、最良のステート推定値を発生させるのは容易である。しかし、現実的な適用にとってそれは最善ではないかもしれない。GPSが利用できない環境内で運用される飛行体は蓄積されたドリフトの影響を受けるかもしれない。飛行体がGPS信号を図3(a)で示すように取得するとき、GPS測定値と推定ステート(z〜s)との間には大きな不一致が存在するかもしれない。GPSをグローバル測定値として直接的に適用することは、推定(大きな線形化誤差)と制御(急激ポーズ変化)の両方に不都合な現象を招く結果となるであろう。
これは新規な問題ではなく、それはローカルフレームベースのナビゲーションの観点で地上の運搬体のために研究されてきた[文献17]。しかし文献[17]は運搬体の合理的に正確なローカル推定値は常に利用可能であると想定する(例:ホイールオドメトリ)。これはMAVには当てはまらない。なぜなら、搭載IMUだけのステート推定値は常に数秒内で大きくドリフト離脱するからである。IMUドリフトとホイールオドメトリとの主たる相違点は、IMUは時間的にドリフトするが、ホイールオドメトリはスペース的にのみドリフトすることである。しかし我々は、時間的にドリフト無介在である推定値を発生させることができる相対的外部受容センサを有した。よって我々は、全ての相対的外部受容センサが機能停止した場合のみに対処する必要があるだけであった。従って我々のゴールは、相対的センサ不調時(同士)間のギャップを埋めるためにグローバルGPS測定値をローカルフレームに適切に変換することである。
が2DポーズであるポーズのみのグラフSLAMを考察する。我々は、レーザ/ビジュアルオドメトリからのインクレメンタルモーション制限d、スペースループクロージャ(空間ループ閉鎖)制限1およびGPSからの絶対ポーズ制限zが与えられとき、ポーズグラフの最良の形態(相対配置)を発見することを試みた:
最良のポーズグラフ形態は図3(b)で示すような利用可能な解決策によって発見できた[文献18]。このポーズグラフは2つのノード間に相対的外部受容測定値が存在しなければ断続される。2つのポーズグラフをk−lとkとの間で断絶させてみた。
ポーズグラフSLAMは非最良sk−lとSLAM最良
ステートとの間の変換を提供する。この変換は、グローバルGPS測定値をsk−1と整合するように変換させるのに利用できる:
ここで、

は文献[19]において定義されているようなポーズ複合オペレーションである。△t−1の共分散
と、続く
の共分散
は文献[19]に従って計算できる。この式は

との間の不一致を最小化し、ステート推定におけるスムーズ性(滑らかさ、平滑度)を維持する。変換された
は絶対測定値としてUKF(Fig.4(a))に対して適用される。
しかし我々のフィールド実験(セクションVI)における大スケールにもかかわらず、我々は、蓄積されたドリフトが直接的GPS融合の問題を引き起こすのに十分に大きいという場合をほとんど発見しなかった。将来的には、我々は、上述のローカルフレームベースのアプローチの必要性を確認するために、さらに大きなスケールの実験を実施するであろう。
V.実施の詳細
A.実験プラットフォーム
図1で示す実験プラットフォームは、アセンディングテクノロジーGmbH(社)(http://www.asctec.de/)のペリカンクアドロータに基づいている。このプラットフォーム
はIMUとユーザプログラマブルARM7マイクロコントローラで成るオートパイロトボードを本来的に備えている。搭載された主計算装置は、1.8GHzコアi3プロセッサを備えたインテルNUCであり、8GBのRAMと120GBのSSDを備えていた。センサ統合ソフトはublox LEA−6T GPSモジュール、ホクヨUTM−30LX LiDARおよび25Hzで752x480の画像を撮影する魚眼レンズを備えた2体のmvBlueFOX−1VILC200wグレイスケールHDRラメラを含んだ。我々はフレーム同期化のためのハードウェアトリガ動作を活用した。この搭載自動露出コントローラは微調整によって急速明度変化時に急速適応することができる。3Dプリントされたレーザハウジングは高度測定のためのレーザビームの一部を方向変化させる。プラットフォームの全重量は1.87kgであった。全アルゴリズムはインターフェースロボットミドルウェアとしてのロボット操作システム(ROS)(http://ros.org)を使用してC++にて開発された。
B.絶対測定値
搭載センサによっては絶対測定値を発生させることができる(セクション111−A)。以下はその詳細である:

1)GPSおよび磁力計:
2)レーザ/圧力高度計:
3)擬似重力ベクトル:もしMAVがホバリング(空中浮遊)状態あるいはほぼ一定の速度で移動しているなら、我々は、加速度計の出力が重力ベクトルの擬似測定値を提供すると述べるであろう。g=[0,0,g]とすると、以下が得られた:
C.相対測定値−レーザベースオドメトリ
我々は、我々が過去に開発したレーザベースのオドメトリ[文献4]を活用した。人工屋内環境はたいていの場合に垂直壁を含むという観察に基づき、我々は2.5Dの環境を想定した。この想定に基づき、我々はレーザスキャナを共通の地表に投射するために搭載された横揺れと縦揺れの推定値を利用することができた。このように、飛行体のインクレメンタル(増分的)水平動作の推定に2Dスキャンマッチングが利用できる。我々はホバリング最中のドリフトを回避するためにローカルマップを保持した。
ここで、
であり、
および
は文献[19]で定義されているような2Dポーズ複合オペレーション(運用)である。
D.相対測定−ビジュアルオドメトリ
我々は、旧来のキーフレームベースビジュアルオドメトリアルゴリズムを実施した。キ
ーフレームベースのアプローチは時間ドリフト現象が発生しない利点を有する。我々は軽量コーナ特徴部を利用するが、高レート(25Hz)でアルゴリズムを実行するように選択した。特徴部はKLTトラッキング装置を介して複数の画像でトラッキングされた。三角測量された特徴ポイントのセットを備えたキーフレームが与えられると、我々は、キーフレームに関して飛行体の6−DOFモーションを推定するために、安定した反復2D−3Dポーズ推定を実行した[文献8]。移動した距離および有効な3Dポイントの現在数に応じて新キーフレームが挿入された。
E.フィードバック制御
大きな方向性(配向性)の変更を伴うこともある異なる環境に跨る安定した飛行を達成するため、我々は非線形誤差計量を伴う位置トラッキングコントローラ[文献20]を使用することを選択した。100Hzのフィルタ出力(セクションIV)がコントローラのためのフィードバックとして直接的に使用された。我々の実践では、飛行姿勢コントローラはMAVの自動操縦ボード上のARMプロセッサで1kHzにて運用され、位置トラッキングコントローラは主コンピュータで100Hzにて運用された。我々は、フレキシブルな運用を許容するために、セットポイント飛行経路トラッキングおよび速度コントロールの両方を実施した。
VI.実験結果
我々のシステムの安定性を示すために幾つかの実験が実施された。我々は、モーションキャプチャ(捕獲)システムを備えた実験室環境内での量的評価から始めた。続いて我々は我々のシステムを、産業複合団地および並木道キャンパスを含んだ2つの現実世界自律飛行実験で試験した。
A.推定値性能の評価
我々は我々の搭載推定装置の限界にチャレンジすることを希望した。従って、我々はパイロットにクアドロータを積極的に最大3.5m/sの速度にて40°までの大きな飛行姿勢で飛行させた。搭載ステート推定値は、モーションキャプチャシステムからのグランドツルースに匹敵した。屋内でのGPS測定値は存在しないため、我々のシステムはレーザおよびビジョンからの相対測定値の融合に依存した。我々は2.5Dの想定(セクションV−C)に反する大きな飛行姿勢のために時にレーザ不調を観察した。しかし、マルチセンサフィルタはそれでも飛行体のステートを全体的にトラッキングした(図5)。非制限状態であったので、我々は絶対ポーズ誤差を定量化しなかった。しかしボディフレーム速度(図5(b))はそれぞれx、y、z{0.1021,0.1185,0.0755}(m/s)の標準偏差のグランドツルースにほぼ匹敵した。
B.大スケール屋内および屋外環境での自律飛行
我々は厳しい条件の産業コンプレックス(複合団地)で我々のシステムを試験した。試験サイトは多様な環境を含んでおり、屋内空間、密集林、入り乱れた高層建物領域および屋内環境が含まれていた(図6)。MAVは搭載ステート推定を使用することで自律的に制御された。しかし、人間のオペレータは常に高レベルの中間地点または高レベル速度コマンドを飛行体に送るという選択をした。トータル飛行時間は約8分であり、飛行体は445mを平均速度1.5m/秒で飛行した。マップ整合経路(図7)で示すように、実験中には頻繁にセンサ不調が発生し(図8)、マルチセンサ融合の必要性を示した。図9は
飛行体がGPS陰領域を飛行したときの共分散の進化を示す。グローバルなx、yおよび偏飛行誤差はGPS測定によって制限されたが、それがなければ誤差は制限なく広がったであろう。これは観察可能性分析結果と合致した。GPSの利用性に拘わらずボディフレーム速度に関する誤差が広がらないことは着目すべきである。図9の速度共分散におけるスパイク現象は直接陽光に面したカメラによるものであった。
C.並木キャンパスでの自律飛行
我々は図10に示すように並木キャンパス環境でも実験を行った。このような環境での自律飛行は困難である。なぜなら飛行体が立木の陰に出入りするとき無視できない明暗条件の変化があるからである。飛行体の上方の樹木によるGPS不調のリスクもまた非常に大きい。レーザベースオドメトリは建物に接近しているときのみ機能する。全経路長は281mであった。
VII.結論および将来の活動内容
ここでの開示において、異なっており変動する時間間隔で絶対観測値または相対観測値を生み出す複数の異質センサからのノイズを含んだ測定値を統合するために、我々はモジュール形態の拡張可能なアプローチを提供する。我々のアプローチは自律飛行のための高レートのステート推定値をリアルタイムで発生させる。提案されているアプローチは複数の異質センサを装備した我々の新1.9kgMAVプラットフォームを機上で操作する。我々は、産業団地および並木キャンパスを通過する大スケールの屋内および屋外自律飛行実験での我々のフレームワークの安定性を実証した。
近い未来に大型複合施設環境を通過する完全な自律運行を達成するため、我々はMAVプラットフォーム上でのさらに高いレベルの計画策定と状況認識の統合を図った。
図12は、ここで説明する主題の1実施例に従った絶対測定値および相対測定値の両方を発生させるセンサからの測定値の融合のためのMAVを図示するブロック図である。図12では、MAV100は1以上のロータ104を使用してMAVの動きを制御するための1以上のモータ102を含む。上述したように、ここで説明する実験では、アセンディングテクノロジー社から入手できるペリカンクアドロロータが使用された。しかし、他の回転翼飛行体であってもここで説明する主題のスコープからは逸脱せずに代用できる。それはまたセンサ入力に基づいてモータ102の操作を制御するためのコントローラ106を含む。コンピュータ装置108は、複数のセンサからの測定値を融合し、コントローラ106への出力信号を発生させるセンサ融合モジュール110を含む。図示の例では、センサ融合モジュール110は、IMU112、圧力高度計114、磁力計116、レーザスキャナ118、GPSレシーバ120、カメラ122および圧力高度計123からの入力を受領する。センサ融合モジュール110は、レーザスキャナ118およびカメラ122によって発生された測定値等の相対測定値を上述のごとく増大されたステートに応じた測定値に変換する。変換された測定値は、前述したアンセンティドカルマンフィルタを使用して組み合わされ、コントローラ106に出力される。コントローラ106への出力として提供される信号は、MAV100の位置、速度、および加速度の制御のためのコントローラ106へのフィードバックとして活用される。コントローラ106はユーザ特定中間地点に到着するのに必要なMAV100の飛行経路を推定する飛行経路エスティメータ124からの入力も受領する。
図13は、ここで説明する主題の1実施例によるマルチセンサ融合を活用した回転翼飛行体MAVの動きを制御するための例示的プロセスを図示するフローチャートである。図13のステップ200では、複数の異なるモード(様式、形式)のセンサから入力が受領される。例えば、コンピュータ装置108とセンサ融合モジュール110は、そこから所与の時間に出力が入手できる図12に図示した1以上のセンサから入力を受領できる。ス
テップ202で、以前のステートに依存するセンサの一部によって発生される相対出力測定値が、増大されたステートに依存する測定値に変換される。そのような変換を実行するプロセスはセクションIV(A)において前述されている。ステップ204において、異なるセンサが組み合わされてフィルタリングされた。例えば、測定値はアンセンティドカルマンフィルタを使用して組み合わせることができる。ステップ206において、組み合わされた測定値はユーザによって入力された中間地点と共に飛行経路ジェネレータ(飛行経路生成器)に出力される。ステップ208において飛行経路ジェネレータは回転翼飛行体MAVの動きを制御するために使用される。
以下の引用文献のそれぞれの開示内容は全て本願に援用されているものとする。

[1]S.J.ジュリエールおよびJ.K.アールマン「非線形システムへのカルマンフィルタの新規拡張」SPIE(国際光学技術協会)会報、I.カダール著、第3068巻、1997年7月、182〜193ページ
[2]R.V.D.マーウィ、E.A.ワンおよびS.I.ジュリエール「非線形推定のためのシグマポイントカルマンフィルタ:集積ナビゲーションへの適用」AIAA(米国航空宇宙工学協会)ガイダンス、ナビゲーションおよび制御会議、会報、プロビデンス市、ロードアイランド州、2004年8月
[3]A.バカラッチ、S.プレンティス、R.ヒーおよびN.ロイ「GPS否定環境でのRANGE安定自律ナビゲーション」実地ロボット工学誌、第28巻5号、644666ページ、2011年
[4]S.シェン、N.ミッチェルおよびV.クマール「コンピュータ的に規制されたMAVでの自律複床屋内ナビゲーション」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、20〜25ページ
[5]S.ワイズ、M.W.アキテリック、S.ライネン、M.チリおよびR.シーグワート「未知環境におけるリアルタイム搭載ビジュアル慣性ステート推定およびmaysの自動キャリブレーション」ロボットおよび自律に関するIEEE国際会議、会報、セントポール市、ミネソタ州、2012年5月、957〜964ページ
[6]D.G.コッタス、J.A.ヘッシュ、S.L.バウマンおよびS.I.ロウメリオティス「ビジョン補助慣性ナビゲーションの一貫性」エクスポロボット国際シンポジウム、会報、ケベック州、カナダ国、2012年6月
[7]F.フランドルファ、L.ヘング、D.ホネガー、G.H.リー、L.メイア、P.タンスカネンおよびM.ポレフェイズ「クアドロータMAVを利用したビジョンベースの自律マッピングおよび開発」bztell.ロボットおよびシステムに関するIEEE/RSJ国際会議、会報、ビラモウラ、アルガルベ、ポルトガル国、2012年10月
[8]K.シュミット、T.トーニオ、E.ルエス、H.ヒルクルニューラおよびM.スッパ「ロボットを飛行させるステレオビジョンベースの屋内/屋外ナビゲーション」知的ロボットおよびシステムに関するIEEE/RSJ国際会議、会報、Cozzi、日本国東京、2013年11月
[9]A.S.ファン、A.バクラッチ、P.ヘンリ、M.クライニン、D.マツラナ、D.フォックスおよびN.ロイ「RGB−Dカメラを使用した自律飛行のためのビジュアルオドメトリおよびマッピング」ロボット研究国際spit.会報、フラッグスタッフ市、アリゾナ州、2011年8月
[10]T.トミック、K.シュミット、P.ルッツ、A.ドメル、M.カセッカ、E.メイア、I.L.グリクサ、F.ルエス、M.スッパおよびD.バーシュカ「自律UAV:屋内および屋外都市部探索および救助のための研究プラットフォーム」ロボットおよび自律に関するIEEE、会報、第19巻3号、46〜56ページ、2012年
[11]S.I.ロウメリオティスおよびJ.W.バーディック「確率的なクローン技術:相対ステート測定値処理のための汎用フレームワーク」ロボットおよび自律に関するIEEE国際会議、会報、ワシントンDC、2002年5月、1788〜1795ページ
[12]J.カールソン「GPS補助SLAMでの大型都市環境マッピング」博士論文、CMU、ピッツバーグ市、ペンシルバニア州、2010年7月
[13]D.シュライチャ、L.M.バーガサ、M.オカア、R.バレアおよびE.ロペス「都市環境におけるリアルタイム階層GPS補助ビジュアルSLAM」ロボットおよび自律に関するIEEE国際会議、会報、神戸市、日本国、2009年5月、4381〜4386ページ
[14]S.シェン、Y.ムルガオンカ、N.ミッチェルおよびV.クマール「四回転翼での高速飛行のためのビジョンベースステート推定および飛行経路制御」ロボット:科学とシステム、会報、ベルリン市、ドイツ国、2013年
[15]S.ライネン、M.W.アクテリック、S.ワイズ、M.チリおよびR.シーグワート「MAYナビゲーションに適用される安定モジュール形態マルチセンサ融合アプローチ」知的ロボットとシステムに関するIEEE/RSJ国際会議、会報、東京都、日本国、2013年11月
[16]T.レフェブア、H.ブルイニンクスおよびJ.D.シュラ「フィルタおよび推定装置における手段と共分散の非線形変換のための新規方法に対するコメント」変換、自律、制御に関するIEEE、第47巻8号、1406〜1409ページ、2002年
[17]D.C.ムーア、A.S.ファン、M.ウォルタおよびE.オルソン「ロボットナビゲーションのための同時的ローカルおよび全地球的ステート推定」ロボットおよび自律に関するIEEE国際会議、会報、神戸市、日本国、2009年5月、3794〜3799ページ
[18]R.クエマール、G.グリセッティ、H.ストラスダット、K.コンオルジェおよびW.バーガード「G20:グラフ最良化のための汎用フレームワーク」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、3607〜3613ページ
[19]R.スミス、M.セルフおよびP.チーズマン「ロボット不確定空間関係の推定」ロボットと自律に関するIEEE国際会議、会報、第4巻、ラレイ市、ノースカロライナ州、1987年3月、850ページ
[20]T.リー、M.レオキおよびN.マクラムロック「SE(3)上の四回転翼UAVの地形的追跡制御」決定および制御国際会議、報告書、アトランタ市ジョージア州、2010年12月、5420〜5425ページ
上述したように、ここで説明する主題の1実施例による自律回転翼飛行体MAVは、飛行中の回転翼飛行体MAVの経路を、回転翼飛行体MAVの推定された現在ステートおよびユーザによる中間地点の入力に基づいて制御するための経路計画を発生させる飛行経路発生器またはエスティメータ(推定装置)124を含むことができる。以下の説明は、ここで説明する主題の1実施例に従った飛行経路発生器またはエスティメータ124によって実行できる経路計画を説明する。
クアドロータでの複合環境におけるビジョンベース自律ナビゲーション
ここで説明する主題は、前方対面カメラと安価なIMUのみを装備した軽量クアドロータに複合環境を自律的にナビゲーションし、効率的にマッピングさせることができるシステムデザインを提供する。我々は、高レート搭載ビジョンベースのステート推定と制御、低レート搭載ビジュアルSLAM、およびオンライン計画および飛行経路発生アプローチの安定した統合に焦点を合わせた。急激な中間地点変更および大スケールのループ閉鎖等の困難な条件下での滑らかな飛行経路の安定した追跡が達成された。提案されているシステムの性能は、複雑な屋内および屋外環境での実験を介して実証されている。
I.始めに
クアドロータ小型飛行体(MAV)は、その小型サイズと卓越した俊敏性によって、閉じられた屋内環境および屋外環境における調査および探索並びに救助のための理想的なプ
ラットフォームである。このような目的においては、オペレータの作業量を最少化するにはクアドロータが自律的であることが必須である。このオペレーションにおいては、我々は、複雑な未知の屋内および屋外環境の自律的なナビゲーションのために、リアルタイムでロボットに搭載された必須の制御用コンピュータ装置を運用し、搭載センサのみを使用した軽量の既製クアドロータの利用に関心があった。
自律飛行ナビゲーションの問題は、この数年間、広く研究されてきた。初期の研究成果[文献1〜3]は主センサとして主にレーザスキャナに依存し、垂直方向にさほど大きくは形状変化しない構造要素を備えた屋内環境(2.5D想定)に飛行体を局所化している。ステート推定のための、相当量のペイロード(荷重)を加えるメカニカルパニングレーザスキャナが文献[4、5]で使用されている。文献[6〜8]でのようなビジョンベースのアプローチは屋内環境及び/又は屋外環境において安定した自律飛行を達成するために、下方対面カメラ、ステレオビジョンと下方対面光学フローセンサの組み合わせ、並びにRGB−Dセンサにそれぞれ依存する。しかし、これらアプローチは、環境構築想定、減少したアルゴリズム更新レートまたは大型飛行体サイズに起因する実際的な問題によって、クアドロータプラットフォームの機動性および操作性を利用することができない。加えて、下方対面ビジョンセンサに依存するアプローチ[文献6、7]は、無特徴床面または低高度の環境では安定して機能することができないことが多い。
スペクトルの他方端には、計量的なステート推定には依存しない多数の連続反応ナビゲーションアプローチ[文献9、10]が存在する。これらアプローチは低計算能力で自律飛行を可能にするが、複雑環境での操作の際には基本的にMAVの飛行能力を制限する。
我々は、飛行体に未知および未構築の環境における自身のステートを推定させ、その環境をマッピングさせ、そのマップでプラン(計画)させ、そのプランから展開される飛行経路に沿って自律制御させることができる自律ナビゲーションを追い求めた。オンラインによる障害物検出および再計画は、1m/秒を超える平均飛行速度での静的環境および動的環境での運行を可能にする。そのような速度では、プラットフォームの敏捷性によって、短待時間ステート推定、オンラインスムーズ飛行経路発生および反応性飛行体制御が必要になる。この目標の達成において生じる困難は、同時的な局所化およびマッピングによるループ閉鎖中においてさえも、推定されたポーズがスムーズで一貫していることを保証する必要性である。伝統的に、ループ閉鎖補正値は高レートの搭載ステートエスティメータに直接的に融合される。これで、推定されたステートにおける断絶が発生するが、これは、特に急速起動中に、クアドロータの壊滅的な墜落を引き起こしかねない。
この研究において、我々は、主センサとして2体の前向カメラを採用するシステム構成を提案し、複雑な環境において効率的な自律ナビゲーションを可能にする再計画並びにループ閉鎖中の推定スムーズ性および制御安定性を維持する新規な方法論を提案することでこれらの必要性に対処する。
II.システムデザインと方法論
我々はシステム構成および方法論、並びに我々のデザインに必要なハードウェアおよびソフトウェアのコンポーネントの大要を提供することから始める。主要コンポーネントの詳細な説明はシステムブロック図(図15)の論理的流れ説明部に続くセクションで提供されている。
A.ハードウェアプラットフォーム
実験プラットフォーム(図14)はアセンディングテクノロジーズ(http:/www.asctec/de参照)のハミングバードクアドロータに基づいている。この既製プラットフォームは
、廉価なIMUとユーザプログラム可能ARM7マイクロコントローラを備えたオートパ
イロットボードを備えている。搭載されている高レベルコンピュータはインテルAtom1.6GHzのプロセッサおよび1GBのRAMを含んでいる。搭載コンピュータと地上ステーションとの間の交信は802.11nの無線ネットワークを介して行われた。プラットフォームに新たに加える唯一のものはハードウェアHDRを備えた2体のグレイスケールmvBlueFOX−MLC200wカメラであった。全てのカメラには魚眼レンズが備わっている。カメラとIMUとの間の同期化はハードウェアトリガリングを介して確実化された。プラットフォームの総重量は740gであった。
B.ソフトウェア構成および方法論
ソフトウェア構成は図15に示されている。この構成は我々に搭載されている低レベル(低性能)および高レベル(高性能)のプロセッサ並びに機外地上ステーションとの間で計算を分割させた。搭載されている高レベルコンピュータにおいて、ビジョンベースエスティメータは20Hzで6−DOFポーズ推定値を提供した。我々はポーズ推定値をIMU測定値と融合させ、非一次(非線形)トラッキングコントローラのためのフィードバックとして直接的に使用される100Hzのステート推定値を発生させるためにアンセンテッドカルマンフィルタ(UKF)を採用した。地上ステーションでは、ステレオベースのビジュアルSLAMモジュールが、高レベルプランナー(計画者)のために3Dボクセルグリップマップを発生させた。このSLAMモジュールは全地球ポーズ補正値も提供する。しかし、我々は、このポーズ補正値をビジョンベースのステート推定値と直接的には融合しなかった。なぜなら、そうすると、大きなループ閉鎖の際に重大なポーズ断絶が発生する可能性があったからである。その代わりに、我々は、もし飛行体がそれら変更された中間地点に従うなら、それでも飛行体がグローバル目標地点に到達できるように、そのポーズ補正値を使用して中間地点を変更した。我々はさらに、搭載されている高レベルコンピュータを100Hzで運用し、所望の中間地点を滑らかな多項飛行経路に変換させる飛行経路発生装置を開発した。
III.ビジュアル慣性(VINS)ステート推定

A.ビジョンベースポーズ推定
我々は、飛行体の6−DOFポーズを推定するために我々の先の成果[文献11]の改良を活用した。我々はプラットフォームに2つのカメラを装備させたが、我々は旧来のステレオベースステート推定を実行しなかった。事実、我々は主カメラとして、20Hzで画像を撮る1台のカメラをセットし、他方のカメラは1Hzで画像を撮るように設計した。我々は高レート不等計算を実行しなかったので、必要な計算力は低下していた。しかし、そのステレオ形態は我々に、局所マップとポーズ推定値のスケールを保存する数量的情報を推定させた。
1)単眼ベースポーズ推定:
主要な魚眼カメラによって撮影される画像のために、我々はFASTコーナを検出し[文献12]、KLTトラッキング装置を使用してそれらをトラッキングした[文献13]。主要カメラの高フレームレートのおかげで、我々は歪められた魚眼画像に対して直接的にトラッキングを実行することができ、画像忠実性に対するオーバヘッドの追加の計算を回避できた。我々は、ジャイロスコープ測定の短期一体化からの増分的回転推定値を利用し、トラッキングの孤立値を拒絶するために2ポイントRANSACを実行した。我々は、まだ三角測量されていない遠方の特徴部を活用するために、分離された配向性と位置推定スキームを提案する。ドリフトを最少とすべく、ルックバックヒストリでロボットRの配向性がエピ極性拘束を介して推定された。三角測量された3D特徴部p、i∈Iで成る完全な3Dローカルマップの存在を想定すれば、ロボットrの位置は以下の一次系を解くことで効率的に見つけられる。
ここで、uijは単位長特徴部観察ベクトル;

6−DOFポーズが見つけられると、特徴部pの位置は次の一次系を解くことで見つけられる。
ここで、Aijとbijはi番目の特徴部のj番目フレームまでの全観測値を表わす。これは無メモリ問題であり、よって、特徴部三角測量の複雑性は、その特定特徴部の観察値の数には関係なく一定である。
2)ステレオベーススケール回復:
前述のポーズ推定アプローチは、単眼ベース三角測量の蓄積された誤差によってスケールドリフトの悪影響を受ける。全瞬間ステレオ(立体)測定値がスケールドリフト補正のために活用される。Kを両方のカメラによって見られた特徴部のセットとする。我々は平均場面深度の相違を以下の式で計算できる。
ここで、
は、ステレオ三角測量だけを介して得られた3D特徴部の位置である。次に我々は、式(4)のごとくにbijを修正することでスケールドリフトを補正し、式(2)を再び解くことができる。
B.UKFベースセンサ融合
ビジョンシステムからの20Hzポーズ推定のみではロボットを制御するのには十分ではない。遅延測定値補正でのUKFが、100Hzでのロボットのポーズおよび速度を推定するのに使用された[文献14]。このシステムのステートは次で定義される。
ここで、rはロボットの3D位置であり、qはロボットの3D配向性の四元数であり、aはボディフレーム内の加速度計測定値のバイアス(偏り)である。我々は、システムステートをプロパゲーションさせるために従来のIMUベースプロセスモデルと、ステート訂正のために6−DOFポーズで成る一次測定値モデルとを使用する。
C.ビジュアル慣性ステートエスティメータ性能
図16は、定義済み飛行経路の自律トラッキング中のバイコンモーションキャプチャシステムからのグランドツルースに対するVINSエスティメータの性能の比較を示す(セクションVIII−A)。搭載速度推定値は、標準偏差が
={0.0500,0.0706,0.0309}(m/秒)でバイコン推定値(全てボディフレームに変換)にほぼ匹敵した。しかし、VINSエスティメータのグローバルバンドル(一括)調節の欠如は、帰納(回帰)式によって、推定されたポーズの長期ドリフトの結果を招いた。よって我々は、そのようなドリフト現象を表わすためにオドメトリフレーム
を導入した。
IV.ビジュアルSLAM
我々はVINSシステムのドリフトを排除するためにビジュアルSLAMモジュールを利用した。ビジュアルSLAMは広く研究された分野である。小さな活用スペースにおいては、回帰フィルタリング[文献15]または平行トラッキングおよびマッピング技術[文献16]を使用するアプローチは正確な結果を提供する。単眼カメラ[文献17]またはステレオカメラ[文献18]による大きなスケールのマッピングは、ポーズグラフベース式を使用して達成される。我々のシステムにおいては、制限された搭載計算リソース、制限された無線伝送バンド幅および搭載エスティメータの精度によって、高レートビジュアルSLAMは不要であり、実行不可能である。従って、我々のビジュアルSLAMモジュールは1Hzの最大レートにて機外で運用される。ポーズグラフベースSLAMの後端は、ワイドなベースラインループ閉鎖検出のためのSURF特徴部[文献19]を利用する前端と共に、そのような低レートにて安定した性能を発揮する。我々は、ポーズグラフのためのノードを発生させるべく推定されたロボットの飛行経路をほとんどサンプリングしなかった。それぞれのノードのために、我々はステレオ画像間のSURF特徴部を検出してマッチングさせることで散在する3Dポイントを計算処理した。高密度の不同画像および高密度のポイントクラウドも計算された。
我々は、現在ノードの不確実長円の内側に入るノードをチェックすることでループ閉鎖を検出した。我々は、潜在的なループ閉鎖のために最初の候補から始めて一定数のノードをチェックした。2つの画面間の類似性を試験するためにSURF特徴部が使用された。我々は、RANSAC PnP[文献20]を使用して現在ノードとループ閉鎖候補との間の相対変換を計算した。セクション3.4[文献21]で提案される安定性試験が実行され、ループ閉鎖変換の形状的一貫性が確認された。形状検証をパスする候補変換がポーズグラフに加えられた。最後に、我々はポーズグラフ最適化のためにiSAMライブラリを使用した[文献22]。最適化されたポーズグラフが見つけられると、我々は、高密度ポイントクラウドをグローバルフレームに投射することで3Dボクセルグリップマップを構築できた。このマップは高レベルプラニングのために使用され(セクションV)、実験の進行を人間のオペレータにモニターさせることができた。最適化されたポーズは、ワールドフレームの推定値を表わし、
で表わされる。
オドメトリフレームと世界フレームとの間の変換として機能するビジュアルSLAM
からのポーズ訂正が以下のように式化された:
ここで、
は文献[23]で定義されているポーズ更新関数である。従来のアプローチとは異なり、我々は、VINSシステムのドリフトを訂正するためにグローバルポーズ測定値として
を使用しなかった。その代わりに我々は、
を飛行経路発生装置に供給し(セクションVI)、ループ閉鎖によって、ビジュアルSLAMポーズ推定値に大きな断絶が存在しても(すなわち、
が大きくても)、スムーズであることが保証される飛行経路を計算した。これは存在するアプローチからの我々のシステムの大きな離脱であり、複雑な環境内での高速自律ナビゲーションを可能にする鍵である。さらなる詳細はセクションVIに提供されている。
V.高レベルプラニング
我々は2段階プラニングアプローチを採用した。さらに高いレベルでは、世界フレームのユーザ特定中間地点が与えられ、クアドロータをシリンダとして扱うとすれば、所望の3D位置と偏飛行角の配列で成り、現在ロボット位置と所望ゴールを接続する高レベル経路(パス)は、オープンモーションプラニングライブラリ(OMPL)[文献25]で実行されているように、RRT[文献24]を使用して発生された。得られたパスは最低数のK中間地点
に簡素化され、さらなる改善のために飛行経路発生手段(セクションVI)に送られた。このパスはマップ更新として同じ周波数での衝突の可能性のためにチェックされた(1Hz、セクションIV)。高レベルプランナー(計画機)は中庸的な計算リソースを必要とするだけであるが、我々は、高レベルプラニングのために必要な全情報が機外のビジュアルSLAMモジュールから入ってくるので、それを機外で運用した。我々はまた、ユーザにプラナーをバイパスさせ、中間地点の配列を明確にセットさせた。
VI.飛行経路の発生
我々は、ビジュアルSLAM(式6)からの最新ポーズ訂正を使用してオドメトリフレーム内に高レベルプランナー(計画機)からの全中間地点をまず変換した。
フィードバック制御のために、オドメトリフレームのステート推定値を使用してロボットが全ての変換された中間地点を通過して飛行するなら、それは世界フレームの同じセットの中間地点も通過して飛行するであろう。さらに、もし大きなスケールのループ閉鎖が存在すれば(すなわち
に大きな変化が存在すれば)、ロボットが向かっている中間地点のセットは大きく変化するであろう。しかしながら、もし我々がロボットの現在ステートに等しい当初条件でスムーズな飛行経路を再発生できるなら、飛行経路間の移行はスムーズになり、搭載ステートエスティメータおよびコントローラ内に特別な操作は不要であろう。
我々は、信頼できるステート推定値を同時に維持しながら、クアドロータが全ての中間地点をスムーズに通過することが確実になることを願った。ビジョンベース推定値の質を決定する重要な条件はトラッキング性能である。我々の魚眼カメラ構成で、図17から、
大きな視認フィールドのため、急速平行移動がトラッキング性能にほとんど影響を及ぼさないことが理解されるであろう。しかし、急速回転は画像を簡単にピンボケさせ、KLTトラッカーの不調状態を引き起こすことがある。この観察は、横揺れ、および縦揺れの角速度を最少にする飛行経路を我々に設計させた。
クアドロータの動作の方程式を微分することで[文献26]、ボディフレームの角速度は急動的な線形加速の導関数に密接に関係することが確認できた。よって、我々は水平方向のクアドロータの急動を最小化する飛行経路を発生させた。
垂直方向のために、我々はモータのRPMの変化を最少にすることを願った。これも急動に対応する。高レベルパスからの大きな偏差を回避するために、この中間地点を接続する2つの線状セグメント間の角度が閾値を超えるならば、中間地点が1つの中間地点の直前および直後に加えられた。我々は、10ms程度の実行時間でロボットを操作する搭載された多項的飛行経路発生アルゴリズム[文献27]を利用した。最良の飛行経路は、次の非拘束2次方程式プログラミングを解くことで見つけられる:
ここで、yはそれぞれの中間地点での所望導関数値の集合であり、非固定あるいは固定のものでよい。我々は、再プラニングおよびループ閉鎖中にスムーズな飛行経路を維持するために、最初の中間地点で位置、速度、加速度をロボットの現在ステートとなるように固定した。最後の中間地点のためには速度および加速度はゼロにセットされた。その他の全ての中間地点のためには、位置のみが固定され、飛行経路発生手段は速度と加速度のプロフィールを提供した。多項性飛行経路の係数sは線形マッピングs=Myを介して見つけられる。
上述の飛行経路発生アプローチの制限要件は、中間地点間の移動時間を予め定義する必要性である。計算の制約のため、我々は、最良のセグメント時間を見つけるために反復的時間最良化[文献27、28]を実行する代わりに、セグメントの始めと終わりに一定の加速度で常にゼロ速度から加速してゼロ速度に減速し、セグメントの中間で一定の速度を維持する線形飛行経路としてセグメント時間を近似する発見法を利用した。この単純な発見法は、短いセグメント中の過剰な加速を回避するのに役立ち、長いセグメントにとっては合理的な時間近似法である。
図18は一連の中間地点から発生されたスムーズな飛行経路のクアドロータトラッキングをシミューレーションしたものである。中間地点の変更および飛行経路再発生は20秒で実行された。再発生された飛行経路は当初飛行経路をスムーズに接続し、クアドロータはスムーズに中間地点を交替させることができた。
VII.制御
A.位置トラッキングコントローラ
この業績のため、我々は、大きな角度変化および大きな加速が関与する高度に動力学的な動作におけるその優れた性能のために、非線形(非一次)的誤差測定性能を備えた位置トラッキングコントローラ[文献29]の使用を選択した。VINSシステム(セクションIII)からの100Hzステート推定値がコントローラのためのフィードバックとして直接的に使用された。我々の実施形態では、飛行姿勢コントローラはロボットのオートパイロットボードのARMプロセッサにて1kHzで運用され、位置トラッキング制御はアトムプロセッサにて100kHzで操作された。
B.ハイブリッドシステムコントローラ
我々の目標は完全に自律した飛行体を開発することであるが、実験のある時点で、人間のオペレータが、飛行体の単純であるが直接的な制御を希望するかもしれない。よって、我々は、人とロボットの相互作用を許容する有限ステートマシンベースハイブリッドシステムコントローラ(図19)を開発した。このコントローラには4つのモードが存在し、セクションVILAのコントローラは位置モードで運用される。任意の時に、オペレータは遠隔モードを介して入力を伝送できる。これらコマンドは飛行体によって運動速度コマンドとして解釈される(ホバリングステートとなるコマンドが存在しない場合)。我々は、1Hzの画像とグローバル3Dマップのみを使用し、直接的な視線を介在させずに、不慣れなオペレータが飛行体を制御できるという意味合いにおいて速度制御モードが容易に使用できることを実験的に試した。ホバリングモードはアイドリングステートとして機能し、飛行体はオペレータからのコマンドを待つ。
VIII.実験結果
我々は、提案システムの性能を実証するために3つの代表的な実験を提示する。第1の実験は、グローバルに一貫したトラッキングを維持するための提案システムの能力を実証した。我々は、性能を定量化するためにグランドツルースとの比較を提供する。第2の実験では、ロボットが大きなループ(約190m)を備えた屋内環境をナビゲーションし、1回のバッテリ充電内でループを完成させた(5分未満の飛行時間)。最後に、我々は、環境変化および強力な風の妨害に対する提案システムの安定性を強調する屋外ナビゲーション実験を提示する。
A.グランドツルース比較によるシステム性能評価
この実験において、ロボットは約1m/sの速度で方形パターンから発生されたスムーズな飛行経路に沿って飛行した。バイコンからのグランドツルースが使用され、グローバルトラッキング性能が定量化された。図20(a)と図20(b)に見られるように、VINSステート推定値には遅い位置ドリフトが存在する。しかし、機外ビジュアルSLAMからのグローバル補正は、グローバルに一貫したオペレーションをもたらす。グローバルループ閉鎖はシステムに明確に統合されているが、ロボットはVINSステート推定値を使用して制御されることに留意。ビジュアルSLAMから訂正によって、オドメトリフレームの所望のスムーズな飛行経路は継時的に再発生および変化する。図20(b)から、ロボットの実際の位置は所望の位置に収束し、標準偏差
={0.1108,0.1186,0.0834}(m/s)を有し、トラッキングがグローバルに一貫していることが理解できるであろう。
B.大ループを備えた屋内環境ナビゲーション
我々は、ループを備えた大スケールの環境を通過してロボットが自律的にナビゲーションする場合を考察する。ループのサイズ(約190m)と、短いバッテリ寿命サイクル(5分未満)によって、その任務を完遂するために、我々は高速ナビゲーションを達成しなければならない。この環境は、無特徴床部(図21)によって、下方に面したカメラを使用するアプローチ[文献6、7]に対して重大な挑戦を提起した。しかしながら、提案システムによって信頼できるステート推定値が得られ、ロボットは最大速度1.5m/s、平均速度1m/sで成功裏に実験を完了した。大スケールのループ閉鎖は257秒で検出された(図22(c))。その間、SLAMポーズと3Dマップの両方が大きく変化した(図22(a)と図22(b))。しかし、図22(c)で見られるように、ロボットの
フィードバック制御のために使用されたステート推定値は実験を通してスムーズな状態を保ち、オドメトリフレームの変換された中間地点を辿ることでロボットはグローバル始点に戻ることができた(セクションVI)。
C.複雑屋外環境における自律ナビゲーション
この実験は、屋内環境における提案システムの性能を立証する。実験はペンシルベニア州フィラデルフィア市において、ある典型的な冬日に実施された。そこでは風速が20km/時まで高まった。総航行距離は約170mであり、総飛行時間は166秒(図23)であった。ビデオカメラからのスナップショットおよび搭載カメラで撮られた画像は図24に示されている。この屋外環境はほぼ構造物がなく、立木と植物で構成されており、非建造物環境において運行できるシステムの性能が立証された。
IX.結論および将来成果
ここで説明しているように、我々は、搭載カメラおよびセンサとしてのIMUだけを使用して軽量の既製クアドロータによる複雑環境内でのグローバルに一貫した自律ナビゲーションを可能にするシステムのデザインを提案する。我々は、急激な中間地点変更やループ閉鎖等の困難な状況時にスムーズな飛行経路のトラッキングを維持する課題に対処する。提案システムの性能を立証するために屋内環境および屋外環境の両方におけるオンライン実験結果が提示されている。
運行環境を拡張し、システムの安定性を増強するため、一体的なレーザ及び/又はGPSベースのステート推定アプローチを我々の現在システムに組み込むことができる。
以下の参考文献それぞれの開示内容は全体的に本願に組み入れられている。

引用文献
[1]A.バカラッチ、S.プレンティス、R.ヒーおよびN.ロイ「GPS否定環境でのRANGE安定自律ナビゲーション」実地ロボット工学学会誌、第28巻5号、644666ページ、2011年
[2]S.グルゾンカ、G.グリセッティおよびW.バーガード「完全自律屋内クアドロータ」IEEE、輸送ロボット、PP巻99号、1から11ページ、2011年
[3]S.シェン、N.ミッチェルおよびV.クマール「コンピュータ的に規制されたMAVでの自律複床屋内ナビゲーション」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、20〜25ページ
[4]S.シェラ、J.レフダ、S.アチャ、H.カバー、A.チャンバーズ、S.ヌスケおよびS.シン「飛行ロボットからの河川マッピング:河川検出および障害物マッピング」自律ロボット、第33巻1−2号、189〜14ページ、2012年8月
[5]A.クシュレイエブ、B.マクアリスタおよびM.リクハチェブ「空中備品配達における着地点選択のためのプラニング」IEEE/RSJ知的ロボットおよびシステム国際会議、会報、サンフランシスコ市、カルフォルニア州、2011年9月、1146〜1153ページ
[6]S.ワイズ、M.W.アキテリック、S.ライネン、M.チリおよびR.シーグワート「未知の環境におけるリアルタイム搭載ビジュアル慣性ステート推定およびMAYSの自己キャリブレーション」ロボットおよび自律に関するIEEE国際会議、会報、セントポール市、ミネソタ州、2012年5月、957〜964ページ
[7]F.フランドルファ、L.ヘング、D.ホネガー、G.H.リー、L.メイア、P.タンスカネンおよびM.ポレフェイズ「クアドロータMAVを使用したビジョンベース自律マッピングおよび探検」知的ロボットおよびシステムに関するIEEE/RSJ国際会議、会報、ビラモウラ、アルガルベ市、ポルトガル国、2012年10月
[8]A.S.ファン、A.バクラッチ、P.ヘンリ、M.クライニン、D.マツラナ、
D.フォックスおよびN.ロイ「RGB−Dカメラを使用した自律飛行のためのビジュアルオドメトリおよびマッピング」ロボット研究の国際シンポジウム、会報、フラッグスタッフ市、アリゾナ州、2011年8月
[9]C.ビルズ、J.チェンおよびA.サクセナ「単一の画像眺望キューを使用した屋内環境での自律MAV飛行」ロボットおよび自律に関するIEEE国際会議、会報、上海市、中国、2011年5月、5776〜5783ページ
[10]G.ドクルーン、C.D.ワグターブ、B.レメスブおよびR.ルイジュシンクブ「サブサンプリング:微小飛行体のためのリアルタイムビジョン」ロボットおよび自律システム、第60巻2号、167から81ページ、2012年2月
[11]S.シェン、Y.ムルガオンカ、N.ミッチェルおよびV.クマール「複雑環境における自律回転体MAVのためのビジョンベースステート推定」ロボットおよび自律に関するIEEE国際会議、会報、カールスルーヒ市、ドイツ国、2013年5月、発行予定
[12]E.ロステンンおよびT.ドルモンド「高速コーナ検出のためのマシン学習」コンピュータビジョンに関する欧州会議、会報、グラツ市、オーストリア国、2006年5月
[13]B.D.ルーカスおよびT.カナデ「ステレオビジョンへの適用を伴う反復画像レジストレーション技術」人工知能に関する国際共同会議、会報、バンクーバ市、カナダ国、1981年8月、24〜28ページ
[14]R.V.D.マーウィ、E.A.ワンおよびS.I.ジュリエール「非線形推定のためのシグマポイントカルマンフィルタ:一体化ナビゲーションへの適用」AIAA(米国航空宇宙工学協会)ガイダンス、ナビゲーションおよび制御に関する会議、会報、プロビデンス市、ロードアイランド州、2004年8月
[15]J.シベラ、A.J.ダビソンおよびJ.モンティエル「単眼SLAMのための逆深度パラメータ化」IEEE、輸送ロボット、第24巻、5号、932〜945ページ、2008年10月
[16]G.クレインおよびD.ムレイ「小型AR作業領域のための平行トラッキングおよびマッピング」混成および増大された現実(ISMAR’07)に関する第6回IEEEおよびACM国際シンポジウム、会報、奈良市、日本国、2007年11月
[17]H.ストラスダット、J.M.M.モンティエルおよびA.J.ダビソン「スケールドリフト認識大スケール単眼SLAM」ロボット:科学およびシステム、会報、ザラゴザ市、スペイン国、2010年6月
[18]C.メイ、G.シブレイ、M.カミングズ、P.ニューマンおよびI.レイド「PSLAM:ステレオを使用した定時での大スケールマッピングのためのシステム」コンピュータビジョンの国際学会誌、1〜7ページ、2010年6月
[19]H.ベイ、T.ツイテラースおよびL.V.グール「SURF:加速された安定特徴」コンピュータビジョンに関する欧州会議、会報、グラツ市、オーストリア国、2006年5月
[20]F.モレノ−ノグエル、V.レペチートおよびP.フュア「PnP問題に対する高精度非反復0(n)解」コンピュータビジョンに関するIEEE国際会議、会報、リオデジャネイロ市、ブラジル国、2007年10月
[21]E.B.オルソン「安定した効率的ロボットマッピング」博士論文、MIT、ケンブリッジ市、マサチューセッツ州、2008年6月
[22]M.カエス、A.ランガネーサンおよびF.デラート「iSAM:増分的スムーズ化およびマッピング」IEEE、輸送ロボット、第24巻6号、1365〜1378ページ、2008年12月
[23]R.スミス、M.セルフおよびP.チーズマン「ロボット工学における不確定空間関係の推定」ロボットおよび自律に関するIEEE国際会議、会報、第4巻、ラレイ市、ノースカロライナ州、1987年3月、850ページ
[24]S.カラマンおよびE.フラゾリ「最良モーションプラニングのための増分的サ
ンプリングベースアルゴリズム」ロボット;科学およびシステム、会報、ザラゴザ市、スペイン国、2010年6月
[25]I.A.スキャン、M.モールおよびL.E.カブラキ「オープンモーションプラニングライブラリ」IEEE、ロボットおよび自律学会誌、第19巻4号、72〜82ページ、2012年12月
http://ompl.kavrakilab.org
[26]N.マイケル、D.メリンジャ、Q.リンゼイおよびV.クマー「GRASPマルチ微小UAVテスト床」IEEE、ロボットおよび自律学会誌、第17巻3号、56〜65ページ、2010年9月
[27]C.リヒタ、A.ブライおよびN.ロイ「クアドロータ飛行のための多項飛行経路プラニング」ロボットおよび自律IEEE国際会議、会報、カールスルーヘ市、ドイツ国、2013年5月、出版予定
[28]D.メリンジャおよびV.クマー「クアドロータのための最少スナップショットによる飛行経路発生および制御」ロボットおよび自律IEEE国際会議、会報、上海市、中国、2011年5月、2520〜525ページ
[29]T.リー、M.レオキおよびN.マクラムロック「SE(3)上のクアドロータUAVの地形的トラッキング制御」決定および制御国際会議、会報、アトランタ市、ジョージア州、2010年12月、5420〜5425ページ
ここで説明した主題は、組み合わせが明示的に説明されていなくとも、ここで説明した要素または技術の全ての組み合わせを含む。例えば、“クアドロータでの複雑環境におけるビジョンベース自律ナビゲーション”と表題されたセクションで説明されている要素または方法論は、そのセクションに先立って説明されている任意の方法または要素と組み合わせることができる。
ここで説明されている主題の様々な詳細部は、ここで説明されている主題のスコープから逸脱せずに変更が可能である。さらに、前述の説明は、説明のみが目的であり、限定を意図したものではない。

Claims (16)

  1. 屋内環境および屋外環境における飛行体の自律制御を可能にするシステムであって、
    センサからの現在および以前の測定値、並びに飛行体の以前の推定された状態が与えられると、前記飛行体の現在の状態を推定すべく、異なる様式の複数のセンサからの測定値を組み合わせるためのセンサ融合モジュールを含んでおり、
    該センサ融合モジュールは、1以上のセンサが不正確な情報を提供したとき、全地球測位システム(GPS)測定値が利用可能期間後に利用できなくなったとき、あるいは、GPS測定値が利用不能期間後に利用できるようになったとき、前記飛行体の状態の推定値の滑らかさを維持するように設計されており、本システムはさらに、
    推定された現在の状態と、ユーザまたはさらに高いレベルの計画者によって提供されたゴールあるいは中間地点に基づいて前記飛行体の飛行経路を制御するための計画を発生させる飛行経路ジェネレータを含んでいる、
    ことを特徴とするシステム。
  2. 前記センサは、慣性測定装置(IMU)と、圧力高度計、磁力計、レーザスキャナ、カメラ、下方対面光学センサ、および全地球測位システム(GPS)レシーバのうちの少なくとも1つとを含んでいる、請求項1記載のシステム。
  3. 前記センサ融合モジュールは、異なる様式のセンサからの測定値を組み合わせるためにアンセンティッドカルマンフィルタ(UKF)を使用するように設計されており、該センサ融合モジュールのソフトウェアを再設計することなく、センサの追加および削減を可能にしている、請求項1記載のシステム。
  4. 前記センサ融合モジュールは、現在の相対測定値および前記フィルタ内の増大された過去の状態の複製を使用して、現在の状態を推定するように設計されている、請求項3記載のシステム。
  5. 前記センサ融合モジュールは、思慮分別的に、前記フィルタから増大された状態を排除し、該フィルタに新規の増大された状態を追加するように設計されている、請求項3記載のシステム。
  6. 前記センサ融合モジュールは、前記フィルタに順番を乱して到着する前記センサからの測定値を融合するように設計されている、請求項3記載のシステム。
  7. 屋内環境および屋外環境における飛行体の自律制御を可能にする方法であって、
    センサからの現在の測定値、並びに飛行体の以前の推定された状態が与えられると、前記飛行体の現在の状態の推定値を発生すべく、異なる様式の複数のセンサからの測定値を組み合わせるステップと、
    推定された現在の状態と、ユーザまたはさらに高いレベルの計画者によって入力されたゴールあるいは中間地点に基づいて前記飛行体の飛行経路を計画するための信号を発生させるステップと、
    1以上の前記センサからの出力が不正確であるとき、全地球測位システム(GPS)測定値が利用不能期間後に利用できるようになったとき、あるいは、GPS測定値が利用可
    能期間後に利用できなくなったとき、前記飛行体の状態の変化を平滑化するステップと、を含んでいることを特徴とする方法。
  8. 前記センサは、慣性測定装置(IMU)と、圧力高度計、磁力計、レーザスキャナ、カメラ、下方対面光学センサ、および全地球測位システム(GPS)レシーバのうちの少なくとも1つとを含んでいる、請求項7記載の方法。
  9. 前記測定値を組み合わせるステップは、異なる様式のセンサからの測定値を組み合わせるためにアンセンティッドカルマンフィルタ(UKF)を使用し、センサ融合モジュールを再設計することなく、センサの追加および削減を可能化にすることを含んでいる、請求項7記載の方法。
  10. 現在の状態の推定は、現在の相対測定値および前記フィルタ内の増大された過去の状態の複製の使用を含んでいる、請求項9記載の方法。
  11. 新規の増大された状態の追加に応じて、フィルタから増大された状態を排除することを含んでおり、バイナリ選択行列は以前の増大された状態の追加に対応している、請求項9記載の方法。
  12. フィルタに順番を乱して到着するセンサからの測定値を融合することを含んでいる、請求項9記載の方法。
  13. コンピュータのプロセッサで実行されると、以下のステップを実施するように該コンピュータを制御する実行可能な指示を保存している非一時的コンピュータ可読媒体:
    センサからの現在の測定値、並びに飛行体の以前の推定された状態が与えられると、飛行体の現在の状態の推定値を発生すべく、異なる様式の複数のセンサからの測定値を組み合わせるステップ;
    推定された現在の状態と、ユーザまたはさらに高いレベルの計画者によって入力されたゴールあるいは中間地点に基づいて前記飛行体の飛行経路を計画するための信号を発生させるステップ;
    1以上のセンサからの出力が不正確であるとき、全地球測位システム(GPS)測定値が利用不能期間後に利用できるようになったとき、あるいは、GPS測定値が利用可能期間後に利用できなくなったとき、前記飛行体の状態の変化を平滑化するステップ。
  14. 前記飛行体は、回転翼型小型飛行体(MAV)を含むことを特徴とする請求項1に記載のシ
    ステム。
  15. 前記飛行体は、回転翼型小型飛行体(MAV)を含むことを特徴とする請求項7に記載の方
    法。
  16. 前記飛行体は、回転翼型小型飛行体(MAV)を含むことを特徴とする請求項13に記載の
    非一時的コンピュータ可読媒体。
JP2018075247A 2013-11-27 2018-04-10 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合 Active JP6739463B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361910022P 2013-11-27 2013-11-27
US61/910,022 2013-11-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016534969A Division JP2016540211A (ja) 2013-11-27 2014-11-28 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合

Publications (2)

Publication Number Publication Date
JP2018156660A true JP2018156660A (ja) 2018-10-04
JP6739463B2 JP6739463B2 (ja) 2020-08-12

Family

ID=53524461

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016534969A Withdrawn JP2016540211A (ja) 2013-11-27 2014-11-28 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合
JP2018075247A Active JP6739463B2 (ja) 2013-11-27 2018-04-10 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016534969A Withdrawn JP2016540211A (ja) 2013-11-27 2014-11-28 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合

Country Status (6)

Country Link
US (2) US20170212529A1 (ja)
EP (2) EP3074832A4 (ja)
JP (2) JP2016540211A (ja)
CN (2) CN109885080B (ja)
CA (1) CA2931632C (ja)
WO (1) WO2015105597A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102258505B1 (ko) * 2019-12-09 2021-05-28 금오공과대학교 산학협력단 무인항공기의 군집 내비게이션 방법

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014018147A2 (en) 2012-04-30 2014-01-30 The Trustees Of The University Of Pennsylvania Three-dimensional manipulation of teams of quadrotors
EP3074832A4 (en) 2013-11-27 2017-08-30 The Trustees Of The University Of Pennsylvania Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav)
CN103941748B (zh) * 2014-04-29 2016-05-25 百度在线网络技术(北京)有限公司 自主导航方法及系统和地图建模方法及系统
CN106030431B (zh) 2014-08-15 2017-11-03 深圳市大疆创新科技有限公司 传感器的自动标定系统及方法
US10395115B2 (en) 2015-01-27 2019-08-27 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for robotic remote sensing for precision agriculture
US10037028B2 (en) 2015-07-24 2018-07-31 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for on-board sensing and control of micro aerial vehicles
US10884430B2 (en) 2015-09-11 2021-01-05 The Trustees Of The University Of Pennsylvania Systems and methods for generating safe trajectories for multi-vehicle teams
WO2017071143A1 (en) 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
CN107209854A (zh) 2015-09-15 2017-09-26 深圳市大疆创新科技有限公司 用于支持顺畅的目标跟随的系统和方法
DE102016211805A1 (de) * 2015-10-09 2017-04-13 Volkswagen Aktiengesellschaft Fusion von Positionsdaten mittels Posen-Graph
DE102015226365A1 (de) * 2015-12-21 2017-06-22 Robert Bosch Gmbh Verfahren zur Messung der Varianz in einem Messsignal, Verfahren zur Datenfusion, Computerprogramm, Maschinenlesbares Speichermedium und Vorrichtung
US10156441B2 (en) * 2016-01-05 2018-12-18 Texas Instruments Incorporated Ground plane estimation in a computer vision system
CN105425818B (zh) * 2016-01-15 2018-08-31 中国人民解放军国防科学技术大学 一种无人飞行器自主安全飞行控制方法
JP6663606B2 (ja) * 2016-03-08 2020-03-13 国立大学法人京都大学 無人航空機位置推定方法及びシステム
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US20190127067A1 (en) * 2016-05-03 2019-05-02 Sunshine Aerial Systems, Inc. Autonomous aerial vehicle
US10234856B2 (en) * 2016-05-12 2019-03-19 Caterpillar Inc. System and method for controlling a machine
US10604236B2 (en) * 2016-06-01 2020-03-31 Regents Of The University Of Minnesota Fault-tolerant aircraft flight control using a subset of aerodynamic control surfaces
CN107543540B (zh) * 2016-06-27 2020-05-15 杭州海康机器人技术有限公司 一种飞行设备的数据融合和飞行模式切换方法及装置
CN106094840B (zh) * 2016-07-20 2019-03-01 深圳洲际通航投资控股有限公司 飞行控制系统及方法
CN106125751A (zh) * 2016-07-21 2016-11-16 天津津宇凯创航空科技发展有限公司 一种巡查飞行器安全控制系统
US10474148B2 (en) * 2016-07-27 2019-11-12 General Electric Company Navigating an unmanned aerial vehicle
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US11164149B1 (en) * 2016-08-31 2021-11-02 Corvus Robotics, Inc. Method and system for warehouse inventory management using drones
CN106526542A (zh) * 2016-10-17 2017-03-22 西南大学 一种基于确定性采样的增广卡尔曼滤波方法
WO2018086133A1 (en) * 2016-11-14 2018-05-17 SZ DJI Technology Co., Ltd. Methods and systems for selective sensor fusion
WO2018125939A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
TW201823687A (zh) * 2016-12-30 2018-07-01 鴻海精密工業股份有限公司 導航系統及其使用方法
JP6275887B2 (ja) * 2017-01-05 2018-02-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd センサ較正方法及びセンサ較正装置
WO2018136753A1 (en) * 2017-01-19 2018-07-26 Vtrus Inc. Indoor mapping and modular control for uavs and other autonomous vehicles, and associated systems and methods
EP3574285A4 (en) * 2017-01-27 2020-12-02 Kaarta, Inc. LASER SCAN DEVICE WITH REAL-TIME ESTIMATE OF CLEAN MOTION ONLINE
US11747144B2 (en) * 2017-03-29 2023-09-05 Agency For Science, Technology And Research Real time robust localization via visual inertial odometry
US10386843B2 (en) * 2017-04-03 2019-08-20 Bell Helicopter Textron Inc. System and method for determining a position of a rotorcraft
KR101982822B1 (ko) * 2017-04-06 2019-05-29 명지대학교 산학협력단 멀티센서 기반의 웨어러블 실내공간정보 구축시스템
KR101956447B1 (ko) * 2017-04-20 2019-03-12 한국과학기술원 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법
US10379545B2 (en) * 2017-07-03 2019-08-13 Skydio, Inc. Detecting optical discrepancies in captured images
CN110998266B (zh) 2017-07-21 2021-12-10 日本电气株式会社 数据处理设备、驱动控制设备、数据处理方法和存储介质
CN107478220B (zh) * 2017-07-26 2021-01-15 中国科学院深圳先进技术研究院 无人机室内导航方法、装置、无人机及存储介质
CN109387192B (zh) * 2017-08-02 2022-08-26 湖南云箭格纳微信息科技有限公司 一种室内外连续定位方法及装置
USD886694S1 (en) * 2017-08-11 2020-06-09 Trifo, Inc. Autonomous vehicle sensor housing
CN107577646A (zh) * 2017-08-23 2018-01-12 上海莫斐信息技术有限公司 一种高精度轨迹运算方法及系统
WO2019055025A1 (en) * 2017-09-15 2019-03-21 Sanyal Amit K INTEGRATED GUIDE AND FEEDBACK CONTROL FOR AUTONOMOUS VEHICLE
US10606277B2 (en) * 2017-09-18 2020-03-31 Baidu Usa Llc Speed optimization based on constrained smoothing spline for autonomous driving vehicles
US10591926B2 (en) * 2017-09-18 2020-03-17 Baidu Usa Llc Smooth road reference for autonomous driving vehicles based on 2D constrained smoothing spline
CN107544533A (zh) * 2017-10-12 2018-01-05 中国人民解放军国防科技大学 多功能便携式微型无人机系统
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
CN109153457A (zh) * 2017-11-24 2019-01-04 深圳市大疆创新科技有限公司 无人机及其航电系统
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US11548166B2 (en) * 2018-03-07 2023-01-10 Skylla Technologies, Inc. Collaborative task execution with humans and robotic vehicles
CN110633336B (zh) * 2018-06-05 2022-08-05 杭州海康机器人技术有限公司 激光数据搜索范围的确定方法、装置及存储介质
US11119507B2 (en) * 2018-06-27 2021-09-14 Intel Corporation Hardware accelerator for online estimation
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
EP3627447B1 (en) * 2018-09-24 2022-06-29 Tata Consultancy Services Limited System and method of multirotor dynamics based online scale estimation for monocular vision
US11866198B2 (en) * 2018-10-29 2024-01-09 California Institute Of Technology Long-duration, fully autonomous operation of rotorcraft unmanned aerial systems including energy replenishment
US11173921B2 (en) 2018-11-19 2021-11-16 Micron Technology, Inc. Sensor fusion to determine reliability of autonomous vehicle operation
CN109375647A (zh) * 2018-11-20 2019-02-22 中国航空工业集团公司西安航空计算技术研究所 微型多源感知计算系统
US11312379B2 (en) * 2019-02-15 2022-04-26 Rockwell Collins, Inc. Occupancy map synchronization in multi-vehicle networks
CN109931926B (zh) * 2019-04-04 2023-04-25 山东智翼航空科技有限公司 一种基于站心坐标系的小型无人机无缝自主式导航方法
CN109916394A (zh) * 2019-04-04 2019-06-21 山东智翼航空科技有限公司 一种融合光流位置和速度信息的组合导航算法
CN110081881B (zh) * 2019-04-19 2022-05-10 成都飞机工业(集团)有限责任公司 一种基于无人机多传感器信息融合技术的着舰引导方法
US11960297B2 (en) * 2019-05-03 2024-04-16 Lg Electronics Inc. Robot generating map based on multi sensors and artificial intelligence and moving based on map
US11565807B1 (en) 2019-06-05 2023-01-31 Gal Zuckerman Systems and methods facilitating street-level interactions between flying drones and on-road vehicles
CN110427046B (zh) * 2019-07-26 2022-09-30 沈阳航空航天大学 一种三维平滑随机游走无人机群移动模型
CN112578788B (zh) * 2019-09-30 2023-05-02 北京百度网讯科技有限公司 车辆避障二次规划方法、装置、设备和可读存储介质
US11389957B2 (en) * 2019-09-30 2022-07-19 Mitsubishi Electric Research Laboratories, Inc. System and design of derivative-free model learning for robotic systems
US10717528B1 (en) * 2019-10-03 2020-07-21 Trung Vo Tran Automatic flying delivery drone in precalculated flight routes and method for delivering merchandises
CN110954101B (zh) * 2019-11-13 2023-05-30 南昌大学 一种利用Vicon的无人机激光定位的调试系统
TWI715358B (zh) * 2019-12-18 2021-01-01 財團法人工業技術研究院 移動載具及其狀態估測與感測融合切換方法
CN111006694B (zh) * 2019-12-29 2022-03-18 北京理工大学 基于航迹规划的长航时惯性导航系统轨迹发生器设计方法
CN112198887B (zh) * 2019-12-31 2022-04-01 北京理工大学 一种多旋翼无人机机载计算机性能评估系统方法
FR3106571B1 (fr) 2020-01-27 2022-08-12 Airbus Helicopters Drone multirotor équipé d’une protection périphérique et procédé de commande d’un tel drone multirotor
US11662472B2 (en) 2020-04-20 2023-05-30 Honeywell International Inc. Integrity monitoring of odometry measurements within a navigation system
CN111578940B (zh) * 2020-04-24 2021-05-11 哈尔滨工业大学 一种基于跨传感器迁移学习的室内单目导航方法及系统
CN111337037B (zh) * 2020-05-19 2020-09-29 北京数字绿土科技有限公司 移动激光雷达slam制图装置及数据处理方法
CN111722614B (zh) * 2020-06-15 2021-07-09 南京航空航天大学 一种基于广义观测器的四旋翼无人机故障估计方法
US20220060628A1 (en) * 2020-08-19 2022-02-24 Honeywell International Inc. Active gimbal stabilized aerial visual-inertial navigation system
CN111896008A (zh) * 2020-08-20 2020-11-06 哈尔滨工程大学 一种改进的鲁棒无迹卡尔曼滤波组合导航方法
AT523734B1 (de) 2020-11-10 2021-11-15 Alpen Adria Univ Klagenfurt Verfahren und System zur Schätzung von Zustandsgrößen eines beweglichen Objekts mit modularer Sensorfusion
CN112414365B (zh) * 2020-12-14 2022-08-16 广州昂宝电子有限公司 位移补偿方法和设备及速度补偿方法和设备
EP4095746A1 (en) * 2021-05-24 2022-11-30 Zenseact AB Ads perception development
CN113361194B (zh) * 2021-06-04 2022-10-04 安徽农业大学 一种基于深度学习的传感器漂移校准方法、电子设备及存储介质
CN114489124B (zh) * 2022-01-05 2023-07-28 南京邮电大学 一种保证无人机编队一致性动作的方法
US11814158B1 (en) 2022-04-28 2023-11-14 Beta Air, Llc Systems and methods for determining areas of discrepancy in flight for an electric aircraft
CN114967751B (zh) * 2022-06-21 2022-12-06 深圳华创电科技术有限公司 飞行器航迹追踪方法、装置、设备及存储介质
CN115235475B (zh) * 2022-09-23 2023-01-03 成都凯天电子股份有限公司 一种基于mcc的ekf-slam后端导航路径优化方法
CN117250855B (zh) * 2023-11-14 2024-02-13 安徽大学 一种基于多目标优化的飞行机器人轨迹规划方法
CN117310773B (zh) * 2023-11-30 2024-02-02 山东省科学院海洋仪器仪表研究所 基于双目立体视觉的水下机器人自主定位方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090248304A1 (en) * 2008-03-28 2009-10-01 Regents Of The University Of Minnesota Vision-aided inertial navigation
JP2010066073A (ja) * 2008-09-09 2010-03-25 Nec Corp 移動体位置推定システム、移動体位置推定方法、及び移動体位置推定プログラム
US8577539B1 (en) * 2010-01-27 2013-11-05 The United States Of America As Represented By The Secretary Of The Air Force Coded aperture aided navigation and geolocation systems

Family Cites Families (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2697796B1 (fr) 1992-11-10 1994-12-09 Sextant Avionique Dispositif d'évitement de collisions pour aéronef notamment avec le sol.
US6278945B1 (en) 1997-11-24 2001-08-21 American Gnc Corporation Fully-coupled positioning process and system thereof
US6308911B1 (en) 1998-10-30 2001-10-30 Lockheed Martin Corp. Method and apparatus for rapidly turning a vehicle in a fluid medium
US6422508B1 (en) 2000-04-05 2002-07-23 Galileo Group, Inc. System for robotic control of imaging data having a steerable gimbal mounted spectral sensor and methods
TW539866B (en) * 2001-07-20 2003-07-01 American Gnc Corp Integrated GPS/IMU method and microsystem thereof
US6876945B2 (en) 2002-03-25 2005-04-05 Nicholas Jon Emord Seamless sensory system
US8712144B2 (en) 2003-04-30 2014-04-29 Deere & Company System and method for detecting crop rows in an agricultural field
US7343232B2 (en) 2003-06-20 2008-03-11 Geneva Aerospace Vehicle control system including related methods and components
US7289906B2 (en) 2004-04-05 2007-10-30 Oregon Health & Science University Navigation system applications of sigma-point Kalman filters for nonlinear estimation and sensor fusion
US7818127B1 (en) 2004-06-18 2010-10-19 Geneva Aerospace, Inc. Collision avoidance for vehicle control systems
US7228227B2 (en) 2004-07-07 2007-06-05 The Boeing Company Bezier curve flightpath guidance using moving waypoints
US7249730B1 (en) 2004-09-23 2007-07-31 United States Of America As Represented By The Secretary Of The Army System and method for in-flight trajectory path synthesis using the time sampled output of onboard sensors
US8019544B2 (en) 2005-01-03 2011-09-13 The Boeing Company Real-time refinement method of spacecraft star tracker alignment estimates
CA2605177C (en) * 2005-04-19 2011-06-21 Jaymart Sensors, Llc Miniaturized inertial measurement unit and associated methods
US20070235592A1 (en) 2005-12-05 2007-10-11 Horn Phillippe L Minimum time or thrust separation trajectory for spacecraft emergency separation
US8050863B2 (en) 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
CN101109640A (zh) * 2006-07-19 2008-01-23 北京航空航天大学 基于视觉的无人驾驶飞机自主着陆导航系统
US7643893B2 (en) 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
US7925049B2 (en) 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
AU2007354885B2 (en) * 2006-12-06 2011-10-20 Honeywell International, Inc. Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles
US20080195316A1 (en) 2007-02-12 2008-08-14 Honeywell International Inc. System and method for motion estimation using vision sensors
CN101676744B (zh) * 2007-10-31 2012-07-11 北京航空航天大学 一种复杂背景低信噪比下弱小目标高精度跟踪方法
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8442355B2 (en) 2008-05-23 2013-05-14 Samsung Electronics Co., Ltd. System and method for generating a multi-dimensional image
US8040981B2 (en) * 2008-07-10 2011-10-18 Xilinx, Inc. Symbol detection in a MIMO communication system
US20110082566A1 (en) 2008-09-04 2011-04-07 Herr Hugh M Implementing a stand-up sequence using a lower-extremity prosthesis or orthosis
US8521339B2 (en) * 2008-09-09 2013-08-27 Aeryon Labs Inc. Method and system for directing unmanned vehicles
US20100114408A1 (en) * 2008-10-31 2010-05-06 Honeywell International Inc. Micro aerial vehicle quality of service manager
US8380362B2 (en) 2009-07-10 2013-02-19 The Boeing Company Systems and methods for remotely collaborative vehicles
CN101598556B (zh) * 2009-07-15 2011-05-04 北京航空航天大学 一种未知环境下无人机视觉/惯性组合导航方法
US8398920B2 (en) 2009-07-28 2013-03-19 The Invention Science Fund I, Llc Drinking vessels and related systems and methods
EP2280241A3 (en) 2009-07-30 2017-08-23 QinetiQ Limited Vehicle control
CN101655561A (zh) * 2009-09-14 2010-02-24 南京莱斯信息技术股份有限公司 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法
DE112011100529T5 (de) 2010-02-14 2012-12-06 Trimble Navigation Limited GNSS-Signalverarbeitungmit regionalern Augmentationsnetzwerk
US9568321B2 (en) 2010-04-19 2017-02-14 Honeywell International Inc. Systems and methods for determining inertial navigation system faults
FR2959812B1 (fr) 2010-05-05 2012-11-16 Thales Sa Procede d'elaboration d'une phase de navigation dans un systeme de navigation impliquant une correlation de terrain.
US9031809B1 (en) 2010-07-14 2015-05-12 Sri International Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
US8676498B2 (en) * 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
US9058633B2 (en) 2010-10-25 2015-06-16 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US8756001B2 (en) 2011-02-28 2014-06-17 Trusted Positioning Inc. Method and apparatus for improved navigation of a moving platform
US8868323B2 (en) * 2011-03-22 2014-10-21 Honeywell International Inc. Collaborative navigation using conditional updates
WO2013105926A1 (en) 2011-03-22 2013-07-18 Aerovironment Inc. Invertible aircraft
US20140032167A1 (en) 2011-04-01 2014-01-30 Physical Sciences, Inc. Multisensor Management and Data Fusion via Parallelized Multivariate Filters
US9035774B2 (en) 2011-04-11 2015-05-19 Lone Star Ip Holdings, Lp Interrogator and system employing the same
US10027952B2 (en) 2011-08-04 2018-07-17 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
US9784582B2 (en) 2011-09-14 2017-10-10 Invensense, Inc. Method and apparatus for navigation with nonlinear models
CN102411371A (zh) * 2011-11-18 2012-04-11 浙江大学 一种基于多传感器服务机器人跟随系统和方法
CN103814570A (zh) 2011-11-30 2014-05-21 三菱电机株式会社 影像监视系统
FR2985581B1 (fr) 2012-01-05 2014-11-28 Parrot Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs
US9104201B1 (en) 2012-02-13 2015-08-11 C&P Technologies, Inc. Method and apparatus for dynamic swarming of airborne drones for a reconfigurable array
US8874360B2 (en) 2012-03-09 2014-10-28 Proxy Technologies Inc. Autonomous vehicle and method for coordinating the paths of multiple autonomous vehicles
WO2014018147A2 (en) 2012-04-30 2014-01-30 The Trustees Of The University Of Pennsylvania Three-dimensional manipulation of teams of quadrotors
WO2013181558A1 (en) 2012-06-01 2013-12-05 Agerpoint, Inc. Systems and methods for monitoring agricultural products
US20140008496A1 (en) 2012-07-05 2014-01-09 Zhou Ye Using handheld device to control flying object
US9004973B2 (en) 2012-10-05 2015-04-14 Qfo Labs, Inc. Remote-control flying copter and method
JP6055274B2 (ja) 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
US9723230B2 (en) 2012-11-30 2017-08-01 University Of Utah Research Foundation Multi-spectral imaging with diffractive optics
FR3000813B1 (fr) 2013-01-04 2016-04-15 Parrot Drone a voilure tournante comprenant des moyens de determination autonome de position dans un repere absolu lie au sol.
US10254118B2 (en) * 2013-02-21 2019-04-09 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
WO2014165031A1 (en) 2013-03-13 2014-10-09 Double Robotics, Inc. Accessory robot for mobile device
US20140312165A1 (en) 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
US9536427B2 (en) 2013-03-15 2017-01-03 Carnegie Mellon University Methods and software for managing vehicle priority in a self-organizing traffic control system
US20140263822A1 (en) 2013-03-18 2014-09-18 Chester Charles Malveaux Vertical take off and landing autonomous/semiautonomous/remote controlled aerial agricultural sensor platform
US9607401B2 (en) * 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
US10063782B2 (en) 2013-06-18 2018-08-28 Motorola Solutions, Inc. Method and apparatus for displaying an image from a camera
WO2014202258A1 (en) * 2013-06-21 2014-12-24 National University Of Ireland, Maynooth A method for mapping an environment
US20150321758A1 (en) 2013-08-31 2015-11-12 II Peter Christopher Sarna UAV deployment and control system
US10302435B2 (en) 2013-09-17 2019-05-28 Invensense, Inc. Method and system for enhanced navigation with multiple sensors assemblies
DE102014211166A1 (de) 2013-11-20 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren, Fusionsfilter und System zur Fusion von Sensorsignalen mit unterschiedlichen zeitlichen Signalausgabeverzügen zu einem Fusionsdatensatz
EP3827654A1 (en) 2013-11-20 2021-06-02 Rowbot Systems LLC Agricultural robot for performing multiple functions in argicultural systems
EP3074832A4 (en) 2013-11-27 2017-08-30 The Trustees Of The University Of Pennsylvania Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav)
US9741140B2 (en) * 2014-05-19 2017-08-22 Microsoft Technology Licensing, Llc Fast solving for loop closure using a relative state space
CA2957081A1 (en) 2014-08-22 2016-02-25 The Climate Corporation Methods for agronomic and agricultural monitoring using unmanned aerial systems
US9129355B1 (en) 2014-10-09 2015-09-08 State Farm Mutual Automobile Insurance Company Method and system for assessing damage to infrastructure
FR3028186A1 (fr) 2014-11-12 2016-05-13 Parrot Equipement de telecommande de drone a longue portee
WO2016076586A1 (en) 2014-11-14 2016-05-19 Lg Electronics Inc. Mobile terminal and controlling method thereof
US20160214715A1 (en) 2014-11-21 2016-07-28 Greg Meffert Systems, Methods and Devices for Collecting Data at Remote Oil and Natural Gas Sites
US20160214713A1 (en) 2014-12-19 2016-07-28 Brandon Cragg Unmanned aerial vehicle with lights, audio and video
US9915956B2 (en) 2015-01-09 2018-03-13 Workhorse Group Inc. Package delivery by means of an automated multi-copter UAS/UAV dispatched from a conventional delivery vehicle
US10395115B2 (en) 2015-01-27 2019-08-27 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for robotic remote sensing for precision agriculture
US10037028B2 (en) 2015-07-24 2018-07-31 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for on-board sensing and control of micro aerial vehicles
US10884430B2 (en) 2015-09-11 2021-01-05 The Trustees Of The University Of Pennsylvania Systems and methods for generating safe trajectories for multi-vehicle teams

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090248304A1 (en) * 2008-03-28 2009-10-01 Regents Of The University Of Minnesota Vision-aided inertial navigation
JP2010066073A (ja) * 2008-09-09 2010-03-25 Nec Corp 移動体位置推定システム、移動体位置推定方法、及び移動体位置推定プログラム
US8577539B1 (en) * 2010-01-27 2013-11-05 The United States Of America As Represented By The Secretary Of The Air Force Coded aperture aided navigation and geolocation systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102258505B1 (ko) * 2019-12-09 2021-05-28 금오공과대학교 산학협력단 무인항공기의 군집 내비게이션 방법

Also Published As

Publication number Publication date
CN109885080B (zh) 2022-09-20
CA2931632C (en) 2020-07-14
EP3074832A4 (en) 2017-08-30
WO2015105597A3 (en) 2015-10-01
WO2015105597A4 (en) 2015-12-10
CN109885080A (zh) 2019-06-14
US20180088597A1 (en) 2018-03-29
EP3470787A1 (en) 2019-04-17
US10732647B2 (en) 2020-08-04
US20170212529A1 (en) 2017-07-27
EP3074832A2 (en) 2016-10-05
WO2015105597A2 (en) 2015-07-16
CA2931632A1 (en) 2015-07-16
CN106030430A (zh) 2016-10-12
JP2016540211A (ja) 2016-12-22
JP6739463B2 (ja) 2020-08-12
EP3470787B1 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
JP6739463B2 (ja) 回転翼型小型飛行体(mav)での屋内環境及び屋外環境における安定自律飛行のためのマルチセンサの融合
Shen et al. Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft MAV
Qin et al. Robust initialization of monocular visual-inertial estimation on aerial robots
US10565732B2 (en) Sensor fusion using inertial and image sensors
EP3158293B1 (en) Sensor fusion using inertial and image sensors
CN111792034B (zh) 使用传感器融合估计可移动物体的状态信息的方法及系统
EP3158411B1 (en) Sensor fusion using inertial and image sensors
Chambers et al. Robust multi-sensor fusion for micro aerial vehicle navigation in GPS-degraded/denied environments
Steiner et al. A vision-aided inertial navigation system for agile high-speed flight in unmapped environments: Distribution statement a: Approved for public release, distribution unlimited
Shen Autonomous navigation in complex indoor and outdoor environments with micro aerial vehicles
Weiss et al. Inertial optical flow for throw-and-go micro air vehicles
Hinzmann et al. Monocular visual-inertial SLAM for fixed-wing UAVs using sliding window based nonlinear optimization
JP2019023865A (ja) エラー回復を実行するための方法、システム、及びプログラム
Nyholm Globally consistent map generation in GPS-degraded environments
Ellingson Cooperative Navigation of Fixed-Wing Micro Air Vehicles in GPS-Denied Environments
McLain et al. Relative Navigation in GPS Degraded Environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6739463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250