JP6275887B2 - Sensor calibration method and sensor calibration apparatus - Google Patents

Sensor calibration method and sensor calibration apparatus Download PDF

Info

Publication number
JP6275887B2
JP6275887B2 JP2017000575A JP2017000575A JP6275887B2 JP 6275887 B2 JP6275887 B2 JP 6275887B2 JP 2017000575 A JP2017000575 A JP 2017000575A JP 2017000575 A JP2017000575 A JP 2017000575A JP 6275887 B2 JP6275887 B2 JP 6275887B2
Authority
JP
Japan
Prior art keywords
sensors
uav
sensor
item
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017000575A
Other languages
Japanese (ja)
Other versions
JP2017102942A (en
Inventor
タン、ケタン
ザオ、ヨンジアン
リ、ビン
ゾウ、グユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017000575A priority Critical patent/JP6275887B2/en
Publication of JP2017102942A publication Critical patent/JP2017102942A/en
Application granted granted Critical
Publication of JP6275887B2 publication Critical patent/JP6275887B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

近年の複数の無人航空機(UAV)は、その小さい寸法及び柔軟性により、監視及び追跡、リモートセンシング、捜索及び救出活動、科学的調査、娯楽及び趣味等のような様々な複数の大衆向け用途に幅広く用いられるようになっている。複数のUAVは、一般的には、複数の通信リンクを介して、遠隔制御機器と搭載された制御プログラムいずれの一つによって、無線制御され、そのような複数の通信リンクの性能は、複数のUAVのミッションの安全性及び有効性に直接的な影響を有することがある。複数のセンサが初期構成から偏差した場合、UAVのミッション中に複数の問題が生じることがある。   Modern unmanned aerial vehicles (UAVs), due to their small size and flexibility, are suitable for various mass-use applications such as surveillance and tracking, remote sensing, search and rescue operations, scientific research, entertainment and hobbies, etc. Widely used. A plurality of UAVs are generally wirelessly controlled by one of a remote control device and a control program installed via a plurality of communication links, and the performance of such a plurality of communication links is a plurality of May have a direct impact on the safety and effectiveness of UAV missions. If multiple sensors deviate from the initial configuration, multiple problems may occur during the UAV mission.

無人航空機(UAV)が複数のセンサを備える場合、UAVの1つの有用な用途は、大量のデータを収集することである。複数の非限定的な例は、ある領域の地形の複数の写真撮影、音声データ記録、大気汚染レベル測定、及び大気質のモニタリングを含む。UAVが離陸する前に、一般的には、データ収集の不足を補うために較正が行われる。UAVが動作中(限定的ではないが、UAVが飛行中である場合を含む)の場合、較正は、複数の無線通信を介して遠隔で行われてもよい。それにも関わらず、多くの場合、UAVは、複数の無線通信の範囲外に移動することがあるため、遠隔による較正は非実用的である。UAVは、複数のセンサのための内部構成または複数のパラメータのセットを有するセンサ装置を有してもよい。装置の設定が初期または最適構成から偏差する場合、収集されたデータは信頼できないまたは正確性の低いものとなる。この困難を克服するために、本明細書に記載された主題は、複数のUAV及び複数のセンサを自動的に較正するための複数の搭載システム及び方法を開示する。自動較正は、UAVの飛行中に行われてもよく(例えば、インライン較正)、データ収集プロセスをストリームライン化してもよい。特に、不要データの収集を回避し、または、データの質を向上させることは、コストを大幅に削減し得る。   When an unmanned aerial vehicle (UAV) is equipped with multiple sensors, one useful use of UAV is to collect large amounts of data. Some non-limiting examples include multiple terrain photography, audio data recording, air pollution level measurement, and air quality monitoring. Before the UAV takes off, calibration is typically performed to compensate for the lack of data collection. When the UAV is in operation (including but not limited to when the UAV is in flight), the calibration may be performed remotely via multiple wireless communications. Nevertheless, remote calibration is impractical because in many cases the UAV may move out of range of multiple wireless communications. The UAV may have a sensor device having an internal configuration for multiple sensors or multiple sets of parameters. If the instrument settings deviate from the initial or optimal configuration, the collected data will be unreliable or inaccurate. To overcome this difficulty, the subject matter described herein discloses multiple onboard systems and methods for automatically calibrating multiple UAVs and multiple sensors. Automatic calibration may be performed during flight of the UAV (eg, inline calibration) and may streamline the data collection process. In particular, avoiding collection of unnecessary data or improving data quality can significantly reduce costs.

一態様において、本明細書では、センサ較正方法が開示される。方法は、無人航空機(UAV)に接続された複数の異なるタイプの複数のセンサから、UAVの飛行中にセンサデータを取得する段階であって、複数のセンサは、互いに対する初期空間構成を有する段階と、プロセッサを介して、複数のセンサの互いに対する初期空間構成から次の空間構成への空間構成における変化を、センサデータに基づいて検出する段階と、次の空間構成を決定する段階と、複数のセンサのうち少なくとも1つからのデータを、次の空間構成に基づいて、UAVの飛行中に調整する段階とを備える。   In one aspect, a sensor calibration method is disclosed herein. The method includes obtaining sensor data during flight of a UAV from a plurality of different types of sensors connected to an unmanned aerial vehicle (UAV), the plurality of sensors having an initial spatial configuration relative to each other. And detecting a change in the spatial configuration of the plurality of sensors from the initial spatial configuration to the next spatial configuration based on the sensor data via the processor, determining the next spatial configuration, Adjusting data from at least one of the sensors during UAV flight based on the following spatial configuration:

他の態様において、本明細書では、インラインセンサの較正装置が開示され、装置は、(a)(i)無人航空機(UAV)と接続され、かつ、(ii)UAVの飛行中にセンサデータを与えるように構成される複数の異なるタイプの複数のセンサであって、互いに対する初期空間構成を有する複数のセンサと、(b)個別にまたは集合的に、(i)センサデータに基づいて、複数のセンサの、互いに対する初期空間構成から次の空間構成への、空間構成における変化を検出し、(ii)次の空間構成を決定し、(iii)UAVの飛行中に、次の空間構成に基づいて、複数のセンサのうち少なくとも1つからのデータを調整するように構成される、1つまたは複数のプロセッサとを備える。   In another aspect, an inline sensor calibration apparatus is disclosed herein, wherein the apparatus is (a) (i) connected to an unmanned aerial vehicle (UAV) and (ii) sensor data during flight of the UAV. A plurality of different types of sensors configured to provide a plurality of sensors having an initial spatial configuration relative to each other, (b) individually or collectively, (i) based on sensor data Detecting a change in the spatial configuration from the initial spatial configuration to the next spatial configuration of each other, (ii) determining the next spatial configuration, and (iii) moving to the next spatial configuration during the flight of the UAV And one or more processors configured to condition data from at least one of the plurality of sensors.

他の態様において、本明細書では、センサ較正方法が開示され、方法は、無人航空機(UAV)と接続された複数の異なるタイプの複数のセンサからセンサデータを取得する段階と、基準座標系を選択する段階と、プロセッサを介して、複数のセンサ間の予測される空間関係に基づいて、複数のセンサからのセンサデータを基準座標系に表す段階と、プロセッサを介して、複数のセンサ間におけるセンサデータの不一致を検出する段階であって、不一致は、複数のセンサ間の予測される空間関係におけるエラーを示す、段階と、(e)実際の空間構成を決定する段階と、(f)実際の空間構成に基づいて、複数のセンサのうち少なくとも1つからのデータを調整する段階とを備える。   In another aspect, a sensor calibration method is disclosed herein, the method comprising: obtaining sensor data from a plurality of different types of sensors connected to an unmanned aerial vehicle (UAV); and a reference coordinate system. Selecting the sensor data from the plurality of sensors in a reference coordinate system based on the predicted spatial relationship between the plurality of sensors via the processor, and between the plurality of sensors via the processor Detecting a mismatch in sensor data, wherein the mismatch indicates an error in a predicted spatial relationship between a plurality of sensors; (e) determining an actual spatial configuration; and (f) actual Adjusting data from at least one of the plurality of sensors based on the spatial configuration of the plurality of sensors.

他の態様において、本明細書では、センサ較正装置が開示され、装置は、(a)(i)無人航空機(UAV)と接続され、かつ、(ii)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、(b)個別にまたは集合的に、(i)基準座標系を選択し、(ii)複数のセンサ間の予測される空間関係に基づいて、複数のセンサからのセンサデータを基準座標系に表し、(iii)複数のセンサ間におけるセンサデータの不一致であって、複数のセンサ間の予測される空間関係におけるエラーを示す不一致を検出し、(iv)実際の空間構成を決定し、(v)実際の空間構成に基づいて、複数のセンサのうち少なくとも1つからのデータを調整するように構成される、1つまたは複数のプロセッサとを備える。   In other aspects, disclosed herein is a sensor calibration device, wherein the device is (a) (i) connected to an unmanned aerial vehicle (UAV) and (ii) configured to provide sensor data. (B) individually or collectively, (i) select a reference coordinate system, and (ii) from a plurality of sensors based on a predicted spatial relationship between the plurality of sensors. (Iii) is detected in the reference coordinate system, and (iii) a mismatch in sensor data between a plurality of sensors, which indicates an error in a predicted spatial relationship between the plurality of sensors, is detected. One or more processors configured to determine a spatial configuration and (v) adjust data from at least one of the plurality of sensors based on the actual spatial configuration.

他の態様において、本明細書では、センサ較正方法が開示され、方法は、無人航空機(UAV)と接続された複数の異なるタイプの複数のセンサからセンサデータを取得する段階と、プロセッサを介して、複数のセンサを複数のサブセットにグループ化する段階であって、各サブセットは、(i)少なくとも2つのセンサと、(ii)複数のセンサの異なる組み合わせとを有する段階と、プロセッサを介して、センサデータに基づいて、各サブセットにおける少なくとも2つのセンサ間の予測される空間関係を算出する段階と、予測される空間関係に基づいて、各サブセットにおける少なくとも2つのセンサ間の実際の空間関係を決定する段階と、プロセッサを介して、少なくとも2つのセンサ間の実際の空間関係に基づいて、各サブセットにおける複数のセンサの、互いに対する空間構成を算出する段階とを備える。   In another aspect, disclosed herein is a sensor calibration method, the method comprising: obtaining sensor data from a plurality of different types of sensors connected to an unmanned aerial vehicle (UAV); and via a processor. Grouping a plurality of sensors into a plurality of subsets, each subset comprising (i) at least two sensors and (ii) different combinations of the plurality of sensors, and via a processor, Calculating a predicted spatial relationship between at least two sensors in each subset based on sensor data and determining an actual spatial relationship between at least two sensors in each subset based on the predicted spatial relationship; And each subset based on the actual spatial relationship between at least two sensors via the processor Comprising definitive of the plurality of sensors, and calculating a spatial configuration relative to one another.

他の態様において、本明細書では、センサ較正装置が開示され、装置は、(a)(i)無人航空機(UAV)と接続され、かつ、(ii)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、(b)個別にまたは集合的に、(i)複数のセンサを、複数のサブセットであって、各サブセットは、(i)少なくとも2つのセンサと、(ii)複数のセンサの異なる組み合わせとを有する複数のサブセットにグループ化し、(ii)センサデータに基づいて、各サブセットにおける少なくとも2つのセンサ間の予測される空間関係を算出し、(iii)予測される空間関係に基づいて、各サブセットにおける少なくとも2つのセンサ間の実際の空間関係を決定し、(iv)少なくとも2つのセンサ間の実際の空間関係に基づいて、各サブセットにおける複数のセンサの、互いに対する空間構成を算出するように構成される、1つまたは複数のプロセッサとを備える。   In other aspects, disclosed herein is a sensor calibration device, wherein the device is (a) (i) connected to an unmanned aerial vehicle (UAV) and (ii) configured to provide sensor data. A plurality of different types of sensors; (b) individually or collectively, (i) a plurality of sensors, a plurality of subsets, each subset comprising: (i) at least two sensors; and (ii) Grouping into a plurality of subsets having different combinations of sensors, (ii) calculating a predicted spatial relationship between at least two sensors in each subset based on sensor data, and (iii) a predicted space Based on the relationship, determine an actual spatial relationship between at least two sensors in each subset; and (iv) an actual spatial relationship between the at least two sensors. And Zui, a plurality of sensors in each subset, configured to calculate the spatial configuration relative to one another, and a one or more processors.

他の態様において、本明細書では、センサ較正方法が開示され、方法は、複数の異なるタイプの複数のセンサからセンサデータを取得する段階と、プロセッサを介して、複数のセンサを複数のサブセットにグループ化する段階であって、各サブセットは、(i)基準センサと1つまたは複数の測定センサとを備える少なくとも2つのセンサ、及び(ii)複数のセンサの異なる組み合わせを有し、複数のサブセットの少なくとも2つは、複数の異なる基準センサを有する段階と、プロセッサを介して、センサデータに基づいて、サブセット当たり少なくとも1つのカルマンフィルタを用いて、各サブセットにおける少なくとも2つのセンサ間の実際の空間関係を決定する段階と、プロセッサを介して、少なくとも2つのセンサ間の実際の空間関係に基づいて、各サブセットにおける複数のセンサの、互いに対する空間構成を算出する段階とを備える。   In another aspect, a sensor calibration method is disclosed herein, the method comprising obtaining sensor data from a plurality of different types of sensors and, via a processor, the plurality of sensors into a plurality of subsets. Grouping, each subset comprising (i) at least two sensors comprising a reference sensor and one or more measurement sensors, and (ii) different combinations of the plurality of sensors, At least two of which have a plurality of different reference sensors and an actual spatial relationship between at least two sensors in each subset using a processor and at least one Kalman filter per subset based on sensor data And the actual space between at least two sensors via the processor Based on engagement, a plurality of sensors in each subset, and a step of calculating a spatial configuration relative to one another.

他の態様において、本明細書では、センサ較正装置が開示され、装置は、(a)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、(b)個別にまたは集合的に、(1)複数のセンサを、複数のサブセットであって、各サブセットは、(i)基準センサと1つまたは複数の測定センサとを備える少なくとも2つのセンサ、及び(ii)複数のセンサの異なる組み合わせを有し、複数のサブセットの少なくとも2つは、複数の異なる基準センサを有する、複数のサブセットにグループ化し、(2)センサデータに基づいて、サブセット当たり少なくとも1つのカルマンフィルタを用いて、各サブセットにおける少なくとも2つのセンサ間の実際の空間関係を決定し、(3)少なくとも2つのセンサ間の実際の空間関係に基づいて、各サブセットにおける複数のセンサの、互いに対する空間構成を算出するように構成される、1つまたは複数のプロセッサとを備える。   In another aspect, disclosed herein is a sensor calibration device, the device comprising: (a) a plurality of different types of sensors configured to provide sensor data; and (b) individually or collectively. (1) a plurality of sensors in a plurality of subsets, each subset comprising (i) at least two sensors comprising a reference sensor and one or more measurement sensors; and (ii) a plurality of sensors At least two of the plurality of subsets having different combinations, grouped into a plurality of subsets having a plurality of different reference sensors, and (2) using at least one Kalman filter per subset based on sensor data, Determining an actual spatial relationship between at least two sensors in the subset; (3) an actual spatial relationship between at least two sensors; Based on the provided plurality of sensors in each subset, configured to calculate the spatial configuration relative to one another, and one or more processors.

複数のシステム及び複数の方法のいくつかまたは全ては、複数の異なるタイプの複数のセンサを含む。複数の異なるタイプの複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える。複数のセンサのうち少なくとも1つは、慣性センサであり、複数のセンサからのセンサデータは、慣性センサと関連付けられる座標系に与えられる。   Some or all of the plurality of systems and methods include a plurality of different types of sensors. The plurality of different types of sensors includes at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor. At least one of the plurality of sensors is an inertial sensor, and sensor data from the plurality of sensors is provided to a coordinate system associated with the inertial sensor.

いくつかの実施形態では、複数のシステム及び複数の方法の初期空間構成は、複数のセンサの各々に対して、互いに対する初期位置及び初期方向を備える。空間構成における変化は、複数のセンサのうち少なくとも1つの、複数のセンサのうちの他の複数のセンサに対する、初期位置及び/または初期方向における変化を備える。   In some embodiments, the initial spatial configuration of the plurality of systems and methods comprises an initial position and an initial direction relative to each other for each of the plurality of sensors. The change in the spatial configuration comprises a change in an initial position and / or an initial direction with respect to at least one of the plurality of sensors and a plurality of other sensors of the plurality of sensors.

いくつかの実施形態では、複数のシステム及び複数の方法の初期空間構成は、UAVの離陸に先立って与えられる。代替的に、初期空間構成は、UAVの飛行中に与えられる。   In some embodiments, the initial spatial configuration of systems and methods is provided prior to UAV takeoff. Alternatively, the initial spatial configuration is given during UAV flight.

いくつかの実施形態では、複数のシステム及び複数の方法の空間構成における変化は、UAVの動きによって生じる。追加的な複数の実施形態において、空間構成における変化は、UAVの振動によって生じる。   In some embodiments, changes in the spatial configuration of multiple systems and methods are caused by UAV movement. In additional embodiments, the change in spatial configuration is caused by UAV oscillation.

いくつかの例において、1つまたは複数のプロセッサは、複数のカルマンフィルタを用いて次の空間構成を決定し、複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える。   In some examples, the one or more processors use a plurality of Kalman filters to determine a next spatial configuration, the plurality of Kalman filters comprising one or more extended Kalman filters and / or unscented Kalman filters.

いくつかの実施形態では、複数のシステム及び複数の方法の1つまたは複数のプロセッサは、UAVに搭載される。代替的に、1つまたは複数のプロセッサは、UAVの外部デバイスにあり、UAVの飛行中に、UAVと通信を行う。   In some embodiments, one or more processors of multiple systems and methods are mounted on a UAV. Alternatively, the one or more processors are in an external device of the UAV and communicate with the UAV during the UAV flight.

いくつかの実施形態では、複数のシステム及び複数の方法の複数の異なるタイプの複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える。複数のセンサのうち少なくとも1つは、慣性センサである。特定の複数の例では、基準座標系は、慣性センサと関連付けられる座標系である。   In some embodiments, the plurality of different types of sensors of the plurality of systems and methods comprise at least two of vision sensors, GPS sensors, inertial sensors, infrared sensors, ultrasonic sensors, or lidar sensors. At least one of the plurality of sensors is an inertial sensor. In particular examples, the reference coordinate system is a coordinate system associated with the inertial sensor.

いくつかの実施形態では、複数のセンサ間の予測される空間関係は、複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える複数のセンサの初期空間構成からの、構成における予測される空間変化に基づく。追加的な複数の実施形態において、初期空間構成は、UAVの離陸に先立って、またはUAVの飛行中に与えられる。   In some embodiments, the predicted spatial relationship between the plurality of sensors is in a configuration from an initial spatial configuration of the plurality of sensors comprising an initial position and an initial direction relative to each other for each of the plurality of sensors. Based on predicted spatial changes. In additional embodiments, the initial spatial configuration is provided prior to UAV take-off or during UAV flight.

いくつかの実施形態では、複数のセンサの互いに対する空間位置及び相対的空間方向を備える。   In some embodiments, the plurality of sensors comprises a spatial position and a relative spatial direction relative to each other.

いくつかの用途において、複数のセンサの実際の空間構成は、UAVの動作中に決定される。複数のセンサの実際の空間構成は、UAVの飛行中に決定される。いくつかの例において、複数のセンサのうち少なくとも1つからのデータは、UAVの動作中に調整される。   In some applications, the actual spatial configuration of multiple sensors is determined during UAV operation. The actual spatial configuration of the sensors is determined during flight of the UAV. In some examples, data from at least one of the plurality of sensors is adjusted during operation of the UAV.

複数の特定の実施形態では、実際の空間構成に基づいて調整されたデータは、ビジョンセンサによって記録された画像データである。   In some specific embodiments, the data adjusted based on the actual spatial configuration is image data recorded by a vision sensor.

様々な複数の例において、各サブセットは、基準センサ及び1つまたは複数の測定センサを有する。各サブセットに対する基準センサは、同じまたは異なる。   In various examples, each subset has a reference sensor and one or more measurement sensors. The reference sensor for each subset is the same or different.

いくつかの実施形態では、複数のシステム及び複数の方法は、空間構成に基づいて、複数のセンサのうち少なくとも1つからのデータを調整する段階をさらに備える。さらに、実際の空間構成に基づいて調整されたデータは、ビジョンセンサによって記録された画像データである。   In some embodiments, the plurality of systems and methods further comprise adjusting data from at least one of the plurality of sensors based on the spatial configuration. Furthermore, the data adjusted based on the actual space configuration is image data recorded by the vision sensor.

複数の様々な実施形態では、各サブセットにおける複数のセンサ間の予測される空間関係は、複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える複数のセンサの初期空間構成からの、構成における予測される空間変化に基づく。複数のさらなる実施形態では、初期空間構成は、UAVの離陸に先立って、またはUAVの飛行中に与えられる。   In various embodiments, the predicted spatial relationship between the plurality of sensors in each subset is derived from an initial spatial configuration of the plurality of sensors with an initial position and an initial direction relative to each other for each of the plurality of sensors. Based on the expected spatial variation in the configuration. In some further embodiments, the initial spatial configuration is provided prior to UAV take-off or during UAV flight.

複数のシステム及び/または複数の方法のいくつかまたは全ては、複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を含む、複数のセンサ間の予測される空間関係を備える。   Some or all of the systems and / or methods comprise a predicted spatial relationship between the plurality of sensors, including the relative spatial position and relative spatial direction of the plurality of sensors relative to each other.

いくつかの実施形態では、複数のシステム及び/または複数の方法は、複数のセンサを複数のサブセットにグループ化する。さらに、複数のシステム及び/または複数の方法は、センサデータに基づいて、各サブセットにおける少なくとも2つのセンサ間の予測される空間関係を算出し、カルマンフィルタは、予測される空間関係に基づいて、実際の空間関係を決定する。   In some embodiments, multiple systems and / or multiple methods group multiple sensors into multiple subsets. Further, the plurality of systems and / or the plurality of methods calculate a predicted spatial relationship between at least two sensors in each subset based on the sensor data, and the Kalman filter is based on the predicted spatial relationship. Determine the spatial relationship.

本発明の複数の異なる態様は、個別に、集合的にまたは互いとの組み合わせで認識され得ることが、理解されるべきである。本明細書に記載された本発明の複数の様々な態様は、後述される特定の複数の用途またはあらゆる種類の移動可能な及び/または固定の複数のオブジェクト間におけるデータ通信のいずれに対しても適用可能である。   It should be understood that multiple different aspects of the present invention may be recognized individually, collectively or in combination with each other. The various aspects of the invention described herein may be used for any of the specific applications described below or data communication between any type of movable and / or fixed objects. Applicable.

本発明の他の複数の目的及び複数の特徴は、明細書、特許請求の範囲及び添付された複数の図面を参照することによって明らかになろう。   Other objects and features of the invention will become apparent by reference to the specification, claims and appended drawings.

[組み込みによる参照]
本明細書に記載される複数の文献、複数の特許及び複数の特許出願の全ては、各個別の文献、特許または特許出願が参照により組み込まれるべく詳細にかつ個別に示されたものと同程度に、参照により本明細書に組み込まれる。
[Built-in reference]
All documents, patents and patent applications mentioned in this specification are all to the same extent as if each individual document, patent or patent application was specifically and individually indicated to be incorporated by reference. Which is incorporated herein by reference.

本発明の新規な複数の特徴は、添付の特許請求の範囲において詳細に記載される。本発明の複数の特徴及び複数の利点に対するより深い理解は、本発明の複数の原理が用いられる例示的な複数の実施形態を記載する以下の詳細な説明及び添付の複数の図面の参照により得られる。   The novel features of the invention are set forth with particularity in the appended claims. A better understanding of the features and advantages of the present invention will be obtained by reference to the following detailed description that sets forth illustrative embodiments, in which the principles of the invention are utilized, and the accompanying drawings of which: It is done.

本発明の実施形態に係る複数の搭載されたセンサを有するUAVの例である。It is an example of UAV which has the some mounted sensor which concerns on embodiment of this invention.

本発明の実施形態に係る基準フレーム変換の例である。It is an example of the reference | standard frame conversion which concerns on embodiment of this invention.

本発明の実施形態に係る第1及び第2のカメラを有するステレオビジョンカメラからの画像の例である。It is an example of the image from the stereo vision camera which has the 1st and 2nd camera which concerns on embodiment of this invention.

自動化されたエラー検出及びインライン較正処理の全体を示すフローチャートである。It is a flowchart which shows the whole automated error detection and in-line calibration process.

本発明の実施形態に係るセンサエラー検出方法のフローチャートである。It is a flowchart of the sensor error detection method which concerns on embodiment of this invention.

本発明の実施形態に係るインライン較正方法を示すフローチャートである。It is a flowchart which shows the in-line calibration method which concerns on embodiment of this invention.

本発明の実施形態に係る均一な基準センサを有するシステムアーキテクチャの例である。2 is an example of a system architecture with a uniform reference sensor according to an embodiment of the present invention.

本発明の実施形態に係る複数の基準センサを有するシステムアーキテクチャの例である。2 is an example of a system architecture having a plurality of reference sensors according to an embodiment of the present invention.

本発明の実施形態に係る無人航空機を示す。1 shows an unmanned aerial vehicle according to an embodiment of the present invention.

本発明の実施形態に係る支持機構及び積載物を含む可動オブジェクトを示す。1 shows a movable object including a support mechanism and a load according to an embodiment of the present invention.

本発明の実施形態に係る可動オブジェクトを制御するためのシステムのブロック図による模式図である。It is a schematic diagram by the block diagram of the system for controlling the movable object which concerns on embodiment of this invention.

本発明のシステム、デバイス及び方法は、無人航空機(UAV)に搭載された複数のセンサ及びUAVに搭載されたセンサを較正する方法を提供する。UAVの説明は、あらゆる種類の無人輸送体またはあらゆる種類の可動オブジェクトに適用可能である。輸送体の説明は、UAVに搭載されている状態のあらゆるセンサに適用可能である。UAVに搭載された複数のセンサの例は、複数のビジョンセンサ、GPSまたはIMUを含む。   The systems, devices and methods of the present invention provide a plurality of sensors mounted on an unmanned aerial vehicle (UAV) and a method for calibrating sensors mounted on a UAV. The UAV description is applicable to any kind of unmanned transporter or any kind of movable object. The description of the transporter is applicable to any sensor that is mounted on the UAV. Examples of multiple sensors mounted on a UAV include multiple vision sensors, GPS or IMU.

本発明のシステム、デバイス及び方法は、無人航空機(UAV)に搭載された複数のセンサ及びUAVに搭載された複数のセンサを較正する複数の方法を提供する。記載された開示の複数の様々な態様は、複数のセンサを備える任意の複数の輸送体に加えて、ここで特定される複数の用途のいずれかに適用可能である。本発明の異なる態様は、個別に、集合的にまたは互いとの組み合わせで認識され得ることが、理解されるべきである。   The systems, devices and methods of the present invention provide a plurality of sensors mounted on an unmanned aerial vehicle (UAV) and a plurality of methods for calibrating a plurality of sensors mounted on a UAV. The various aspects of the described disclosure are applicable to any of the applications identified herein, in addition to any of the plurality of transporters comprising a plurality of sensors. It should be understood that different aspects of the invention may be recognized individually, collectively or in combination with each other.

図1は、無人航空機(UAV)の例を示す。本明細書におけるUAV101のあらゆる説明は、任意の種類の可動オブジェクトに適用可能である。UAVの説明は、(例えば、空中、陸上、水中または宇宙を横断可能な)任意の種類の無人可動オブジェクトに適用可能である。UAVは、リモートコントローラからの複数のコマンドに応答可能であってもよい。リモートコントローラは、UAVに接続されていなくてもよく、リモートコントローラは、離れた位置からUAVと無線通信を行ってもよい。いくつかの例において、UAVは、自主的にまたは半自主的に動作可能であってもよい。UAVは、事前にプログラムされた複数の命令のセットに従うことが可能であってもよい。いくつかの例において、UAVは、リモートコントローラからの1つまたは複数のコマンドに応答することによって半自主的に動作してもよく、または自主的に動作してもよい。例えば、リモートコントローラからの1つまたは複数のコマンドは、UAVによる一連の自主的または半自主的な動作を、1つまたは複数のパラメータに従って開始させてもよい。   FIG. 1 shows an example of an unmanned aerial vehicle (UAV). Any description of UAV 101 herein is applicable to any type of movable object. The UAV description is applicable to any type of unmanned movable object (eg, capable of traversing air, land, water or space). The UAV may be able to respond to multiple commands from the remote controller. The remote controller may not be connected to the UAV, and the remote controller may perform wireless communication with the UAV from a remote location. In some examples, the UAV may be able to operate autonomously or semi-autonomously. A UAV may be capable of following a set of pre-programmed instructions. In some examples, the UAV may operate semi-autonomously by responding to one or more commands from a remote controller, or may operate autonomously. For example, one or more commands from a remote controller may initiate a series of autonomous or semi-autonomous operations by the UAV according to one or more parameters.

UAV101は、航空機であってもよい。UAV101は、UAV101が空中を動き回ることを可能にし得る1つまたは複数の推進ユニット102を有してもよい。1つまたは複数の推進ユニット102は、UAV101が、1つまたは複数、2つまたはそれより多く、3つまたはそれより多く、4つまたはそれより多く、5つまたはそれより多く、6つまたはそれより多くの自由度で動き回ることを可能にしてもよい。いくつかの例において、UAV101は、1、2、3またはそれより多くの回転軸の周りを回転可能であってもよい。複数の回転軸は、互いに直交していてもよい。複数の回転軸は、UAVの飛行コース全体にわたって、互いに直交した状態を維持してもよい。複数の回転軸は、ピッチ軸、ロール軸及び/またはヨー軸を含んでもよい。UAV101は、1つまたは複数の次元に沿って移動可能であってもよい。例えば、UAV101は、1つまたは複数の回転翼によって生成された揚力によって、上方に移動可能であってもよい。いくつかの例において、UAVは、Z軸(UAVの方向に対して、上向きであってもよい)、X軸及び/またはY軸(側方に向かってもよい)に沿って移動可能であってもよい。UAVは、互いに直交し得る1、2または3つの軸に沿って移動可能であってもよい。   The UAV 101 may be an aircraft. The UAV 101 may have one or more propulsion units 102 that may allow the UAV 101 to move about in the air. One or more propulsion units 102 have one or more UAVs 101, two or more, three or more, four or more, five or more, six or more It may be possible to move around with more degrees of freedom. In some examples, the UAV 101 may be rotatable about 1, 2, 3, or more axes of rotation. The plurality of rotation axes may be orthogonal to each other. The plurality of rotation axes may remain orthogonal to each other over the entire flight course of the UAV. The plurality of rotation axes may include a pitch axis, a roll axis, and / or a yaw axis. The UAV 101 may be movable along one or more dimensions. For example, the UAV 101 may be able to move upward by lift generated by one or more rotor blades. In some examples, the UAV is movable along the Z-axis (which may be upward relative to the direction of the UAV), the X-axis and / or the Y-axis (which may be lateral). May be. The UAV may be movable along one, two or three axes that may be orthogonal to each other.

UAV101は、回転翼機であってもよい。いくつかの例において、UAV101は、複数の回転翼を含み得るマルチ回転翼機であってもよい。複数の回転翼は、UAVに対して揚力を生成するべく、回転可能であってもよい。複数の回転翼は、UAVが自由に空中を動き回ることを可能にし得る複数の推進ユニットであってもよい。複数の回転翼は、同じ速度で回転してもよく、及び/または同じ量の揚力または推力を生成してもよい。複数の回転翼は、任意に、異なる速度で回転してもよく、これは、異なる量の揚力または推力を生成し、及び/またはUAVの回転を可能にし得る。いくつかの例において、1、2、3、4、5、6、7、8、9、10またはそれより多くの回転翼が、UAVに与えられてもよい。複数の回転翼は、これらの複数の回転軸が互いに平行となるように構成されてもよい。いくつかの例において、複数の回転翼は、互いに対して任意の角度をなす複数の回転軸を有してもよく、これは、UAVの動きに影響を与え得る。   The UAV 101 may be a rotary wing aircraft. In some examples, UAV 101 may be a multi-rotor aircraft that may include multiple rotor blades. The plurality of rotor blades may be rotatable to generate lift for the UAV. The plurality of rotor blades may be a plurality of propulsion units that may allow the UAV to freely move about in the air. The plurality of rotor blades may rotate at the same speed and / or generate the same amount of lift or thrust. The plurality of rotors may optionally rotate at different speeds, which may generate different amounts of lift or thrust and / or allow UAV rotation. In some examples, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 or more rotors may be provided to the UAV. The plurality of rotor blades may be configured such that the plurality of rotation axes are parallel to each other. In some examples, a plurality of rotor blades may have a plurality of axes of rotation that are at an arbitrary angle with respect to each other, which can affect UAV movement.

UAV101は、UAVの動作中にデータを収集する複数の搭載されたセンサを有してもよい。複数のセンサは、初期構成を有してもよい。複数のセンサの初期構成は、初期及び/または最適な設定から偏差してもよい。従って、UAVが飛行中の場合における複数のセンサの自動インライン較正は、有益であり、いくつかの場合には、収集されたデータの質及び信頼性確保のために必要となり得る。本明細書に記載された主題は、UAV及びセンサを自動的に較正するための搭載システム及び方法を開示する。複数の自動インライン較正システム及び方法は、データ収集プロセスを容易にし得る。   The UAV 101 may have a plurality of on-board sensors that collect data during UAV operation. The plurality of sensors may have an initial configuration. The initial configuration of the plurality of sensors may deviate from the initial and / or optimal settings. Thus, automatic in-line calibration of multiple sensors when the UAV is in flight is beneficial and in some cases may be necessary to ensure the quality and reliability of the collected data. The subject matter described herein discloses an onboard system and method for automatically calibrating UAVs and sensors. Multiple automated in-line calibration systems and methods can facilitate the data collection process.

UAV101は、複数のビジョンセンサを備えてもよく、例えば、イメージセンサは、単眼カメラ、ステレオビジョンカメラ、レーダ、ソナーまたは赤外線カメラであってもよい。UAV101は、複数の位置センサ、例えば、GPS、IMUまたはLIDARをさらに備えてもよい。UAVに搭載された複数のセンサは、UAVの位置、他の複数のオブジェクトの位置、UAV101の方向または環境情報のような情報を収集してもよい。単一のセンサが、上述された複数のパラメータのいずれか1つを完全に決定可能であってもよく、または複数のセンサのグループが、列挙された複数のパラメータのうち1つを決定するために連携してもよい。複数のセンサは、位置のマッピング、複数の位置間のナビゲーション、複数の障害物の検出またはターゲットの検出のために用いられてもよい。   The UAV 101 may include a plurality of vision sensors. For example, the image sensor may be a monocular camera, a stereo vision camera, a radar, a sonar, or an infrared camera. The UAV 101 may further include a plurality of position sensors, for example, GPS, IMU, or LIDAR. The plurality of sensors mounted on the UAV may collect information such as the position of the UAV, the positions of other objects, the direction of the UAV 101, or environment information. A single sensor may be able to fully determine any one of the above-described parameters, or a group of sensors determines one of the listed parameters You may cooperate with. Multiple sensors may be used for location mapping, navigation between multiple locations, multiple obstacle detection or target detection.

複数のセンサは、UAVに搭載されまたは非搭載の状態で配置されてもよい。複数の搭載されたセンサは、UAV101の本体に配置されてもよい。複数のセンサ103は、UAV101の本体外部に取り付けられてもよく、及び/またはセンサ104は、UAV101の本体内部に取り付けられてもよい。複数のセンサは、本体の単一領域の中央に配置されてもよい。代替的に、複数のセンサは、本体の複数の異なる位置に配置されてもよい。複数のセンサは、永久的にまたは着脱可能に、UAV101に取り付けられてもよい。UAV101は、積載物を運搬する支持機構105を有してもよい。複数のセンサは、支持機構106に取り付けられてもよい。   The plurality of sensors may be mounted on the UAV or not mounted. A plurality of mounted sensors may be arranged in the main body of the UAV 101. The plurality of sensors 103 may be attached outside the main body of the UAV 101 and / or the sensor 104 may be attached inside the main body of the UAV 101. The plurality of sensors may be arranged in the center of a single region of the body. Alternatively, the plurality of sensors may be disposed at a plurality of different positions on the body. The plurality of sensors may be attached to the UAV 101 permanently or detachably. The UAV 101 may have a support mechanism 105 that transports the load. The plurality of sensors may be attached to the support mechanism 106.

複数のセンサは、1つまたは複数のセンサの複数のパラメータによって特徴づけられてもよい。複数のセンサパラメータは、複数の内部または外部パラメータであってもよい。内部パラメータは、センサの内部構成に関するものであってもよい。複数の内部パラメータの例は、焦点距離、倍率、複数の径方向歪み係数及び複数の接線歪み係数を含んでもよい。内部パラメータは、複数のハードウェア構成に依存する任意の複数のパラメータであってもよく、いくつかの場合には、複数の内部パラメータは、センサに対する工場設定によって設定されてもよい。複数の外部パラメータは、任意の2つまたはそれより多くのセンサ間の空間関係に関するものであってもよい。各センサは、UAVに搭載された他の複数のセンサに依存しない相対座標系を有してもよい。複数の外部特性は、UAVの複数の異なる位置における複数のセンサからのデータを組み合わせるセンサフュージョンにとって重要な場合がある。センサフュージョンは、他のセンサの基準フレームと一致するように、所与のセンサの複数の相対座標を変換する処理を伴ってもよい。   The plurality of sensors may be characterized by a plurality of parameters of the one or more sensors. The plurality of sensor parameters may be a plurality of internal or external parameters. The internal parameter may relate to the internal configuration of the sensor. Examples of multiple internal parameters may include focal length, magnification, multiple radial distortion coefficients, and multiple tangential distortion coefficients. The internal parameters may be any number of parameters that depend on multiple hardware configurations, and in some cases, the multiple internal parameters may be set by factory settings for the sensor. The plurality of external parameters may relate to a spatial relationship between any two or more sensors. Each sensor may have a relative coordinate system that does not depend on a plurality of other sensors mounted on the UAV. Multiple external characteristics may be important for sensor fusion that combines data from multiple sensors at different locations in the UAV. Sensor fusion may involve processing to transform a plurality of relative coordinates of a given sensor to match the reference frame of another sensor.

図2は、所与のセンサの複数の相対座標を、他のセンサの基準フレームと一致するように変換処理を説明する。図2は、センサ1の座標系202においてセンサ1から見た立方体201と、センサ2の座標系204においてセンサ2から見た立方体203とを示す。変換は、センサ2の座標系204が、センサ1の座標系202と一致するように回転させられるように行われてもよい。変換は、変換行列によって数学的に説明されてもよい。   FIG. 2 illustrates the conversion process so that the relative coordinates of a given sensor coincide with the reference frame of another sensor. FIG. 2 shows a cube 201 viewed from the sensor 1 in the coordinate system 202 of the sensor 1 and a cube 203 viewed from the sensor 2 in the coordinate system 204 of the sensor 2. The transformation may be performed such that the coordinate system 204 of the sensor 2 is rotated so as to coincide with the coordinate system 202 of the sensor 1. The transformation may be described mathematically by a transformation matrix.

複数の内部特性は、センサに固有であってもよく、まれに異なってもよい。複数の内部特性の再較正は、UAVが動作していない間、定期的に行われてもよい。複数の内部特性を再較正することは、UAV101の動作中、必須でなくてもよい。なぜなら、これらの複数の特性は、UAV101の動作中、複数の外部特性と比べ、比較的一貫した状態で維持されるからである。複数の内部特性は、公知の較正基準またはターゲットの画像を解釈することによって、較正されてもよい。較正基準またはターゲット上における複数の線または複数の点の消去は、焦点距離及び歪みのような複数の内部特性を較正するために用いられてもよい。   The plurality of internal characteristics may be unique to the sensor or may differ infrequently. Recalibration of multiple internal characteristics may be performed periodically while the UAV is not operating. Recalibrating multiple internal characteristics may not be essential during UAV 101 operation. This is because these multiple characteristics are maintained in a relatively consistent state during operation of the UAV 101 compared to multiple external characteristics. The plurality of internal characteristics may be calibrated by interpreting images of known calibration standards or targets. Calibration standards or elimination of multiple lines or points on the target may be used to calibrate multiple internal characteristics such as focal length and distortion.

複数の外部特性は、複数の内部特性と比べてより高い頻度で変化してもよい。UAVの着陸及び離陸中におけるシフト、振動及び熱ドリフトは、複数のセンサの複数の外部特性における複数の変化を引き起こすことがある。例えば、カメラ位置は、飛行中のUAVの振動によって、シフトすることがある。複数の外部特性は、UAVの動作中にこれらの初期構成から偏差することがある。そのため、UAVの動作中に、複数の外部特性の再較正を実行することが好ましいことがある。UAV101の動作中における複数の外部特性の再較正は、複数の演算リソースを必要としてもよく、複数の演算リソースは、UAV101に搭載または非搭載であってもよい。複数の外部特性の再較正は、設定された時間頻度で行われてもよく、例えば、複数の外部特性は、1分、5分、10分、20分、30分、40分、50分、1時間、2時間、3時間、4時間、5時間、10時間、12時間おきに、または毎日1回再較正されてもよい。代替的に、複数の外部特性の再較正は、設定された距離頻度で行われてもよく、例えば、再較正は、UAV101が初期開始位置からさらに0.5マイル、1マイル、2マイル、3マイル、4マイル、5マイル、10マイル、15マイル、20マイル、25マイル、30マイル、35マイル、40マイル、45マイル、50マイルまたは100マイル移動する度に、行われてもよい。搭載された複数の外部特性の較正頻度は、入手可能な複数の演算リソース、燃料またはパワー要件、または複数の飛行条件に基づいて、決定されてもよい。いくつかの飛行条件は、複数の外部センサの較正において期待される偏差を増減させることがある。例えば、UAVが低速飛行している場合、UAV本体の振動が少なくなり、そのため複数の外部センサの較正における偏差が少なくなり得る。   The plurality of external characteristics may change more frequently than the plurality of internal characteristics. Shifts, vibrations and thermal drift during UAV landing and takeoff can cause multiple changes in multiple external characteristics of multiple sensors. For example, the camera position may shift due to UAV vibration during flight. Several external characteristics may deviate from their initial configuration during UAV operation. Therefore, it may be preferable to perform recalibration of multiple external characteristics during UAV operation. Recalibration of a plurality of external characteristics during operation of the UAV 101 may require a plurality of computing resources, and the plurality of computing resources may be mounted on or not mounted on the UAV 101. Recalibration of multiple external characteristics may be performed at a set time frequency, for example, multiple external characteristics may be 1 minute, 5 minutes, 10 minutes, 20 minutes, 30 minutes, 40 minutes, 50 minutes, It may be recalibrated every 1 hour, 2 hours, 3 hours, 4 hours, 5 hours, 10 hours, every 12 hours, or once daily. Alternatively, recalibration of a plurality of external characteristics may be performed at a set distance frequency, for example, recalibration may be performed by another 0.5 mile, 1 mile, 2 mile, 3 mile from the UAV 101's initial starting position. It may be performed every time a mile, 4 miles, 5 miles, 10 miles, 15 miles, 20 miles, 25 miles, 30 miles, 35 miles, 40 miles, 45 miles, 50 miles or 100 miles are moved. The frequency of calibration of on-board external characteristics may be determined based on available computing resources, fuel or power requirements, or flight conditions. Some flight conditions may increase or decrease the expected deviation in the calibration of multiple external sensors. For example, when the UAV is flying at a low speed, the vibration of the UAV main body is reduced, so that the deviation in calibration of a plurality of external sensors can be reduced.

複数の外部パラメータは、初期較正を有してもよい。複数の外部パラメータの初期較正は、複数のセンサ間の相対的な複数の差異、例えば、2つまたはそれより多くのセンサの相対的な複数の位置、複数の回転及び/または複数の変位を説明してもよい。複数のパラメータは、複数のセンサへの複数の経時的変化、例えば、特定の時刻及び次の時刻の間における複数のセンサの複数の変位を含んでもよい。複数の変位は、並進変位及び/または回転変位を含んでもよい。並進変位は、3つの軸のうち1つまたは複数に沿って行われてもよい。同様に、回転変位は、3つの軸のうち1つまたは複数において行われてもよい。概して、較正は、フィルタリング処理によって実現される。複数の非限定的な例は、様々な種類の複数のカルマンフィルタを含む。   The plurality of external parameters may have an initial calibration. Initial calibration of multiple external parameters accounts for relative differences between multiple sensors, for example, relative multiple positions, multiple rotations and / or multiple displacements of two or more sensors. May be. The plurality of parameters may include a plurality of changes over time to the plurality of sensors, for example, a plurality of displacements of the plurality of sensors between a specific time and a next time. The plurality of displacements may include translational displacements and / or rotational displacements. Translational displacement may be performed along one or more of the three axes. Similarly, rotational displacement may be performed on one or more of the three axes. In general, calibration is achieved by a filtering process. Non-limiting examples include various types of multiple Kalman filters.

複数の外部パラメータの較正は、UAV101の動作中(例えば、飛行中)に調整されてもよい。複数の外部パラメータを較正する方法は、プロセッサを介して、2つまたはそれより多くのセンサの互いに対する、初期空間構成から次の空間構成への空間構成における変化を検出する段階を備えてもよい。複数のさらなる実施形態では、方法は、複数のカルマンフィルタのような複数のフィルタを用いて、次の空間構成を決定する。最終的に、方法は、UAVの飛行中に、次の空間構成に基づいて、複数のセンサのうち少なくとも1つからのデータを調整する段階を含んでもよい。   Calibration of multiple external parameters may be adjusted during operation of the UAV 101 (eg, during flight). A method of calibrating a plurality of external parameters may comprise detecting, via a processor, a change in spatial configuration from an initial spatial configuration to a next spatial configuration with respect to each other of two or more sensors. . In further embodiments, the method uses a plurality of filters, such as a plurality of Kalman filters, to determine the next spatial configuration. Finally, the method may include adjusting data from at least one of the plurality of sensors based on the following spatial configuration during the flight of the UAV.

UAVは、1つまたは複数の搭載されたプロセッサを有してもよい。複数のプロセッサは、個別にまたは集合的に、(i)センサデータに基づいて、1つまたは複数のセンサの互いに対する、初期空間構成から次の空間構成への空間構成における変化を検出し、(ii)複数のカルマンフィルタを用いて、次の空間構成を決定し、(iii)UAVの飛行中に、次の空間構成に基づいて、複数のセンサのうち少なくとも1つからのデータを調整するように構成されてもよい。代替的に、プロセッサまたは複数のプロセッサは、UAVに非搭載であってもよい。UAVは、所与のセンサの空間構成についての情報を、非搭載プロセッサに送信してもよく、非搭載プロセッサは、上述された複数の段階(i)−(iii)を実行し、情報を逆にUAVに送信するように構成されてもよい。   A UAV may have one or more onboard processors. The processors, individually or collectively, detect (i) a change in the spatial configuration of one or more sensors from one initial configuration to the next based on the sensor data, ii) determine a next spatial configuration using a plurality of Kalman filters, and (iii) adjust data from at least one of the plurality of sensors based on the next spatial configuration during flight of the UAV It may be configured. Alternatively, the processor or processors may be unmounted on the UAV. The UAV may send information about the spatial configuration of a given sensor to a non-mounted processor, which performs the steps (i)-(iii) described above and reverses the information. May be configured to transmit to the UAV.

[複数のカメラの較正]
いくつかの実施形態では、複数のシステム、デバイス及び方法は、複数のセンサを含んでもよい。複数のセンサの較正は、センサデータの積算を備えてもよい。図3を参照すると、1つのカメラが、301に示される画像を撮影してもよく、他のカメラが、異なる変位及び異なる方向で第2の画像302を撮影してもよい。そのため、2つのカメラは、較正される必要があり、較正は、第1のカメラによって撮影された画像301及び第2のカメラによって撮影された第2の画像302の双方を用いてもよい。以下、複数の較正の数学的公式を開示する。
[Calibrate multiple cameras]
In some embodiments, multiple systems, devices and methods may include multiple sensors. Calibration of the plurality of sensors may comprise integrating sensor data. Referring to FIG. 3, one camera may capture the image shown at 301, and another camera may capture the second image 302 with different displacements and different directions. Thus, the two cameras need to be calibrated, and the calibration may use both an image 301 taken by the first camera and a second image 302 taken by the second camera. In the following, a plurality of calibration mathematical formulas are disclosed.

実施形態において、2つまたはそれより多くの複数のカメラは、組み立てられてステレオカメラシステムをなす。2つまたはそれより多くの複数のカメラの較正は、以下の通りである。第1に、各カメラは、画像を撮影する。次に、特定システムは、
個の特徴を選択する。数学的公式では、
及び
は、2つのカメラを表す。これら複数の画像において特定された複数の特徴は、複数のベクトル
及び
によって表され、ここで、
である。複数の特徴
及び
は、複数のカメラの複数の座標系
及び
によって各々決定される。忠実なマッピングのために、複数の特徴は、同じ基準座標系
で分析される必要がある。複数の特徴
及び
と基準座標系
との間の関係は、射影
及び
によって記述されてもよく、ここで、
及び
は、標準化された複数の座標、すなわち
及び
において記述された複数の特徴である。
及び
は、各々、複数のカメラ
及び
の複数の射影であり、これらは、複数の内部パラメータ
及び複数の外部パラメータ(例えば、回転
及び並進
及び
によって決定されてもよい。一度複数の射影
及び
が算出され、複数の内部パラメータ
及び
が既知になると、複数の外部パラメータ
及びTは、算出されてもよい。
In an embodiment, two or more cameras are assembled to form a stereo camera system. Calibration of two or more cameras is as follows. First, each camera takes an image. Next, the specific system is
Select individual features. In mathematical formulas,
as well as
Represents two cameras. The plurality of features identified in the plurality of images are a plurality of vectors.
as well as
Where, where
It is. Multiple features
as well as
Multiple coordinate systems for multiple cameras
as well as
Respectively. For faithful mapping, multiple features have the same reference coordinate system
Needs to be analyzed. Multiple features
as well as
And reference coordinate system
The relationship between and the projection
as well as
Where may be described by:
as well as
Is a standardized set of coordinates, i.e.
as well as
A plurality of features described in.
as well as
Each with multiple cameras
as well as
Multiple projections, which are multiple internal parameters
And multiple external parameters (eg rotation
And translation
as well as
May be determined by: Multiple projections once
as well as
Multiple internal parameters are calculated
as well as
When is known, multiple external parameters
And T may be calculated.

複数のパラメータR及びTが得られた場合、較正は完了である。   If multiple parameters R and T are obtained, calibration is complete.

一般的には、複数の内部パラメータ
及び
は変化しない。これらが変化した場合であっても、変化量は小さい。そのため、複数の内部パラメータは、オフラインで較正されてもよい。すなわち、いくつかの用途において、複数の内部パラメータは、UAVの離陸前に決定されてもよい。複数の例において、複数の内部パラメータ
及び
は、飛行中、固定された状態で維持されるため、較正は、
及び
に対して複数の最適解を算出することである。ある例は、複数の解を見出すために、複数の射影エラーの最小化を用いる。
In general, multiple internal parameters
as well as
Does not change. Even if these change, the amount of change is small. As such, multiple internal parameters may be calibrated offline. That is, in some applications, multiple internal parameters may be determined prior to UAV takeoff. In several examples, multiple internal parameters
as well as
Is kept stationary during flight, so calibration is
as well as
Is to calculate a plurality of optimal solutions. An example uses multiple projection error minimizations to find multiple solutions.

この問題は、非線形最適化問題である。様々な複数の解法が、複数の実施形態に含まれてもよい。いくつかの用途において、複数の解は、バンドル調整方法によって実現される。バンドル調整方法では、複数の射影
及び
は、複数の所与の初期値である。必須行列
を得るためにエピポーラ拘束を用い、次に、
を取得するために分解(例えば、特異値分解)を行い、ここで、
は、歪み対象行列
である。
This problem is a nonlinear optimization problem. Various multiple solutions may be included in multiple embodiments. In some applications, multiple solutions are realized by the bundle adjustment method. In bundle adjustment method, multiple projections
as well as
Are a plurality of given initial values. Required matrix
Use epipolar constraints to obtain
Perform a decomposition (eg, singular value decomposition) to obtain
Is the distortion target matrix
It is.

この解は、これらの複数の特徴と、他のカメラによって撮影された他の画像における複数の特徴との間で、対応するマッピングを見出す。   This solution finds a corresponding mapping between these features and features in other images taken by other cameras.

いくつかの実施形態では、ステレオカメラシステムを形成する2つのカメラα及びβの空間構成は、1つのカメラを左側に、他方を右側に構成する。   In some embodiments, the spatial configuration of the two cameras α and β forming the stereo camera system configures one camera on the left and the other on the right.

[カメラ及びIMUの較正]
いくつかの実施形態では、複数のシステム及び複数の方法は、カメラ及びIMUの較正を含む。この較正の原理は、複数の画像をカメラによって経時的に得ること、及び自己の複数の位置変化をカメラによって予測することに基づく。いくつかの例において、自己較正方法は、2つのカメラ
及び
によって異なる複数の時刻
及び
に撮影されたカメラの2つの画像を検討して、2つの差し迫ったカメラを較正することと同様である。同様に、自己較正スキームは、IMUに適用されてもよい。
及び
に各々、カメラ及びIMUの自己座標の複数の変化を表現させる。複数の添え字
を配置することにより、時刻
における複数の座標系マッピング
及び
を表現させる。その結果、時刻1に関連する時刻2における複数のマッピングは、
及び
となる。
にカメラ及びIMU間のマッピングを表現させることにより、視覚及び手の較正式は
となり、ここで、
は、以下の形で標準化されたマッピングである。


[Camera and IMU calibration]
In some embodiments, the multiple systems and multiple methods include camera and IMU calibration. The principle of this calibration is based on obtaining multiple images over time by the camera and predicting multiple position changes of the self by the camera. In some examples, the self-calibration method includes two cameras
as well as
Multiple times depending on
as well as
Similar to calibrating two impending cameras by examining two images of cameras taken in Similarly, a self-calibration scheme may be applied to the IMU.
as well as
Each represents a plurality of changes in the camera and IMU self-coordinates. Multiple subscripts
Time by placing
Multiple coordinate system mapping in
as well as
To express. As a result, the multiple mappings at time 2 related to time 1 are
as well as
It becomes.
By letting you represent the mapping between camera and IMU, the visual and hand calibration equations are
Where
Is a standardized mapping in the following form:
,
,

さらに、
及び
である。これらの方程式に従って、かつ、複数の回転行列の複数の特性を考慮すると、
及び
の複数の解法が存在する。一意の解を保証するためには、n≧3の要件が満たされなければならない。
further,
as well as
It is. According to these equations and considering the properties of the rotation matrices,
as well as
There are several solutions for. In order to guarantee a unique solution, the requirement n ≧ 3 must be met.

いくつかの実施形態では、較正は、ステレオカメラシステム及びIMUの間で実行される。較正は、システム内の1つのカメラをIMUで較正することによって実現される。   In some embodiments, calibration is performed between the stereo camera system and the IMU. Calibration is achieved by calibrating one camera in the system with the IMU.

UAVは、センサが再較正を必要とするか否かを判断するために、センサデータを解釈する装置を備えてもよい。装置は、リアルタイムにセンサデータを解釈してもよい。装置は、UAVに搭載された複数のセンサのいずれかまたは全てからのセンサデータを解釈してもよい。装置は、UAVと接続され得る1つまたは複数のセンサを備えてもよい。複数のセンサは、環境、付近の複数のオブジェクト、UAVの位置についての情報、及び/または付近の複数のオブジェクトまたは複数の障害物についての情報を、UAVに与えてもよい。複数のセンサは、複数の内部及び外部特性を含み得る公知の初期構成を有してもよい。初期構成は、少なくとも1つの他のセンサに対するセンサの初期位置及び方向を備えてもよい。複数のセンサの初期構成は、UAVの離陸に先立ち、またはUAVの飛行中に、搭載されたまたは非搭載のプロセッサに伝達されてもよい。プロセッサは、複数のセンサの構成が変化した場合にインラインセンサの較正を実行するために、UAVの動きまたは振動の結果として生じ得る、複数のセンサの構成における複数の変化をモニタリングしてもよい。   The UAV may include a device that interprets the sensor data to determine if the sensor requires recalibration. The device may interpret the sensor data in real time. The device may interpret sensor data from any or all of a plurality of sensors mounted on the UAV. The device may comprise one or more sensors that can be connected to the UAV. The plurality of sensors may provide the UAV with information about the environment, nearby objects, UAV location, and / or nearby objects or obstacles. The plurality of sensors may have a known initial configuration that may include a plurality of internal and external characteristics. The initial configuration may comprise an initial position and orientation of the sensor relative to at least one other sensor. The initial configuration of the plurality of sensors may be communicated to an on-board or non-on-board processor prior to UAV take-off or during UAV flight. The processor may monitor a plurality of changes in the plurality of sensor configurations that may occur as a result of UAV movement or vibration to perform in-line sensor calibration when the plurality of sensor configurations change.

UAVに搭載されたまたは非搭載のプロセッサは、継続的に、または別個の時間間隔で、センサデータを取得してもよい。図4は、インラインセンサの較正を実行するにあたって、プロセッサによって実行される複数の段階を説明するフローチャートを示す。第1に、プロセッサは、センサデータを取得してもよい(401)。複数のセンサは、互いに対する初期空間構成を有してもよい。複数のセンサの初期空間構成は、経験的に公知であってもよい。初期空間構成は、UAVの離陸に先立ってまたはその後に、UAVに搭載されたメモリ位置に記録及び格納されてもよい。初期構成は、UAVに搭載された他の複数のセンサに対するセンサの初期位置及び初期方向であってもよい。プロセッサによって受信されたセンサデータに基づいて、プロセッサは、1つまたは複数のセンサの空間構成における変化を検出してもよい(402)。複数のセンサのうち1つまたは複数についての空間構成における変化は、公知の初期構成に対する変化であってもよい。次に、プロセッサは、初期空間構成に対する新たな空間構成の偏差を決定してもよい(403)。プロセッサは、初期空間構成に対する新たな空間構成の偏差を決定するために、1つまたは複数のカルマンフィルタを用いてもよい。複数のカルマンフィルタは、複数の拡張カルマンフィルタまたは複数のアンセンテッドカルマンフィルタであってもよい。複数のカルマンフィルタは、全て同じタイプであってもよく、または、これらは、複数のフィルタの一部が拡張、残りの一部が複数のアンセンテッドカルマンフィルタとなり得るように、異なっていてもよい。偏差が決定された後、プロセッサは、互いに対して新たに決定された複数のセンサの位置を反映するように、複数のセンサからのデータを訂正または調整してもよい(404)。データの調整は、UAVの動作中(例えば、UAVの飛行中)に行われてもよい。図4に記載された複数の段階は、複数のセンサ及び複数のプロセッサを含む装置によって実行されてもよい。装置は、UAVに接続されていてもよい。   A processor installed or not in the UAV may acquire sensor data continuously or at separate time intervals. FIG. 4 shows a flowchart illustrating the steps performed by the processor in performing calibration of the inline sensor. First, the processor may obtain sensor data (401). The plurality of sensors may have an initial spatial configuration relative to each other. The initial spatial configuration of the plurality of sensors may be empirically known. The initial spatial configuration may be recorded and stored in a memory location installed in the UAV prior to or after the UAV takes off. The initial configuration may be an initial position and an initial direction of the sensor with respect to other sensors mounted on the UAV. Based on the sensor data received by the processor, the processor may detect changes in the spatial configuration of the one or more sensors (402). The change in the spatial configuration for one or more of the plurality of sensors may be a change relative to a known initial configuration. The processor may then determine a new spatial configuration deviation from the initial spatial configuration (403). The processor may use one or more Kalman filters to determine the deviation of the new spatial configuration relative to the initial spatial configuration. The plurality of Kalman filters may be a plurality of extended Kalman filters or a plurality of unscented Kalman filters. The plurality of Kalman filters may all be of the same type, or they may be different so that some of the plurality of filters can be expanded and the remaining part can be a plurality of unscented Kalman filters. After the deviation is determined, the processor may correct or adjust the data from the plurality of sensors to reflect the newly determined position of the plurality of sensors relative to each other (404). The data adjustment may be performed during operation of the UAV (eg, during flight of the UAV). The steps described in FIG. 4 may be performed by an apparatus that includes a plurality of sensors and a plurality of processors. The device may be connected to the UAV.

プロセッサまたは複数のプロセッサシステムは、UAVに搭載され、またはUAVに非搭載の位置にあって無線または有線でUAVと通信を行うが、1つまたは複数のセンサの空間構成の初期空間構成に対する偏差を検出するように構成されてもよい。空間構成の偏差の検出は、1つまたは複数の統計的方法のセンサデータに対する適用を伴ってもよい。空間構成の偏差検出のために使用可能な統計的方法の一例は、マハラノビス距離法である。   The processor or the plurality of processor systems is mounted on the UAV or is not mounted on the UAV and communicates with the UAV wirelessly or by wire, but the deviation of the spatial configuration of one or more sensors from the initial spatial configuration It may be configured to detect. Detection of spatial configuration deviations may involve the application of one or more statistical methods to the sensor data. One example of a statistical method that can be used for spatial configuration deviation detection is the Mahalanobis distance method.

プロセッサは、図5に示される方法を用いて、1つまたは複数のセンサの空間構成における不一致を検出してもよい。プロセッサは、UAVに搭載された1つまたは複数のセンサから、データを受信してもよい(501)。複数のセンサは、各センサからのデータが異なる相対座標系を有し得るように、互いに対して異なる複数の空間方向を有してもよい。データ解釈のために、データを一貫性のある統一基準座標系に変換することが好ましいことがある。基準座標系は、任意の座標系であってもよく、または、これは、複数のセンサのうちの1つの相対座標系、例えば、慣性測定ユニット(IMU)の座標系であってもよい。プロセッサは、データ解釈の前にデータを変換するために、基準座標系を選択してもよい(502)。基準座標系は、UAVの離陸前に選択されてもよく、または、これは、飛行中に選択されてもよい。基準座標系は、UAVの動作時を通して一貫していてもよく、または、これは、経時的に異なってもよい。いくつかの場合には、IMUの相対座標系は、基準座標系として選択されてもよい。プロセッサは、センサデータを収集し、全てのデータを統一基準座標系で表現してもよい(503)。データが統一基準座標系に変換された後、データは、1つまたは複数のセンサの空間構成における複数の不一致を検出するために、分析されてもよい(504)。不一致は、1つまたは複数のセンサ間に期待または予測される空間関係におけるエラーを示してもよい。検出された複数の不一致は、センサまたは複数のセンサが再較正を必要とすることを示してもよい。   The processor may detect discrepancies in the spatial configuration of one or more sensors using the method shown in FIG. The processor may receive data from one or more sensors mounted on the UAV (501). The plurality of sensors may have a plurality of different spatial directions relative to each other so that data from each sensor may have a different relative coordinate system. For data interpretation, it may be preferable to convert the data into a consistent unified reference coordinate system. The reference coordinate system may be any coordinate system or it may be the relative coordinate system of one of the plurality of sensors, for example, the coordinate system of an inertial measurement unit (IMU). The processor may select a reference coordinate system to transform the data prior to data interpretation (502). The reference coordinate system may be selected before the UAV takes off, or it may be selected during the flight. The reference coordinate system may be consistent throughout the operation of the UAV, or it may differ over time. In some cases, the relative coordinate system of the IMU may be selected as the reference coordinate system. The processor may collect sensor data and represent all data in a unified reference coordinate system (503). After the data is converted to a unified reference coordinate system, the data may be analyzed to detect a plurality of inconsistencies in the spatial configuration of the one or more sensors (504). A discrepancy may indicate an error in an expected or predicted spatial relationship between one or more sensors. The detected mismatches may indicate that the sensor or sensors require recalibration.

1つまたは複数のセンサの空間構成における複数の不一致の検出は、1つまたは複数の統計的方法を用いて実行されてもよい。ある例では、1つまたは複数のセンサの空間構成における複数の不一致の検出は、マハラノビス距離法を用いてもよい。マハラノビス距離法は、複数の測定値が統一基準座標系に変換された後で、複数の異なるセンサからの複数の測定値を比較してもよい。プロセッサは、マハラノビス距離法を用いて、統一基準座標系において、複数の異なるセンサからの複数の測定値間の共分散行列を生成することによって、複数の不一致を検出してもよい。プロセッサが複数のセンサから測定データを受信するため、共分散行列は、リアルタイムに更新されてもよい。プロセッサは、統一基準座標系において、複数の異なるセンサからの複数の測定値間のマハラノビス距離を算出してもよい。マハラノビス距離が予め設定された閾値を超える場合、マハラノビス距離は、複数のセンサがその初期較正から偏差したことを示しながらセンサ異常を示してもよい。エラーを示すためにマハラノビス距離に対して予め設定された閾値は、少なくとも1、2、3、4、5、6、7、8、9、10、15または20であってもよい。閾値は、複数のセンサの全てに対して均一な値であってもよく、または、値は、各センサに対して異なってもよい。閾値は、固定されていてもよく、または、これは、独立した変数、例えば、UAVの移動時間または距離に対して異なってもよい。   Detection of multiple discrepancies in the spatial configuration of one or more sensors may be performed using one or more statistical methods. In one example, the Mahalanobis distance method may be used to detect a plurality of mismatches in the spatial configuration of one or more sensors. The Mahalanobis distance method may compare a plurality of measured values from a plurality of different sensors after the plurality of measured values are converted into a unified reference coordinate system. The processor may detect a plurality of inconsistencies by generating a covariance matrix between a plurality of measurements from a plurality of different sensors in the unified reference coordinate system using the Mahalanobis distance method. As the processor receives measurement data from multiple sensors, the covariance matrix may be updated in real time. The processor may calculate a Mahalanobis distance between a plurality of measured values from a plurality of different sensors in the unified reference coordinate system. If the Mahalanobis distance exceeds a preset threshold, the Mahalanobis distance may indicate a sensor abnormality while indicating that the plurality of sensors have deviated from their initial calibration. The threshold preset for the Mahalanobis distance to indicate an error may be at least 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 15 or 20. The threshold value may be a uniform value for all of the plurality of sensors, or the value may be different for each sensor. The threshold may be fixed or it may be different for independent variables such as UAV travel time or distance.

マハラノビス距離の算出によって示された不一致が予め定められた閾値より大きいことを検出した場合、検出された不一致を有するセンサの再較正が開始されてもよい。不一致の検出は、センサの初期方向から離れて新たな空間方向に向かうセンサの動きの結果であってもよい。複数のセンサは、UAVの離陸及び着陸の間、UAVの振動の結果として飛行中に、または他のオブジェクトとのやり取り(例えば、動物または昆虫とのやり取り、地勢とのやり取り(例えば、木、崖、滝)または他のUAVとのやり取り)の結果として飛行中に、移動してもよい。   If it is detected that the mismatch indicated by the Mahalanobis distance calculation is greater than a predetermined threshold, recalibration of the sensor with the detected mismatch may be initiated. The mismatch detection may be a result of sensor movement away from the sensor's initial direction and toward a new spatial direction. Multiple sensors can be used during UAV takeoff and landing, in flight as a result of UAV vibrations, or with other objects (eg, animals or insects, terrain (eg, trees, cliffs). , Waterfalls) or other UAVs) as a result of movement.

センサの再較正は、センサの新たな空間方向を決定する段階を必要としてもよい。センサの新たな空間方向は、1つまたは複数のカルマンフィルタを用いて決定されてもよい。複数のカルマンフィルタは、複数の拡張カルマンフィルタまたは複数のアンセンテッドカルマンフィルタであってもよい。複数のカルマンフィルタによって決定された新たな空間方向は、検出された不一致を有するセンサまたは複数のセンサの空間方向に対応し得る1つまたは複数のセンサの複数の外部特性を更新するために用いられてもよい。更新された複数の外部特性は、複数のセンサまたは複数のセンサからのデータを調整するために用いられてもよい。   Sensor recalibration may require determining a new spatial orientation of the sensor. The new spatial direction of the sensor may be determined using one or more Kalman filters. The plurality of Kalman filters may be a plurality of extended Kalman filters or a plurality of unscented Kalman filters. The new spatial direction determined by the multiple Kalman filters is used to update a plurality of external characteristics of one or more sensors that may correspond to a detected inconsistent sensor or a spatial direction of the plurality of sensors. Also good. The updated plurality of external characteristics may be used to adjust the data from the plurality of sensors or the plurality of sensors.

複数のカルマンフィルタは、反復的な方法を用いて、センサ較正を継続的に更新してもよい。複数のカルマンフィルタは、複数のセンサからの測定データ及び測定データ間の制約を測定式として用いてもよい。   Multiple Kalman filters may continuously update sensor calibration using an iterative method. The plurality of Kalman filters may use measurement data from a plurality of sensors and constraints between the measurement data as measurement formulas.

複数のセンサの全ては、較正を実行するために、単一のカルマンフィルタを用いてもよい。代替的に、較正は、複数のカルマンフィルタを互いに平行に接続することによって実現されてもよい。平行なアーキテクチャにある複数のカルマンフィルタの各々は、複数のフィルタの残りから独立していてもよい。各カルマンフィルタは、1つまたは複数のセンサに対して較正を実行してもよい。カルマンフィルタが1つよりも多くのセンサの較正を担う場合、カルマンフィルタによって較正される複数のセンサは、関連していてもよい。複数の平行カルマンフィルタは、システムの拡張性を向上させることができる。さらに、複数の平行カルマンフィルタは、複数のセンサの較正に必要な演算リソースを減少させつつ、システムのスケーラビリティを向上させることができ、さらにレスポンス速度を向上させることができる。   All of the multiple sensors may use a single Kalman filter to perform calibration. Alternatively, calibration may be achieved by connecting multiple Kalman filters in parallel with each other. Each of the plurality of Kalman filters in a parallel architecture may be independent of the rest of the plurality of filters. Each Kalman filter may perform calibration for one or more sensors. If the Kalman filter is responsible for calibrating more than one sensor, multiple sensors calibrated by the Kalman filter may be related. Multiple parallel Kalman filters can improve the scalability of the system. Further, the plurality of parallel Kalman filters can improve the scalability of the system and further improve the response speed while reducing the calculation resources necessary for the calibration of the plurality of sensors.

本明細書に記載されたシステムによって実行可能なセンサ較正方法の例が、図6に示される。方法の第1段階は、UAVに搭載された1つまたは複数のセンサからデータを取得することであってもよい(601)。データは、プロセッサによって収集されてもよく、プロセッサは、UAVに搭載されていてもよく、またはUAVに非搭載の位置にあってもよく、この場合、非搭載の位置は、無線でまたは有線の接続を介してUAVと通信可能であってもよい。プロセッサは、各サブセットが少なくとも2つのセンサを有するように、複数のセンサを1つまたは複数のサブセットにグループ化してもよい(602)。各サブセットは、複数の測定センサのグループを含んでもよい。サブセットは、基準センサをさらに有してもよく、基準センサは、各サブセットに対して同じであってもよく、または、各サブセットは、固有の複数の基準センサを有してもよい。複数のセンサのサブセットは、複数のセンサと関連付けられてもよく、例えば、これらは、関連する機能を有する複数のセンサであってもよい。各サブセットは、各サブセットが別個のであり、複数の測定値サブセット間で重複がないように、複数の測定センサの異なるサブセットを備えてもよい。例えば、5つのセンサA、B、C、D及びEがある場合、これらの複数のセンサを用いて、2つのサブセットが生成されてもよい。サブセット1は、複数のセンサA及びBを備えてもよく、サブセット2は、複数のセンサC、D及びEを備えてもよい。サブセット1がA、B及びCを備え、サブセット2がA、D及びEを備えるグループ化は、センサAが双方のサブセットに含まれているため許容されない。複数のセンサが複数のサブセットにグループ化された後、次の段階は、複数のセンサからのデータに基づいて、複数のセンサ間に期待される空間関係を算出することであってもよい(603)。次に、複数のセンサ間における実際の空間関係は、少なくとも1つのカルマンフィルタを用いて判断されてもよい(604)。各サブセットは、センサデータを用いて複数の計算を実行するために、少なくとも1つのカルマンフィルタを有してもよい。最後の段階において、1つまたは複数のセンサの空間構成は、プロセッサを用いて算出されてもよい(605)。複数のセンサの空間構成の算出は、1つまたは複数のカルマンフィルタによって決定されるように、サブセット内の複数のセンサ間における実際の空間関係に基づいてもよい。   An example of a sensor calibration method that can be performed by the system described herein is shown in FIG. The first stage of the method may be obtaining data from one or more sensors mounted on the UAV (601). Data may be collected by the processor, which may be mounted on the UAV or in a non-mounted location on the UAV, where the non-mounted location is wireless or wired It may be communicable with the UAV via a connection. The processor may group the plurality of sensors into one or more subsets such that each subset has at least two sensors (602). Each subset may include a plurality of groups of measurement sensors. The subset may further have a reference sensor, the reference sensor may be the same for each subset, or each subset may have a plurality of unique reference sensors. A subset of multiple sensors may be associated with multiple sensors, for example, they may be multiple sensors with associated functionality. Each subset may comprise a different subset of multiple measurement sensors such that each subset is distinct and there is no overlap between multiple measurement subsets. For example, if there are five sensors A, B, C, D and E, two subsets may be generated using these multiple sensors. Subset 1 may comprise a plurality of sensors A and B, and subset 2 may comprise a plurality of sensors C, D and E. Grouping with subset 1 comprising A, B and C and subset 2 comprising A, D and E is not allowed because sensor A is included in both subsets. After the multiple sensors are grouped into multiple subsets, the next step may be to calculate the expected spatial relationship between the multiple sensors based on data from the multiple sensors (603). ). Next, the actual spatial relationship between the plurality of sensors may be determined using at least one Kalman filter (604). Each subset may have at least one Kalman filter to perform multiple calculations using sensor data. In the last step, the spatial configuration of the one or more sensors may be calculated using a processor (605). The calculation of the spatial configuration of multiple sensors may be based on the actual spatial relationship between multiple sensors in the subset, as determined by one or more Kalman filters.

UAVは、異なるタイプのセンサを備えてもよい。複数のセンサは、複数のセンサまたは複数のサブセットのグループにさらに構成されてもよい。各サブセットは、基準センサと1つまたは複数の測定センサとを備える少なくとも2つのセンサを含んでもよい。各サブセットは、各サブセットが別個であり、複数のサブセット間で重複がないように、複数の測定センサの異なるサブセットを備えてもよい。複数のサブセットの全ては、単一の均一な基準センサを有してもよい。例えば、複数のサブセットの全ては、基準センサとして選択可能なIMUに対して分析されてもよい。代替的に、各サブセットは、異なる基準センサを有してもよい。各サブセット当たり少なくとも1つのカルマンフィルタは、センサデータに基づいて、各サブセットにおける少なくとも2つのセンサ間の実際の空間関係を決定してもよい。複数のカルマンフィルタは、複数のサブセット内の複数のセンサ間における実際の空間関係を決定するために、平行に機能してもよい。さらなる算出は、各サブセットにおいて、複数のセンサの互いに対する、少なくとも2つのセンサ間の実際の空間関係に基づいて、空間構成を決定するために実行されてもよい。   A UAV may comprise different types of sensors. The plurality of sensors may be further configured into a plurality of sensors or a plurality of subset groups. Each subset may include at least two sensors comprising a reference sensor and one or more measurement sensors. Each subset may comprise a different subset of the plurality of measurement sensors such that each subset is distinct and there is no overlap between the plurality of subsets. All of the plurality of subsets may have a single uniform reference sensor. For example, all of the plurality of subsets may be analyzed against an IMU that can be selected as a reference sensor. Alternatively, each subset may have a different reference sensor. At least one Kalman filter per each subset may determine an actual spatial relationship between at least two sensors in each subset based on the sensor data. Multiple Kalman filters may function in parallel to determine the actual spatial relationship between multiple sensors in multiple subsets. Further calculations may be performed in each subset to determine the spatial configuration based on the actual spatial relationship between the at least two sensors relative to each other of the plurality of sensors.

図7は、適用可能なシステムアーキテクチャの例を視覚的に説明する。最も上のレベルにおいて、システムは、複数のセンサまたは複数のセンサのサブセットのシステム701を備えてもよい。複数のセンサのうちの1つは、基準センサ701aとして指定されてもよい。残りの複数の測定センサ701bは、基準センサ701aの相対座標系と異なる複数の相対座標系において、データを収集してもよい。複数の測定センサ701bからの複数の測定値702は、レベル703において、基準センサ701aの座標系に変換されてもよい。変換後、各サブセットからのデータは、カルマンフィルタ704に置換されてもよい。複数のフィルタの各サブセットは、データを異なるカルマンフィルタ704に置換してもよい。複数のカルマンフィルタは、サブセット705における複数のセンサの正確な空間関係を、次に、システム706における複数のセンサの正確な関係を、決定してもよい。複数のカルマンフィルタは、並列に接続されてもよい。   FIG. 7 visually illustrates an example of an applicable system architecture. At the highest level, the system may comprise a system 701 of multiple sensors or subsets of multiple sensors. One of the plurality of sensors may be designated as the reference sensor 701a. The remaining plurality of measurement sensors 701b may collect data in a plurality of relative coordinate systems different from the relative coordinate system of the reference sensor 701a. The plurality of measurement values 702 from the plurality of measurement sensors 701b may be converted into the coordinate system of the reference sensor 701a at level 703. After conversion, the data from each subset may be replaced with a Kalman filter 704. Each subset of the plurality of filters may replace the data with a different Kalman filter 704. The multiple Kalman filters may determine the exact spatial relationship of the sensors in subset 705 and then the accurate relationship of the sensors in system 706. The plurality of Kalman filters may be connected in parallel.

センサは、カルマンフィルタによって、第1に、システムの動きを記述するための動的な式と、選択されたセンサ及び基準センサ間の変換式とを確立することにより、較正されてもよい。システムの動きに対する動的な式は、システムの加速度及び角加速度を含む、主にIMUからのデータによって異なってもよい。次に、カルマンフィルタの初期状態は、例えば、複数の工場設定から決定されてもよい。初期状態は、状態可変ベクトル及び共分散行列によって記述されてもよい。複数の内受容性センサ(例えば、IMU)に対して、測定されたデータは、直接的に読み出されてもよく、複数の外受容性センサ(例えば、カメラ)に対して、測定されたデータは、前回の段階におけるセンサの複数の外的パラメータに基づいて、適切な観測スポットを選択することによって得られてもよい。最後の段階において、カルマンフィルタのステータスは、測定されたデータをカルマンフィルタにおける更新式に置換することによって、更新してもよい。更新式は、カルマンフィルタ(例えば、拡張またはアンセンテッド)の種類によって異なってもよい。   The sensor may be calibrated by a Kalman filter by first establishing a dynamic equation for describing the movement of the system and a conversion equation between the selected sensor and the reference sensor. The dynamic equations for system motion may vary primarily with data from the IMU, including system acceleration and angular acceleration. Next, the initial state of the Kalman filter may be determined from a plurality of factory settings, for example. The initial state may be described by a state variable vector and a covariance matrix. For multiple internal receptive sensors (eg, IMU), the measured data may be read directly, and for multiple external receptive sensors (eg, cameras), the measured data May be obtained by selecting an appropriate observation spot based on a plurality of external parameters of the sensor at the previous stage. In the last stage, the status of the Kalman filter may be updated by replacing the measured data with an update formula in the Kalman filter. The update formula may vary depending on the type of Kalman filter (eg, extended or uncentred).

可能なシステムアーキテクチャの代替例が、図8において視覚的に示される。システムは、複数のサブセットにグループ化され得る複数のセンサを有してもよい。複数のサブセットの各々は、基準センサを有してもよい。基準センサは、1つまたは複数のサブセットに対して用いられてもよい。図8に示される例では、左のカメラ801及びIMU802が、複数の基準センサであってもよい。残りの複数のセンサ(例えば、右のカメラ、GPS及び超音波)は、測定センサ803であってもよい。図7で説明された処理と同様に、センサ複数の測定値の各々は、関連する基準座標系804に変換されてもよい。変換され複数の測定値は、段階805において、カルマンフィルタを用いて較正されてもよい。複数のカルマンフィルタは、アンセンテッドまたは複数の拡張カルマンフィルタであってもよい。複数のカルマンフィルタは、サブセット806における複数のセンサの正確な空間関係、次に、システム807における複数のセンサの正確な関係を決定してもよい。   An example of a possible system architecture is visually shown in FIG. The system may have multiple sensors that can be grouped into multiple subsets. Each of the plurality of subsets may have a reference sensor. A reference sensor may be used for one or more subsets. In the example shown in FIG. 8, the left camera 801 and the IMU 802 may be a plurality of reference sensors. The remaining plurality of sensors (for example, the right camera, GPS, and ultrasound) may be the measurement sensor 803. Similar to the process described in FIG. 7, each of the sensor multiple measurements may be converted to an associated reference coordinate system 804. The transformed multiple measurements may be calibrated at step 805 using a Kalman filter. The plurality of Kalman filters may be unscented or a plurality of extended Kalman filters. The multiple Kalman filters may determine the exact spatial relationship of the sensors in subset 806 and then the exact relationship of the sensors in system 807.

本明細書に記載された複数のシステム、複数のデバイス及び複数の方法は、広範かつ様々な複数の可動オブジェクトに適用されてもよい。前述したように、本明細書におけるUAVのような航空機についてのあらゆる説明は、任意の可動オブジェクトに適用可能であり、これに対して用いることができる。航空機についての本明細書におけるあらゆる説明は、詳細には、複数のUAVに適用可能である。本発明の可動オブジェクトは、任意の適した環境、例えば、空中(例えば、固定翼航空機、回転翼航空機、または固定翼または回転翼のいずれも有さない航空機)、水中(例えば、船または潜水艦)、地上(例えば、乗用車のような自動車、トラック、バス、バン、オートバイ、自転車、または電車)、地下(例えば、地下鉄)、宇宙(例えば、宇宙飛行機、衛星またはプローブ)、またはこれらの複数の環境のあらゆる組み合わせの中を、移動するように構成されてもよい。可動オブジェクトは、輸送体、例えば、本明細書の他の箇所で記載された輸送体であってもよい。いくつかの実施形態では、可動オブジェクトは、人間または動物のような生きた対象物によって運搬されてもよく、または、生きた対象物から離陸してもよい。適切な複数の動物は、鳥類、イヌ、ネコ、ウマ、ウシ、ヒツジ、ブタ、イルカ、齧歯動物または昆虫を含んでもよい。   The multiple systems, multiple devices, and multiple methods described herein may be applied to a wide variety of movable objects. As previously mentioned, any description of an aircraft such as a UAV herein is applicable to and can be used with any movable object. Any description herein for aircraft is specifically applicable to multiple UAVs. The movable object of the present invention can be in any suitable environment, for example, in the air (eg, fixed wing aircraft, rotary wing aircraft, or aircraft having neither fixed wings nor rotary wings), underwater (eg, ships or submarines). , Ground (eg, automobiles such as passenger cars, trucks, buses, vans, motorcycles, bicycles, or trains), underground (eg, subways), space (eg, space planes, satellites or probes), or multiple environments thereof It may be configured to move through any combination of The movable object may be a transporter, for example, a transporter described elsewhere herein. In some embodiments, the movable object may be carried by a live object, such as a human or animal, or may take off from the live object. Suitable animals may include birds, dogs, cats, horses, cows, sheep, pigs, dolphins, rodents or insects.

可動オブジェクトは、6の自由度(例えば、並進において3の自由度、回転において3の自由度)について環境内を自由に移動可能であってもよい。代替的に、可動オブジェクトの動きは、例えば、予め定められた経路、軌道または方向によって、1つまたは複数の自由度について拘束されてもよい。動きは、任意の適切な駆動メカニズム、例えば、エンジンまたはモーターによって、駆動されてもよい。可動オブジェクトの駆動メカニズムは、任意の適切なエネルギー源、例えば、電気的エネルギー、磁気エネルギー、太陽エネルギー、風カエネルギー、重力エネルギー、化学エネルギー、核エネルギーまたはこれらの任意の適切な組み合わせによってパワーを与えられてもよい。可動オブジェクトは、本明細書の他の箇所に記載されたように、推進システムを介して自己推進してもよい。推進システムは、任意に、エネルギー源、例えば、電気的エネルギー、磁気エネルギー、太陽エネルギー、風カエネルギー、重力エネルギー、化学エネルギー、核エネルギーまたはこれらの任意の適切な組み合わせによって動作してもよい。代替的に、可動オブジェクトは、生物によって運搬されてもよい。   The movable object may be freely movable in the environment with 6 degrees of freedom (eg, 3 degrees of freedom in translation and 3 degrees of freedom in rotation). Alternatively, the movement of the movable object may be constrained for one or more degrees of freedom, for example by a predetermined path, trajectory or direction. The movement may be driven by any suitable drive mechanism, such as an engine or motor. The drive mechanism of the movable object is powered by any suitable energy source, for example, electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy or any suitable combination thereof. May be. The movable object may self-propell through a propulsion system as described elsewhere herein. The propulsion system may optionally operate from an energy source, such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof. Alternatively, the movable object may be carried by a living thing.

いくつかの例において、可動オブジェクトは、航空機であってもよい。例えば、複数の航空機は、固定翼航空機(例えば、飛行機、グライダ)、回転翼航空機(例えば、ヘリコプタ、回転翼機)、固定翼及び回転翼双方を有する航空機、またはこのいずれも有さない航空機(例えば、飛行船、熱気球)であってもよい。航空機は、例えば、空中を自己推進するように、自己推進してもよい。自己推進航空機は、推進システム、例えば、1つまたは複数のエンジン、モーター、ホイール、車軸、磁石、回転翼、プロペラ、ブレード、ノズルまたはこれらの任意の適切な組み合わせを含む推進システムを用いてもよい。いくつかの例において、可動オブジェクトが、面から離陸し、面に着陸し、その現在位置及び/または方向を維持し(例えば、ホバリング)、方向を変更し、及び/または位置を変更することを可能にするために、推進システムが用いられてもよい。   In some examples, the movable object may be an aircraft. For example, a plurality of aircraft may be fixed wing aircraft (eg, airplanes, gliders), rotary wing aircraft (eg, helicopters, rotary wing aircraft), aircraft having both fixed wings and rotary wings, or aircraft that do not have either ( For example, an airship or a hot air balloon) may be used. An aircraft may self-propel, for example, as it self-propels in the air. A self-propelled aircraft may employ a propulsion system, such as a propulsion system that includes one or more engines, motors, wheels, axles, magnets, rotors, propellers, blades, nozzles, or any suitable combination thereof. . In some examples, a movable object may take off from a plane, land on a plane, maintain its current position and / or direction (eg, hover), change direction, and / or change position A propulsion system may be used to enable.

可動オブジェクトは、ユーザによって遠隔制御されてもよく、または、可動オブジェクト内または上の乗員によって現地で制御されてもよい。可動オブジェクトは、別の輸送体の乗員を介して遠隔制御されてもよい。いくつかの実施形態では、可動オブジェクト、UAVのような無人可動オブジェクトである。UAVのような無人可動オブジェクトは、可動オブジェクトに乗員が搭乗しないことがある。可動オブジェクトは、人間または自主的制御システム(例えば、コンピュータ制御システム)またはこれらの任意の適切な組み合わせによって制御されてもよい。可動オブジェクトは、自主的または半自主的ロボット、例えば、人工知能を有するように構成されるロボットであってもよい。   The movable object may be remotely controlled by a user or may be controlled on-site by a passenger in or on the movable object. The movable object may be remotely controlled via another vehicle occupant. In some embodiments, a movable object, an unattended movable object such as a UAV. In an unmanned movable object such as UAV, a passenger may not board the movable object. The movable object may be controlled by a human or autonomous control system (eg, a computer control system) or any suitable combination thereof. The movable object may be an autonomous or semi-autonomous robot, for example, a robot configured to have artificial intelligence.

可動オブジェクトは、任意の適切なサイズ及び/または寸法を有してもよい。いくつかの実施形態では、可動オブジェクトは、搭乗員が輸送体内または上に搭乗可能なサイズ及び/または寸法であってもよい。代替的に、可動オブジェクトは、搭乗員が輸送体内または上に搭乗可能なサイズ及び/または寸法より小さくてもよい。可動オブジェクトは、人間による持ち上げまたは運搬に適したサイズ及び/または寸法であってもよい。代替的に、可動オブジェクトは、人間による持ち上げまたは運搬に適したサイズ及び/または寸法より大きくてもよい。いくつかの例において、可動オブジェクトは、約2cm、5cm、10cm、50cm、1m、2m、5mまたは10m以下の最大寸法(例えば、長さ、幅、高さ、径、対角線)を有してもよい。最大寸法は、約2cm、5cm、10cm、50cm、1m、2m、5mまたは10m以上であってもよい。例えば、可動オブジェクトの複数の対向する回転翼の複数のシャフト間の距離は、約2cm、5cm、10cm、50cm、1m、2m、5mまたは10m以下であってもよい。代替的に、複数の対向する回転翼の複数のシャフト間の距離は、約2cm、5cm、10cm、50cm、1m、2m、5mまたは10m以上であってもよい。   The movable object may have any suitable size and / or dimensions. In some embodiments, the movable object may be of a size and / or dimension that allows the crew to board in or on the transport. Alternatively, the movable object may be smaller than the size and / or dimensions that allow the crew to board in or on the transport. The movable object may be of a size and / or dimension suitable for lifting or carrying by a human. Alternatively, the movable object may be larger than the size and / or dimensions suitable for lifting or carrying by a human. In some examples, the movable object may have a maximum dimension (eg, length, width, height, diameter, diagonal) of about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m or less. Good. The maximum dimension may be about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m or more. For example, the distance between the shafts of the opposed rotor blades of the movable object may be about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m or less. Alternatively, the distance between the shafts of the opposing rotor blades may be about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m or more.

いくつかの実施形態では、可動オブジェクトは、100cm×100cm×100cm未満、50cm×50cm×30cm未満、または5cm×5cm×3cm未満の体積を有してもよい。可動オブジェクトの全体積は、約1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1mまたは10m以下であってもよい。逆に、可動オブジェクトの全体積は、約1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1mまたは10m以上であってもよい。 In some embodiments, the movable object may have a volume of less than 100 cm × 100 cm × 100 cm, less than 50 cm × 50 cm × 30 cm, or less than 5 cm × 5 cm × 3 cm. The total volume of the movable object is about 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200cm 3, 300cm 3, 500cm 3 , 750cm 3, 1000cm 3, 5000cm 3, 10,000cm 3, may be 100,000 3, 1 m 3 or 10 m 3 or less. Conversely, the total volume of the movable object is about 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150cm 3, 200cm 3, 300cm 3 , 500cm 3, 750cm 3, 1000cm 3, 5000cm 3, 10,000cm 3, may be 100,000 3, 1 m 3 or 10 m 3 or more.

いくつかの実施形態では、可動オブジェクトの設置面積(可動オブジェクトによって覆われる側方断面積を指すことがある)は、約32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cmまたは5cm以下であってもよい。逆に、設置面積は、約32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cmまたは5cm以上であってもよい。 In some embodiments, the footprint of the movable object (which may refer to the side cross-sectional area covered by the movable object) is about 32,000 cm 2 , 20,000 cm 2 , 10,000 cm 2 , 1,000 cm 2. , 500cm 2, 100cm 2, 50cm 2, 10cm 2 , or may be 5 cm 2 or less. Conversely, footprint, of about 32,000cm 2, 20,000cm 2, 10,000cm 2 , 1,000cm 2, 500cm 2, 100cm 2, 50cm 2, 10cm may be two or 5 cm 2 or more.

いくつかの例において、可動オブジェクトの重量は、1000kg以下であってもよい。可動オブジェクトの重量は、約1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kgまたは0.01kg以下であってもよい。逆に、重量は、約1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kgまたは0.01kg以上であってもよい。   In some examples, the weight of the movable object may be 1000 kg or less. The weight of the movable object is about 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg. 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, 0.1 kg, 0.05 kg, or 0.01 kg or less. Conversely, the weight is about 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg. 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, 0.1 kg, 0.05 kg, or 0.01 kg or more.

いくつかの実施形態では、可動オブジェクトは、可動オブジェクトによって運搬される積載物に対して小さくてもよい。積載物は、本明細書の他の箇所にさらに詳細に記載されるように、積載物及び/または支持機構を含んでもよい。いくつかの例において、可動オブジェクトの重量と負荷荷重との比は、約1:1より大きくてもよく、これより小さくてもよく、またはこれと等しくてもよい。いくつかの例において、可動オブジェクトの重量と負荷荷重との比は、約1:1より大きくてもよく、これより小さくてもよく、またはこれと等しくてもよい。任意に、支持機構重量と負荷荷重との比は、約1:1より大きくてもよく、これより小さくてもよく、またはこれと等しくてもよい。所望の場合には、可動オブジェクトの重量と負荷荷重との比は、1:2、1:3、1:4、1:5、1:10以下、またはさらに小さくてもよい。逆に、可動オブジェクトの重量と負荷荷重との比も、2:1、3:1、4:1、5:1、10:1以上、またはさらに大きくてもよい。   In some embodiments, the movable object may be small relative to the load carried by the movable object. The load may include a load and / or support mechanism, as described in further detail elsewhere herein. In some examples, the ratio of the weight of the movable object to the applied load may be greater than about 1: 1, less than or equal to this. In some examples, the ratio of the weight of the movable object to the applied load may be greater than about 1: 1, less than or equal to this. Optionally, the ratio of support mechanism weight to applied load may be greater than about 1: 1, less than or equal to this. If desired, the ratio of the weight of the movable object to the load may be 1: 2, 1: 3, 1: 4, 1: 5, 1:10 or less, or even smaller. Conversely, the ratio of the weight of the movable object to the load may also be 2: 1, 3: 1, 4: 1, 5: 1, 10: 1 or more, or even greater.

いくつかの実施形態では、可動オブジェクトは、低エネルギー消費であってもよい。例えば、可動オブジェクトの使用は、約5W/h、4W/h、3W/h、2W/h、1W/h未満またはそれより少なくてもよい。いくつかの例において、可動オブジェクトの支持機構は、低エネルギー消費であってもよい。例えば、支持機構の使用は、約5W/h、4W/h、3W/h、2W/h、1W/h未満またはそれより少なくてもよい。任意に、可動オブジェクトの積載物は、例えば、約5W/h、4W/h、3W/h、2W/h、1W/h未満またはそれより少ない低エネルギー消費であってもよい。   In some embodiments, the movable object may have low energy consumption. For example, the use of movable objects may be about 5 W / h, 4 W / h, 3 W / h, 2 W / h, less than 1 W / h or less. In some examples, the support mechanism of the movable object may be low energy consumption. For example, the use of a support mechanism may be about 5 W / h, 4 W / h, 3 W / h, 2 W / h, less than 1 W / h or less. Optionally, the load of movable objects may have a low energy consumption of, for example, about 5 W / h, 4 W / h, 3 W / h, 2 W / h, less than 1 W / h or less.

図9は、本発明の複数の実施形態に係る無人航空機(UAV)900を示す。UAVは、本明細書に記載されたように、可動オブジェクトの例であってもよい。UAV900は、4つの回転翼902、904、906および908を有する推進システムを含んでもよい。任意の数の(例えば、1、2、3、4、5、6またはそれより多くの)回転翼が、与えられてもよい。無人航空機の複数の回転翼、複数の回転翼部品または他の複数の推進システムは、無人航空機がホバリング/位置を維持し、方向を変更し、及び/または位置を変更することを可能とする。複数の対向する回転翼の複数のシャフト間の距離は、任意の適切な長さ910であってもよい。例えば、長さ910は、2m以下であってもよく、または5m以下であってもよい。いくつかの実施形態では、長さ910は、40cmから1m、10cmから2mまたは5cmから5mの範囲内にあってもよい。UAVについての本明細書におけるあらゆる説明は、可動オブジェクト、例えば、異なるタイプの可動オブジェクトに適用可能であり、逆もまた同様である。UAVは、本明細書に記載されたように、補助装置付き離陸システムまたは方法を用いてもよい。   FIG. 9 shows an unmanned aerial vehicle (UAV) 900 according to embodiments of the present invention. A UAV may be an example of a movable object, as described herein. The UAV 900 may include a propulsion system having four rotor blades 902, 904, 906 and 908. Any number of rotor blades (eg, 1, 2, 3, 4, 5, 6 or more) may be provided. The unmanned aerial vehicle's multiple wings, multiple wing components, or other propulsion systems allow the unmanned aircraft to maintain hovering / position, change direction, and / or change position. The distance between the shafts of the plurality of opposed rotor blades may be any suitable length 910. For example, the length 910 may be 2 m or less, or 5 m or less. In some embodiments, the length 910 may be in the range of 40 cm to 1 m, 10 cm to 2 m, or 5 cm to 5 m. Any description herein for UAV is applicable to movable objects, eg, different types of movable objects, and vice versa. The UAV may use an auxiliary takeoff system or method as described herein.

いくつかの実施形態では、可動オブジェクトは、積載物を運搬するように構成されてもよい。積載物は、1つまたは複数の乗客、貨物、機器、器具等を含んでもよい。積載物は、ハウジング内に与えられてもよい。ハウジングは、可動オブジェクトのハウジングと別個に、または可動オブジェクトのハウジングの一部であってもよい。代替的に、可動オブジェクトがハウジングを有さず、積載物が、ハウジングと共に与えられてもよい。代替的に、積載物の一部または積載物全体は、ハウジングなしで与えられてもよい。積載物は、可動オブジェクトに対して強固に固定されてもよい。任意に、積載物は、可動オブジェクトに対して可動(例えば、可動オブジェクトに対して並進可能または回転可能)であってもよい。積載物は、本明細書の他の箇所に記載されたように、積載物及び/または支持機構を含んでもよい。   In some embodiments, the movable object may be configured to carry a load. The load may include one or more passengers, cargo, equipment, equipment, and the like. A load may be provided in the housing. The housing may be separate from the movable object housing or may be part of the movable object housing. Alternatively, the movable object may not have a housing and the load may be provided with the housing. Alternatively, part of the load or the entire load may be provided without a housing. The load may be firmly fixed to the movable object. Optionally, the load may be movable relative to the movable object (eg, translatable or rotatable relative to the movable object). The load may include a load and / or a support mechanism, as described elsewhere herein.

いくつかの実施形態では、固定された基準フレーム(例えば、周囲の環境)及び/または互いに対する可動オブジェクト、支持機構及び積載物の動きは、端末によって制御されてもよい。端末は、可動オブジェクト、支持機構及び/または積載物から離れた位置にある遠隔制御デバイスであってもよい。端末は、サポート基盤に配置または固定されてもよい。代替的に、端末は、ハンドヘルドまたはウェアラブルデバイスであってもよい。例えば、端末は、スマートフォン、タブレット、ラップトップ、コンピュータ、眼鏡、手袋、ヘルメット、マイクロフォンまたは適切なこれらの組み合わせを含んでもよい。端末は、キーボード、マウス、ジョイスティック、タッチスクリーンまたはディスプレイのようなユーザインタフェースを含んでもよい。任意の適したユーザ入力、例えば、(例えば、端末の動き、位置またはティルトを介して)手動入力された複数のコマンド、音声制御、ジェスチャ制御または位置制御が、端末とのやり取りのために用いられてもよい。   In some embodiments, the movement of the fixed reference frame (eg, ambient environment) and / or movable objects, support mechanisms, and load relative to each other may be controlled by the terminal. The terminal may be a remote control device located remotely from the movable object, support mechanism and / or load. The terminal may be arranged or fixed on the support base. Alternatively, the terminal may be a handheld or wearable device. For example, the terminal may include a smartphone, tablet, laptop, computer, glasses, gloves, helmet, microphone, or any suitable combination thereof. The terminal may include a user interface such as a keyboard, mouse, joystick, touch screen or display. Any suitable user input, e.g., manually entered commands (e.g., via terminal movement, position or tilt), voice control, gesture control or position control are used for interaction with the terminal May be.

端末は、可動オブジェクト、支持機構及び/または積載物の任意の適した状態を制御するために用いられてもよい。例えば、端末は、可動オブジェクト、支持機構及び/または積載物の位置及び/または方向を、固定された基準及び/または互いに対して制御するために用いられてもよい。いくつかの実施形態では、端末は、可動オブジェクト、支持機構及び/または積載物の個々の複数の要素、例えば、支持機構の駆動部品、積載物のセンサまたは積載物のエミッタを制御するために用いられてもよい。端末は、可動オブジェクト、支持機構または積載物のうち1つまたは複数と通信を行うように構成される無線通信デバイスを含んでもよい。   The terminal may be used to control any suitable state of the movable object, the support mechanism and / or the load. For example, the terminal may be used to control the position and / or orientation of movable objects, support mechanisms and / or loads relative to a fixed reference and / or each other. In some embodiments, the terminal is used to control a movable object, a support mechanism and / or a plurality of individual elements of the load, such as a drive part of the support mechanism, a load sensor or a load emitter. May be. The terminal may include a wireless communication device configured to communicate with one or more of the movable object, the support mechanism, or the load.

端末は、可動オブジェクト、支持機構及び/または積載物の情報を見るために適した表示ユニットを含んでもよい。例えば、端末は、位置、並進速度、並進加速度、方向、角速度、角加速度または任意の適したこれらの組み合わせに関して、可動オブジェクト、支持機構及び/または積載物情報を表示するように構成されてもよい。いくつかの実施形態では、端末は、積載物によって与えられた情報、例えば、機能的な積載物(例えば、カメラまたは他の画像記録デバイスによって記録された複数の画像)によって与えられたデータを表示してもよい。   The terminal may include a display unit suitable for viewing information on movable objects, support mechanisms and / or loads. For example, the terminal may be configured to display movable object, support mechanism, and / or load information regarding position, translation velocity, translation acceleration, direction, angular velocity, angular acceleration, or any suitable combination thereof. . In some embodiments, the terminal displays information provided by the load, eg, data provided by a functional load (eg, multiple images recorded by a camera or other image recording device). May be.

任意に、同じ端末で、可動オブジェクト、支持機構及び/または積載物からの情報を受信及び/または表示するとともに、可動オブジェクト、支持機構及び/または積載物、または可動オブジェクト、支持機構及び/または積載物の状態の双方を制御してもよい。例えば、端末は、積載物によって記録された画像データ、または積載物の位置についての情報を表示しつつ、環境に対する積載物の位置取りを制御してもよい。代替的に、異なる複数の機能に対して、異なる複数の端末が用いられてもよい。例えば、第1の端末は、可動オブジェクト、支持機構及び/または積載物の動きまたは状態を制御してもよく、第2の端末は、可動オブジェクト、支持機構及び/または積載物からの情報を、受信及び/または表示してもよい。例えば、第1の端末は、積載物の位置取りを環境に対して制御するために用いられてもよく、第2の端末は、積載物によって記録された画像データを表示する。可動オブジェクトと、可動オブジェクトの制御及びデータ受信の双方を行う統合端末との間で、または、可動オブジェクトと、可動オブジェクトの制御及びデータ受信の双方を行う複数の端末との間で、様々な複数の通信モードが用いられてもよい。例えば、可動オブジェクトと、可動オブジェクトの制御及び可動オブジェクトからのデータ受信の双方を行う端末との間で、少なくとも2つの異なる通信モードが形成されてもよい。   Optionally, the same terminal receives and / or displays information from the movable object, support mechanism and / or load, and the movable object, support mechanism and / or load, or movable object, support mechanism and / or load. You may control both the state of an object. For example, the terminal may control the positioning of the load with respect to the environment while displaying the image data recorded by the load or information on the position of the load. Alternatively, different terminals may be used for different functions. For example, the first terminal may control the movement or state of the movable object, support mechanism and / or load, and the second terminal may receive information from the movable object, support mechanism and / or load, It may be received and / or displayed. For example, the first terminal may be used to control the positioning of the load with respect to the environment, and the second terminal displays the image data recorded by the load. Various multiples between a movable object and an integrated terminal that performs both control of the movable object and data reception, or between multiple terminals that perform both control of the movable object and data reception. May be used. For example, at least two different communication modes may be formed between a movable object and a terminal that performs both control of the movable object and data reception from the movable object.

図10は、複数の実施形態に係る支持機構1002及び積載物1004を含む可動オブジェクト1000を示す。可動オブジェクト1000は航空機として示されるが、この表示は、限定を意図するものではなく、本明細書において前述されたように、あらゆる適した種類の可動オブジェクトが用いられてもよい。当業者であれば、複数の航空機システムに関して本明細書に記載された複数の実施形態のいずれも、任意の適した可動オブジェクト(例えば、UAV)に適用可能であることを理解するであろう。いくつかの例において、積載物1004は、支持機構1002を必要とすることなく、可動オブジェクト1000に与えられてもよい。可動オブジェクト1000は、複数の推進メカニズム1006、検知システム1008及び通信システム1010を含んでもよい。   FIG. 10 shows a movable object 1000 including a support mechanism 1002 and a load 1004 according to a plurality of embodiments. Although the movable object 1000 is shown as an aircraft, this display is not intended to be limiting and any suitable type of movable object may be used, as previously described herein. One skilled in the art will appreciate that any of the embodiments described herein with respect to multiple aircraft systems can be applied to any suitable movable object (eg, UAV). In some examples, the load 1004 may be provided to the movable object 1000 without the need for a support mechanism 1002. The movable object 1000 may include a plurality of propulsion mechanisms 1006, a detection system 1008, and a communication system 1010.

複数の推進メカニズム1006は、前述されたように、複数の回転翼、プロペラ、ブレード、エンジン、モーター、ホイール、車軸、磁石またはノズルのうち1つまたは複数を含んでもよい。可動オブジェクトは、1つまたは複数、2つまたはそれより多く、3つまたはそれより多くの、または4つまたはそれより多くの推進メカニズムを有してもよい。複数の推進メカニズムは、全て同じタイプであってもよい。代替的に、1つまたは複数の複数の推進メカニズムは、複数の異なるタイプの複数の推進メカニズムであってもよい。複数の推進メカニズム1006は、本明細書の他の箇所に記載されたように、サポート要素(例えば、駆動シャフト)のような任意の適した手段を用いて、可動オブジェクト1000に搭載されてもよい。複数の推進メカニズム1006は、可動オブジェクト1000の任意の適した部分、例えば上面、底面、前面、背面、側面または適切なこれらの組み合わせに、搭載されてもよい。   The plurality of propulsion mechanisms 1006 may include one or more of a plurality of rotor blades, propellers, blades, engines, motors, wheels, axles, magnets or nozzles, as described above. A movable object may have one or more, two or more, three or more, or four or more propulsion mechanisms. The plurality of propulsion mechanisms may all be the same type. Alternatively, the one or more propulsion mechanisms may be a plurality of different types of propulsion mechanisms. The plurality of propulsion mechanisms 1006 may be mounted on the movable object 1000 using any suitable means, such as a support element (eg, a drive shaft), as described elsewhere herein. . The plurality of propulsion mechanisms 1006 may be mounted on any suitable portion of the movable object 1000, such as a top surface, a bottom surface, a front surface, a back surface, a side surface, or any suitable combination thereof.

いくつかの実施形態では、複数の推進メカニズム1006は、可動オブジェクト1000のあらゆる水平方向の動きを必要とすることなく(例えば、滑走路を下りることなく)可動オブジェクト1000が面から垂直に離陸し、または面に対して垂直に着陸することを可能としてもよい。任意に、複数の推進メカニズム1006は、可動オブジェクト1000が特定の位置及び/または方向において空中をホバリングすることを可能とするように動作可能であってもよい。複数の推進メカニズム1000のうち1つまたは複数は、他の複数の推進メカニズムから独立して制御されてもよい。代替的に、複数の推進メカニズム1000は、同時に制御されるように構成されてもよい。例えば、可動オブジェクト1000は、複数の水平に方向付けられた、可動オブジェクトに揚力及び/または推力を与え得る回転翼を有してもよい。複数の水平に方向付けられた回転翼は、垂直離陸、垂直着陸及びホバリング性能を可動オブジェクト1000に与えるために、駆動されてもよい。いくつかの実施形態では、水平方向に方向付けられた複数の回転翼のうち1つまたは複数は、時計回り方向に回転してもよく、水平方向の複数の回転翼のうち1つまたは複数は、反時計回り方向に回転してもよい。例えば、時計回りの回転翼の数は、反時計回りの回転翼の数と等しくてもよい。水平方向に方向付けられた複数の回転翼の各々の回転速度は、各回転翼によって生成された揚力及び/または推力を制御するために独立して異なってもよく、それにより、可動オブジェクト1000の空間配置、速度及び/または加速度を(例えば、並進の最大3度及び回転の最大3度に対して)調整する。   In some embodiments, the plurality of propulsion mechanisms 1006 allows the movable object 1000 to take off vertically from the surface without requiring any horizontal movement of the movable object 1000 (eg, without going down the runway), Or it may be possible to land perpendicular to the surface. Optionally, the plurality of propulsion mechanisms 1006 may be operable to allow the movable object 1000 to hover in the air at a particular position and / or orientation. One or more of the plurality of propulsion mechanisms 1000 may be controlled independently of other propulsion mechanisms. Alternatively, the plurality of propulsion mechanisms 1000 may be configured to be controlled simultaneously. For example, the movable object 1000 may have a plurality of horizontally oriented rotor blades that can provide lift and / or thrust to the movable object. A plurality of horizontally oriented rotors may be driven to provide the movable object 1000 with vertical takeoff, vertical landing and hover performance. In some embodiments, one or more of the plurality of horizontally oriented rotors may rotate in a clockwise direction and one or more of the plurality of horizontal rotors is , It may rotate counterclockwise. For example, the number of clockwise rotor blades may be equal to the number of counterclockwise rotor blades. The rotational speed of each of the plurality of rotor blades oriented in the horizontal direction may be independently varied to control the lift and / or thrust generated by each rotor so that the movable object 1000 Adjust spatial placement, speed and / or acceleration (eg, for up to 3 degrees of translation and up to 3 degrees of rotation).

検知システム1008は、可動オブジェクト1000の空間配置、速度及び/または加速度を(例えば、並進の最大3度及び回転の最大3度に対して)検知可能な1つまたは複数のセンサを含んでもよい。1つまたは複数のセンサは、複数のグローバルポジショニングシステム(GPS)センサ、複数のモーションセンサ、複数の慣性センサ、複数の近接センサまたは複数のイメージセンサを含んでもよい。検知システム1008によって与えられた検知データは、可動オブジェクト1000の空間配置、速度及び/または方向を(例えば、後述するように、適切なプロセッシングユニット及び/または制御モジュールを用いて)制御するために、用いられてもよい。代替的に、検知システム1008は、可動オブジェクトの周囲環境に関するデータ、例えば、複数の気象条件、複数の潜在的障害物への近さ、複数の地理的特徴の位置、複数の人工構造物の位置等を与えるために、用いられてもよい。   The sensing system 1008 may include one or more sensors that can sense the spatial arrangement, velocity, and / or acceleration of the movable object 1000 (eg, for a maximum of 3 degrees of translation and a maximum of 3 degrees of rotation). The one or more sensors may include multiple global positioning system (GPS) sensors, multiple motion sensors, multiple inertial sensors, multiple proximity sensors, or multiple image sensors. Sensing data provided by sensing system 1008 is used to control the spatial placement, speed and / or direction of movable object 1000 (eg, using an appropriate processing unit and / or control module, as described below). May be used. Alternatively, the sensing system 1008 may provide data about the surrounding environment of the movable object, eg, multiple weather conditions, proximity to potential obstacles, multiple geographic feature locations, multiple artificial structure locations. May be used to provide etc.

通信システム1010は、通信システム1014を有する端末1012との複数の無線信号1016を介しての通信を可能にする。通信システム1010、1014は、任意の数の送信機、受信機及び/または無線通信に適した送受信機を含んでもよい。通信は、データが1つの方向のみに送信可能なように1方向通信であってもよい。例えば、1方向通信は、データを端末1012に送信する可動オブジェクト1000のみを伴ってもよく、逆もまた同様である。データは、通信システム1010の1つまたは複数の送信機から通信システム1012の1つまたは複数の受信機に送信されてもよく、逆もまた同様である。代替的に、通信は、データが可動オブジェクト1000及び端末1012の間で双方向に送信可能なように、2方向通信であってもよい。2方向通信は、通信システム1010の1つまたは複数の送信機から通信システム1014の1つまたは複数の受信機へのデータ送信を伴ってもよく、逆もまた同様である。   The communication system 1010 enables communication with a terminal 1012 having a communication system 1014 via a plurality of radio signals 1016. The communication systems 1010, 1014 may include any number of transmitters, receivers, and / or transceivers suitable for wireless communication. The communication may be one-way communication so that data can be transmitted in only one direction. For example, one-way communication may involve only the movable object 1000 that transmits data to the terminal 1012 and vice versa. Data may be transmitted from one or more transmitters of communication system 1010 to one or more receivers of communication system 1012 and vice versa. Alternatively, the communication may be two-way communication so that data can be transmitted in both directions between the movable object 1000 and the terminal 1012. Two-way communication may involve data transmission from one or more transmitters of the communication system 1010 to one or more receivers of the communication system 1014, and vice versa.

いくつかの実施形態では、端末1012は、可動オブジェクト1000、支持機構1002及び積載物1004の1つまたは複数に制御データを与え、可動オブジェクト1000、支持機構1002及び積載物1004の1つまたは複数から情報(例えば、可動オブジェクト、支持機構または積載物の位置及び/または動作情報、積載物カメラによって記録された画像データのような、積載物によって検知されたデータ)を受信してもよい。いくつかの例において、端末からの制御データは、可動オブジェクト、支持機構及び/または積載物の相対的な複数の位置、複数の動き、複数の駆動または複数の制御に対する複数の命令を含んでもよい。例えば、制御データは、可動オブジェクトの位置及び/または方向の変更(例えば、複数の推進メカニズム1006の制御を介して)または可動オブジェクトに対する積載物の動き(例えば、支持機構1002の制御を介して)をもたらしてもよい。端末からの制御データは、積載物の制御、例えば、カメラまたは他の画像記録デバイスの動作の制御(例えば、静止画または動画の撮影、ズームインまたはアウト、電源オンまたはオフ、複数の撮像モードの切り替え、画像解像度の変更、焦点の変更、被写界深度の変更、露出時間の変更、視野角または視野の変更)をもたらしてもよい。いくつかの例において、可動オブジェクト、支持機構及び/または積載物からの複数の通信は、(例えば、検知システム1008または積載物1004の)1つまたは複数のセンサからの情報を含んでもよい。複数の通信は、1つまたは複数の異なるタイプの複数のセンサ(例えば、複数のGPSセンサ、複数のモーションセンサ、慣性センサ、複数の近接センサまたは複数のイメージセンサ)から検知された情報を含んでもよい。そのような情報は、可動オブジェクト、支持機構及び/または積載物の位置(例えば、位置、方向)、動きまたは加速度に関するものであってもよい。積載物からのそのような情報は、積載物によって記録されたデータまたは積載物の検知された状態を含んでもよい。端末1012によって送信されて与えられた制御データは、可動オブジェクト1000、支持機構1002または積載物1004の1つまたは複数の状態を制御するように構成されてもよい。代替的に、または組み合わせで、端末が可動オブジェクト1000、支持機構1002及び積載物1004の各々と独立して通信を行い、かつ、これらを制御できるように、支持機構1002及び積載物1004は、各々、端末1012と通信を行うように構成される通信モジュールをさらに含んでもよい。   In some embodiments, the terminal 1012 provides control data to one or more of the movable object 1000, the support mechanism 1002 and the load 1004, and from one or more of the movable object 1000, the support mechanism 1002 and the load 1004. Information (eg, data detected by the load, such as movable object, support mechanism or load position and / or motion information, image data recorded by the load camera) may be received. In some examples, control data from the terminal may include multiple commands for relative positions, multiple movements, multiple drives or multiple controls of the movable object, support mechanism and / or load. . For example, the control data may be a change in the position and / or orientation of the movable object (eg, via control of a plurality of propulsion mechanisms 1006) or movement of the load relative to the movable object (eg, via control of the support mechanism 1002). May bring about. Control data from the terminal can be used to control the load, for example, control of the operation of a camera or other image recording device (e.g., taking still images or videos, zooming in or out, power on or off, switching between multiple imaging modes) Change of image resolution, change of focus, change of depth of field, change of exposure time, change of viewing angle or field of view). In some examples, multiple communications from movable objects, support mechanisms, and / or loads may include information from one or more sensors (eg, sensing system 1008 or load 1004). The plurality of communications may include information detected from one or more different types of sensors (eg, multiple GPS sensors, multiple motion sensors, inertial sensors, multiple proximity sensors, or multiple image sensors). Good. Such information may relate to the position (eg, position, direction), movement or acceleration of the movable object, support mechanism and / or load. Such information from the load may include data recorded by the load or a sensed state of the load. The control data transmitted and provided by the terminal 1012 may be configured to control one or more states of the movable object 1000, the support mechanism 1002, or the load 1004. Alternatively, or in combination, the support mechanism 1002 and the load 1004 may each communicate with and control each of the movable object 1000, the support mechanism 1002, and the load 1004 independently. A communication module configured to communicate with the terminal 1012 may be further included.

いくつかの実施形態では、可動オブジェクト1000は、端末1012に加えて、または端末1012の代わりに、他の遠隔デバイスと通信を行うように構成されてもよい。端末1012は、可動オブジェクト1000のみならず、他の遠隔デバイスとも通信を行うように構成されてもよい。例えば、可動オブジェクト1000及び/または端末1012は、他の可動オブジェクトまたは他の可動オブジェクトの支持機構もしくは積載物と通信を行ってもよい。所望の場合には、遠隔デバイスは、第2の端末または他のコンピューティングデバイス(例えば、コンピュータ、ラップトップ、タブレット、スマートフォンまたは他のモバイルデバイス)であってもよい。遠隔デバイスは、データを可動オブジェクト1000に送信し、可動オブジェクト1000からデータを受信し、データを端末1012に送信し、及び/または端末1012からデータを受信するように構成されてもよい。任意に、遠隔デバイスは、可動オブジェクト1000及び/または端末1012から受信されたデータがウェブサイトまたはサーバにアップロード可能なように、インターネットまたは他の通信ネットワークに接続されてもよい。   In some embodiments, the movable object 1000 may be configured to communicate with other remote devices in addition to or in place of the terminal 1012. The terminal 1012 may be configured to communicate not only with the movable object 1000 but also with other remote devices. For example, the movable object 1000 and / or the terminal 1012 may communicate with other movable objects or other movable object support mechanisms or loads. If desired, the remote device may be a second terminal or other computing device (eg, a computer, laptop, tablet, smartphone or other mobile device). The remote device may be configured to send data to the movable object 1000, receive data from the movable object 1000, send data to the terminal 1012, and / or receive data from the terminal 1012. Optionally, the remote device may be connected to the Internet or other communication network so that data received from movable object 1000 and / or terminal 1012 can be uploaded to a website or server.

図11は、可動オブジェクトを制御するための、複数の実施形態に係るシステム1100のブロック図による模式図である。システム1100は、本明細書において開示された複数のシステム、複数のデバイス及び複数の方法の任意の適した実施形態との組み合わせで用いられてもよい。システム1100は、検知モジュール1102、プロセッシングユニット1104、非一時的コンピュータ可読媒体1106、制御モジュール1108及び通信モジュール1110を含んでもよい。   FIG. 11 is a schematic block diagram of a system 1100 according to embodiments for controlling a movable object. System 1100 may be used in combination with any suitable embodiment of systems, devices, and methods disclosed herein. The system 1100 may include a detection module 1102, a processing unit 1104, a non-transitory computer readable medium 1106, a control module 1108 and a communication module 1110.

検知モジュール1102は、複数の可動オブジェクトに関する情報を異なる複数の態様で収集する複数の異なるタイプの複数のセンサを用いてもよい。複数の異なるタイプの複数のセンサは、複数の異なるタイプの信号または異なる複数のソースからの複数の信号を検知してもよい。例えば、複数のセンサは、複数の慣性センサ、複数のGPSセンサ、複数の近接センサ(例えば、ライダ)または複数のビジョン/イメージセンサ(例えば、カメラ)を含んでもよい。検知モジュール1102は、複数のプロセッサを有するプロセッシングユニット1104と動作可能に接続されてもよい。いくつかの実施形態では、検知モジュールは、検知データを適切な外部デバイスまたはシステムに直接送信するように構成される送信モジュール1112(例えば、Wi−Fi画像送信モジュール)と動作可能に接続されてもよい。例えば、送信モジュール1112は、検知モジュール1102のカメラによって記録された複数の画像を遠隔端末に送信するために用いられてもよい。   The detection module 1102 may use a plurality of different types of sensors that collect information about a plurality of movable objects in a plurality of different ways. The plurality of different types of sensors may detect a plurality of different types of signals or a plurality of signals from different sources. For example, the plurality of sensors may include a plurality of inertial sensors, a plurality of GPS sensors, a plurality of proximity sensors (eg, a lidar), or a plurality of vision / image sensors (eg, a camera). The detection module 1102 may be operatively connected to a processing unit 1104 having a plurality of processors. In some embodiments, the detection module may be operatively connected to a transmission module 1112 (eg, a Wi-Fi image transmission module) configured to transmit detection data directly to a suitable external device or system. Good. For example, the transmission module 1112 may be used to transmit a plurality of images recorded by the camera of the detection module 1102 to a remote terminal.

プロセッシングユニット1104は、1つまたは複数のプロセッサ、例えば、プログラマブルプロセッサ(例えば、セントラルプロセッシングユニット(CPU))を有してもよい。プロセッシングユニット1104は、非一時的コンピュータ可読媒体1106と動作可能に接続されてもよい。非一時的コンピュータ可読媒体1106は、1つまたは複数の段階を実行するためのロジック、コード及び/またはプロセッシングユニット1104によって実行可能な複数のプログラム命令を格納してもよい。非一時的コンピュータ可読媒体は、1つまたは複数の複数のメモリユニット(例えば、SDカードまたはランダムアクセスメモリ(RAM)のような取り外し可能メディアまたは外部ストレージ)を含んでもよい。いくつかの実施形態では、検知モジュール1102からのデータは、非一時的コンピュータ可読媒体1106の複数のメモリユニットに直接伝送され、及びその内部に格納されてもよい。非一時的コンピュータ可読媒体1106の複数のメモリユニットは、本明細書に記載された複数の方法の任意の適した実施形態を実行するために、ロジック、コード及び/またはプロセッシングユニット1104によって実行可能な複数のプログラム命令を格納してもよい。例えば、プロセッシングユニット1104は、プロセッシングユニット1104の1つまたは複数のプロセッサに、検知モジュールによって生成された検知データを分析させる複数の命令を実行するように構成されてもよい。複数のメモリユニットは、プロセッシングユニット1104によって処理されるべき、検知モジュールからの検知データを格納してもよい。いくつかの実施形態では、非一時的コンピュータ可読媒体1106の複数のメモリユニットは、プロセッシングユニット1104によって生成された複数の処理結果を格納するために、用いられてもよい。   The processing unit 1104 may include one or more processors, such as a programmable processor (eg, a central processing unit (CPU)). Processing unit 1104 may be operatively connected to non-transitory computer readable media 1106. Non-transitory computer readable media 1106 may store logic, code for executing one or more steps, and / or a plurality of program instructions executable by processing unit 1104. Non-transitory computer readable media may include one or more memory units (eg, removable media such as SD card or random access memory (RAM) or external storage). In some embodiments, data from the sensing module 1102 may be transmitted directly to and stored within a plurality of memory units of the non-transitory computer readable medium 1106. Multiple memory units of non-transitory computer readable medium 1106 may be executed by logic, code and / or processing unit 1104 to perform any suitable embodiment of the methods described herein. A plurality of program instructions may be stored. For example, the processing unit 1104 may be configured to execute a plurality of instructions that cause one or more processors of the processing unit 1104 to analyze detection data generated by the detection module. The plurality of memory units may store detection data from the detection module to be processed by the processing unit 1104. In some embodiments, multiple memory units of non-transitory computer readable media 1106 may be used to store multiple processing results generated by processing unit 1104.

いくつかの実施形態では、プロセッシングユニット1104は、可動オブジェクトの状態を制御するように構成される制御モジュール1108と動作可能に接続されてもよい。例えば、制御モジュール1108は、可動オブジェクトの空間配置、速度、及び/または加速度を6の自由度に対して調整するために、可動オブジェクトの複数の推進メカニズムを制御するように構成されてもよい。代替的に、または組み合わせで、制御モジュール1108は、支持機構、積載物または検知モジュールの状態のうち1つまたは複数を制御してもよい。   In some embodiments, the processing unit 1104 may be operatively connected to a control module 1108 that is configured to control the state of the movable object. For example, the control module 1108 may be configured to control a plurality of propulsion mechanisms of the movable object to adjust the spatial arrangement, velocity, and / or acceleration of the movable object for six degrees of freedom. Alternatively or in combination, the control module 1108 may control one or more of the states of the support mechanism, load or detection module.

プロセッシングユニット1104は、1つまたは複数の外部デバイス(例えば、端末、表示デバイスまたは他のリモートコントローラ)からデータを送信及び/または受信するように構成される通信モジュール1110と、動作可能に接続されてもよい。有線通信または無線通信のような任意の適切な通信手段が、用いられてもよい。例えば、通信モジュール1110は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、通信ネットワーク、クラウド通信等のうち1つまたは複数を用いてもよい。任意に、タワー、衛星または移動局のような複数の中継局が、用いられてもよい。複数の無線通信は、近さに依存してもよく、または、近さに依存しなくてもよい。いくつかの実施形態では、複数の通信に対して視程が必要とされてもよく、または、必要とされなくてもよい。通信モジュール1110は、検知モジュール1102からの検知データ、プロセッシングユニット1104によって生成された複数の処理結果、予め定められた制御データ、端末またはリモートコントローラ等からの複数のユーザコマンドのうち1つまたは複数を、送信及び/または受信してもよい。   The processing unit 1104 is operatively connected to a communication module 1110 that is configured to send and / or receive data from one or more external devices (eg, a terminal, display device or other remote controller). Also good. Any suitable communication means such as wired communication or wireless communication may be used. For example, the communication module 1110 uses one or more of local area network (LAN), wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, communication network, cloud communication, and the like. Also good. Optionally, multiple relay stations such as towers, satellites or mobile stations may be used. Multiple wireless communications may depend on proximity or may not depend on proximity. In some embodiments, visibility may be required or not required for multiple communications. The communication module 1110 receives one or more of detection data from the detection module 1102, a plurality of processing results generated by the processing unit 1104, predetermined control data, and a plurality of user commands from a terminal or a remote controller. May be transmitted and / or received.

システム1100の複数のコンポーネントは、任意の適切な構成で構成されてもよい。例えば、システム1100の複数のコンポーネントのうち1つまたは複数は、可動オブジェクト、支持機構、積載物、端末、検知システムまたは上記のうち1つまたは複数と通信を行う追加の外部デバイスに配置されてもよい。さらに、図11は単一のプロセッシングユニット1104及び単一の非一時的コンピュータ可読媒体1106を示すが、当業者であれば、これは限定を意図するものではなく、システム1100は、複数のプロセッシングユニット及び/または非一時的コンピュータ可読媒体を含んでもよいことを認識するであろう。いくつかの実施形態では、システム1100によって実行される処理及び/または複数のメモリ機能の任意の適切な態様が、複数の異なる位置、例えば、可動オブジェクト、支持機構、積載物、端末、検知モジュール、上記のうち1つまたは複数と通信を行う追加の外部デバイス、または適切なこれらの組み合わせのうち1つまたは複数で行われるように、1つまたは複数のプロセッシングユニット及び/または非一時的コンピュータ可読媒体は、上述された複数の位置に位置してもよい。   The multiple components of system 1100 may be configured in any suitable configuration. For example, one or more of the components of the system 1100 may be located on a movable object, a support mechanism, a load, a terminal, a sensing system, or an additional external device that communicates with one or more of the above. Good. Further, although FIG. 11 shows a single processing unit 1104 and a single non-transitory computer readable medium 1106, those skilled in the art are not intended to limit this, and the system 1100 may include multiple processing units. It will be appreciated that and / or may include non-transitory computer readable media. In some embodiments, any suitable aspect of the processing performed by the system 1100 and / or the plurality of memory functions may be performed at a plurality of different locations, eg, movable objects, support mechanisms, loads, terminals, sensing modules, One or more processing units and / or non-transitory computer-readable media as performed by one or more of the additional external devices communicating with one or more of the above, or any suitable combination thereof May be located at a plurality of positions as described above.

本発明の複数の好ましい実施形態が、本明細書において図示及び記載されたが、当業者にとっては、そのような複数の実施形態が、例示を目的としてのみ与えられていることは明らかである。ここで、当業者には、多数の変更、複数の変化及び複数の置換が、本発明から偏差することなく想到される。本明細書に記載された本発明の複数の実施形態の様々な複数の代替例が、本発明を実施する上で利用可能であることが理解されるべきである。以下の特許請求の範囲は、本発明の範囲を定めるものであり、それにより、これらの特許請求の範囲及びこれらの均等物の範囲内にある複数の方法及び複数の構造が網羅されることが意図される。
[項目1]
インラインセンサの較正方法であって、
無人航空機(UAV)に接続された複数の異なるタイプのセンサであって、互いに対する初期空間構成を有する複数のセンサから、上記UAVの飛行中にセンサデータを取得するステップと、
プロセッサを介して、上記複数のセンサの互いに対する上記初期空間構成から次の空間構成への空間構成における変化を、上記センサデータに基づいて検出するステップと、
上記次の空間構成を決定するステップと、
上記複数のセンサのうち少なくとも1つからのデータを、上記次の空間構成に基づいて、上記UAVの飛行中に調整するステップとを含む、方法。
[項目2]
上記複数の異なるタイプのセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを含む、項目1に記載の方法。
[項目3]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目2に記載の方法。
[項目4]
上記複数のセンサからの上記センサデータは、上記慣性センサと関連付けられる座標系に与えられる、項目3に記載の方法。
[項目5]
上記初期空間構成は、上記複数のセンサの各々に対して、互いに対する初期位置及び初期方向を備える、項目1に記載の方法。
[項目6]
上記空間構成における上記変化は、上記複数のセンサのうち少なくとも1つの、上記複数のセンサのうちの他の複数のセンサに対する、上記初期位置及び上記初期方向のうち少なくとも1つにおける変化を含む、項目5に記載の方法。
[項目7]
上記初期空間構成は、上記UAVの離陸に先立って与えられる、項目1に記載の方法。
[項目8]
上記初期空間構成は、上記UAVの飛行中に与えられる、項目1に記載の方法。
[項目9]
上記空間構成における上記変化は、上記UAVの動きによって生じる、項目1に記載の方法。
[項目10]
上記空間構成における上記変化は、上記UAVの振動によって生じる、項目9に記載の方法。
[項目11]
上記プロセッサを介して、複数のカルマンフィルタを用いて上記次の空間構成を決定する段階をさらに備え、上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを含む、項目1に記載の方法。
[項目12]
上記プロセッサは、上記UAVに搭載されている、項目1に記載の方法。
[項目13]
上記プロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目11に記載の方法。
[項目14]
インラインセンサの較正装置であって、
(a)(i)無人航空機(UAV)と接続され、かつ、(ii)上記UAVの飛行中にセンサデータを与えるように構成され、互いに対する初期空間構成を有する複数の異なるタイプのセンサと、
(b)個別にまたは集合的に、(i)上記センサデータに基づいて、複数のセンサの、互いに対する上記初期空間構成から次の空間構成への、空間構成における変化を検出し、(ii)上記次の空間構成を決定し、(iii)上記UAVの飛行中に、上記次の空間構成に基づいて、上記複数のセンサのうち少なくとも1つからのデータを調整するように構成される、1つまたは複数のプロセッサとを備える、装置。
[項目15]
上記複数の異なるタイプのセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目14に記載の装置。
[項目16]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目15に記載の装置。
[項目17]
上記複数のセンサからの上記センサデータは、上記慣性センサと関連付けられる座標系に与えられる、項目16に記載の装置。
[項目18]
上記初期空間構成は、上記複数のセンサの各々に対して、互いに対する初期位置及び初期方向を備える、項目14に記載の装置。
[項目19]
上記空間構成における上記変化は、上記複数のセンサのうち少なくとも1つの、上記複数のセンサのうちの他の複数のセンサに対する、上記初期位置及び上記初期方向のうち少なくとも1つにおける変化を備える、項目18に記載の装置。
[項目20]
上記初期空間構成は、上記UAVの離陸に先立って与えられる、項目14に記載の装置。
[項目21]
上記初期空間構成は、上記UAVの飛行中に与えられる、項目14に記載の装置。
[項目22]
上記空間構成における上記変化は、上記UAVの動きによって生じる、項目14に記載の装置。
[項目23]
上記空間構成における上記変化は、上記UAVの振動によって生じる、項目22に記載の装置。
[項目24]
上記1つまたは複数のプロセッサは、複数のカルマンフィルタを用いて上記次の空間構成を決定し、上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目14に記載の装置。
[項目25]
上記1つまたは複数のプロセッサは、上記UAVに搭載される、項目14に記載の装置。
[項目26]
上記1つまたは複数のプロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目14に記載の装置。
[項目27]
センサ較正方法であって、
無人航空機(UAV)と連結された複数の異なるタイプの複数のセンサからセンサデータを取得する段階と、
基準座標系を選択する段階と、
プロセッサを介して、上記複数のセンサ間の予測される空間関係に基づいて、上記複数のセンサからの上記センサデータを上記基準座標系に表す段階と、
上記プロセッサを介して、上記複数のセンサ間における上記センサデータの不一致を検出する段階であって、上記不一致は、上記複数のセンサ間の上記予測される空間関係におけるエラーを示す、段階と、
実際の空間構成を決定する段階と、
上記実際の空間構成に基づいて、上記複数のセンサのうち少なくとも1つからのデータを調整する段階とを備える、方法。
[項目28]
複数の異なるタイプの上記複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目27に記載の方法。
[項目29]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目28に記載の方法。
[項目30]
上記基準座標系は、上記慣性センサと関連付けられる座標系である、項目29に記載の方法。
[項目31]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える上記複数のセンサの初期空間構成からの、上記構成における予測される空間変化に基づく、項目27に記載の方法。
[項目32]
上記初期空間構成は、上記UAVの離陸に先立って与えられる、項目31に記載の方法。
[項目33]
上記初期空間構成は、上記UAVの飛行中に与えられる、項目31に記載の方法。
[項目34]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、項目27に記載の方法。
[項目35]
上記プロセッサを介して、複数のカルマンフィルタを用いて上記次の空間構成を決定する段階をさらに備え、上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目27に記載の方法。
[項目36]
上記プロセッサは、上記UAVに搭載されている、項目27に記載の方法。
[項目37]
上記複数のプロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目27に記載の方法。
[項目38]
上記複数のセンサの上記実際の空間構成は、上記UAVの動作中に決定される、項目27に記載の方法。
[項目39]
上記複数のセンサの上記実際の空間構成は、上記UAVの飛行中に決定される、項目38に記載の方法。
[項目40]
上記複数のセンサからの上記データは、上記UAVの動作中に調整される、項目27に記載の方法。
[項目41]
上記実際の空間構成に基づいて調整された上記データは、ビジョンセンサによって記録された画像データである、項目27に記載の方法。
[項目42]
センサ較正装置であって、
(a)(i)無人航空機(UAV)と連結され、かつ、(ii)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、
(b)個別にまたは集合的に、
(i)基準座標系を選択し、
(ii)上記複数のセンサ間の予測される空間関係に基づいて、上記複数のセンサからの上記センサデータを上記基準座標系に表し、
(iii)上記複数のセンサ間における上記センサデータの不一致であって、上記複数のセンサ間の上記予測される空間関係におけるエラーを示す不一致を検出し、
(iv)実際の空間構成を決定し、
(v)上記実際の空間構成に基づいて、上記複数のセンサのうち少なくとも1つからのデータを調整するように構成される、1つまたは複数のプロセッサとを備える、装置。
[項目43]
複数の異なるタイプの上記複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目42に記載の装置。
[項目44]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目43に記載の装置。
[項目45]
上記基準座標系は、上記慣性センサと関連付けられる座標系である、項目44に記載の装置。
[項目46]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える上記複数のセンサの初期空間構成からの、上記構成における予測される空間変化に基づく、項目42に記載の装置。
[項目47]
上記初期空間構成は、上記UAVの離陸に先立って与えられる、項目46に記載の装置。
[項目48]
上記初期空間構成は、上記UAVの飛行中に与えられる、項目46に記載の装置。
[項目49]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、項目42に記載の装置。
[項目50]
上記1つまたは複数のプロセッサは、複数のカルマンフィルタを用いて上記次の空間構成を決定し、上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目42に記載の装置。
[項目51]
上記1つまたは複数のプロセッサは、上記UAVに搭載される、項目42に記載の装置。
[項目52]
上記1つまたは複数のプロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目42に記載の装置。
[項目53]
上記複数のセンサの上記実際の空間構成は、上記UAVの動作中に決定される、項目42に記載の装置。
[項目54]
上記複数のセンサの上記実際の空間構成は、上記UAVの飛行中に決定される、項目53に記載の装置。
[項目55]
上記複数のセンサのうち上記少なくとも1つからの上記データは、上記UAVの動作中に調整される、項目42に記載の装置。
[項目56]
上記実際の空間構成に基づいて調整された上記データは、ビジョンセンサによって記録された画像データである、項目42に記載の装置。
[項目57]
センサ較正方法であって、
無人航空機(UAV)と連結された複数の異なるタイプの複数のセンサからセンサデータを取得する段階と、
プロセッサを介して、上記複数のセンサを複数のサブセットにグループ化する段階であって、各サブセットは、(i)少なくとも2つのセンサと、(ii)複数のセンサの異なる組み合わせとを有する段階と、
上記プロセッサを介して、上記センサデータに基づいて、各サブセットにおける上記少なくとも2つのセンサ間の予測される空間関係を算出する段階と、
上記予測される空間関係に基づいて、各サブセットにおける上記少なくとも2つのセンサ間の実際の空間関係を決定する段階と、
上記プロセッサを介して、上記少なくとも2つのセンサ間の上記実際の空間関係に基づいて、各サブセットにおける上記複数のセンサの、互いに対する空間構成を算出する段階とを備える、方法。
[項目58]
各サブセットは、基準センサ及び1つまたは複数の測定センサを備える、項目57に記載の方法。
[項目59]
各サブセットに対する上記基準センサは、同じである、項目58に記載の方法。
[項目60]
各サブセットに対する上記基準センサは、異なる、項目58に記載の方法。
[項目61]
複数の異なるタイプの上記複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目57に記載の方法。
[項目62]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目61に記載の方法。
[項目63]
各サブセットにおける上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える上記複数のセンサの初期空間構成からの、上記構成における予測される空間変化に基づく、項目58に記載の方法。
[項目64]
上記初期空間構成は、上記UAVの離陸に先立って与えられる、項目63に記載の方法。
[項目65]
上記初期空間構成は、上記UAVの飛行中に与えられる、項目63に記載の方法。
[項目66]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、項目58に記載の方法。
[項目67]
上記プロセッサは、各サブセットにおける上記少なくとも2つのセンサ間の実際の空間関係を複数のカルマンフィルタを用いて決定し、上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目58に記載の方法。
[項目68]
上記プロセッサは、上記UAVに搭載されている、項目58に記載の方法。
[項目69]
上記プロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目58に記載の方法。
[項目70]
上記複数のセンサの上記実際の空間構成は、上記UAVの動作中に決定される、項目58に記載の方法。
[項目71]
上記複数のセンサの上記実際の空間構成は、上記UAVの飛行中に決定される、項目58に記載の方法。
[項目72]
上記複数のセンサからの上記データは、上記UAVの動作中に調整される、項目58に記載の方法。
[項目73]
上記空間構成に基づいて、上記複数のセンサのうち少なくとも1つからのデータを調整する段階と、上記プロセッサを介して、上記少なくとも2つのセンサ間の上記実際の空間関係に基づいて、各サブセットにおける上記複数のセンサの、互いに対する空間構成を算出する段階とをさらに備える、項目57に記載の方法。
[項目74]
上記実際の空間構成に基づいて調整された上記データは、ビジョンセンサによって記録された画像データである、項目73に記載の方法。
[項目75]
センサ較正装置であって、
(a)(i)無人航空機(UAV)と連結され、かつ、(ii)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、
(b)個別にまたは集合的に、
(i)上記複数のセンサを、複数のサブセットであって、各サブセットが(i)少なくとも2つのセンサと、(ii)複数のセンサの異なる組み合わせとを有する複数のサブセットにグループ化し、
(ii)上記センサデータに基づいて、各サブセットにおける上記少なくとも2つのセンサ間の予測される空間関係を算出し、
(iii)上記予測される空間関係に基づいて、各サブセットにおける上記少なくとも2つのセンサ間の実際の空間関係を決定し、
(iv)上記少なくとも2つのセンサ間の上記実際の空間関係に基づいて、各サブセットにおける上記複数のセンサの、互いに対する空間構成を算出するように構成される1つまたは複数のプロセッサとを備える、装置。
[項目76]
各サブセットは、基準センサ及び1つまたは複数の測定センサを備える、項目75に記載の装置。
[項目77]
各サブセットに対する上記基準センサは、同じである、項目76に記載の装置。
[項目78]
各サブセットに対する上記基準センサは、異なる、項目76に記載の装置。
[項目79]
複数の異なるタイプの上記複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目75に記載の装置。
[項目80]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目79に記載の装置。
[項目81]
各サブセットにおける上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える上記複数のセンサの初期空間構成からの、上記構成における予測される空間変化に基づく、項目75に記載の装置。
[項目82]
上記初期空間構成は、上記UAVの離陸に先立って与えられる、項目81に記載の装置。
[項目83]
上記初期空間構成は、上記UAVの飛行中に与えられる、項目81に記載の装置。
[項目84]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、項目75に記載の装置。
[項目85]
上記1つまたは複数のプロセッサは、各サブセットにおける上記少なくとも2つのセンサ間の実際の空間関係を、複数のカルマンフィルタを用いて決定し、上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目75に記載の装置。
[項目86]
上記1つまたは複数のプロセッサは、上記UAVに搭載される、項目75に記載の装置。
[項目87]
上記1つまたは複数のプロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目75に記載の装置。
[項目88]
上記複数のセンサの上記実際の空間構成は、上記UAVの動作中に決定される、項目75に記載の装置。
[項目89]
上記複数のセンサの上記実際の空間構成は、上記UAVの飛行中に決定される、項目75に記載の装置。
[項目90]
上記複数のセンサのうち上記少なくとも1つからの上記データは、上記UAVの動作中に調整される、項目75に記載の装置。
[項目91]
センサ較正方法であって、
複数の異なるタイプの複数のセンサからセンサデータを取得する段階と、
プロセッサを介して、上記複数のセンサを複数のサブセットにグループ化する段階であって、各サブセットは、(i)基準センサと1つまたは複数の測定センサとを備える少なくとも2つのセンサ、及び(ii)複数のセンサの異なる組み合わせを有し、上記複数のサブセットの少なくとも2つは、複数の異なる基準センサを有する段階と、
上記プロセッサを介して、上記センサデータに基づいて、サブセット当たり少なくとも1つのカルマンフィルタを用いて、各サブセットにおける上記少なくとも2つのセンサ間の実際の空間関係を決定する段階と、
上記プロセッサを介して、上記少なくとも2つのセンサ間の上記実際の空間関係に基づいて、各サブセットにおける上記複数のセンサの、互いに対する空間構成を算出する段階とを備える、方法。
[項目92]
上記複数のセンサは、無人航空機(UAV)と連結される、項目91に記載の方法。
[項目93]
上記プロセッサは、上記UAVに搭載されている、項目92に記載の方法。
[項目94]
上記プロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目92に記載の方法。
[項目95]
上記複数のセンサの上記実際の空間構成は、上記UAVの動作中に決定される、項目92に記載の方法。
[項目96]
上記複数のセンサの上記実際の空間構成は、上記UAVの飛行中に決定される、項目92に記載の方法。
[項目97]
上記複数のセンサからの上記データは、上記UAVの動作中に調整される、項目92に記載の方法。
[項目98]
複数の異なるタイプの上記複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目91に記載の方法。
[項目99]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目98に記載の方法。
[項目100]
上記複数のセンサのうち少なくとも1つは、ビジョンセンサである、項目98に記載の方法。
[項目101]
上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目91に記載の方法。
[項目102]
上記複数のセンサを複数のサブセットにグループ化した後、上記センサデータに基づいて、各サブセットにおける上記少なくとも2つのセンサ間の予測される空間関係を算出する段階をさらに備え、上記カルマンフィルタは、上記予測される空間関係に基づいて、実際の空間関係を決定する、項目91に記載の方法。
[項目103]
上記複数のセンサ間の上記予測される空間関係は、上記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、項目91に記載の方法。
[項目104]
センサ較正装置であって、
(a)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、
(b)個別にまたは集合的に、
(1)上記複数のセンサを、複数のサブセットであって、各サブセットは、(i)基準センサと1つまたは複数の測定センサとを備える少なくとも2つのセンサ、及び(ii)複数のセンサの異なる組み合わせを有し、上記複数のサブセットの少なくとも2つは、複数の異なる基準センサを有する、複数のサブセットにグループ化し、
(2)上記センサデータに基づいて、サブセット当たり少なくとも1つのカルマンフィルタを用いて、各サブセットにおける上記少なくとも2つのセンサ間の実際の空間関係を決定し、
(3)上記少なくとも2つのセンサ間の上記実際の空間関係に基づいて、各サブセットにおける上記複数のセンサの、互いに対する空間構成を算出するように構成される、1つまたは複数のプロセッサとを備える、装置。
[項目105]
上記複数のセンサは、無人航空機(UAV)と連結される、項目104に記載の装置。
[項目106]
上記1つまたは複数のプロセッサは、上記UAVに搭載される、項目105に記載の装置。
[項目107]
上記1つまたは複数のプロセッサは、上記UAVの外部デバイスにあり、上記UAVの飛行中に、上記UAVと通信を行う、項目105に記載の装置。
[項目108]
上記複数のセンサの上記実際の空間構成は、上記UAVの動作中に決定される、項目105に記載の装置。
[項目109]
上記複数のセンサの上記実際の空間構成は、上記UAVの飛行中に決定される、項目105に記載の装置。
[項目110]
上記複数のセンサのうち上記少なくとも1つからの上記データは、上記UAVの動作中に調整される、項目105に記載の装置。
[項目111]
複数の異なるタイプの上記複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、項目104に記載の装置。
[項目112]
上記複数のセンサのうち少なくとも1つは、慣性センサである、項目111に記載の装置。
[項目113]
上記複数のセンサのうち少なくとも1つは、ビジョンセンサである、項目111に記載の装置。
[項目114]
上記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、項目104に記載の装置。
While several preferred embodiments of the present invention have been illustrated and described herein, it will be apparent to those skilled in the art that such embodiments are provided for illustrative purposes only. Here, many changes, multiple changes, and multiple substitutions will occur to those skilled in the art without departing from the present invention. It should be understood that various alternatives to the embodiments of the invention described herein can be used to practice the invention. The following claims are intended to define the scope of the invention, and thereby cover multiple methods and structures within the scope of these claims and their equivalents. Intended.
[Item 1]
A calibration method for an inline sensor,
Obtaining sensor data during flight of the UAV from a plurality of different types of sensors connected to an unmanned aerial vehicle (UAV) having an initial spatial configuration relative to each other;
Detecting a change in the spatial configuration from the initial spatial configuration to the next spatial configuration with respect to each other of the plurality of sensors based on the sensor data via a processor;
Determining the next spatial configuration;
Adjusting data from at least one of the plurality of sensors during flight of the UAV based on the next spatial configuration.
[Item 2]
The method of item 1, wherein the plurality of different types of sensors includes at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 3]
Item 3. The method according to Item 2, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 4]
4. The method of item 3, wherein the sensor data from the plurality of sensors is provided in a coordinate system associated with the inertial sensor.
[Item 5]
The method of item 1, wherein the initial spatial configuration comprises an initial position and an initial direction relative to each other for each of the plurality of sensors.
[Item 6]
The change in the spatial configuration includes an change in at least one of the initial position and the initial direction with respect to at least one of the plurality of sensors and other sensors of the plurality of sensors. 5. The method according to 5.
[Item 7]
The method of item 1, wherein the initial spatial configuration is provided prior to take-off of the UAV.
[Item 8]
Item 2. The method of item 1, wherein the initial spatial configuration is provided during flight of the UAV.
[Item 9]
The method according to item 1, wherein the change in the spatial configuration is caused by the movement of the UAV.
[Item 10]
Item 10. The method according to Item 9, wherein the change in the spatial configuration is caused by the vibration of the UAV.
[Item 11]
In item 1, further comprising determining the next spatial configuration using a plurality of Kalman filters via the processor, wherein the plurality of Kalman filters includes one or more extended Kalman filters and / or unscented Kalman filters. The method described.
[Item 12]
The method according to item 1, wherein the processor is mounted on the UAV.
[Item 13]
Item 12. The method of item 11, wherein the processor is in an external device of the UAV and communicates with the UAV during the flight of the UAV.
[Item 14]
An in-line sensor calibration device,
(I) a plurality of different types of sensors connected to an unmanned aerial vehicle (UAV) and (ii) configured to provide sensor data during flight of the UAV and having an initial spatial configuration relative to each other;
(B) individually or collectively, (i) detecting a change in the spatial configuration of the plurality of sensors from the initial spatial configuration relative to each other to the next spatial configuration based on the sensor data; (ii) (Iii) configured to adjust data from at least one of the plurality of sensors based on the next spatial configuration during flight of the UAV during the UAV flight; An apparatus comprising one or more processors.
[Item 15]
15. The apparatus of item 14, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 16]
Item 16. The apparatus according to Item 15, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 17]
Item 17. The apparatus of item 16, wherein the sensor data from the plurality of sensors is provided in a coordinate system associated with the inertial sensor.
[Item 18]
Item 15. The apparatus of item 14, wherein the initial spatial configuration comprises an initial position and an initial direction relative to each other for each of the plurality of sensors.
[Item 19]
The change in the spatial configuration comprises a change in at least one of the initial position and the initial direction with respect to at least one of the plurality of sensors and other sensors of the plurality of sensors. The device according to claim 18.
[Item 20]
Item 15. The apparatus of item 14, wherein the initial spatial configuration is provided prior to take-off of the UAV.
[Item 21]
Item 15. The apparatus of item 14, wherein the initial spatial configuration is provided during flight of the UAV.
[Item 22]
Item 15. The apparatus of item 14, wherein the change in the spatial configuration is caused by the movement of the UAV.
[Item 23]
Item 23. The apparatus according to Item 22, wherein the change in the spatial configuration is caused by vibration of the UAV.
[Item 24]
15. The item 14 wherein the one or more processors determine the next spatial configuration using a plurality of Kalman filters, the plurality of Kalman filters comprising one or more extended Kalman filters and / or unscented Kalman filters. Equipment.
[Item 25]
Item 15. The apparatus of item 14, wherein the one or more processors are mounted on the UAV.
[Item 26]
Item 15. The apparatus of item 14, wherein the one or more processors are in an external device of the UAV and communicate with the UAV during the flight of the UAV.
[Item 27]
A sensor calibration method comprising:
Obtaining sensor data from a plurality of different types of sensors coupled with an unmanned aerial vehicle (UAV);
Selecting a reference coordinate system;
Representing the sensor data from the plurality of sensors in the reference coordinate system based on a predicted spatial relationship between the plurality of sensors via a processor;
Detecting the sensor data mismatch between the plurality of sensors via the processor, wherein the mismatch indicates an error in the predicted spatial relationship between the plurality of sensors; and
Determining the actual spatial configuration;
Adjusting data from at least one of the plurality of sensors based on the actual spatial configuration.
[Item 28]
28. The method of item 27, wherein the plurality of different types of sensors comprises at least two of vision sensors, GPS sensors, inertial sensors, infrared sensors, ultrasonic sensors, or lidar sensors.
[Item 29]
29. A method according to item 28, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 30]
30. A method according to item 29, wherein the reference coordinate system is a coordinate system associated with the inertial sensor.
[Item 31]
The predicted spatial relationship between the plurality of sensors is predicted in the configuration from an initial spatial configuration of the plurality of sensors having an initial position and an initial direction relative to each other for each of the plurality of sensors. 28. A method according to item 27, based on a spatial change.
[Item 32]
32. The method of item 31, wherein the initial spatial configuration is provided prior to the UAV taking off.
[Item 33]
32. The method of item 31, wherein the initial spatial configuration is provided during flight of the UAV.
[Item 34]
28. The method of item 27, wherein the predicted spatial relationship between the plurality of sensors comprises a relative spatial position and a relative spatial direction of the plurality of sensors relative to each other.
[Item 35]
Item 27. further comprising determining the next spatial configuration using a plurality of Kalman filters via the processor, the plurality of Kalman filters comprising one or more extended Kalman filters and / or unscented Kalman filters. The method described.
[Item 36]
28. The method according to item 27, wherein the processor is installed in the UAV.
[Item 37]
28. The method of item 27, wherein the plurality of processors are in an external device of the UAV and communicate with the UAV during the flight of the UAV.
[Item 38]
28. The method of item 27, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV.
[Item 39]
40. The method of item 38, wherein the actual spatial configuration of the plurality of sensors is determined during flight of the UAV.
[Item 40]
28. The method of item 27, wherein the data from the plurality of sensors is adjusted during operation of the UAV.
[Item 41]
28. The method according to item 27, wherein the data adjusted based on the actual space configuration is image data recorded by a vision sensor.
[Item 42]
A sensor calibration device,
(A) (i) a plurality of sensors of different types coupled to an unmanned aerial vehicle (UAV) and (ii) configured to provide sensor data;
(B) individually or collectively,
(I) Select a reference coordinate system,
(Ii) representing the sensor data from the plurality of sensors in the reference coordinate system based on a predicted spatial relationship between the plurality of sensors;
(Iii) detecting a mismatch of the sensor data between the plurality of sensors indicating an error in the predicted spatial relationship between the plurality of sensors;
(Iv) determine the actual spatial configuration;
(V) an apparatus comprising one or more processors configured to adjust data from at least one of the plurality of sensors based on the actual spatial configuration.
[Item 43]
45. The apparatus of item 42, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 44]
44. The apparatus according to item 43, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 45]
45. An apparatus according to item 44, wherein the reference coordinate system is a coordinate system associated with the inertial sensor.
[Item 46]
The predicted spatial relationship between the plurality of sensors is predicted in the configuration from an initial spatial configuration of the plurality of sensors having an initial position and an initial direction relative to each other for each of the plurality of sensors. 45. Apparatus according to item 42, based on a spatial change.
[Item 47]
47. Apparatus according to item 46, wherein the initial spatial configuration is provided prior to take-off of the UAV.
[Item 48]
47. Apparatus according to item 46, wherein the initial spatial configuration is provided during flight of the UAV.
[Item 49]
43. The apparatus of item 42, wherein the predicted spatial relationship between the plurality of sensors comprises a relative spatial position and a relative spatial direction of the plurality of sensors relative to each other.
[Item 50]
45. The item 42, wherein the one or more processors determine the next spatial configuration using a plurality of Kalman filters, the plurality of Kalman filters comprising one or more extended Kalman filters and / or unscented Kalman filters. Equipment.
[Item 51]
Item 43. The apparatus according to Item 42, wherein the one or more processors are mounted on the UAV.
[Item 52]
43. The apparatus of item 42, wherein the one or more processors are in an external device of the UAV and communicate with the UAV during the flight of the UAV.
[Item 53]
43. The apparatus of item 42, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV.
[Item 54]
54. The apparatus of item 53, wherein the actual spatial configuration of the plurality of sensors is determined during flight of the UAV.
[Item 55]
45. The apparatus of item 42, wherein the data from the at least one of the plurality of sensors is adjusted during operation of the UAV.
[Item 56]
Item 43. The apparatus according to Item 42, wherein the data adjusted based on the actual space configuration is image data recorded by a vision sensor.
[Item 57]
A sensor calibration method comprising:
Obtaining sensor data from a plurality of different types of sensors coupled with an unmanned aerial vehicle (UAV);
Grouping the plurality of sensors into a plurality of subsets via a processor, each subset having (i) at least two sensors and (ii) different combinations of the plurality of sensors;
Calculating a predicted spatial relationship between the at least two sensors in each subset based on the sensor data via the processor;
Determining an actual spatial relationship between the at least two sensors in each subset based on the predicted spatial relationship;
Calculating the spatial configuration of each of the plurality of sensors in each subset with respect to each other based on the actual spatial relationship between the at least two sensors via the processor.
[Item 58]
58. The method of item 57, wherein each subset comprises a reference sensor and one or more measurement sensors.
[Item 59]
59. The method of item 58, wherein the reference sensor for each subset is the same.
[Item 60]
59. The method of item 58, wherein the reference sensor for each subset is different.
[Item 61]
58. The method of item 57, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 62]
62. A method according to item 61, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 63]
The predicted spatial relationship between the plurality of sensors in each subset is determined from the initial spatial configuration of the plurality of sensors with an initial position and initial direction relative to each other for each of the plurality of sensors. 59. The method of item 58, based on a predicted spatial change in.
[Item 64]
64. The method of item 63, wherein the initial spatial configuration is provided prior to take-off of the UAV.
[Item 65]
64. The method of item 63, wherein the initial spatial configuration is provided during flight of the UAV.
[Item 66]
59. The method of item 58, wherein the predicted spatial relationship between the plurality of sensors comprises a relative spatial position and a relative spatial direction of the plurality of sensors relative to each other.
[Item 67]
The processor determines an actual spatial relationship between the at least two sensors in each subset using a plurality of Kalman filters, the plurality of Kalman filters comprising one or more extended Kalman filters and / or unscented Kalman filters. 59. A method according to item 58.
[Item 68]
59. A method according to item 58, wherein the processor is installed in the UAV.
[Item 69]
59. The method of item 58, wherein the processor is in an external device of the UAV and communicates with the UAV during the flight of the UAV.
[Item 70]
59. The method of item 58, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV.
[Item 71]
59. The method of item 58, wherein the actual spatial configuration of the plurality of sensors is determined during flight of the UAV.
[Item 72]
59. The method of item 58, wherein the data from the plurality of sensors is adjusted during operation of the UAV.
[Item 73]
Adjusting the data from at least one of the plurality of sensors based on the spatial configuration, and via the processor, based on the actual spatial relationship between the at least two sensors, in each subset; 58. The method of item 57, further comprising calculating a spatial configuration of the plurality of sensors relative to each other.
[Item 74]
74. A method according to item 73, wherein the data adjusted based on the actual spatial configuration is image data recorded by a vision sensor.
[Item 75]
A sensor calibration device,
(A) (i) a plurality of sensors of different types coupled to an unmanned aerial vehicle (UAV) and (ii) configured to provide sensor data;
(B) individually or collectively,
(I) grouping the plurality of sensors into a plurality of subsets, each subset having (i) at least two sensors and (ii) different combinations of the plurality of sensors;
(Ii) calculating a predicted spatial relationship between the at least two sensors in each subset based on the sensor data;
(Iii) determining an actual spatial relationship between the at least two sensors in each subset based on the predicted spatial relationship;
(Iv) one or more processors configured to calculate a spatial configuration of the plurality of sensors in each subset relative to each other based on the actual spatial relationship between the at least two sensors. apparatus.
[Item 76]
76. Apparatus according to item 75, wherein each subset comprises a reference sensor and one or more measurement sensors.
[Item 77]
77. Apparatus according to item 76, wherein the reference sensor for each subset is the same.
[Item 78]
79. Apparatus according to item 76, wherein the reference sensor for each subset is different.
[Item 79]
The apparatus of item 75, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 80]
80. Apparatus according to item 79, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 81]
The predicted spatial relationship between the plurality of sensors in each subset is determined from the initial spatial configuration of the plurality of sensors with an initial position and initial direction relative to each other for each of the plurality of sensors. 76. Apparatus according to item 75, based on a predicted spatial change in
[Item 82]
82. The apparatus of item 81, wherein the initial spatial configuration is provided prior to the UAV taking off.
[Item 83]
82. Apparatus according to item 81, wherein the initial spatial configuration is provided during flight of the UAV.
[Item 84]
The apparatus of item 75, wherein the predicted spatial relationship between the plurality of sensors comprises a relative spatial position and a relative spatial direction of the plurality of sensors relative to each other.
[Item 85]
The one or more processors determine an actual spatial relationship between the at least two sensors in each subset using a plurality of Kalman filters, the plurality of Kalman filters comprising one or more extended Kalman filters and / or 76. Apparatus according to item 75, comprising an unscented Kalman filter.
[Item 86]
76. The apparatus of item 75, wherein the one or more processors are mounted on the UAV.
[Item 87]
76. The apparatus of item 75, wherein the one or more processors are in an external device of the UAV and communicate with the UAV during the flight of the UAV.
[Item 88]
The apparatus of item 75, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV.
[Item 89]
The apparatus of item 75, wherein the actual spatial configuration of the plurality of sensors is determined during flight of the UAV.
[Item 90]
76. The apparatus of item 75, wherein the data from the at least one of the plurality of sensors is adjusted during operation of the UAV.
[Item 91]
A sensor calibration method comprising:
Acquiring sensor data from a plurality of different types of sensors;
Grouping the plurality of sensors into a plurality of subsets via a processor, each subset comprising: (i) at least two sensors comprising a reference sensor and one or more measurement sensors; and (ii) ) Having different combinations of sensors, wherein at least two of the plurality of subsets have a plurality of different reference sensors;
Determining, via the processor, an actual spatial relationship between the at least two sensors in each subset using at least one Kalman filter per subset based on the sensor data;
Calculating the spatial configuration of each of the plurality of sensors in each subset with respect to each other based on the actual spatial relationship between the at least two sensors via the processor.
[Item 92]
92. The method of item 91, wherein the plurality of sensors are coupled to an unmanned aerial vehicle (UAV).
[Item 93]
93. A method according to item 92, wherein the processor is installed in the UAV.
[Item 94]
93. The method of item 92, wherein the processor is in an external device of the UAV and communicates with the UAV during the flight of the UAV.
[Item 95]
93. The method of item 92, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV.
[Item 96]
93. The method of item 92, wherein the actual spatial configuration of the plurality of sensors is determined during flight of the UAV.
[Item 97]
93. The method of item 92, wherein the data from the plurality of sensors is adjusted during operation of the UAV.
[Item 98]
92. The method of item 91, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 99]
99. A method according to item 98, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 100]
99. A method according to item 98, wherein at least one of the plurality of sensors is a vision sensor.
[Item 101]
92. The method of item 91, wherein the plurality of Kalman filters comprises one or more extended Kalman filters and / or unscented Kalman filters.
[Item 102]
After grouping the plurality of sensors into a plurality of subsets, the method further includes calculating a predicted spatial relationship between the at least two sensors in each subset based on the sensor data, wherein the Kalman filter includes the prediction 92. A method according to item 91, wherein an actual spatial relationship is determined based on the spatial relationship to be performed.
[Item 103]
92. The method of item 91, wherein the predicted spatial relationship between the plurality of sensors comprises a relative spatial position and a relative spatial direction of the plurality of sensors relative to each other.
[Item 104]
A sensor calibration device,
(A) a plurality of different types of sensors configured to provide sensor data;
(B) individually or collectively,
(1) the plurality of sensors as a plurality of subsets, each subset comprising (i) at least two sensors comprising a reference sensor and one or more measurement sensors; and (ii) different of the plurality of sensors. Grouping into a plurality of subsets having a combination, wherein at least two of the plurality of subsets have a plurality of different reference sensors;
(2) determining an actual spatial relationship between the at least two sensors in each subset using at least one Kalman filter per subset based on the sensor data;
(3) one or more processors configured to calculate a spatial configuration relative to each other of the plurality of sensors in each subset based on the actual spatial relationship between the at least two sensors. ,apparatus.
[Item 105]
105. The apparatus of item 104, wherein the plurality of sensors are coupled to an unmanned aerial vehicle (UAV).
[Item 106]
106. The apparatus according to item 105, wherein the one or more processors are mounted on the UAV.
[Item 107]
106. The apparatus of item 105, wherein the one or more processors are in an external device of the UAV and communicate with the UAV during the flight of the UAV.
[Item 108]
106. The apparatus according to item 105, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV.
[Item 109]
106. The apparatus of item 105, wherein the actual spatial configuration of the plurality of sensors is determined during flight of the UAV.
[Item 110]
106. The apparatus of item 105, wherein the data from the at least one of the plurality of sensors is adjusted during operation of the UAV.
[Item 111]
105. The apparatus of item 104, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor.
[Item 112]
119. The device according to Item 111, wherein at least one of the plurality of sensors is an inertial sensor.
[Item 113]
120. An apparatus according to item 111, wherein at least one of the plurality of sensors is a vision sensor.
[Item 114]
105. The apparatus of item 104, wherein the plurality of Kalman filters comprises one or more extended Kalman filters and / or unscented Kalman filters.

Claims (26)

センサ較正方法であって、
無人航空機(UAV)と接続された異なるタイプの複数のセンサからセンサデータを取得するステップと、
プロセッサを介して、前記複数のセンサを複数のサブセットにグループ化するステップであって、各サブセットは、(i)少なくとも2つのセンサと、(ii)複数のセンサの異なる組み合わせとを有するステップと、
前記プロセッサを介して、前記センサデータに基づいて、各サブセットにおける前記少なくとも2つのセンサ間の予測される空間関係を算出するステップと、
前記予測される空間関係に基づいて、各サブセットにおける前記少なくとも2つのセンサ間の実際の空間関係を決定するステップと、
前記少なくとも2つのセンサ間の前記実際の空間関係に基づいて、各サブセットにおける前記複数のセンサの、互いに対する空間構成を算出するステップとを有する、方法。
A sensor calibration method comprising:
Obtaining sensor data from a plurality of different types of sensors connected to an unmanned aerial vehicle (UAV);
Grouping the plurality of sensors into a plurality of subsets via a processor, each subset comprising (i) at least two sensors and (ii) different combinations of the plurality of sensors;
Calculating a predicted spatial relationship between the at least two sensors in each subset based on the sensor data via the processor;
Determining an actual spatial relationship between the at least two sensors in each subset based on the predicted spatial relationship;
Calculating a spatial configuration of the plurality of sensors in each subset relative to each other based on the actual spatial relationship between the at least two sensors.
各サブセットは、基準センサ及び1つまたは複数の測定センサを備える、請求項1に記載の方法。   The method of claim 1, wherein each subset comprises a reference sensor and one or more measurement sensors. 前記異なるタイプの複数のセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、請求項1または2に記載の方法。   The method according to claim 1 or 2, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor. 前記複数のセンサのうち少なくとも1つは、慣性センサである、請求項3に記載の方法。   The method of claim 3, wherein at least one of the plurality of sensors is an inertial sensor. 前記予測される空間関係は、前記複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える前記複数のセンサの初期空間構成からの、前記構成における予測される空間変化に基づく、請求項1から4の何れか1つに記載の方法。   The predicted spatial relationship is based on a predicted spatial change in the configuration from an initial spatial configuration of the plurality of sensors with an initial position and initial direction relative to each other for each of the plurality of sensors. 5. A method according to any one of claims 1 to 4. 前記初期空間構成は、前記UAVの離陸または飛行中に設定される、請求項5に記載の方法。   The method of claim 5, wherein the initial spatial configuration is set during take-off or flight of the UAV. 前記予測される空間関係は、前記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、請求項1から6の何れか1つに記載の方法。   The method of any one of claims 1 to 6, wherein the predicted spatial relationship comprises a relative spatial position and a relative spatial orientation of the plurality of sensors relative to each other. 前記プロセッサは、各サブセットにおける前記少なくとも2つのセンサ間の実際の空間関係を複数のカルマンフィルタを用いて決定し、前記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、請求項1から7の何れか1つに記載の方法。   The processor determines an actual spatial relationship between the at least two sensors in each subset using a plurality of Kalman filters, the plurality of Kalman filters comprising one or more extended Kalman filters and / or unscented Kalman filters. 8. A method according to any one of claims 1 to 7. 前記プロセッサは、前記UAVに搭載されている、請求項1から8の何れか1つに記載の方法。   The method according to claim 1, wherein the processor is installed in the UAV. 前記プロセッサは、前記UAVの外部デバイスにあり、前記UAVの飛行中に、前記UAVと通信を行う、請求項1から9のいずれか1つに記載の方法。   The method according to any one of claims 1 to 9, wherein the processor is in an external device of the UAV and communicates with the UAV during the flight of the UAV. 前記複数のセンサの前記実際の空間構成は、前記UAVの動作中に決定される、請求項1から10の何れか1つに記載の方法。   11. A method according to any one of the preceding claims, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV. 前記複数のセンサからの前記データは、前記UAVの動作中に調整される、請求項1から11のいずれか1つに記載の方法。   12. A method according to any one of the preceding claims, wherein the data from the plurality of sensors is adjusted during operation of the UAV. 前記空間構成に基づいて、前記複数のセンサのうち少なくとも1つからのデータを調整するステップと、前記プロセッサを介して、前記少なくとも2つのセンサ間の前記実際の空間関係に基づいて、各サブセットにおける前記複数のセンサの、互いに対する空間構成を算出するステップとをさらに含む、請求項1から12の何れか1つに記載の方法。   Adjusting data from at least one of the plurality of sensors based on the spatial configuration, and via the processor, based on the actual spatial relationship between the at least two sensors, in each subset The method of any one of claims 1 to 12, further comprising calculating a spatial configuration of the plurality of sensors relative to each other. 前記実際の空間構成に基づいて調整された前記データは、ビジョンセンサによって記録された画像データである、請求項13に記載の方法。   The method of claim 13, wherein the data adjusted based on the actual spatial configuration is image data recorded by a vision sensor. センサ較正装置であって、
(a)(i)無人航空機(UAV)と連結され、かつ、(ii)センサデータを与えるように構成される複数の異なるタイプの複数のセンサと、
(b)
(i)前記複数のセンサを、複数のサブセットであって、各サブセットが(i)少なくとも2つのセンサと、(ii)複数のセンサの異なる組み合わせとを有する複数のサブセットにグループ化し、
(ii)前記センサデータに基づいて、各サブセットにおける前記少なくとも2つのセンサ間の予測される空間関係を算出し、
(iii)前記予測される空間関係に基づいて、各サブセットにおける前記少なくとも2つのセンサ間の実際の空間関係を決定し、
(iv)前記少なくとも2つのセンサ間の前記実際の空間関係に基づいて、各サブセットにおける前記複数のセンサの、互いに対する空間構成を算出するように構成される1つまたは複数のプロセッサとを備える、装置。
A sensor calibration device,
(A) (i) a plurality of sensors of different types coupled to an unmanned aerial vehicle (UAV) and (ii) configured to provide sensor data;
(B)
(I) grouping the plurality of sensors into a plurality of subsets, each subset having (i) at least two sensors and (ii) different combinations of the plurality of sensors;
(Ii) calculating a predicted spatial relationship between the at least two sensors in each subset based on the sensor data;
(Iii) determining an actual spatial relationship between the at least two sensors in each subset based on the predicted spatial relationship;
(Iv) one or more processors configured to calculate a spatial configuration of the plurality of sensors in each subset relative to each other based on the actual spatial relationship between the at least two sensors. apparatus.
各サブセットは、基準センサ及び1つまたは複数の測定センサを備える、請求項15に記載の装置。   The apparatus of claim 15, wherein each subset comprises a reference sensor and one or more measurement sensors. 前記複数の異なるタイプのセンサは、ビジョンセンサ、GPSセンサ、慣性センサ、赤外線センサ、超音波センサまたはライダセンサのうち少なくとも2つを備える、請求項15または16に記載の装置。   17. The apparatus according to claim 15 or 16, wherein the plurality of different types of sensors comprises at least two of a vision sensor, a GPS sensor, an inertial sensor, an infrared sensor, an ultrasonic sensor, or a lidar sensor. 前記複数のセンサのうち少なくとも1つは、慣性センサである、請求項17に記載の装置。   The apparatus of claim 17, wherein at least one of the plurality of sensors is an inertial sensor. 各サブセットにおける前記複数のセンサ間の前記予測される空間関係は、前記複数のセンサの各々に対して、互いに対する、初期位置及び初期方向を備える前記複数のセンサの初期空間構成からの、前記構成における予測される空間変化に基づく、請求項15から18の何れか1つに記載の装置。   The predicted spatial relationship between the plurality of sensors in each subset is determined from the initial spatial configuration of the plurality of sensors comprising an initial position and an initial direction relative to each other for each of the plurality of sensors. 19. An apparatus according to any one of claims 15 to 18 based on a predicted spatial change in. 前記初期空間構成は、前記UAVの離陸または飛行中に設定される、請求項19に記載の装置。   The apparatus of claim 19, wherein the initial spatial configuration is set during take-off or flight of the UAV. 前記複数のセンサ間の前記予測される空間関係は、前記複数のセンサの、互いに対する相対的空間位置及び相対的空間方向を備える、請求項15から20の何れか1つに記載の装置。   21. The apparatus according to any one of claims 15 to 20, wherein the predicted spatial relationship between the plurality of sensors comprises a relative spatial position and a relative spatial direction of the plurality of sensors relative to each other. 前記1つまたは複数のプロセッサは、各サブセットにおける前記少なくとも2つのセンサ間の実際の空間関係を、複数のカルマンフィルタを用いて決定し、前記複数のカルマンフィルタは、1つまたは複数の拡張カルマンフィルタ及び/またはアンセンテッドカルマンフィルタを備える、請求項15から21の何れか1つに記載の装置。   The one or more processors determine an actual spatial relationship between the at least two sensors in each subset using a plurality of Kalman filters, the plurality of Kalman filters comprising one or more extended Kalman filters and / or 22. Apparatus according to any one of claims 15 to 21 comprising an unscented Kalman filter. 前記1つまたは複数のプロセッサは、前記UAVに搭載される、請求項15から22の何れか1つに記載の装置。   23. The apparatus according to any one of claims 15 to 22, wherein the one or more processors are mounted on the UAV. 前記1つまたは複数のプロセッサは、前記UAVの外部デバイスにあり、前記UAVの飛行中に、前記UAVと通信を行う、請求項15から23の何れか1つに記載の装置。   24. The apparatus according to any one of claims 15 to 23, wherein the one or more processors are in an external device of the UAV and communicate with the UAV during flight of the UAV. 前記複数のセンサの前記実際の空間構成は、前記UAVの動作中に決定される、請求項15から24の何れか1つに記載の装置。   25. The apparatus according to any one of claims 15 to 24, wherein the actual spatial configuration of the plurality of sensors is determined during operation of the UAV. 前記複数のセンサのうち前記少なくとも1つからの前記データは、前記UAVの動作中に調整される、請求項15から25の何れか1つに記載の装置。   26. The apparatus according to any one of claims 15 to 25, wherein the data from the at least one of the plurality of sensors is adjusted during operation of the UAV.
JP2017000575A 2017-01-05 2017-01-05 Sensor calibration method and sensor calibration apparatus Expired - Fee Related JP6275887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017000575A JP6275887B2 (en) 2017-01-05 2017-01-05 Sensor calibration method and sensor calibration apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000575A JP6275887B2 (en) 2017-01-05 2017-01-05 Sensor calibration method and sensor calibration apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016525510A Division JP6080189B2 (en) 2014-08-15 2014-08-15 Inline sensor calibration method and calibration apparatus

Publications (2)

Publication Number Publication Date
JP2017102942A JP2017102942A (en) 2017-06-08
JP6275887B2 true JP6275887B2 (en) 2018-02-07

Family

ID=59015576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000575A Expired - Fee Related JP6275887B2 (en) 2017-01-05 2017-01-05 Sensor calibration method and sensor calibration apparatus

Country Status (1)

Country Link
JP (1) JP6275887B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI628113B (en) * 2017-08-29 2018-07-01 財團法人工業技術研究院 Uav, systems and methods for determining landing status of uav
US20210216085A1 (en) * 2018-06-04 2021-07-15 Nileworks Inc. Drone system, drone, steering device, drone system control method, and drone system control program
KR20210029518A (en) * 2019-09-06 2021-03-16 삼성전자주식회사 Multi-sensor based unmanned aerial vehicle and its control method
KR20210100297A (en) * 2020-02-06 2021-08-17 삼성전자주식회사 Electronic device and Method for controlling the electronic device thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2985329B1 (en) * 2012-01-04 2015-01-30 Parrot METHOD FOR INTUITIVE CONTROL OF A DRONE USING A REMOTE CONTROL APPARATUS
JP2016540211A (en) * 2013-11-27 2016-12-22 ザ トラスティーズ オブ ザ ユニバーシティー オブ ペンシルバニア Multi-sensor fusion for stable autonomous flight in indoor and outdoor environments on a rotary airfoil (MAV)

Also Published As

Publication number Publication date
JP2017102942A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6080189B2 (en) Inline sensor calibration method and calibration apparatus
US11822353B2 (en) Simple multi-sensor calibration
US10914590B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
JP6329642B2 (en) Sensor fusion
US10599149B2 (en) Salient feature based vehicle positioning
US10447912B2 (en) Systems, methods, and devices for setting camera parameters
JP6609833B2 (en) Method and system for controlling the flight of an unmanned aerial vehicle
JP6181300B2 (en) System for controlling the speed of unmanned aerial vehicles
CN109388150B (en) Multi-sensor environment mapping
EP3158293B1 (en) Sensor fusion using inertial and image sensors
US9958874B2 (en) Aircraft attitude control methods
EP3123260B1 (en) Selective processing of sensor data
CN107615211B (en) Method and system for estimating state information of movable object using sensor fusion
US20200026720A1 (en) Construction and update of elevation maps
JP6487010B2 (en) Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal
EP3158411B1 (en) Sensor fusion using inertial and image sensors
US10789722B2 (en) Processing images to obtain environmental information
JP6275887B2 (en) Sensor calibration method and sensor calibration apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180110

R150 Certificate of patent or registration of utility model

Ref document number: 6275887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees