JP6487010B2 - Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal - Google Patents

Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal Download PDF

Info

Publication number
JP6487010B2
JP6487010B2 JP2017207628A JP2017207628A JP6487010B2 JP 6487010 B2 JP6487010 B2 JP 6487010B2 JP 2017207628 A JP2017207628 A JP 2017207628A JP 2017207628 A JP2017207628 A JP 2017207628A JP 6487010 B2 JP6487010 B2 JP 6487010B2
Authority
JP
Japan
Prior art keywords
environment
sensor
map
uav
sensing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017207628A
Other languages
Japanese (ja)
Other versions
JP2018055695A (en
Inventor
リウ、アン
モ、ウェイユ
リン、ヨンゲン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017207628A priority Critical patent/JP6487010B2/en
Publication of JP2018055695A publication Critical patent/JP2018055695A/en
Application granted granted Critical
Publication of JP6487010B2 publication Critical patent/JP6487010B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

無人航空機(UAV)のような無人機は、軍事用途および民間用途の多種多様な環境において、監視任務、偵察任務、探索任務を実行すべく使用され得る。UAVは、リモートユーザによって手動で制御され得、又は、半自律的態様で、或いは、完全自律的態様で動作し得る。そのようなUAVは、周囲環境からのデータを収集するように構成されたセンサを含み得る。   Unmanned aerial vehicles, such as unmanned aerial vehicles (UAVs), can be used to perform surveillance, reconnaissance, and search missions in a wide variety of military and civilian environments. The UAV can be manually controlled by a remote user, or can operate in a semi-autonomous manner, or in a fully autonomous manner. Such a UAV may include a sensor configured to collect data from the surrounding environment.

環境データを取得する既存のアプローチは、場合によっては最善ではないかもしれない。例えば、環境データの精度は、データを収集すべく使用される特定のセンサタイプの性能に基づいて制限され得る。不精確な環境データは、UAV機能に悪影響を与え得る。   Existing approaches to obtaining environmental data may not be the best in some cases. For example, the accuracy of environmental data can be limited based on the performance of the particular sensor type used to collect the data. Inaccurate environmental data can adversely affect UAV functionality.

本明細書で開示される複数の実施形態は、ある環境内で、複数のUAVのような複数の可動物体を制御するために改善された複数のアプローチを提供する。多くの実施形態において、UAVは、周囲環境に関する情報を収集すべく使用される複数の異なるセンサタイプを含む。複数の異なるセンサタイプの各々から取得されるデータは、2次元(2D)又は3次元(3D)の環境マップ等の複数の周囲環境を表現したものを生成する目的で組み合わせることができ、また、航行、物体認識および障害物回避を容易化すべく使用できる。有利にも、本明細書で説明される複数のアプローチは、種々の環境タイプ及び動作状況におけるUAV機能性を改善すべく使用できる。   The embodiments disclosed herein provide improved approaches for controlling multiple movable objects, such as multiple UAVs, within an environment. In many embodiments, the UAV includes a number of different sensor types that are used to gather information about the surrounding environment. Data obtained from each of a plurality of different sensor types can be combined to generate a representation of multiple surrounding environments, such as a two-dimensional (2D) or three-dimensional (3D) environment map, Can be used to facilitate navigation, object recognition and obstacle avoidance. Advantageously, the multiple approaches described herein can be used to improve UAV functionality in various environmental types and operating situations.

以下のように、1つの態様では、ある環境内で可動物体を制御する方法が提供される。当該方法は、可動物体によって運ばれる複数のセンサのうち少なくとも1つを使用して可動物体の初期の場所を決定する段階と、可動物体に当該環境内で航行させる第1信号を生成する段階と、複数のセンサのうち少なくとも1つを使用して当該環境に関連するセンシングデータを受信する段階と、センシングデータに基づいて当該環境の少なくとも一部を表わす環境マップを生成する段階と、初期の場所へと戻る指示を受信する段階と、環境マップに基づいて可動物体に初期の場所へと戻らせる第2信号を生成する段階とを含む。   As described below, in one aspect, a method for controlling a movable object within an environment is provided. The method includes determining an initial location of the movable object using at least one of a plurality of sensors carried by the movable object, and generating a first signal that causes the movable object to navigate in the environment. Receiving sensing data associated with the environment using at least one of the plurality of sensors, generating an environment map representing at least a portion of the environment based on the sensing data, and an initial location Receiving an instruction to go back to, and generating a second signal that causes the movable object to return to the initial location based on the environment map.

幾つかの実施形態において、可動物体は無人航空機である。無人航空機は、10kg又はそれより軽い重さを有していてもよい。無人航空機の最大寸法は、1.5m又はそれより小さくてもよい。無人航空機は、400m又はそれより低い高さで飛行するように構成できる。任意に、無人航空機は、飛行制限領域の存在を検出して、当該飛行制限領域の予め定められた距離内を飛行しないように構成できる。当該飛行制限領域は、空港であってもよい。当該無人航空機は、マルチロータ航空機であり得る。   In some embodiments, the movable object is an unmanned aerial vehicle. An unmanned aerial vehicle may have a weight of 10 kg or less. The maximum size of the unmanned aerial vehicle may be 1.5 m or less. Unmanned aerial vehicles can be configured to fly at a height of 400 meters or less. Optionally, the unmanned aerial vehicle can be configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area. The flight restriction area may be an airport. The unmanned aerial vehicle may be a multi-rotor aircraft.

幾つかの実施形態において、当該環境は、屋内環境または低高度環境であってもよい。   In some embodiments, the environment may be an indoor environment or a low altitude environment.

幾つかの実施形態において、複数のセンサは、全地球測位システム(GPS)センサ、ビジョンセンサ又は近接センサを含み得る。近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含み得る。複数のセンサは、複数の異なるセンサタイプを含み得る。   In some embodiments, the plurality of sensors may include a global positioning system (GPS) sensor, a vision sensor, or a proximity sensor. The proximity sensor may include at least one of the following lidar sensor, ultrasonic sensor, or in-flight camera sensor. The plurality of sensors may include a plurality of different sensor types.

幾つかの実施形態において、環境マップは、トポロジカルマップ又はメトリックマップを含み得る。メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含み得る。任意に、メトリックマップは、占有グリッドマップを含み得る。   In some embodiments, the environment map may include a topological map or a metric map. The metric map may include at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map. Optionally, the metric map may include an occupancy grid map.

幾つかの実施形態において、第2信号を生成する段階は、複数のセンサのうち少なくとも1つを使用して可動物体の現在の場所を決定する段階と、環境マップに基づいて現在の場所から初期の場所までの経路を決定する段階と、可動物体に初期の場所へと戻る経路に沿って移動させる信号を生成する段階とを含む。経路を決定する段階は、現在の場所から初期の場所までの最短経路を決定する段階を含むことができる。代替的に又は組み合わせて、経路を決定する段階は、当該環境内における1または複数の障害物を回避する、現在の場所から初期の場所までの経路を決定する段階を含むことができる。当該経路は、可動物体が以前に通過した1または複数の部分を含むことができる。当該経路は、可動物体が以前に通過した経路と異なり得る。任意に、当該経路は、可動物体の飛行経路であってもよい。当該経路は、可動物体の空間的位置及び方向を含むことができる。   In some embodiments, generating the second signal includes determining the current location of the movable object using at least one of the plurality of sensors, and initializing from the current location based on the environment map. Determining a route to the location of the device, and generating a signal that causes the movable object to move along the route back to the initial location. Determining the route may include determining the shortest route from the current location to the initial location. Alternatively, or in combination, determining the route can include determining a route from the current location to the initial location that avoids one or more obstacles in the environment. The path can include one or more portions through which the movable object has previously passed. The path may be different from the path through which the movable object has previously passed. Optionally, the path may be a flight path of a movable object. The path can include the spatial position and direction of the movable object.

幾つかの実施形態において、当該経路は、可動物体が以前に通過した複数の位置に対応する複数の通過点を含み、複数の通過点は、可動物体が当該環境内を航行すると記録される。複数の通過点は、可動物体が当該環境内を航行すると、リアルタイムで記録できる。代替的に、複数の通過点は、可動物体が当該環境内を航行すると、予め定められた時間間隔で記録できる。複数の通過点は、リストデータ構造内に格納できる。   In some embodiments, the route includes a plurality of passage points corresponding to a plurality of positions where the movable object has previously passed, the plurality of passage points being recorded as the movable object navigates within the environment. A plurality of passing points can be recorded in real time as the movable object navigates through the environment. Alternatively, the plurality of passing points can be recorded at predetermined time intervals as the movable object navigates within the environment. Multiple passage points can be stored in the list data structure.

幾つかの実施形態において、可動物体に当該経路に沿って移動させる信号を生成する段階は、当該環境内で当該経路に沿って位置された障害物を検出する段階と、当該障害物を回避すべく当該経路を変更する段階と、可動物体に変更された経路に沿って移動させる信号を生成する段階とを含むことができる。   In some embodiments, generating a signal that causes the movable object to move along the path includes detecting an obstacle positioned along the path in the environment and avoiding the obstacle. Therefore, the method can include changing the route and generating a signal for moving along the changed route to the movable object.

他の態様では、当該環境内で可動物体を制御するシステムが提供される。システムは、可動物体によって運ばれる複数のセンサと、1または複数のプロセッサとを含むことができる。1または複数のプロセッサは、個々に又は集合的に、複数のセンサのうち少なくとも1つを使用して可動物体の初期の場所を決定し、可動物体に当該環境内で航行させる第1信号を生成し、複数のセンサのうち少なくとも1つを使用して当該環境に関連するセンシングデータを受信し、センシングデータに基づいて当該環境の少なくとも一部を表わす環境マップを生成し、初期の場所へと戻る指示を受信し、環境マップに基づいて可動物体に初期の場所へと戻るべく航行させる第2信号を生成するように構成できる。   In another aspect, a system for controlling a movable object within the environment is provided. The system can include a plurality of sensors carried by the movable object and one or more processors. One or more processors, individually or collectively, determine an initial location of the movable object using at least one of the plurality of sensors and generate a first signal that causes the movable object to navigate within the environment. And receiving sensing data related to the environment using at least one of the plurality of sensors, generating an environment map representing at least a part of the environment based on the sensing data, and returning to an initial location. A second signal may be configured to receive the instruction and cause the movable object to navigate to return to the initial location based on the environment map.

他の態様では、ある環境内で無人航空機を制御する方法が提供される。当該方法は、無人航空機に当該環境内で航行させる第1信号を生成する段階と、無人航空機によって運ばれる複数のセンサを使用して当該環境の少なくとも一部に関連するセンシングデータを受信する段階と、センシングデータに基づいて当該環境の少なくとも一部を表わす環境マップを生成する段階と、環境マップを使用して当該環境の一部に位置する1または複数の障害物を検出する段階と、環境マップを使用して無人航空機に1または複数の障害物を回避すべく航行させる第2信号を生成する段階とを含む。   In another aspect, a method for controlling an unmanned aerial vehicle in an environment is provided. The method includes generating a first signal that causes an unmanned aerial vehicle to navigate within the environment, and using a plurality of sensors carried by the unmanned aerial vehicle to receive sensing data associated with at least a portion of the environment. Generating an environment map representing at least part of the environment based on the sensing data; detecting one or more obstacles located in the part of the environment using the environment map; and environment map Generating a second signal that causes the unmanned aircraft to navigate to avoid one or more obstacles.

幾つかの実施形態において、無人航空機は回転翼機である。無人航空機は、10kg又はそれより軽い重さを有してもよい。無人航空機の最大寸法は、1.5m又はそれより小さくてもよい。無人航空機は、400m又はそれより低い高さで飛行するように構成できる。任意に、無人航空機は、飛行制限領域の存在を検出して、当該飛行制限領域の予め定められた距離内を飛行しないように構成できる。当該飛行制限領域は、空港であってもよい。   In some embodiments, the unmanned aerial vehicle is a rotorcraft. An unmanned aerial vehicle may have a weight of 10 kg or less. The maximum size of the unmanned aerial vehicle may be 1.5 m or less. Unmanned aerial vehicles can be configured to fly at a height of 400 meters or less. Optionally, the unmanned aerial vehicle can be configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area. The flight restriction area may be an airport.

幾つかの実施形態において、当該環境は、屋内環境または低高度環境であってもよい。   In some embodiments, the environment may be an indoor environment or a low altitude environment.

幾つかの実施形態において、複数のセンサは、全地球測位システム(GPS)センサ、ビジョンセンサ又は近接センサを含み得る。近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含み得る。複数のセンサは、複数の異なるセンサタイプを含み得る。センシングデータは、複数の異なる座標系に対するデータを含むことができ、環境マップを生成する段階は、当該データを単一座標系へとマッピングする段階を含む。   In some embodiments, the plurality of sensors may include a global positioning system (GPS) sensor, a vision sensor, or a proximity sensor. The proximity sensor may include at least one of the following lidar sensor, ultrasonic sensor, or in-flight camera sensor. The plurality of sensors may include a plurality of different sensor types. Sensing data can include data for a plurality of different coordinate systems, and generating the environment map includes mapping the data to a single coordinate system.

幾つかの実施形態において、環境マップは、トポロジカルマップ又はメトリックマップを含み得る。メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含み得る。任意に、メトリックマップは、占有グリッドマップを含み得る。   In some embodiments, the environment map may include a topological map or a metric map. The metric map may include at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map. Optionally, the metric map may include an occupancy grid map.

幾つかの実施形態において、第1信号は、無人航空機と通信する遠隔端末から受信する複数の指示に基づいて生成される。複数の指示は、ユーザによって遠隔端末に入力され得る。代替的に、第1信号は、無人航空機によって自律的に生成され得る。   In some embodiments, the first signal is generated based on a plurality of instructions received from a remote terminal that communicates with the unmanned aerial vehicle. Multiple instructions may be entered into the remote terminal by the user. Alternatively, the first signal can be generated autonomously by an unmanned aerial vehicle.

幾つかの実施形態において、センシングデータは、複数の異なる座標系に対するデータを含み、環境マップを生成する段階は、データを単一座標系へとマッピングする段階を含む。第1信号を生成する段階は、無人航空機用の飛行経路を生成する段階を含むことができ、第2信号を生成する段階は、1または複数の障害物を回避すべく、環境マップに基づいて飛行経路を変更する段階を含むことができる。当該飛行経路は、無人航空機を現在位置から前の位置へと向けるように構成できる。   In some embodiments, the sensing data includes data for a plurality of different coordinate systems, and generating the environment map includes mapping the data to a single coordinate system. Generating the first signal can include generating a flight path for an unmanned aerial vehicle, and generating the second signal is based on an environment map to avoid one or more obstacles. The step of changing the flight path can be included. The flight path can be configured to direct the unmanned aircraft from a current position to a previous position.

他の態様では、ある環境内で無人航空機を制御するシステムが提供される。当該システムは、無人航空機によって運ばれる複数のセンサと、1または複数のプロセッサとを含む。1または複数のプロセッサは、個々に又は集合的に、無人航空機に当該環境内で航行させる第1信号を生成し、無人航空機によって運ばれる複数のセンサを使用して当該環境の少なくとも一部に関連するセンシングデータを受信し、センシングデータに基づいて当該環境の少なくとも一部を表わす環境マップを生成し、環境マップを使用して当該環境の一部に位置する1または複数の障害物を検出し、環境マップを使用して無人航空機に1または複数の障害物を回避すべく航行させる第2信号を生成するように構成できる。   In another aspect, a system for controlling an unmanned aerial vehicle within an environment is provided. The system includes a plurality of sensors carried by an unmanned aerial vehicle and one or more processors. The one or more processors, individually or collectively, generate a first signal that causes the unmanned aircraft to navigate within the environment and relate to at least a portion of the environment using a plurality of sensors carried by the unmanned aircraft. Sensing the sensing data, generating an environment map representing at least a part of the environment based on the sensing data, detecting one or more obstacles located in the part of the environment using the environment map, The environment map can be used to generate a second signal that causes the unmanned aerial vehicle to navigate to avoid one or more obstacles.

他の態様では、ある環境内で無人航空機を制御する方法が提供される。当該方法は、当該環境に関連する第1センシング信号を第1センサから受信して、当該環境に関連する第2センシング信号を第2センサから受信する段階と、第1センシング信号を使用する第1環境マップと第2センシング信号を使用する第2環境マップとを生成する段階と、第1環境マップ及び第2環境マップを組み合わせる段階とを含み、第1センサ及び第2センサは、複数の異なるセンサタイプであり、無人航空機によって運ばれ、第1環境マップ及び第2環境マップの各々は当該環境に対する障害物占有情報を含み、これにより、当該環境に対する障害物占有情報を含む最終環境マップを生成する。   In another aspect, a method for controlling an unmanned aerial vehicle in an environment is provided. The method includes receiving a first sensing signal associated with the environment from the first sensor, receiving a second sensing signal associated with the environment from the second sensor, and a first using the first sensing signal. Generating an environment map and a second environment map using the second sensing signal; and combining the first environment map and the second environment map, wherein the first sensor and the second sensor are a plurality of different sensors. Type and carried by an unmanned aerial vehicle, each of the first environment map and the second environment map includes obstacle occupancy information for the environment, thereby generating a final environment map including obstacle occupancy information for the environment .

幾つかの実施形態において、当該方法は更に、少なくとも部分的に最終環境マップにおける障害物占有情報に基づいて、無人航空機に当該環境内で航行させる信号を生成する段階を含む。   In some embodiments, the method further includes generating a signal that causes the unmanned aircraft to navigate within the environment based at least in part on the obstacle occupancy information in the final environment map.

幾つかの実施形態において、無人航空機は回転翼機である。無人航空機は、10kg又はそれより軽い重さを有していてもよい。無人航空機の最大寸法は、1.5m又はそれより小さくてもよい。無人航空機は、400m又はそれより低い高さで飛行するように構成できる。任意に、無人航空機は、飛行制限領域の存在を検出して、当該飛行制限領域の予め定められた距離内を飛行しないように構成できる。当該飛行制限領域は、空港であってもよい。   In some embodiments, the unmanned aerial vehicle is a rotorcraft. An unmanned aerial vehicle may have a weight of 10 kg or less. The maximum size of the unmanned aerial vehicle may be 1.5 m or less. Unmanned aerial vehicles can be configured to fly at a height of 400 meters or less. Optionally, the unmanned aerial vehicle can be configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area. The flight restriction area may be an airport.

幾つかの実施形態において、当該環境は、屋内環境または低高度環境であってもよい。   In some embodiments, the environment may be an indoor environment or a low altitude environment.

幾つかの実施形態において、複数のセンサは、全地球測位システム(GPS)センサ、ビジョンセンサ又は近接センサを含み得る。近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含み得る。複数のセンサは、複数の異なるセンサタイプを含み得る。   In some embodiments, the plurality of sensors may include a global positioning system (GPS) sensor, a vision sensor, or a proximity sensor. The proximity sensor may include at least one of the following lidar sensor, ultrasonic sensor, or in-flight camera sensor. The plurality of sensors may include a plurality of different sensor types.

幾つかの実施形態において、環境マップは、トポロジカルマップ又はメトリックマップを含み得る。メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含み得る。任意に、メトリックマップは、占有グリッドマップを含み得る。   In some embodiments, the environment map may include a topological map or a metric map. The metric map may include at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map. Optionally, the metric map may include an occupancy grid map.

幾つかの実施形態において、第1環境マップは、第1座標系に対して提供され、第2環境マップは、第1座標系と異なる第2座標系に対して提供される。第1座標系は全体座標系であり得、第2座標系は局所座標系であり得る。第1及び第2環境マップを組み合わせる段階は、第1及び第2環境マップを単一座標系に変換する段階を含むことができる。   In some embodiments, the first environment map is provided for a first coordinate system and the second environment map is provided for a second coordinate system that is different from the first coordinate system. The first coordinate system can be a global coordinate system and the second coordinate system can be a local coordinate system. Combining the first and second environment maps may include converting the first and second environment maps into a single coordinate system.

幾つかの実施形態において、第1センサのセンシング範囲は、第2センサのセンシング範囲と異なる。   In some embodiments, the sensing range of the first sensor is different from the sensing range of the second sensor.

他の態様では、ある環境内で無人航空機を制御するシステムが提供される。当該システムは、無人航空機によって運ばれ、当該環境に関連する第1センシング信号を生成するように構成された第1センサと、無人航空機によって運ばれ、当該環境に関連する第2センシング信号を生成するように構成された第2センサと、1または複数のプロセッサとを含み、第2センサ及び第1センサは複数の異なるセンサタイプである。1または複数のプロセッサは、個々に又は集合的に、第1及び第2センシング信号を受信し、第1センシング信号を使用する第1環境マップと第2センシング信号を使用する第2環境マップとを生成し、第1及び第2環境マップを組み合わせるように構成され、第1及び第2環境マップの各々は当該環境に対する障害物占有情報を含み、これにより、当該環境に対する障害物占有情報を含む最終環境マップを生成する。   In another aspect, a system for controlling an unmanned aerial vehicle within an environment is provided. The system carries a first sensing signal carried by an unmanned aerial vehicle and configured to generate a first sensing signal associated with the environment and a second sensing signal carried by the unmanned aerial vehicle and associated with the environment. A second sensor configured as described above and one or more processors, wherein the second sensor and the first sensor are of a plurality of different sensor types. The one or more processors individually or collectively receive the first and second sensing signals and have a first environment map that uses the first sensing signal and a second environment map that uses the second sensing signal. Generating and combining the first and second environment maps, each of the first and second environment maps including obstacle occupancy information for the environment, thereby including an obstacle occupancy information for the environment Generate an environment map.

他の態様では、ある環境内で無人航空機を制御する方法が提供される。当該方法は、無人航空機によって運ばれる複数のセンサのうち少なくとも1つを使用して無人航空機の初期の場所を決定する段階と、無人航空機に当該環境内で航行させる第1信号を生成する段階と、複数のセンサのうち少なくとも1つを使用して当該環境に関連するセンシングデータを受信する段階と、初期の場所へと戻る指示を受信する段階と、無人航空機に経路に沿って初期の場所へと戻らせる第2信号を生成する段階とを含み、複数のセンサのうち少なくとも1つが当該環境内で当該経路に沿って位置された障害物を検出した場合、当該経路は、当該障害物を回避すべく変更される。   In another aspect, a method for controlling an unmanned aerial vehicle in an environment is provided. The method includes determining an initial location of the unmanned aerial vehicle using at least one of a plurality of sensors carried by the unmanned aircraft, and generating a first signal that causes the unmanned aircraft to navigate within the environment. Receiving sensing data related to the environment using at least one of the plurality of sensors, receiving an instruction to return to the initial location, and unmanned aircraft along the route to the initial location. Generating a second signal to be returned, and when at least one of the plurality of sensors detects an obstacle positioned along the route in the environment, the route avoids the obstacle It will be changed accordingly.

幾つかの実施形態において、無人航空機は回転翼機である。無人航空機は、10kg又はそれより軽い重さを有していてもよい。無人航空機の最大寸法は、1.5m又はそれより小さくてもよい。無人航空機は、400m又はそれより低い高さで飛行するように構成できる。任意に、無人航空機は、飛行制限領域の存在を検出して、当該飛行制限領域の予め定められた距離内を飛行しないように構成できる。当該飛行制限領域は、空港であってもよい。   In some embodiments, the unmanned aerial vehicle is a rotorcraft. An unmanned aerial vehicle may have a weight of 10 kg or less. The maximum size of the unmanned aerial vehicle may be 1.5 m or less. Unmanned aerial vehicles can be configured to fly at a height of 400 meters or less. Optionally, the unmanned aerial vehicle can be configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area. The flight restriction area may be an airport.

幾つかの実施形態において、当該環境は、屋内環境または低高度環境であってもよい。   In some embodiments, the environment may be an indoor environment or a low altitude environment.

幾つかの実施形態において、複数のセンサは、全地球測位システム(GPS)センサ、ビジョンセンサ又は近接センサを含み得る。近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含み得る。複数のセンサは、複数の異なるセンサタイプを含み得る。   In some embodiments, the plurality of sensors may include a global positioning system (GPS) sensor, a vision sensor, or a proximity sensor. The proximity sensor may include at least one of the following lidar sensor, ultrasonic sensor, or in-flight camera sensor. The plurality of sensors may include a plurality of different sensor types.

幾つかの実施形態において、環境マップは、トポロジカルマップ又はメトリックマップを含み得る。メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含み得る。任意に、メトリックマップは、占有グリッドマップを含み得る。   In some embodiments, the environment map may include a topological map or a metric map. The metric map may include at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map. Optionally, the metric map may include an occupancy grid map.

幾つかの実施形態において、当該経路は、可動物体が以前に通過した1または複数の部分を含む。当該経路は、可動物体が以前に通過した経路と異なり得る。任意に、当該経路は、可動物体の飛行経路であってもよい。当該経路は、可動物体の空間的位置及び方向を含むことができる。   In some embodiments, the path includes one or more portions through which the movable object has previously passed. The path may be different from the path through which the movable object has previously passed. Optionally, the path may be a flight path of a movable object. The path can include the spatial position and direction of the movable object.

他の態様では、ある環境内で無人航空機を制御するシステムが提供される。システムは、可動物体によって運ばれる複数のセンサと、1または複数のプロセッサとを含むことができる。1または複数のプロセッサは、個々に又は集合的に、無人航空機によって運ばれる複数のセンサのうち少なくとも1つを使用して可動物体の初期の場所を決定し、無人航空機に当該環境内で航行させる第1信号を生成し、複数のセンサのうち少なくとも1つを使用して当該環境に関連するセンシングデータを受信し、初期の場所へと戻る指示を受信し、無人航空機に経路に沿って初期の場所へと戻らせる第2信号を生成するように構成され、複数のセンサのうち少なくとも1つが当該環境内で当該経路に沿って位置された障害物を検出した場合、当該経路は、当該障害物を回避すべく変更される。   In another aspect, a system for controlling an unmanned aerial vehicle within an environment is provided. The system can include a plurality of sensors carried by the movable object and one or more processors. The one or more processors determine the initial location of the movable object using at least one of a plurality of sensors carried by the unmanned aircraft, individually or collectively, and cause the unmanned aircraft to navigate within the environment. Generating a first signal, receiving sensing data associated with the environment using at least one of the plurality of sensors, receiving an instruction to return to the initial location, and The second signal is configured to generate a second signal to be returned to the place, and when at least one of the plurality of sensors detects an obstacle positioned along the route in the environment, the route is the obstacle It is changed to avoid.

他の態様では、ある環境のマップを生成する方法が提供される。当該方法は、無人航空機によって運ばれる1または複数のビジョンセンサから、当該環境に対する深度情報を含む第1センシングデータを受信する段階と、無人航空機によって運ばれる1または複数の近接センサから、当該環境に対する深度情報を含む第2センシングデータを受信する段階と、第1センシングデータ及び第2センシングデータを使用して、当該環境に対する深度情報を含む環境マップを生成する段階とを含む。   In another aspect, a method for generating a map of an environment is provided. The method includes receiving first sensing data including depth information for the environment from one or more vision sensors carried by the unmanned aerial vehicle, and from one or more proximity sensors carried by the unmanned aerial vehicle for the environment. Receiving second sensing data including depth information; and generating an environment map including depth information for the environment using the first sensing data and the second sensing data.

幾つかの実施形態において、第1センシングデータ及び第2センシングデータの各々は、複数のピクセルを有する少なくとも1つの画像を含み、複数のピクセルの各ピクセルは、2次元画像座標及び深度値に関連付けられている。複数のピクセルの各ピクセルは、色値と関連付けられ得る。第1センシングデータ及び第2センシングデータの各々は、当該環境内の1または複数の物体に対するシルエット情報を含む。   In some embodiments, each of the first sensing data and the second sensing data includes at least one image having a plurality of pixels, each pixel of the plurality of pixels being associated with a two-dimensional image coordinate and a depth value. ing. Each pixel of the plurality of pixels can be associated with a color value. Each of the first sensing data and the second sensing data includes silhouette information for one or more objects in the environment.

幾つかの実施形態において、当該方法は更に、少なくとも部分的に環境マップにおける深度情報に基づいて、無人航空機に当該環境内を航行させる信号を生成する段階を含む。   In some embodiments, the method further includes generating a signal that causes the unmanned aircraft to navigate through the environment based at least in part on the depth information in the environment map.

幾つかの実施形態において、無人航空機は回転翼機である。無人航空機は、10kg又はそれより軽い重さを有していてもよい。無人航空機の最大寸法は、1.5m又はそれより小さくてもよい。無人航空機は、400m又はそれより低い高さで飛行するように構成できる。任意に、無人航空機は、飛行制限領域の存在を検出して、当該飛行制限領域の予め定められた距離内を飛行しないように構成できる。当該飛行制限領域は、空港であってもよい。   In some embodiments, the unmanned aerial vehicle is a rotorcraft. An unmanned aerial vehicle may have a weight of 10 kg or less. The maximum size of the unmanned aerial vehicle may be 1.5 m or less. Unmanned aerial vehicles can be configured to fly at a height of 400 meters or less. Optionally, the unmanned aerial vehicle can be configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area. The flight restriction area may be an airport.

幾つかの実施形態において、当該環境は、屋内環境または低高度環境であってもよい。   In some embodiments, the environment may be an indoor environment or a low altitude environment.

幾つかの実施形態において、1または複数のビジョンセンサは、カメラを1つだけ含む。代替的に、1または複数のビジョンセンサは、2又は3以上のカメラを含むことができる。1または複数の近接センサは、少なくとも1つの超音波、又は、少なくとも1つのライダセンサを含むことができる。第1センシングデータは、第1セットの深度画像を含むことができ、第2センシングデータは、第2セットの深度画像を含むことができる。環境マップを生成する段階は、第1セットの深度画像に存在する第1の複数の特徴点を識別する段階と、第2セットの深度画像に存在する第2の複数の特徴点を識別する段階と、第1の複数の特徴点と第2の複数の特徴点との間の対応を決定する段階と、当該対応に基づいて第1セットの深度画像と第2セットの深度画像とを組み合わせることによって環境マップを生成する段階とを含むことができ、第2の複数の特徴点の各々は、第1の複数の特徴点の1つに対応する。   In some embodiments, the one or more vision sensors include only one camera. Alternatively, the one or more vision sensors can include two or more cameras. The one or more proximity sensors can include at least one ultrasound or at least one lidar sensor. The first sensing data can include a first set of depth images, and the second sensing data can include a second set of depth images. Generating the environment map includes identifying a first plurality of feature points present in the first set of depth images and identifying a second plurality of feature points present in the second set of depth images. Determining a correspondence between the first plurality of feature points and the second plurality of feature points, and combining the first set of depth images and the second set of depth images based on the correspondences Generating an environment map, wherein each of the second plurality of feature points corresponds to one of the first plurality of feature points.

幾つかの実施形態において、第1センシングデータは、第1座標系に対して提供され、第2センシングデータは、第1座標系と異なる第2座標系に対して提供される。環境マップを生成する段階は、第3座標系に対して第1及び第2センシングデータを表現する段階を含むことができる。第3座標系は、第1座標系または第2座標系のいずれか一方であり得る。代替的に、第3座標系は、第1座標系および第2座標系と異なり得る。   In some embodiments, the first sensing data is provided for a first coordinate system and the second sensing data is provided for a second coordinate system that is different from the first coordinate system. Generating the environment map may include expressing the first and second sensing data with respect to the third coordinate system. The third coordinate system can be either the first coordinate system or the second coordinate system. Alternatively, the third coordinate system can be different from the first coordinate system and the second coordinate system.

幾つかの実施形態において、環境マップは、トポロジカルマップ又はメトリックマップを含み得る。メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含み得る。任意に、メトリックマップは、占有グリッドマップを含み得る。   In some embodiments, the environment map may include a topological map or a metric map. The metric map may include at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map. Optionally, the metric map may include an occupancy grid map.

他の態様では、ある環境のマップを生成するシステムが提供される。当該システムは、無人航空機によって運ばれ、当該環境に対する深度情報を含む第1センシングデータを生成するように構成された1または複数のビジョンセンサと、無人航空機によって運ばれ、当該環境に対する深度情報を含む第2センシングデータを生成するように構成された1または複数の近接センサと、1または複数のプロセッサとを含むことができる。1または複数のプロセッサは、個々に又は集合的に、第1及び第2センシングデータを受信し、第1及び第2センシングデータを使用して、当該環境に対する深度情報を含む環境マップを生成するように構成できる。   In another aspect, a system for generating a map of an environment is provided. The system is carried by an unmanned aerial vehicle and includes one or more vision sensors configured to generate first sensing data that includes depth information for the environment, and includes depth information for the environment carried by the unmanned aerial vehicle. One or more proximity sensors configured to generate the second sensing data may include one or more processors. The one or more processors receive the first and second sensing data, individually or collectively, and use the first and second sensing data to generate an environment map that includes depth information for the environment. Can be configured.

本発明の複数の異なる態様は、個々に、集合的に、又は、互いに組み合わせて評価できるということが、理解されるべきである。本明細書で説明される本発明の様々な態様は、以下で明らかにされる任意の複数の特定用途に対して適用してもよく、又は、複数の可動物体の任意の他の複数のタイプに対して適用してもよい。航空機についての本明細書中のいずれの説明も、任意の機体のような任意の可動物体に適用されて使用され得る。加えて、空中の動き(例えば飛行)に関連して本明細書で開示される複数のシステム、複数の装置および複数の方法はまた、地上若しくは水上での動き、水中での動き、又は、宇宙空間での動き等の、他の複数のタイプの動きに関連して適用してもよい。更に、回転翼または回転翼組立体についての本明細書中のいずれの説明も、回転によって推進力を生成するように構成された任意の推進システム、装置または機構(例えばプロペラ、車輪、車軸)に適用されて使用され得る。   It should be understood that multiple different aspects of the present invention can be evaluated individually, collectively, or in combination with each other. Various aspects of the invention described herein may be applied to any of a plurality of specific applications identified below, or any other plurality of types of movable objects. You may apply to. Any description herein for an aircraft may be applied to and used with any movable object, such as any airframe. In addition, systems, devices, and methods disclosed herein in connection with air movement (e.g., flight) can also be used for ground or water movement, underwater movement, or space. It may be applied in connection with several other types of movement, such as movement in space. Further, any description herein of a rotor blade or rotor assembly includes any propulsion system, device or mechanism (eg, propeller, wheel, axle) configured to generate propulsion by rotation. Can be used applied.

本願発明の他の複数のオブジェクト及び特徴は、明細書、特許請求の範囲および添付の図面をレビューすることによって明らかになるだろう。   Other objects and features of the present invention will become apparent upon review of the specification, the claims and the accompanying drawings.

[参照による組み込み]
本明細書で述べられる全ての刊行物、特許および特許出願は、あたかも、個々の刊行物、特許および特許出願の各々が参照により組み込まれるべく個別具体的に示されているのと同じ程度に、参照により本明細書に組み込まれる。
[Incorporation by reference]
All publications, patents, and patent applications mentioned in this specification are as if each individual publication, patent, and patent application was specifically shown to be incorporated by reference, Which is incorporated herein by reference.

本発明の複数の新規な特徴は、特に添付の特許請求の範囲で明らかにされる。本発明の複数の原理が利用される複数の例示的実施形態を明らかにしている以下の詳細な説明と、添付の図面とを参照することによって、本願発明の複数の特徴および利点のより良い理解が得られるだろう。
複数の実施形態による、屋外環境で動作するUAVを図示している。 複数の実施形態による、屋内環境で動作するUAVを図示している。 複数の実施形態による、センサフュージョンを使用してUAV姿勢を推定するスキームを図示している。 複数の実施形態による、センサフュージョンを使用してUAV位置および速度を推定するスキームを図示している。 複数の実施形態による、センサフュージョンを使用して環境マッピングするスキームを図示している。 複数の実施形態による、センサフュージョンを使用してある環境のマップを生成する方法を図示している。 複数の実施形態による、複数の異なるセンサタイプを使用して環境マッピングする方法を図示している。 複数の実施形態による、複数の障害物を回避するようにUAVを制御する方法を図示している。 複数の実施形態による、初期の場所へと戻るようにUAVを制御する方法を図示している。 複数の実施形態による、複数の障害物を回避する一方で、初期の場所へと戻るようにUAVを制御する方法を図示している。 複数の実施形態による、複数の通過点を使用して初期の場所へと戻るようにUAVを制御するアルゴリズムを図示している。 複数の実施形態による、複数の通過点を使用して初期の場所へと戻るようにUAVを制御するアルゴリズムを図示している。 複数の実施形態による、トポロジマップを使用して目標の場所へと戻るようにUAVを制御するアルゴリズムを図示している。 複数の実施形態による、トポロジマップを使用して目標の場所へと戻るようにUAVを制御するアルゴリズムを図示している。 複数の実施形態による、UAVを図示している。 複数の実施形態による、支持機構および積載物を含む可動物体を図示している。 複数の実施形態による、可動物体を制御するシステムを図示している。
The novel features of the invention are set forth with particularity in the appended claims. A better understanding of the features and advantages of the present invention will be obtained by reference to the following detailed description that sets forth illustrative embodiments, in which the principles of the invention are utilized, and the accompanying drawings of which: Will be obtained.
FIG. 3 illustrates a UAV operating in an outdoor environment, according to embodiments. FIG. 4 illustrates a UAV operating in an indoor environment, according to embodiments. FIG. 4 illustrates a scheme for estimating UAV pose using sensor fusion, according to embodiments. FIG. 6 illustrates a scheme for estimating UAV position and velocity using sensor fusion, according to embodiments. FIG. 4 illustrates a scheme for environment mapping using sensor fusion, according to embodiments. FIG. 4 illustrates a method for generating a map of an environment using sensor fusion, according to embodiments. FIG. 6 illustrates a method for environment mapping using a plurality of different sensor types, according to embodiments. FIG. 6 illustrates a method for controlling a UAV to avoid multiple obstacles, according to embodiments. FIG. 4 illustrates a method for controlling a UAV to return to an initial location according to embodiments. FIG. 6 illustrates a method for controlling a UAV to return to an initial location while avoiding multiple obstacles, according to embodiments. FIG. 6 illustrates an algorithm for controlling a UAV to return to an initial location using a plurality of passing points according to embodiments. FIG. 6 illustrates an algorithm for controlling a UAV to return to an initial location using a plurality of passing points according to embodiments. FIG. 6 illustrates an algorithm for controlling a UAV to return to a target location using a topology map, according to embodiments. FIG. 6 illustrates an algorithm for controlling a UAV to return to a target location using a topology map, according to embodiments. FIG. 6 illustrates a UAV according to embodiments. FIG. 4 illustrates a movable object including a support mechanism and a load according to embodiments. 1 illustrates a system for controlling a movable object, according to embodiments.

本開示によって、無人航空機(UAV)のような複数の可動物体を制御する複数のシステム及び方法が提供される。幾つかの実施形態において、UAVは、環境データを収集する複数のセンサを運ぶように適合され得る。複数のセンサの幾つかは、異なるタイプであってもよい(例えば、近接センサと組み合わせて使用されるビジョンセンサ)。複数のセンサによって取得されるデータは、周囲環境を表わす環境マップを生成すべく、組み合わされ得る。幾つかの実施形態において、環境マップは、複数の物体または複数の障害物などの、当該環境内の複数の物体の場所に関する情報を含むことができる。UAVは、様々な動作を実行すべく生成されたマップを使用でき、それらの幾つかは、半自動化または完全自動化されていてもよい。例えば、幾つかの実施形態において、環境マップは、自身の現在の場所から目標の場所へと航行するUAV用の飛行経路を自動的に決定すべく使用できる。別の例として、環境マップは、1または複数の障害物の空間的配置を決定すべく使用でき、これにより、UAVが複数の障害物回避操作を実行することを可能にできる。有利にも、本明細書で開示される環境データを収集する複数のセンサタイプを使用することによって、様々な環境及び動作状況においてでさえも、環境マッピングの精度を改善できる。これにより、航行および障害物回避等の複数のUAV機能性のロバスト性および柔軟性を高めることができる。   The present disclosure provides multiple systems and methods for controlling multiple movable objects, such as unmanned aerial vehicles (UAVs). In some embodiments, the UAV may be adapted to carry multiple sensors that collect environmental data. Some of the plurality of sensors may be of different types (eg vision sensors used in combination with proximity sensors). Data acquired by multiple sensors can be combined to generate an environment map that represents the surrounding environment. In some embodiments, the environment map may include information regarding the location of multiple objects within the environment, such as multiple objects or multiple obstacles. UAVs can use maps generated to perform various operations, some of which may be semi-automated or fully automated. For example, in some embodiments, the environment map can be used to automatically determine a flight path for a UAV that navigates from its current location to a target location. As another example, the environment map can be used to determine the spatial arrangement of one or more obstacles, which can allow the UAV to perform multiple obstacle avoidance operations. Advantageously, by using multiple sensor types that collect environmental data as disclosed herein, the accuracy of environmental mapping can be improved even in various environments and operating situations. This can enhance the robustness and flexibility of multiple UAV functionalities such as navigation and obstacle avoidance.

本明細書で提供される複数の実施形態は、様々なタイプのUAVに適用できる。例えば、UAVは、10kg又はそれより軽い重さを有する、及び/又は、1.5m又はそれより小さい最大寸法を有する、小型のUAVであってもよい。幾つかの実施形態において、UAVは、複数のプロペラ(例えばクアッドコプター)によって空中で動くべく推進するマルチロータ航空機のような回転翼機であってもよい。複数のUAVの複数の他の例、及び、本明細書で提示される複数の実施形態と共に使用するのに適した他の複数の可動物体が、以下で更に詳細に説明される。   The embodiments provided herein can be applied to various types of UAVs. For example, the UAV may be a small UAV having a weight of 10 kg or less and / or having a maximum dimension of 1.5 m or less. In some embodiments, the UAV may be a rotorcraft such as a multi-rotor aircraft that is propelled to move in the air by a plurality of propellers (eg, quadcopters). Other examples of multiple UAVs and other multiple movable objects suitable for use with the multiple embodiments presented herein are described in further detail below.

本明細書で説明される複数のUAVは、完全に自律的に(例えば、搭載制御装置のような適切なコンピューティングシステムによって)、半自律的に、又は、手動で(例えばヒューマンユーザによって)、操作され得る。UAVは、適切なエンティティ(例えばヒューマンユーザまたは自律制御システム)から複数のコマンドを受信して、1または複数の動作を実行することによって、そのような複数のコマンドに応答することができる。例えば、UAVは、地上から離陸し、空中で動き(例えば並進の最大3自由度まで、および、回転の最大3自由度まで)、目標の場所へと又は一連の目標の場所へと移動し、空中でホバリングし、地上に着陸する等を行うべく、制御され得る。別の例として、UAVは、特定の速度並びに/若しくは加速度で(例えば並進の最大3自由度まで、および、回転の最大3自由度まで)、又は、特定の移動経路に沿って移動すべく、制御され得る。更に、複数のコマンドは、本明細書で説明される複数のコンポーネント(例えば、複数のセンサ、複数のアクチュエータ、複数の推進ユニット、積載物等)のような1または複数のUAVコンポーネントを制御すべく使用され得る。例えば、幾つかのコマンドは、カメラのようなUAV積載物の位置、方向及び/又は動作を制御すべく使用され得る。任意に、UAVは、1または複数の予め定められた動作規則に従って動作するように構成できる。複数の動作規則は、UAVの位置(例えば、緯度、経度、高度)、方向(例えば、ロール、ピッチ、ヨー)、速度(例えば、並進速度及び/又は角速度)、及び/又は、加速度(例えば、並進加速度及び/又は角加速度)等の、UAVの任意の適切な態様を制御すべく使用されてもよい。例えば、UAVが閾値高さを超えて飛行することを許可されないように、複数の動作規則は設計され得、例えば、UAVは地上から400m又はそれより低い高さで飛行するように構成できる。幾つかの実施形態において、複数の動作規則は、UAV安全性を改善して安全性に関する事故を防止するための、自動化された複数の機構を提供すべく適合され得る。例えば、UAVは、飛行制限領域(例えば空港)を検出し、飛行制限領域の予め定められた距離内を飛行しないように構成でき、これにより、航空機および他の複数の障害物との複数の潜在的衝突を避けることができる。   The multiple UAVs described herein may be fully autonomous (eg, by a suitable computing system such as an onboard controller), semi-autonomously, or manually (eg, by a human user) Can be manipulated. A UAV can respond to such multiple commands by receiving multiple commands from an appropriate entity (eg, a human user or an autonomous control system) and performing one or more operations. For example, a UAV takes off from the ground, moves in the air (eg up to 3 degrees of freedom of translation and up to 3 degrees of freedom of rotation), moves to a target location or to a series of target locations, It can be controlled to hover in the air, land on the ground, etc. As another example, a UAV may move at a certain speed and / or acceleration (eg, up to 3 degrees of freedom of translation and up to 3 degrees of freedom of rotation) or along a particular movement path, Can be controlled. In addition, multiple commands are intended to control one or more UAV components, such as multiple components described herein (eg, multiple sensors, multiple actuators, multiple propulsion units, loads, etc.). Can be used. For example, some commands can be used to control the position, orientation and / or movement of a UAV payload such as a camera. Optionally, the UAV can be configured to operate according to one or more predetermined operating rules. The plurality of rules of operation may include a UAV position (eg, latitude, longitude, altitude), direction (eg, roll, pitch, yaw), speed (eg, translational velocity and / or angular velocity), and / or acceleration (eg, It may be used to control any suitable aspect of the UAV, such as translational acceleration and / or angular acceleration). For example, multiple rules of operation can be designed so that the UAV is not allowed to fly above a threshold height, for example, the UAV can be configured to fly at a height of 400 m or less from the ground. In some embodiments, the plurality of operating rules may be adapted to provide automated mechanisms for improving UAV safety and preventing safety related accidents. For example, the UAV can be configured to detect a flight restriction area (eg, an airport) and not fly within a predetermined distance of the flight restriction area, thereby allowing multiple potentials with aircraft and other obstacles. Can avoid common collisions.

さて、図面に目を向けると、図1Aは、複数の実施形態による、屋外環境100内で動作するUAV102を図示している。屋外環境100は、都市の環境、郊外の環境、或いは、田園の環境、又は、少なくとも部分的に建物内にない任意の他の環境であってもよい。UAV102は、相対的に地上104の近くで(例えば低高度で)、又は、相対的に地上104から離れて(例えば高高度で)、操作されてもよい。例えば、地上からおよそ10mと等しい又はそれ未満の高さで動作するUAV102は、低高度であると考えられてもよく、その一方で、地上からおよそ10mと等しい又はそれより高い高さで動作するUAV102は、高高度であると考えられてもよい。   Turning now to the drawings, FIG. 1A illustrates a UAV 102 operating within an outdoor environment 100, according to embodiments. The outdoor environment 100 may be an urban environment, a suburban environment, or a rural environment, or any other environment that is not at least partially within a building. The UAV 102 may be operated relatively near the ground 104 (eg, at a low altitude) or relatively far from the ground 104 (eg, at a high altitude). For example, a UAV 102 that operates at a height equal to or less than approximately 10 m from the ground may be considered low altitude, while operating at a height equal to or greater than approximately 10 m from the ground. The UAV 102 may be considered high altitude.

幾つかの実施形態において、屋外環境100は、1または複数の障害物108a―dを含む。障害物は、UAV102の動きを妨げ得る、任意の物体またはエンティティを含んでもよい。幾つかの障害物は、例えば、複数の建物、複数の地上輸送体(例えば複数の車、複数の自動二輪車、複数のトラック、複数の自転車)、複数の人間、複数の動物、複数の植物(例えば複数の木、複数の茂み)、及び、他の複数の人工の構造若しくは自然の構造のように、地上104上に位置してもよい(例えば障害物108a、108d)。幾つかの障害物は、地上104、水、複数の人工建造物、又は、複数の自然の構造と接触し、及び/又は、それらによって支持されてもよい。代替的に、複数の航空機(例えば、複数の飛行機、複数のヘリコプタ、複数の熱気球、他の複数のUAV)、又は、複数の鳥を含めた幾つかの障害物は、空中106に完全に配置されてもよい(例えば障害物108b、108c)。空中の複数の障害物は、地上104若しくは水によって支持されなくてもよく、又は、任意の複数の自然の構造若しくは複数の人工建造物によって支持されなくてもよい。地上104上に配置される障害物は、空中106の中に実質的に延在する複数の部分を含んでもよい(例えば、複数のタワー、複数の超高層ビル、複数の外灯柱、複数の無線塔、複数の送電線、複数の木などの複数の高層構造物)。   In some embodiments, the outdoor environment 100 includes one or more obstacles 108a-d. Obstacles may include any object or entity that may interfere with UAV 102 movement. Some obstacles include, for example, multiple buildings, multiple ground vehicles (eg, multiple cars, multiple motorcycles, multiple trucks, multiple bicycles), multiple humans, multiple animals, multiple plants ( For example, multiple trees, multiple bushes) and other artificial or natural structures may be located on the ground 104 (e.g., obstacles 108a, 108d). Some obstacles may be in contact with and / or supported by the ground 104, water, multiple artificial structures, or multiple natural structures. Alternatively, several obstacles, including multiple aircraft (e.g., multiple airplanes, multiple helicopters, multiple hot air balloons, other multiple UAVs), or multiple birds are completely in the air 106 It may be arranged (eg obstacles 108b, 108c). Airborne obstacles may not be supported by the ground 104 or water, or may be not supported by any of multiple natural structures or artificial structures. Obstacles disposed on the ground 104 may include multiple portions that substantially extend into the air 106 (eg, multiple towers, multiple skyscrapers, multiple external light poles, multiple wireless poles). Towers, multiple power lines, multiple high-rise structures such as trees).

図1Bは、複数の実施形態による、屋内環境150内で動作するUAV152を図示している。屋内環境150は、床156、1または複数の壁部158、及び/又は、天井若しくは屋根160を有する建物154の内部にある。例示的な複数の建物は、例えば、複数の家、複数のアパート、複数のオフィス、複数の製造施設、複数の貯蔵施設等の、居住用、商業用、又は、工業用の複数の建物を含む。建物154の内部は、UAV152が内部空間に制限されるように、床156、複数の壁部158、及び、天井160によって完全に包囲されてもよい。逆に、床156、複数の壁部158、又は、天井160のうち少なくとも1つは無くてもよく、これにより、UAV152が内側から外側へと飛行すること、又は、その逆にすることを可能にできる。代替的に又は組み合わせて、1または複数の開口部164が、床156、複数の壁部158、又は、天井160において形成されてもよい(例えばドア、窓、天窓)。   FIG. 1B illustrates a UAV 152 operating within an indoor environment 150, according to embodiments. The indoor environment 150 is within a building 154 having a floor 156, one or more walls 158, and / or a ceiling or roof 160. Exemplary buildings include residential, commercial, or industrial buildings such as, for example, multiple homes, multiple apartments, multiple offices, multiple manufacturing facilities, multiple storage facilities, etc. . The interior of the building 154 may be completely surrounded by the floor 156, the plurality of walls 158, and the ceiling 160 so that the UAV 152 is limited to the internal space. Conversely, at least one of the floor 156, the plurality of walls 158, or the ceiling 160 may be absent, thereby allowing the UAV 152 to fly from inside to outside or vice versa. Can be. Alternatively or in combination, one or more openings 164 may be formed in the floor 156, the plurality of walls 158, or the ceiling 160 (eg, doors, windows, skylights).

屋外環境100と同様に、屋内環境150は、1または複数の障害物162a―dを含むことができる。幾つかの障害物は、例えば、家具、複数の電気製品、複数の人間、複数の動物、複数の植物、又は、他の複数の人工物体若しくは自然物体のように、床156上に位置してもよい(例えば障害物162a)。逆に、幾つかの障害物は、複数の鳥又は他の複数のUAVのように、空中に配置されてもよい(例えば障害物162b)。屋内環境150にある幾つかの障害物は、他の複数の構造又は物体によって支持され得る。複数の障害物はまた、複数の照明器具、複数の天井扇風機、複数の梁、又は、他の複数の天井取り付け型の電気製品若しくは構造のように、天井160に取り付けられてもよい(例えば障害物162c)。幾つかの実施形態において、複数の障害物は、複数の照明器具、複数の棚、複数のキャビネット、及び、他の複数の壁部取り付け型の電気製品若しくは構造のように、壁部158に取り付けられてもよい(例えば障害物162d)。明白であるが、建物154の複数の構造的コンポーネントはまた、床156、複数の壁部158および天井160を含めて、複数の障害物であるとも考えられ得る。   Similar to the outdoor environment 100, the indoor environment 150 may include one or more obstacles 162a-d. Some obstacles are located on the floor 156, such as furniture, electrical appliances, humans, animals, plants, or other artificial or natural objects, for example. It is also possible (for example, the obstacle 162a). Conversely, some obstacles may be placed in the air, such as multiple birds or other multiple UAVs (eg, obstacle 162b). Some obstacles in the indoor environment 150 may be supported by other structures or objects. The multiple obstacles may also be attached to the ceiling 160, such as multiple lighting fixtures, multiple ceiling fans, multiple beams, or other multiple ceiling mounted appliances or structures (eg, obstacles). Product 162c). In some embodiments, multiple obstacles attach to the wall 158, such as multiple luminaires, multiple shelves, multiple cabinets, and other multiple wall mounted appliances or structures. (E.g., obstacle 162d). Obviously, multiple structural components of building 154 may also be considered as multiple obstacles, including floor 156, multiple walls 158 and ceiling 160.

本明細書で説明される複数の障害物は、実質的に固定型であってもよく(例えば、複数の建物、複数の植物、複数の構造)、又は、実質的に可動型であってもよい(例えば、複数の人間、複数の動物、複数の機体、又は、移動可能な他の複数の物体)。幾つかの障害物は、固定型および可動型の複数のコンポーネントの組み合わせを含んでもよい(例えば風車)。複数の移動障害物または複数の障害物コンポーネントは、予め定められた若しくは予測可能な経路若しくはパターンに従って移動してもよい。例えば、車の動きは、(例えば道路形状に従って)相対的に予測可能であってもよい。代替的に、幾つかの移動障害物または障害物コンポーネントは、ランダムな軌跡に沿って移動してもよく、そうでなければ、予測不可能な軌跡に沿って移動してもよい。例えば、動物のような生物は、相対的に予測不可能な態様で移動してもよい。   The plurality of obstacles described herein may be substantially stationary (eg, multiple buildings, multiple plants, multiple structures), or may be substantially movable. Good (eg, multiple humans, multiple animals, multiple airframes, or other movable objects). Some obstacles may include a combination of fixed and movable components (eg, a windmill). The plurality of moving obstacles or the plurality of obstacle components may move according to a predetermined or predictable route or pattern. For example, vehicle movement may be relatively predictable (eg, according to road shape). Alternatively, some moving obstacles or obstacle components may move along a random trajectory, otherwise they may move along an unpredictable trajectory. For example, an organism such as an animal may move in a relatively unpredictable manner.

安全で効率的な動作を保証する目的で、複数の障害物のような複数の環境物を検出して識別する複数の機構をUAVに提供することが有益であってもよい。加えて、複数の陸標および複数の特徴などの複数の環境物を認識することによって、特にUAVが半自律的または完全自律的な態様で動作している場合における航行を容易化することができる。更に、周囲の複数の環境物に対する自身の空間的関係と同様に、当該環境内におけるUAVの正確な場所を熟知することは、多種多様な複数のUAV機能性にとって有益であり得る。   In order to ensure safe and efficient operation, it may be beneficial to provide UAVs with multiple mechanisms to detect and identify multiple environmental objects, such as multiple obstacles. In addition, recognizing multiple environmental objects such as multiple landmarks and multiple features can facilitate navigation, especially when the UAV is operating in a semi-autonomous or fully autonomous manner. . Furthermore, familiarity with the exact location of the UAV within the environment, as well as its own spatial relationship to the surrounding environmental objects, can be beneficial to a wide variety of UAV functionalities.

従って、本明細書で説明される複数のUAVは、UAV状態、周囲環境または当該環境内の複数の物体に関する情報などの、相対的なデータを収集するように構成された1または複数のセンサを含むことができる。本明細書で開示される複数の実施形態で使用するのに適した例示的な複数のセンサは、複数の位置センサ(例えば、複数の全地球測位システム(GPS)センサ、場所の三角測量が可能な複数のモバイル装置送信機)、複数のビジョンセンサ(例えば、複数のカメラのような、可視赤外線若しくは紫外線を検出可能な複数の撮像装置)、複数の近接度若しくは範囲センサ(例えば、複数の超音波センサ、複数のライダ飛行時若しくは深度カメラ)、複数の慣性センサ(例えば、複数の加速度計、複数のジャイロスコープ、複数の慣性測定装置(IMU))、複数の高度センサ、複数の姿勢センサ(例えばコンパス)、複数の圧力センサ(例えば複数の気圧計)、複数の音声センサ(例えば複数のマイク)、又は、複数のフィールドセンサ(例えば複数の磁力計、複数の電磁場センサ)を含む。例えば1つ、2つ、3つ、4つ、5つ、又は、それより多くのセンサのように、複数のセンサの任意の適切な数および組み合わせを使用することができる。任意に、データは、複数の異なるタイプ(例えば2つ、3つ、4つ、5つ、又は、それより多くのタイプ)のセンサから受信できる。複数の異なるタイプのセンサは、複数の異なるタイプの信号若しくは情報(例えば、位置、方向、速度、加速度、近接度、圧力等)を測定してもよく、及び/又は、データを取得する複数の異なるタイプの複数の測定技術を利用してもよい。例えば、複数のセンサは、複数の能動センサ(例えば、自身のエネルギー源からのエネルギーを生成および測定する複数のセンサ)と、複数の受動センサ(例えば入手可能なエネルギーを検出する複数のセンサ)との任意の適切な組み合わせを含んでもよい。別の例として、幾つかのセンサは、全体座標系の点から提供される絶対測定データ(例えば、GPSセンサによって提供される位置データ、コンパス又は磁力計によって提供される姿勢データ)を生成してもよく、その一方で、他の複数のセンサは、局所座標系の点から提供される相対測定データ(例えば、ジャイロスコープによって提供される相対角速度、加速度計によって提供される相対並進加速度、ビジョンセンサによって提供される相対姿勢情報、超音波センサ、ライダまたは飛行時カメラによって提供される相対距離情報)を生成してもよい。場合によっては、局所座標系は、UAVに対して画定されるボディー座標系であってもよい。   Accordingly, the plurality of UAVs described herein include one or more sensors configured to collect relative data, such as information about UAV status, the surrounding environment, or a plurality of objects within the environment. Can be included. Exemplary sensors suitable for use in the embodiments disclosed herein include multiple position sensors (eg, multiple global positioning system (GPS) sensors, capable of triangulating locations). Multiple mobile device transmitters), multiple vision sensors (eg, multiple imaging devices capable of detecting visible infrared or ultraviolet light, such as multiple cameras), multiple proximity or range sensors (eg, multiple Acoustic sensors, multiple rider flight or depth cameras), multiple inertial sensors (eg, multiple accelerometers, multiple gyroscopes, multiple inertial measurement units (IMU)), multiple altitude sensors, multiple attitude sensors ( For example, a compass), multiple pressure sensors (eg, multiple barometers), multiple audio sensors (eg, multiple microphones), or multiple field sensors (eg, In includes a plurality of magnetometers, a plurality of electromagnetic field sensors). Any suitable number and combination of multiple sensors can be used, such as one, two, three, four, five, or more sensors. Optionally, the data can be received from a plurality of different types of sensors (eg, 2, 3, 4, 5, or more types). The plurality of different types of sensors may measure a plurality of different types of signals or information (eg, position, direction, velocity, acceleration, proximity, pressure, etc.) and / or a plurality of data acquisition data Different types of measurement techniques may be utilized. For example, the plurality of sensors may include a plurality of active sensors (eg, a plurality of sensors that generate and measure energy from their own energy source) and a plurality of passive sensors (eg, a plurality of sensors that detect available energy). May be included in any suitable combination. As another example, some sensors generate absolute measurement data provided from points in the global coordinate system (eg, position data provided by a GPS sensor, attitude data provided by a compass or magnetometer). On the other hand, the other sensors may include relative measurement data provided from points in the local coordinate system (eg, relative angular velocity provided by a gyroscope, relative translational acceleration provided by an accelerometer, vision sensor Relative attitude information provided by, an ultrasonic sensor, a rider or a relative distance information provided by a flight camera). In some cases, the local coordinate system may be a body coordinate system defined for the UAV.

本明細書で説明される複数のセンサは、UAVによって運ばれ得る。センサは、UAVの輸送本体の上方、下方、(複数の)側面上、又は、その内側など、UAVの任意の適切な部分に位置することができる。UAVの空間的配置及び/又は動きが複数のセンサの空間的配置及び/又は動きに対応するように、幾つかのセンサはUAVに機械的に連結され得る。センサが取り付けられるUAVの部分に対してセンサが動かないように、センサは、強固な連結によってUAVに連結され得る。代替的に、センサとUAVとの間の連結は、UAVに対するセンサの動きを可能にし得る。当該連結は、永久的連結または非永久的(例えば解放自在な)連結であり得る。適切な複数の連結方法は、複数の接着、ボンディング、溶接、及び/又は、複数の締結(例えば、複数のねじ、くぎ、ピン等)を含むことができる。任意に、センサは、UAVの一部と一体的に形成され得る。更に、センサは、本明細書で議論される複数の実施形態のように、センサによって収集されるデータが、UAVの様々な機能(例えば、航行、制御、推進、ユーザ又は他の装置との通信など)に使用されることを可能にすべく、UAVの一部(例えば、処理ユニット、制御システム、データストレージ)と電気的に連結され得る。   Multiple sensors described herein may be carried by a UAV. The sensor can be located in any suitable part of the UAV, such as above, below, on the side (s) of the UAV's transport body, or inside it. Some sensors may be mechanically coupled to the UAV such that the spatial arrangement and / or movement of the UAV corresponds to the spatial arrangement and / or movement of multiple sensors. The sensor can be connected to the UAV by a rigid connection so that the sensor does not move relative to the portion of the UAV to which the sensor is attached. Alternatively, the connection between the sensor and the UAV may allow movement of the sensor relative to the UAV. The connection can be a permanent connection or a non-permanent (eg, releasable) connection. Suitable multiple connection methods can include multiple bonds, bonding, welding, and / or multiple fasteners (eg, multiple screws, nails, pins, etc.). Optionally, the sensor can be integrally formed with a portion of the UAV. In addition, the sensor, as in the embodiments discussed herein, allows data collected by the sensor to communicate with various UAV functions (eg, navigation, control, propulsion, communication with a user or other device). Etc.) may be electrically coupled to a portion of the UAV (eg, processing unit, control system, data storage).

複数のセンサは、UAV、周囲環境、又は、当該環境内の複数の物体に関するデータのような、様々なタイプのデータを収集するように構成できる。例えば、複数のセンサの少なくとも幾つかは、UAVの状態に関するデータを提供するように構成してもよい。センサによって提供される状態情報は、UAVの空間的配置に関する情報(例えば、経度、緯度及び/又は高度などの場所又は位置情報、ロール、ピッチ及び/又はヨーなどの方向又は姿勢情報)を含むことができる。状態情報はまた、UAVの動きに関する情報(例えば、並進速度、並進加速度、角速度、角加速度など)を含むことができる。センサは、例えば、最大6自由度まで(例えば、位置及び/又は並進の3自由度、方向及び/又は回転の3自由度)に関するUAVの空間的配置及び/又は動きを決定するように構成できる。全体座標系に対する、又は、局所座標系に対する(例えばUAV又は他のエンティティに対する)、状態情報が提供されてもよい。例えば、センサは、UAVとUAVを制御するユーザとの間の距離、又は、UAVとUAV用の飛行開始地点との間の距離を決定するように構成できる。   The plurality of sensors can be configured to collect various types of data, such as data about the UAV, the surrounding environment, or a plurality of objects in the environment. For example, at least some of the plurality of sensors may be configured to provide data regarding the status of the UAV. The state information provided by the sensor includes information about the spatial arrangement of the UAV (eg location or position information such as longitude, latitude and / or altitude, direction or attitude information such as roll, pitch and / or yaw). Can do. The state information can also include information about the movement of the UAV (eg, translation speed, translation acceleration, angular speed, angular acceleration, etc.). The sensor can be configured, for example, to determine the spatial arrangement and / or movement of the UAV with respect to up to 6 degrees of freedom (eg, 3 degrees of freedom of position and / or translation, 3 degrees of freedom of direction and / or rotation). . State information may be provided for the global coordinate system or for a local coordinate system (eg, for a UAV or other entity). For example, the sensor can be configured to determine the distance between the UAV and the user controlling the UAV, or the distance between the UAV and the flight start point for the UAV.

複数のセンサによって取得されるデータは、様々なタイプの環境情報を提供してもよい。例えば、センサデータは、屋内環境、屋外環境、低高度環境、又は、高高度環境などの環境タイプを示すものであってもよい。センサデータはまた、天気(例えば、晴れ、雨、雪)、複数の視界状況、風速、時刻等を含む、現在の複数の環境状況に関する情報を提供してもよい。更に、センサによって収集される環境情報は、本明細書で説明される複数の障害物のような、当該環境内の複数の物体に関する情報を含んでもよい。障害物情報は、当該環境内の複数の障害物の数、密集度、ジオメトリ及び/又は空間的配置に関する情報を含んでもよい。   Data acquired by multiple sensors may provide various types of environmental information. For example, the sensor data may indicate an environment type such as an indoor environment, an outdoor environment, a low altitude environment, or a high altitude environment. The sensor data may also provide information regarding multiple current environmental conditions, including weather (eg, clear, rain, snow), multiple visibility conditions, wind speed, time of day, and the like. Further, the environmental information collected by the sensor may include information regarding multiple objects in the environment, such as multiple obstacles described herein. The obstacle information may include information regarding the number, density, geometry, and / or spatial arrangement of a plurality of obstacles in the environment.

幾つかの実施形態において、複数のセンシング結果は、複数のセンサによって取得されるセンサデータを組み合わせることによって生成され、これはまた、「センサフュージョン」として知られている。例えば、センサフュージョンは、複数のGPSセンサ、慣性センサ、ビジョンセンサ、ライダ、複数の超音波センサ等を含む、複数の異なるセンサタイプによって取得されるセンシングデータを組み合わせるべく、使用できる。別の例として、センサフュージョンは、絶対測定データ(例えば、GPSデータのような全体座標系に対して提供されるデータ)、及び、相対測定データ(例えば、ビジョンセンシングデータ、ライダデータ、又は、超音波センシングデータなどの、局所座標系に対して提供されるデータ)などの、異なるタイプのセンシングデータを組み合わせるべく使用できる。センサフュージョンは、個別のセンサタイプに関連付けられる複数の限定または複数の誤差を補償すべく使用でき、これにより、最終センシング結果の精度および信頼性を改善できる。   In some embodiments, multiple sensing results are generated by combining sensor data acquired by multiple sensors, also known as “sensor fusion”. For example, sensor fusion can be used to combine sensing data acquired by multiple different sensor types, including multiple GPS sensors, inertial sensors, vision sensors, lidars, multiple ultrasonic sensors, and the like. As another example, sensor fusion may include absolute measurement data (eg, data provided for a global coordinate system such as GPS data) and relative measurement data (eg, vision sensing data, lidar data, or super It can be used to combine different types of sensing data, such as data provided for a local coordinate system, such as sonic sensing data. Sensor fusion can be used to compensate for multiple limitations or multiple errors associated with individual sensor types, which can improve the accuracy and reliability of the final sensing result.

図2Aは、多数の実施形態による、センサフュージョンを使用してUAV姿勢を推定するスキーム200を図示している。図2Aの実施形態は、UAVのヨー角を推定することに向けられているけれども、スキーム200で説明されるアプローチは、UAVのロール角又はピッチ角を推定することにも適用できるということが理解されるべきである。スキーム200は、IMU202と、少なくとも1つの相対方向センサ204と、磁力計206とを利用する。IMU202および磁力計206は、UAVのヨー角の各絶対推定値208、210を提供すべく使用できる。相対方向センサ204は、全体座標系よりもむしろ局所座標系(例えば、UAVボディー座標系)に関する姿勢情報を提供する、任意のセンサであり得る。例示的な複数の相対方向センサは、複数のビジョンセンサ、ライダ、複数の超音波センサ、及び、複数の飛行時若しくは深度カメラを含む。相対方向センサデータは、ヨーレート212および相対ヨー角214の推定値を提供する目的で、分析できる。   FIG. 2A illustrates a scheme 200 for estimating UAV pose using sensor fusion, according to a number of embodiments. Although the embodiment of FIG. 2A is directed to estimating the UAV yaw angle, it is understood that the approach described in Scheme 200 can also be applied to estimate the roll angle or pitch angle of the UAV. It should be. Scheme 200 utilizes IMU 202, at least one relative direction sensor 204, and magnetometer 206. The IMU 202 and magnetometer 206 can be used to provide respective absolute estimates 208, 210 of the UAV yaw angle. Relative direction sensor 204 can be any sensor that provides attitude information about a local coordinate system (eg, a UAV body coordinate system) rather than a global coordinate system. Exemplary multiple relative orientation sensors include multiple vision sensors, lidars, multiple ultrasonic sensors, and multiple in-flight or depth cameras. The relative direction sensor data can be analyzed for the purpose of providing estimates of the yaw rate 212 and the relative yaw angle 214.

相対方向センサ204が一連の画像(「複数のフレーム」)をキャプチャするように構成されたビジョンセンサである複数の実施形態において、ヨーレート212およびヨー角214は、シーケンスから選択される1または複数の画像(「複数のキーフレーム」)を使用して決定できる。複数のキーフレームは、任意の適切な方法を使用して選択できる。例えば、複数のキーフレームは、複数のキーフレーム間における、予め定められた複数の時間間隔、予め定められた複数の距離間隔、予め定められた複数の配置間隔、予め定められた複数の姿勢間隔、又は、予め定められた複数の平均視差間隔などの、予め定められた複数の間隔で選択できる。別の例として、複数のキーフレームは、複数の連続キーフレーム間の複数の関係、例えば、複数のキーフレーム間で重複している領域の量に基づいて選択できる。任意に、複数のキーフレームは、本明細書で提供される複数のパラメータの複数の組み合わせに基づいて選択できる。幾つかの実施形態において、複数のキーフレームの少なくとも幾つかは、複数の連続画像フレームを含んでもよい。代替的に、複数のキーフレームは、任意の複数の連続画像フレームを含まなくてもよい。後者のアプローチは、複数の連続キーフレームに存在する複数の推定誤差の広がり(プロパゲーション)を減少する点で有利であってもよい。   In embodiments where the relative direction sensor 204 is a vision sensor configured to capture a series of images (“multiple frames”), the yaw rate 212 and yaw angle 214 are selected from one or more sequences. Can be determined using an image ("multiple keyframes"). Multiple key frames can be selected using any suitable method. For example, the plurality of key frames include a plurality of predetermined time intervals, a plurality of predetermined distance intervals, a plurality of predetermined arrangement intervals, and a plurality of predetermined posture intervals between the plurality of key frames. Or, it can be selected at a plurality of predetermined intervals such as a plurality of predetermined average parallax intervals. As another example, a plurality of key frames can be selected based on a plurality of relationships between a plurality of consecutive key frames, for example, an amount of region overlapping between a plurality of key frames. Optionally, multiple key frames can be selected based on multiple combinations of multiple parameters provided herein. In some embodiments, at least some of the plurality of key frames may include a plurality of consecutive image frames. Alternatively, the plurality of key frames may not include any plurality of consecutive image frames. The latter approach may be advantageous in that it reduces the spread of multiple estimation errors present in multiple consecutive key frames.

与えられた時間でのヨーレート212およびヨー角214は、1つ、2つ、3つ、4つ、又は、それより多くのキーフレームなど、任意の適切な数のキーフレームを使用して推定できる。ヨーレート212およびヨー角214は、画像解析のような任意の適切なアプローチを使用して決定できる。幾つかの実施形態において、異なるヨー角で同じシーンをキャプチャする2つのキーフレームは、相違すると仮定してもよい。異なる複数のキーフレーム間におけるヨー角は、複数の数学モデル化技術によって決定できる。例えば、複数のキーフレーム間の差は、複数のキーフレームの両方に存在する複数の特徴点を識別してマッチングすることによって決定できる。複数のキーフレームの両方における複数の特徴点の複数の座標に基づいて、2つのキーフレームに対する相似変換行列を決定でき、ヨー角212は相似変換行列から取得できる。ヨー角214、及び、2つのキーフレーム間の時間間隔を使用して、次にヨーレート212を算出できる。   The yaw rate 212 and yaw angle 214 at a given time can be estimated using any suitable number of key frames, such as one, two, three, four, or more key frames. . The yaw rate 212 and yaw angle 214 can be determined using any suitable approach, such as image analysis. In some embodiments, two key frames that capture the same scene at different yaw angles may be assumed to be different. The yaw angle between different key frames can be determined by multiple mathematical modeling techniques. For example, the difference between a plurality of key frames can be determined by identifying and matching a plurality of feature points present in both of the plurality of key frames. Based on the coordinates of the feature points in both of the key frames, a similarity transformation matrix for the two key frames can be determined, and the yaw angle 212 can be obtained from the similarity transformation matrix. Using the yaw angle 214 and the time interval between two key frames, the yaw rate 212 can then be calculated.

センサ202、204、206によって提供される絶対推定値及び相対推定値は、最終ヨー角結果218を提供する目的で、(例えば拡張カルマンフィルタ216、又は、他のタイプのカルマンフィルタを使用して)結合できる。複数の推定値を結合する目的で、任意の適切な方法を実施できる。例えば、ヨーレート推定値212の積分は、相対ヨー角推定値214を更新する目的で、相対ヨー角推定値214と結合できる。相対ヨー角推定値214は、UAVのヨー角を決定すべく、IMU202および磁力計206からの絶対ヨー角推定値208、210と各々結合できる。最終ヨー角結果218は、(例えばUAVのボディー座標系に対する)相対ヨー角として、又は、絶対ヨー角として、提供できる。以前に説明したように、複数の異なるタイプの測定データを組み合わせることによって、最終結果218の精度が改善されてもよい。例えば、磁力計206によって提供されるデータが、(例えば複数の外部磁場に起因して)不十分である複数の状況において、IMU202及び/又は相対方向センサ204からのデータを使用することによって、磁力計の誤差が最終結果に影響を与える範囲を減少できる。   The absolute and relative estimates provided by the sensors 202, 204, 206 can be combined (eg, using an extended Kalman filter 216 or other type of Kalman filter) for the purpose of providing a final yaw angle result 218. . Any suitable method can be implemented for the purpose of combining multiple estimates. For example, the integration of the yaw rate estimate 212 can be combined with the relative yaw angle estimate 214 for the purpose of updating the relative yaw angle estimate 214. Relative yaw angle estimate 214 can be combined with absolute yaw angle estimates 208, 210 from IMU 202 and magnetometer 206, respectively, to determine the UAV yaw angle. The final yaw angle result 218 can be provided as a relative yaw angle (eg, relative to a UAV body coordinate system) or as an absolute yaw angle. As previously described, the accuracy of the final result 218 may be improved by combining multiple different types of measurement data. For example, by using data from IMU 202 and / or relative direction sensor 204 in multiple situations where the data provided by magnetometer 206 is insufficient (eg, due to multiple external magnetic fields), The extent to which the meter error affects the final result can be reduced.

図2Bは、複数の実施形態による、センサフュージョンを使用してUAV位置及び速度を推定するスキーム250を図示している。スキーム250は、IMU252と、少なくとも1つの相対位置及び/又は速度センサ254と、GPSセンサ256とを利用する。IMU252は、UAV加速度258の推定値を提供できる。GPSセンサ256は、UAV260の絶対位置の推定値を提供できる。相対位置及び/又は速度センサ254(例えばビジョンセンサ、ライダ、超音波センサ、飛行時若しくは深度カメラ、又は、相対位置及び/又は速度情報を提供する任意の他のセンサ)は、UAV速度262および相対UAV位置264の推定値を取得すべく使用できる。図2Aの相対方向センサ204と同様に、相対位置及び/又は速度センサ254がビジョンセンサである複数の実施形態において、速度及び相対位置推定値262、264は、ビジョンセンサによって取得される1または複数のキーフレームに基づいて決定できる。例えば、複数の連続キーフレーム間の複数の差を算定すべく、画像解析および数学モデル化が使用でき、これにより、これらの差を生成するであろうUAVの複数の並進移動を決定できる。次に、複数のキーフレーム間で経過した時間に基づいて、UAV速度を推定できる。   FIG. 2B illustrates a scheme 250 for estimating UAV position and velocity using sensor fusion, according to embodiments. Scheme 250 utilizes IMU 252, at least one relative position and / or velocity sensor 254, and GPS sensor 256. The IMU 252 can provide an estimate of the UAV acceleration 258. The GPS sensor 256 can provide an estimate of the absolute position of the UAV 260. Relative position and / or speed sensor 254 (e.g., vision sensor, lidar, ultrasonic sensor, flight or depth camera, or any other sensor that provides relative position and / or speed information) may include UAV speed 262 and relative It can be used to obtain an estimate of the UAV position 264. Similar to the relative direction sensor 204 of FIG. 2A, in embodiments where the relative position and / or speed sensor 254 is a vision sensor, the speed and relative position estimates 262, 264 are one or more obtained by the vision sensor. Can be determined based on the keyframes. For example, image analysis and mathematical modeling can be used to calculate multiple differences between multiple consecutive key frames, thereby determining the multiple translations of the UAV that will produce these differences. Next, the UAV speed can be estimated based on the time elapsed between a plurality of key frames.

センサ252、254および256によって提供される複数の推定値は、拡張カルマンフィルタ266、又は、他の適切なカルマンフィルタタイプを使用して結合でき、これにより、UAV用の最終位置及び速度結果268を取得できる。例えば、加速度推定値258の積分は、UAV速度を決定する目的で、UAV速度推定値262と結合できる。決定されたUAV速度の積分は、UAV位置を決定する目的で、相対位置推定値264および絶対位置推定値260と結合できる。位置及び速度結果268は、局所又は全体座標系に対して表現できる。   The multiple estimates provided by sensors 252, 254, and 256 can be combined using extended Kalman filter 266, or other suitable Kalman filter type, to obtain final position and velocity results 268 for UAV. . For example, the integration of the acceleration estimate 258 can be combined with the UAV velocity estimate 262 for the purpose of determining the UAV velocity. The integral of the determined UAV velocity can be combined with the relative position estimate 264 and the absolute position estimate 260 for the purpose of determining the UAV position. The position and velocity results 268 can be expressed with respect to a local or global coordinate system.

任意に、カルマンフィルタ266とのセンサフュージョンはまた、相対速度及び/又は位置センサ254の局所座標系と、IMU252及びGPS256の全体座標系との間における変換のためのキャリブレーションデータを決定すべく使用できる。キャリブレーションデータは、IMU252及び/又はGPS256によって取得される絶対センシングデータを、センサ254によって取得される相対センシングデータ上へとマッピングすべく使用でき、又は、その逆もできる。例えば、IMU252及び/又はGPS256は、複数の絶対座標においてUAVが移動する経路を決定すべく使用でき、相対センサ254は、複数の相対座標においてUAVが移動する経路を示すセンシングデータを取得すべく使用できる。絶対経路データを相対経路データに投影するのに必要とされる複数のキャリブレーションパラメータ(例えば、スケーリングファクタ、回転、並進)を決定すべく、本明細書で提供される複数のセンサフュージョン方法を適用でき、その逆も可能である。例えば、複数のキャリブレーションパラメータと、絶対経路データと、相対経路データとの間の関係は、数学モデル化によって表わすことができる。次に、複数のキャリブレーションパラメータを求めることを目的として、複数のセンサによって取得される絶対経路データ及び相対経路データをモデルの中に入力できる。本明細書で説明される絶対経路データ及び相対経路データの組み合わせは、経路決定の精度を高めるべく使用でき、これにより、UAV航行を改善できる。   Optionally, sensor fusion with the Kalman filter 266 can also be used to determine calibration data for conversion between the relative coordinate system of the relative velocity and / or position sensor 254 and the global coordinate system of the IMU 252 and GPS 256. . The calibration data can be used to map the absolute sensing data obtained by the IMU 252 and / or GPS 256 onto the relative sensing data obtained by the sensor 254, or vice versa. For example, the IMU 252 and / or the GPS 256 can be used to determine the path that the UAV moves in a plurality of absolute coordinates, and the relative sensor 254 can be used to obtain sensing data that indicates the path that the UAV moves in a plurality of relative coordinates. it can. Apply multiple sensor fusion methods provided herein to determine the multiple calibration parameters (eg, scaling factor, rotation, translation) required to project absolute path data onto relative path data Yes, and vice versa. For example, the relationship between a plurality of calibration parameters, absolute path data, and relative path data can be represented by mathematical modeling. Next, for the purpose of obtaining a plurality of calibration parameters, absolute path data and relative path data acquired by a plurality of sensors can be input into the model. The combination of absolute route data and relative route data described herein can be used to increase the accuracy of route determination, thereby improving UAV navigation.

環境情報だけでなく、UAV状態の複数のより精確な推定値を提供すべく、本明細書で説明される複数のセンサフュージョンアプローチを適用できる。幾つかの実施形態において、環境情報を推定すべくUAV状態情報が使用され、その逆にも使用されるように、UAV状態情報および環境情報の推定値は互いに依存していてもよい。例えば、幾つかのセンサは、絶対環境情報
を取得すべく使用でき、その一方で、他の複数のセンサは、相対環境情報
を取得すべく使用できる。絶対環境情報は、関係
に基づいて、相対環境情報に投影できる(又は、その逆も可能である)。ここで、
は、全体座標系と局所座標系との間での回転行列を表わし、
は、全体座標系の原点から局所座標系の原点への並進ベクトルを表わしている。幾つかの実施形態において、
及び
をUAV位置及び方向に基づいて各々決定できるように、
がUAVのボディー座標系に関して提供される。従って、UAV位置及び方向情報は、絶対環境データ及び相対環境データを組み合わるべく使用でき、これにより、環境情報の推定値を生成できる。逆に、絶対環境データ及び相対環境データは、上記で説明された関係を使用して、UAV位置及び方向を推定すべく使用できる。UAV状態及び環境情報の更新された複数の推定値を提供する目的で、このアプローチを繰り返すことができる。
The multiple sensor fusion approach described herein can be applied to provide multiple more accurate estimates of UAV conditions as well as environmental information. In some embodiments, the UAV state information and the environment information estimate may be dependent on each other so that the UAV state information is used to estimate the environment information and vice versa. For example, some sensors have absolute environmental information
While other multiple sensors can be used to obtain relative environmental information
Can be used to get Absolute environmental information is related
Can be projected onto relative environment information (or vice versa). here,
Represents the rotation matrix between the global coordinate system and the local coordinate system,
Represents a translation vector from the origin of the global coordinate system to the origin of the local coordinate system. In some embodiments,
as well as
Can be determined based on the UAV position and direction respectively.
Are provided for UAV body coordinate systems. Thus, the UAV position and direction information can be used to combine absolute and relative environment data, thereby generating an estimate of the environment information. Conversely, absolute environment data and relative environment data can be used to estimate UAV position and orientation using the relationships described above. This approach can be repeated with the goal of providing updated estimates of UAV status and environmental information.

幾つかの実施形態において、センサデータは、環境の表現、又は、その少なくとも一部を生成すべく使用できる。そのような複数の表現は、本明細書中で「複数の環境マップ」と呼ばれるかもしれない。環境マップは、UAVのごく近くの環境の複数の部分を表わしてもよく(局所マップ)、又は、UAVから相対的に遠い複数の部分を表わしてもよい(全体マップ)。例えば、局所マップは、UAVから半径約2m、5m、10m、15m、20m、25m、又は、50m内における環境の複数の部分を表わしてもよい。全体マップは、UAVから半径約25m、50m、75m、100m、125m、150m、200m、225m、250m、300m、400m、500m、1000m、2000m、又は、5000m内における複数の部分を表わしてもよい。環境マップのサイズは、マップを生成すべく使用される複数のセンサの有効範囲に基づいて決定してもよい。センサの有効範囲は、センサタイプに基づいて異なってもよい。例えば、ビジョンセンサは、UAVから半径約10m、15m、20m、又は、25m内の複数の物体を検出すべく使用できる。ライダセンサは、UAVから半径約2m、5m、8m、10m、又は、15m内の複数の物体を検出すべく使用できる。超音波センサは、UAVから半径約2m、5m、8m、10m、又は、15m内の複数の物体を検出すべく使用できる。幾つかの実施形態において、環境マップは、UAVが以前に通過した複数の部分を表わすだけであってもよい。代替的に、複数の他の実施形態において、環境マップはまた、UAVが移動していない環境の複数の部分を表わすだけであってもよい。   In some embodiments, the sensor data can be used to generate a representation of the environment, or at least a portion thereof. Such multiple representations may be referred to herein as “multiple environmental maps”. The environment map may represent multiple parts of the environment very close to the UAV (local map) or may represent multiple parts relatively far from the UAV (overall map). For example, the local map may represent portions of the environment within a radius of about 2 m, 5 m, 10 m, 15 m, 20 m, 25 m, or 50 m from the UAV. The overall map may represent multiple portions within a radius of about 25m, 50m, 75m, 100m, 125m, 150m, 200m, 225m, 250m, 300m, 400m, 500m, 1000m, 2000m, or 5000m from the UAV. The size of the environment map may be determined based on the effective range of multiple sensors used to generate the map. The effective range of the sensor may vary based on the sensor type. For example, the vision sensor can be used to detect multiple objects within a radius of about 10 m, 15 m, 20 m, or 25 m from the UAV. The lidar sensor can be used to detect multiple objects within a radius of about 2 m, 5 m, 8 m, 10 m, or 15 m from the UAV. Ultrasonic sensors can be used to detect multiple objects within a radius of about 2 m, 5 m, 8 m, 10 m, or 15 m from the UAV. In some embodiments, the environment map may only represent multiple portions that the UAV has previously passed. Alternatively, in other embodiments, the environment map may also only represent portions of the environment where the UAV is not moving.

環境マップは、様々なタイプの環境情報を表わすべく使用できる。例えば、マップによって、複数の障害物、複数の構造、複数の陸標、又は、複数の特徴などの複数の環境物の、ジオメトリ(例えば長さ、幅、高さ、厚さ、形状、表面積、体積)、空間的配置(例えば位置、方向)、及び、タイプを示す情報を提供できる。別の例として、マップによって、環境の複数の部分が妨げられる(例えばUAVが通過できない)こと、及び、複数の部分が妨げられない(例えばUAVが通過できる)ことを示す情報を提供できる。更に、マップによって、UAVの現在の場所、及び/又は、様々な環境物に対するUAVの空間的配置に関する情報を提供できる。   The environment map can be used to represent various types of environment information. For example, depending on the map, the geometry (eg, length, width, height, thickness, shape, surface area, etc.) of multiple environmental objects such as multiple obstacles, multiple structures, multiple landmarks, or multiple features. Information indicating volume), spatial arrangement (eg, position, orientation), and type. As another example, a map can provide information indicating that parts of the environment are blocked (eg, UAVs cannot pass) and that parts are not blocked (eg, UAVs can pass). In addition, the map can provide information about the current location of the UAV and / or the spatial arrangement of the UAV with respect to various environmental objects.

メトリックマップ、又は、トポロジカルマップなど、任意の適切なタイプの環境マップを使用できる。トポロジカルマップは、当該環境内の複数の場所間の接続性を描写してもよく、その一方で、メトリックマップは、当該環境内の複数の物体のジオメトリを描写してもよい。任意に、環境マップは、メトリック情報及びトポロジカル情報の組み合わせを含んでもよい。例えば、環境マップによって、複数の環境物及び/又は場所の間における複数の絶対空間的関係(例えば複数の距離)だけでなく接続性も描写できる。代替的に又は組み合わせて、マップの幾つかの部分は、トポロジカルに描写されてもよく、その一方で、他の部分はメトリックに描写されてもよい。   Any suitable type of environment map can be used, such as a metric map or a topological map. A topological map may depict connectivity between multiple locations within the environment, while a metric map may depict the geometry of multiple objects within the environment. Optionally, the environment map may include a combination of metric information and topological information. For example, an environment map can depict connectivity as well as multiple absolute spatial relationships (eg, multiple distances) between multiple environmental objects and / or locations. Alternatively or in combination, some parts of the map may be depicted topologically while other parts may be depicted metrically.

環境マップは、任意の適切なフォーマットで提供できる。例えば、トポロジカル環境マップは、複数の場所を表わす複数の頂点と、複数の場所間の複数の経路を表わす複数のエッジとを有するグラフとして提供できる。トポロジカル環境マップの複数のエッジは、対応する経路に対する距離情報と関連付けられてもよい。メトリック環境マップは、複数の環境的な場所及び物体の空間座標を、ポイントクラウド、地形マップ、2Dグリッドマップ、2.5Dグリッドマップ、又は、3Dグリッドマップとして描写する、任意の表現であり得る。複数の空間座標は、複数の環境物の複数の表面上における複数の地点の空間的位置を表わす、複数の3次元座標(例えば、x座標、y座標及びz座標)であってもよい。幾つかの実施形態において、メトリック環境マップは、占有グリッドマップであり得る。占有グリッドマップは、環境を複数の体積として表わすことができる。複数の体積は、複数の等しいサイズであってもよく、又は、複数の異なるサイズであってもよい。占有グリッドマップは、各体積に対して、その体積が障害物によって実質的に占有されるかどうかを示してもよく、これにより、当該環境内の妨げられた空間および妨げられてない空間の正確な表現を提供できる。   The environment map can be provided in any suitable format. For example, the topological environment map can be provided as a graph having a plurality of vertices representing a plurality of places and a plurality of edges representing a plurality of paths between the plurality of places. Multiple edges of the topological environment map may be associated with distance information for the corresponding route. A metric environment map may be any representation that depicts multiple environmental locations and object spatial coordinates as a point cloud, terrain map, 2D grid map, 2.5D grid map, or 3D grid map. The plurality of spatial coordinates may be a plurality of three-dimensional coordinates (for example, an x coordinate, a y coordinate, and a z coordinate) representing the spatial positions of a plurality of points on a plurality of surfaces of a plurality of environmental objects. In some embodiments, the metric environment map may be an occupancy grid map. The occupancy grid map can represent the environment as multiple volumes. The plurality of volumes may be a plurality of equal sizes or a plurality of different sizes. The occupancy grid map may indicate, for each volume, whether the volume is substantially occupied by an obstruction, so that the exact amount of disturbed and unobstructed space in the environment Can provide simple expressions.

本明細書で説明される複数の環境マップは、任意の適切な方法を使用して生成できる。例えば、環境マップの1または複数の部分は、例えば、同時位置決め地図作成(SLAM)、又は、他の複数のロボットマッピング技術を使用することによって、UAV動作の間(例えば飛行中)に生成できる。代替的に、マップの1または複数の部分は、UAV動作に先立って生成することができ、飛行に先立って又は飛行中に、UAVに提供することができる(例えばリモートコンピューティングシステムから送信できる)。そのような複数のマップは、UAVが飛行中に取得したデータに基づいて変更されてもよく、これにより、マップデータを更に洗練することを提供できる。   The multiple environment maps described herein can be generated using any suitable method. For example, one or more portions of the environment map can be generated during UAV operation (eg, in flight), for example, by using simultaneous positioning mapping (SLAM) or other robotic mapping techniques. Alternatively, one or more portions of the map can be generated prior to UAV operation and provided to the UAV prior to or during flight (eg, can be transmitted from a remote computing system). . Such multiple maps may be modified based on data acquired by the UAV during the flight, which can provide further refinement of the map data.

幾つかの実施形態において、環境マッピングは、複数のセンサタイプによって収集される環境情報を組み合わせるセンサフュージョンを使用して実行できる。個別のセンサタイプの複数の限定を補償する目的で、このアプローチは有利であってもよい。例えば、UAVが屋内環境にある場合、GPSセンシングデータは不精確または利用不可能であってもよい。複数のビジョンセンサは、複数の透明な物体(例えばメガネ)を検出することに対して、又は、複数の相対的に暗い環境(例えば夜間)に対して、最適化されなくてもよい。幾つかの実施形態において、複数のライダセンサは、他の複数のセンサタイプと比較して、相対的に短い検出範囲を有してもよい。本明細書で説明されるマルチセンサフュージョンを使用することによって、多様な環境タイプ及び動作状況下での精確なマッピングを提供でき、従って、UAV動作のロバスト性および柔軟性を改善できる。   In some embodiments, environment mapping can be performed using sensor fusion that combines environmental information collected by multiple sensor types. This approach may be advantageous in order to compensate for multiple limitations of individual sensor types. For example, if the UAV is in an indoor environment, GPS sensing data may be inaccurate or unavailable. The multiple vision sensors may not be optimized for detecting multiple transparent objects (eg, glasses) or for multiple relatively dark environments (eg, nighttime). In some embodiments, the plurality of lidar sensors may have a relatively short detection range compared to other sensor types. By using the multi-sensor fusion described herein, precise mapping under a variety of environmental types and operating conditions can be provided, thus improving the robustness and flexibility of UAV operation.

図3Aは、複数の実施形態による、センサフュージョンを使用して環境マッピングするスキーム300を図示している。スキーム300は、本明細書で説明される複数の環境マップの任意の実施形態を生成すべく使用できる。スキーム300において、センシングデータは、複数のセンサ302から受信される。複数のセンサ302は、1または複数の異なるセンサタイプを含んでもよい。複数のセンサ302は、UAVによって運ばれ得、例えばUAVの輸送本体に連結され得る。任意に、複数のセンサ302の各々からのセンシングデータは、フィルタリング、ノイズ低減、画像の歪みの修正等によってデータ品質を改善すべく、予め処理できる。幾つかの実施形態において、複数のセンサ302の各々によって提供されるセンシングデータは、各座標系に対して(例えば、UAVの輸送本体に対するセンサの位置及び方向に基づいて)表わされてもよい。従って、各センサからのセンシングデータは、全てのセンシングデータを単一座標系へと変換304することによって組み合わせることができる。例えば、局所座標系に対して提供されるセンシングデータは、全体座標系へと変換されてもよく、その逆であってもよい。座標系変換304は、センサキャリブレーションデータ306に基づいて達成できる。センサキャリブレーションは、任意の適切な技術を使用して実行でき、UAVの動作に先立って(オフラインキャリブレーション)、又は、UAVの動作中に(オンラインキャリブレーション)実行できる。幾つかの実施形態において、センサキャリブレーションは、複数のセンサ302間の複数の空間的関係(例えば相対位置及び方向)のような、複数のセンサ302に対する複数の付帯的パラメータを決定することを含む。次に、センシングデータを単一座標系へと変換する複数の変換計算を、決定された複数のセンサパラメータに基づいて決定できる。   FIG. 3A illustrates a scheme 300 for environment mapping using sensor fusion, according to embodiments. Scheme 300 can be used to generate any embodiment of the multiple environment maps described herein. In scheme 300, sensing data is received from multiple sensors 302. The plurality of sensors 302 may include one or more different sensor types. The plurality of sensors 302 may be carried by the UAV, eg, connected to the UAV's transport body. Optionally, sensing data from each of the plurality of sensors 302 can be processed in advance to improve data quality by filtering, noise reduction, image distortion correction, and the like. In some embodiments, the sensing data provided by each of the plurality of sensors 302 may be represented for each coordinate system (eg, based on the position and orientation of the sensor relative to the UAV's transport body). . Accordingly, the sensing data from each sensor can be combined by converting 304 all sensing data into a single coordinate system. For example, sensing data provided for a local coordinate system may be converted to a global coordinate system and vice versa. Coordinate system transformation 304 can be achieved based on sensor calibration data 306. Sensor calibration can be performed using any suitable technique and can be performed prior to UAV operation (offline calibration) or during UAV operation (online calibration). In some embodiments, the sensor calibration includes determining a plurality of incidental parameters for the plurality of sensors 302, such as a plurality of spatial relationships (eg, relative positions and orientations) between the plurality of sensors 302. . Next, a plurality of conversion calculations for converting the sensing data into a single coordinate system can be determined based on the determined plurality of sensor parameters.

座標系変換304に続いて、次に、単一のセンシング結果を取得するセンサフュージョン308を使用して、変換されたセンシングデータを組み合わせることができる。カルマンフィルタリング(例えば、カルマンフィルタ、拡張カルマンフィルタ、アンセンテッドカルマンフィルタ)、パーティクルフィルタリング、又は、当業者にとって既知である他の複数のフィルタリング技術のように、センサフュージョンを実行すべく様々な技術を使用できる。使用される方法は、使用される複数のセンサの特定の組み合わせ及び複数のタイプ次第で異なってもよい。幾つかの実施形態において、センサフュージョン308は、全てのセンサ302からのセンシングデータを利用してもよい。逆に、センサフュージョン308は、複数のセンサ302のサブセットだけからのデータを利用してもよい。不十分または信頼性のないセンサデータ(例えば、UAVが屋内にいる場合のGPSセンシングデータ)を取り除くことを目的として、後者のアプローチは有利であってもよい。結合されたセンシングデータは次に、環境マップ生成310用に使用できる。   Following the coordinate system transformation 304, the transformed sensing data can then be combined using a sensor fusion 308 that obtains a single sensing result. Various techniques can be used to perform sensor fusion, such as Kalman filtering (eg, Kalman filter, extended Kalman filter, unscented Kalman filter), particle filtering, or other filtering techniques known to those skilled in the art. The method used may vary depending on the particular combination and types of sensors used. In some embodiments, sensor fusion 308 may utilize sensing data from all sensors 302. Conversely, sensor fusion 308 may utilize data from only a subset of multiple sensors 302. The latter approach may be advantageous for the purpose of removing insufficient or unreliable sensor data (eg, GPS sensing data when the UAV is indoors). The combined sensing data can then be used for environment map generation 310.

環境マッピングは、複数のセンサの任意の適切な組み合わせからのセンシングデータに基づいて実行できる。例えば、幾つかの実施形態において、本明細書で説明される複数のマッピング方法は、ライダセンサ及びビジョンセンサ(例えば、単一カメラのような単眼視センサ)を運ぶUAVによって実施できる。ライダセンサは、UAVに対する複数の環境物の距離データを取得すべく使用でき、その一方で、ビジョンセンサは、周囲の複数の環境物の画像データをキャプチャすべく使用できる。ライダ及びビジョンセンサ用のセンサキャリブレーションデータは、ライダとビジョンセンサとの間の空間的関係を示すセンサパラメータを含むことができる。例えば、ライダセンサによってUAVからの距離
を決定され、また、ビジョンセンサによってキャプチャされた画像データにおける座標
で物体に対応する環境物に対し、

との間の関係は、
によって表わすことができる。ここで、
は回転行列であり、
は変換行列であり、
は未知のスカラー量であり、
はビジョンセンサに対する内部行列(事前較正によって決定される固有のパラメータ)である。上記の方程式において、
と、
と、
とは既知であるが、その一方で、

とは未知である。もし複数の測定の数
が用いられるならば、
及び
は一定なので(ライダセンサ及びビジョンセンサの相対位置及び方向は固定される)、問題となるのは、以下のように遠近法(パースペクティブ)n地点(PNP)問題であり、当該問題は、複数のセンサパラメータである、
及び
を取得することを目的として、当業者に既知である複数の技術を使用することで解決できる。
Environmental mapping can be performed based on sensing data from any suitable combination of multiple sensors. For example, in some embodiments, the multiple mapping methods described herein can be implemented by a UAV carrying a lidar sensor and a vision sensor (eg, a monocular sensor such as a single camera). The lidar sensor can be used to acquire distance data of a plurality of environmental objects relative to the UAV, while the vision sensor can be used to capture image data of a plurality of surrounding environmental objects. Sensor calibration data for the lidar and vision sensor may include sensor parameters that indicate a spatial relationship between the lidar and the vision sensor. For example, distance from UAV by lidar sensor
Coordinates in the image data determined and also captured by the vision sensor
For environmental objects corresponding to objects,
When
The relationship between
Can be represented by here,
Is a rotation matrix,
Is the transformation matrix,
Is an unknown scalar quantity,
Is an internal matrix for the vision sensor (a unique parameter determined by pre-calibration). In the above equation,
When,
When,
Is known, but on the other hand,
When
Is unknown. Number of multiple measurements
Is used,
as well as
Is fixed (the relative position and direction of the lidar sensor and the vision sensor are fixed), the problem is the perspective n-point (PNP) problem as described below. Parameter,
as well as
Can be solved by using a plurality of techniques known to those skilled in the art.

一度、センサキャリブレーションデータが得られたら、ライダセンシングデータ及びビジョンセンシングデータは、以下の数14による同じ座標系(「世界」座標系)へと変換できる。
ここで、
は(本実施形態におけるビジョンセンサ座標系に対応する)世界座標系に対するデータであり、
は世界座標系に対するビジョンセンシングデータであり、
はビジョンセンサ座標系に対するビジョンセンシングデータであり、
は世界座標系に対するライダセンシングデータであり、
はライダセンサ座標系に対するライダセンシングデータである。そして、
及び
は、ビジョンセンサ座標系とライダセンサ座標系との間で変換するための回転行列及び変換行列である(上記で説明した、
及び
に対応する)。
は、対角行列
である。ここで、
は、未知のスケールファクタである。次に、複数のセンサフュージョン技術を使用して、変換されたセンシングデータを組み合わせることができる。例えば、ビジョン座標系
に対するビジョンセンシングデータと、世界座標系
に対するビジョンセンシングデータとの間の関係は、
によって表わすことができる。ライダセンシングデータを使用して、ライダセンサのセンシング方向に沿ってUAVに最も近い地点(ポイント
として示される)
を取得できる。従って、
と、
及び
とが既知なので(なぜならば、
なので)、
の値を決定できる。従って、局所センサデータである、
及び
は、各世界座標
及び
に変換して、単一結果
を生成すべく結合することができる。次に、UAVを囲う環境のマップを生成すべく、結合されたデータを使用できる。
Once the sensor calibration data is obtained, the lidar sensing data and the vision sensing data can be converted into the same coordinate system (“world” coordinate system) according to Equation 14 below.
here,
Is data for the world coordinate system (corresponding to the vision sensor coordinate system in this embodiment),
Is vision sensing data for the world coordinate system,
Is vision sensing data for the vision sensor coordinate system,
Is lidar sensing data for the world coordinate system,
Is lidar sensing data for the lidar sensor coordinate system. And
as well as
Is a rotation matrix and transformation matrix for transformation between the vision sensor coordinate system and the lidar sensor coordinate system (described above,
as well as
Corresponding to).
Is a diagonal matrix
It is. here,
Is an unknown scale factor. The converted sensing data can then be combined using multiple sensor fusion techniques. For example, the vision coordinate system
Vision sensing data and world coordinate system
The relationship between vision sensing data for
Can be represented by Using the lidar sensing data, the closest point (point) to the UAV along the sensing direction of the lidar sensor
Indicated as)
Can be obtained. Therefore,
When,
as well as
Is known (because
So),
Can be determined. Therefore, it is local sensor data,
as well as
Each world coordinate
as well as
Single result
Can be combined to produce The combined data can then be used to generate a map of the environment surrounding the UAV.

図3Bは、複数の実施形態による、センサフュージョンを使用して、ある環境のマップを生成する方法350を図示している。方法350は、本明細書で提供される複数のシステム及び複数の装置のいずれによっても実行でき、例えばUAVの1または複数のプロセッサによって実行できる。   FIG. 3B illustrates a method 350 for generating a map of an environment using sensor fusion, according to embodiments. The method 350 can be performed by any of the systems and devices provided herein, for example, by one or more processors of a UAV.

ステップ360において、1または複数のビジョンセンサから、当該環境に対する深度情報を含む第1センシングデータを受信する。例えば、ビジョンセンサは、1つのカメラだけを含むことができる(単眼視センサ)。代替的に、ビジョンセンサは、2つ(両眼視センサ)又はそれより多くのカメラを含むことができる。複数のビジョンセンサは、UAVによって運ばれ得、例えばUAV輸送本体によって運ばれ得る。複数のビジョンセンサが使用される複数の実施形態において、各センサは、UAVの異なる部分に配置でき、各センサによって収集される画像データ間の視差は、当該環境に対する深度情報を提供すべく使用できる。深度情報は、本明細書において、1または複数のオブジェクトの、UAV及び/又はセンサからの距離に関する情報を参照すべく使用できる。単一のビジョンセンサが使用される複数の実施形態において、深度情報は、ビジョンセンサの複数の異なる位置及び方向に対する画像データをキャプチャし、それから、深度情報を復元する適切な複数の画像解析技術(例えば、動きからの構造(structure from motion))を使用することによって取得できる。   In step 360, first sensing data including depth information for the environment is received from one or more vision sensors. For example, a vision sensor can include only one camera (monocular sensor). Alternatively, the vision sensor can include two (binocular vision sensors) or more cameras. The multiple vision sensors can be carried by the UAV, for example by the UAV transport body. In embodiments where multiple vision sensors are used, each sensor can be located in a different part of the UAV, and the parallax between the image data collected by each sensor can be used to provide depth information for the environment. . Depth information can be used herein to refer to information regarding the distance of one or more objects from a UAV and / or sensor. In embodiments where a single vision sensor is used, the depth information captures image data for a plurality of different positions and orientations of the vision sensor and then recovers the depth information from a suitable plurality of image analysis techniques ( For example, it can be obtained by using a structure from motion.

ステップ370において、1または複数の近接センサから、当該環境に対する深度情報を含む第2センシングデータを受信する。複数の近接センサは、少なくとも1つの超音波センサ(例えば、広角センサ、アレイセンサ)、及び/又は、少なくとも1つのライダセンサを含むことができる。幾つかの実施形態において、超音波アレイセンサが、他の複数のタイプの超音波センサと比較して、改善された検出精度を提供してもよい。複数の近接センサはまた、UAVによって運ばれ得る。複数の近接センサは、複数のビジョンセンサの近くに配置できる。代替的に、複数の近接センサは、複数のビジョンセンサを運ぶべく使用される、UAVの複数の部分と異なる部分上に位置することができる。   In step 370, second sensing data including depth information for the environment is received from one or more proximity sensors. The plurality of proximity sensors can include at least one ultrasonic sensor (eg, wide angle sensor, array sensor) and / or at least one lidar sensor. In some embodiments, an ultrasonic array sensor may provide improved detection accuracy compared to other types of ultrasonic sensors. Multiple proximity sensors can also be carried by the UAV. The plurality of proximity sensors can be disposed near the plurality of vision sensors. Alternatively, the plurality of proximity sensors can be located on different portions of the UAV that are used to carry the plurality of vision sensors.

ステップ380において、第1及び第2センシングデータを使用して、当該環境に対する深度情報を含む環境マップを生成する。本明細書で説明されるように、第1及び第2センシングデータは各々、当該環境に対する深度情報を含むことができる。任意に、第1及び第2センシングデータは、当該環境内の1または複数のオブジェクトに対するシルエット情報も含むことができる。シルエット情報は、本明細書において、環境物の複数の輪郭、複数のアウトライン、又は、複数のエッジに関する情報を参照すべく使用してもよい。1または複数の近接センサによって生成されるセンシングデータは、ピクセル深度マップとして提供でき、その一方で、深度情報は、1または複数のビジョンセンサによって収集される画像データから、動きからの構造(structure from motion)、立体照明(structured light)、光のシート(sheet of light)、飛行時(time-of-flight)、又は、立体視視差マッピング(stereovision disparity mapping)などの複数の技術を使用して抽出できる。幾つかの実施形態において、第1及び第2センシングデータの各々は、複数のピクセルを有する少なくとも1つの画像を含み、各ピクセルは、2次元画像座標(例えば、x座標およびy座標)、深度値(例えば、ピクセルに対応する環境物と、UAV並びに/若しくはセンサとの間の距離)、及び/又は、色値(例えば、RGB色値)と関連付けられる。そのような複数の画像は、本明細書において、複数の深度画像と呼ばれるかもしれない。   In step 380, an environment map including depth information for the environment is generated using the first and second sensing data. As described herein, each of the first and second sensing data can include depth information for the environment. Optionally, the first and second sensing data can also include silhouette information for one or more objects in the environment. Silhouette information may be used herein to refer to information about multiple outlines, multiple outlines, or multiple edges of environmental objects. Sensing data generated by one or more proximity sensors can be provided as a pixel depth map, while depth information is derived from image data collected by one or more vision sensors from a structure from motion. Extraction using multiple techniques such as motion, structured light, sheet of light, time-of-flight, or stereovision disparity mapping it can. In some embodiments, each of the first and second sensing data includes at least one image having a plurality of pixels, each pixel having two-dimensional image coordinates (eg, x and y coordinates), a depth value. (Eg, the distance between the environmental object corresponding to the pixel and the UAV and / or sensor) and / or a color value (eg, RGB color value). Such multiple images may be referred to herein as multiple depth images.

結合プロセス中の各タイプのセンシングデータの相対的な信頼性及び精度を考慮して、深度情報を含むマップ(例えば、占有グリッドマップのような3次元環境的表現)を生成する目的で、センシングデータの各セットと関連付けられる深度情報を、(例えば、カルマンフィルタリングのような適切な複数のセンサフュージョン方法を使用して)空間的に配列し、組み合わせることができる。幾つかの実施形態において、環境マップを生成することは、複数のビジョンセンサによって提供される一組の深度画像に存在する複数の特徴点を識別すること、複数の近接センサによって提供される一組の深度画像に存在する、対応する複数の特徴点を識別すること、及び、両方の複数の特徴点間における対応を決定すること、を含むことができる。当該対応は、複数の近接度深度画像を複数のビジョン深度画像上にマッピングすべく、又は、その逆にすべく適用できる、1または複数の変換(例えば、並進、回転、スケーリング)に関する情報を含んでもよい。環境マップを生成する目的で、次に、複数の深度画像を、当該対応に基づいて組み合わせることができる。代替的に又は組み合わせて、第1及び第2センシングデータは、複数の異なる座標系に対して提供してもよく、環境マップは、同じ座標系で第1及び第2センシングデータを表現することによって生成できる。この座標系は、第1センシングデータと関連付けられる座標系、第2センシングデータと関連付けられる座標系、又は、全体的な異なる座標系であってもよい。一度、環境マップが生成されると、UAVは、環境マップ内に含まれる深度情報に基づいて、当該環境内で航行できる。   Sensing data for the purpose of generating a map containing depth information (eg, a three-dimensional environmental representation such as an occupancy grid map) taking into account the relative reliability and accuracy of each type of sensing data during the combining process. The depth information associated with each set of can be spatially arranged and combined (eg, using a suitable multiple sensor fusion method such as Kalman filtering). In some embodiments, generating an environment map identifies a plurality of feature points present in a set of depth images provided by a plurality of vision sensors, a set provided by a plurality of proximity sensors. Identifying corresponding feature points present in the depth image and determining correspondence between both feature points. The correspondence includes information about one or more transformations (eg, translation, rotation, scaling) that can be applied to map multiple proximity depth images onto multiple vision depth images, or vice versa. But you can. In order to generate an environment map, multiple depth images can then be combined based on the correspondence. Alternatively or in combination, the first and second sensing data may be provided for a plurality of different coordinate systems, and the environment map is represented by representing the first and second sensing data in the same coordinate system. Can be generated. This coordinate system may be a coordinate system associated with the first sensing data, a coordinate system associated with the second sensing data, or an entirely different coordinate system. Once the environment map is generated, the UAV can navigate in the environment based on the depth information included in the environment map.

本明細書で説明される近接度センシング及びビジョンセンシングの組み合わせによって、複数の個別のセンサタイプの複数の限定を補償することができ、これにより、マップ生成の精度を改善できる。例えば、複数のビジョンセンサは、相対的に高い分解能の複数のカラー画像を生成できるが、単眼カメラが使用される場合、又は、両眼カメラ距離が相対的に小さい場合(複数のカメラが小型UAVに据え付けられる場合に生じ得る)に、画像データから精確な経路データを取得することは相対的に困難であるかもしれない。加えて、複数のビジョンセンサは、照明が明るい、若しくは、照明が高コントラストを有する場合、又は、雨、霧、スモッグなどの複数の不利な環境状況である場合は、十分な画像データを提供できないかもしれない。逆に、複数の超音波センサのような複数の近接センサは、精確な経路データを提供するかもしれないが、複数のビジョンセンサと比較すると、より低い分解能を有するかもしれない。また、場合によっては、複数の超音波センサ及び他の複数の近接センサタイプは、複数の小さな反射面(例えば、複数の枝状のもの、複数の角、複数の柵)を備える複数のオブジェクト、若しくは、複数の吸収性オブジェクト(例えば敷物)を検出できないかもしれない、又は、多数のオブジェクトを有する複数の複雑な環境(例えば複数の屋内環境)内で複数の距離を分析できないかもしれない。しかしながら、近接センサが最善ではないデータを生成する複数の状況において、ビジョンセンサは信頼できるデータを生成でき、その逆も可能であるという点で、ビジョンセンシングデータは概して、近接度センシングデータと相補的であってもよい。従って、多種多様な動作状況において、及び、様々なタイプの環境に対して、複数の精確な環境マップを生成すべく、ビジョンセンサと近接センサとを組み合わせて使用することができる。   The combination of proximity sensing and vision sensing described herein can compensate for multiple limitations of multiple individual sensor types, thereby improving map generation accuracy. For example, a plurality of vision sensors can generate a plurality of color images with relatively high resolution, but when a monocular camera is used or when a binocular camera distance is relatively small (a plurality of cameras are small UAVs). It may be relatively difficult to obtain accurate path data from image data. In addition, multiple vision sensors cannot provide sufficient image data when the lighting is bright or when the lighting has high contrast, or when there are multiple adverse environmental conditions such as rain, fog, smog, etc. It may be. Conversely, multiple proximity sensors, such as multiple ultrasonic sensors, may provide accurate path data, but may have lower resolution when compared to multiple vision sensors. Also, in some cases, multiple ultrasonic sensors and other multiple proximity sensor types may include multiple objects with multiple small reflective surfaces (eg, multiple branches, multiple corners, multiple fences), Alternatively, multiple absorbent objects (eg, rugs) may not be detected, or multiple distances may not be analyzed within multiple complex environments (eg, multiple indoor environments) with multiple objects. However, vision sensing data is generally complementary to proximity sensing data in that in some situations where proximity sensors produce sub-optimal data, vision sensors can produce reliable data and vice versa. It may be. Thus, the vision sensor and proximity sensor can be used in combination to generate multiple accurate environment maps in a wide variety of operating situations and for various types of environments.

図4は、複数の実施形態による、複数の異なるセンサタイプを使用して環境マッピングする方法400を図示している。本明細書で開示される全ての方法と同様に、方法400は、本明細書で提示される複数のシステム及び複数の装置のいずれの実施形態を使用しても実行でき、例えば、UAVに搭載されて運ばれる1または複数のプロセッサによって実行できる。加えて、本明細書で開示される全ての方法と同様に、方法400の複数のステップのいずれも、本明細書における他の複数の方法の任意の複数のステップと組み合わせることができ、又は、これらに取り換えることができる。   FIG. 4 illustrates a method 400 for environment mapping using a plurality of different sensor types, according to embodiments. As with all methods disclosed herein, method 400 can be performed using any of the multiple system and multiple device embodiments presented herein, for example, onboard a UAV. It can be executed by one or more processors that are carried around. In addition, as with all methods disclosed herein, any of the steps of method 400 can be combined with any of the steps of other methods herein, or These can be replaced.

ステップ410において、UAVによって運ばれる第1センサから、第1センシング信号を受信する。第1センシング信号は、複数の環境物(例えば複数の障害物)の場所及びジオメトリを示す環境データのように、UAVが動作している環境に関連する情報を含むことができる。同様に、ステップ420において、UAVによって運ばれる第2センサから、第2センシング信号を受信する。幾つかの実施形態において、第1及び第2センサは、本明細書で以前に説明した任意の複数のセンサタイプを含む、複数の異なるセンサタイプであり得る(例えば、ライダ及びビジョンセンサ、超音波センサ及びビジョンセンサ、等)。   In step 410, a first sensing signal is received from a first sensor carried by the UAV. The first sensing signal may include information related to the environment in which the UAV is operating, such as environmental data indicating the location and geometry of multiple environmental objects (eg, multiple obstacles). Similarly, in step 420, a second sensing signal is received from a second sensor carried by the UAV. In some embodiments, the first and second sensors can be a plurality of different sensor types (eg, lidar and vision sensors, ultrasound, including any of the plurality of sensor types previously described herein). Sensors and vision sensors, etc.).

ステップ430において、第1センシング信号を使用して、当該環境に対する占有情報を含む第1環境マップを生成する。ステップ440において、第2センシング信号を使用して、当該環境に対する占有情報を含む第2環境マップを生成する。UAVに対する複数の障害物の複数の場所を決定すべく環境マップを使用できるように、第1及び第2環境マップは各々、当該環境に対する障害物占有情報を含むことができる。例えば、第1及び第2環境マップは、当該環境内で妨げられている空間及び妨げられてない空間に関する情報を含む、複数の占有グリッドマップ、又は、任意の他の複数のマッピングタイプであってもよい。   In step 430, a first environment map including occupation information for the environment is generated using the first sensing signal. In step 440, a second environment map including occupancy information for the environment is generated using the second sensing signal. Each of the first and second environment maps can include obstacle occupancy information for the environment so that the environment map can be used to determine multiple locations of multiple obstacles for the UAV. For example, the first and second environment maps may be a plurality of occupancy grid maps or any other plurality of mapping types that contain information about blocked and unblocked spaces in the environment. Also good.

任意に、第1環境マップは、当該環境の、第2環境マップと異なる部分を表わしてもよい。例えば、第1環境マップは、UAVに相対的に近い環境の一部を表わしてもよく、その一方で、第2環境マップは、UAVから相対的に離れた環境の一部を表わしてもよい。幾つかの実施形態において、異なる複数のセンシング信号は、当該環境の複数の異なる部分に広がる複数のマップを生成すべく使用できる。異なる複数のマップを生成すべく使用する信号の選択は、当該環境の特定の部分に対する第1及び第2センシング信号の相対的な信号品質及び/又は精度のような、任意の適切な基準に基づき得る。センシングデータの品質及び精度は、各センサの特定の複数の特性に依存してもよく、感知される複数の環境物の複数の特質(例えば、透明性、反射性、吸収性、形状、サイズ、材質、可動性、等)だけでなく、環境タイプ(例えば屋内、屋外、低高度、高高度)、複数の天気状況(例えば、晴れ、雨、霧がかっている)、感知される複数の環境物の相対位置(例えば、短距離、長距離)に基づいて異なってもよい。例えば、第1センサは、複数の短距離では、第2センサよりも精確であってもよく、その一方で、第2センサは、複数の長距離では、第1センサよりも精確であってもよい。従って、第1センサは、相対的にUAVの近くの複数の環境部分に対するマップを生成すべく使用でき、その一方で、第2センサは、相対的にUAVから離れた複数の環境部分に対するマップを生成すべく使用できる。代替的に又は組み合わせて、信号の選択は、環境的部分が対応するセンサのセンシング範囲内にあるか否かに基づき得る。第1及び第2センサが異なるセンシング範囲を有する実施形態において、このアプローチは有利であってもよい。例えば、短距離センサは、UAVに相対的に近い複数の環境的部分のマップを生成すべく使用でき、その一方で、長距離センサは、短距離センサの範囲の外側である、UAVから相対的に離れた複数の環境的部分のマップを生成すべく使用できる。   Optionally, the first environment map may represent a different part of the environment from the second environment map. For example, the first environment map may represent a portion of the environment that is relatively close to the UAV, while the second environment map may represent a portion of the environment that is relatively distant from the UAV. . In some embodiments, different sensing signals can be used to generate maps that span different parts of the environment. The selection of the signal used to generate the different maps is based on any suitable criteria, such as the relative signal quality and / or accuracy of the first and second sensing signals for a particular part of the environment. obtain. The quality and accuracy of the sensing data may depend on the specific characteristics of each sensor, and the characteristics of the environmental objects to be sensed (eg, transparency, reflectivity, absorption, shape, size, As well as environmental type (eg indoor, outdoor, low altitude, high altitude), multiple weather conditions (eg clear, rainy, foggy), perceived environmental objects May be different based on their relative positions (eg, short distance, long distance). For example, the first sensor may be more accurate than the second sensor at multiple short distances, while the second sensor may be more accurate than the first sensor at multiple long distances. Good. Thus, the first sensor can be used to generate a map for a plurality of environmental parts that are relatively close to the UAV, while the second sensor can generate a map for a plurality of environmental parts that are relatively far from the UAV. Can be used to generate. Alternatively or in combination, the selection of the signal may be based on whether the environmental part is within the sensing range of the corresponding sensor. In embodiments where the first and second sensors have different sensing ranges, this approach may be advantageous. For example, a short range sensor can be used to generate a map of multiple environmental parts that are relatively close to the UAV, while a long range sensor is relative to the UAV that is outside the range of the short range sensor. Can be used to generate maps of multiple environmental parts that are far apart.

ステップ450において、第1及び第2環境マップを組み合わせ、これにより、当該環境に対する占有情報を含む最終環境マップを生成できる。複数の環境マップは、本明細書で説明される複数のセンサフュージョン技術を使用して組み合わせることができる。複数のセンシング信号が複数の異なる座標系(例えば、局所座標系と全体座標系)に対して提供される複数の実施形態において、複数のマップ部分を生成することは、各環境データを整列することを目的として両方のセンシング信号を単一座標系へと変換することを含むことができ、これにより、最終環境マップを生成することができる。その後に続いて、UAVは、最終環境マップに基づいて当該環境内を航行できる。例えば、UAVは、複数の衝突を回避することを目的として、少なくとも部分的に、最終環境マップ内で表わされる障害物占有情報に基づいて航行できる。UAVは、ユーザによって、自動制御システムによって、又は、複数の適切なそれらの組み合わせによって航行できる。環境マップデータに基づくUAV航行の複数の他の例が、以下でより詳細に説明される。   In step 450, the first and second environment maps can be combined to generate a final environment map that includes occupancy information for the environment. Multiple environment maps can be combined using multiple sensor fusion techniques as described herein. In embodiments where multiple sensing signals are provided for multiple different coordinate systems (eg, local and global coordinate systems), generating multiple map portions aligns each environmental data Converting both sensing signals to a single coordinate system for purposes of generating a final environment map. Subsequently, the UAV can navigate through the environment based on the final environment map. For example, the UAV can navigate based at least in part on obstacle occupancy information represented in the final environment map for the purpose of avoiding multiple collisions. The UAV can be navigated by the user, by an automated control system, or by a plurality of suitable combinations thereof. Several other examples of UAV navigation based on environmental map data are described in more detail below.

上記の複数のステップは、複数の実施形態による、環境マッピングの方法400を示しているが、当業者であれば、本明細書で説明される教示に基づいて多数の変形を認識するだろう。幾つかのステップは、複数のサブステップを含んでもよい。幾つかの実施形態において、UAVが当該環境内を航行するに連れて、結果として生じる環境マップが更新され、洗練されるように、所望により、方法400の複数のステップを(例えば、継続的に、又は、予め定められた複数の時間間隔で)繰り返すことができる。このリアルタイムマッピングアプローチによって、UAVが複数の環境物を素早く検出し、変化する複数の動作状況に順応することを可能にすることができる。   Although the above steps illustrate a method 400 of environment mapping according to embodiments, those skilled in the art will recognize numerous variations based on the teachings described herein. Some steps may include multiple substeps. In some embodiments, as desired, as the UAV navigates through the environment, the resulting environment map is updated and refined as desired by performing multiple steps of the method 400 (eg, continuously). Or at predetermined time intervals). This real-time mapping approach can enable the UAV to quickly detect multiple environmental objects and adapt to changing operating conditions.

本明細書で説明される複数のセンサフュージョンアプローチは、航行、物体認識および障害物回避を含む、様々なタイプの複数のUAV機能性に適用できる。幾つかの実施形態において、複数のセンサフュージョン結果を使用して得られる環境データは、複数の潜在的障害物に関する情報だけでなく精確な場所情報も提供することによって、UAV動作のロバスト性、安全性及び柔軟性を改善すべく、使用できる。UAVのユーザ手動制御を知らせることを目的として、(例えば、リモートコントローラ、リモート端末、モバイル装置、又は、他のユーザデバイスを介して)環境データをユーザに提供できる。代替的に又は組み合わせて、UAVの自動化された飛行を指示する半自律的制御システム又は完全自律制御システムに対して、環境データを使用できる。   The multiple sensor fusion approaches described herein are applicable to various types of multiple UAV functionality, including navigation, object recognition and obstacle avoidance. In some embodiments, environmental data obtained using multiple sensor fusion results provides robust location and safety for UAV operation by providing accurate location information as well as information about multiple potential obstacles. Can be used to improve performance and flexibility. Environmental data can be provided to the user (eg, via a remote controller, remote terminal, mobile device, or other user device) for the purpose of informing user manual control of the UAV. Alternatively or in combination, environmental data can be used for a semi-autonomous control system or a fully autonomous control system that directs UAV automated flight.

例えば、UAVが複数の環境物と衝突するのを防ぐことを目的として、複数の障害物回避操作を実行すべく、本明細書で開示される複数の実施形態を使用できる。幾つかの実施形態において、障害物検出及び回避を自動化でき、これにより、UAV安全性を改善して、複数の衝突を回避するためのユーザ責任を減少することができる。このアプローチは、ユーザがUAVの近くで複数の障害物の存在を容易に認知することができない複数の状況においてだけでなく、経験が浅い複数のUAV操作者に対しても、有利であってもよい。加えて、自動化された障害物回避を実施することによって、半自律的又は完全自律的UAV航行と関連付けられる複数の安全上の危険を減少させることができる。更に、より精確な複数の環境的表現を生成すべく、本明細書で説明される複数のマルチセンサフュージョン技術を使用でき、従って、そのような複数の自動化された衝突防止機構の信頼性を改善することができる。   For example, a plurality of embodiments disclosed herein can be used to perform a plurality of obstacle avoidance operations for the purpose of preventing a UAV from colliding with a plurality of environmental objects. In some embodiments, obstacle detection and avoidance can be automated, thereby improving UAV safety and reducing user responsibility for avoiding multiple collisions. This approach may be advantageous not only in situations where the user cannot easily recognize the presence of multiple obstacles near the UAV, but also for inexperienced UAV operators. Good. In addition, by implementing automated obstacle avoidance, multiple safety hazards associated with semi-autonomous or fully autonomous UAV navigation can be reduced. In addition, multiple multi-sensor fusion techniques described herein can be used to generate more accurate multiple environmental representations, thus improving the reliability of such multiple automated anti-collision mechanisms. can do.

図5は、複数の実施形態による、複数の障害物を回避するようにUAVを制御する方法500を図示している。方法500は、UAVによって運ばれる1または複数のプロセッサによって実施できる。本明細書で以前に説明したように、方法500は、完全に又は少なくとも部分的に自動化することができ、これにより、自動障害物検出性能および自動障害物回避性能を提供することができる。   FIG. 5 illustrates a method 500 for controlling a UAV to avoid multiple obstacles, according to multiple embodiments. Method 500 may be performed by one or more processors carried by the UAV. As previously described herein, the method 500 can be fully or at least partially automated, thereby providing automatic obstacle detection performance and automatic obstacle avoidance performance.

ステップ510において、UAVに当該環境内で航行させる第1信号を生成する。第1信号は、UAVの推進システム(例えば複数の回転翼)用の複数の制御信号を含むことができる。第1信号は、遠隔端末又は他のユーザデバイスに入力され、その後に続いてUAVへと送信される複数のユーザ命令に基づいて生成できる。代替的に、第1信号は、UAV(例えば自動化された搭載制御装置)によって自律的に生成できる。場合によっては、第1信号は、複数の自動化された経路決定機構からだけでなくユーザ入力からの複数の寄与と共に半自律的に生成できる。例えば、ユーザは、UAV用の一連の通過点を示すことができ、UAVは、複数の通過点を行き来すべく、自動的に飛行経路を計算できる。   In step 510, a first signal is generated that causes the UAV to navigate within the environment. The first signal may include a plurality of control signals for a UAV propulsion system (eg, a plurality of rotor blades). The first signal can be generated based on a plurality of user commands that are input to a remote terminal or other user device and subsequently transmitted to the UAV. Alternatively, the first signal can be generated autonomously by a UAV (eg, an automated onboard control device). In some cases, the first signal can be generated semi-autonomously with multiple contributions from user input as well as from multiple automated routing mechanisms. For example, a user can indicate a series of passing points for a UAV, and the UAV can automatically calculate a flight path to traverse multiple passing points.

幾つかの実施形態において、飛行経路は、(例えば最大6自由度までについて)、UAV用の一連の所望の複数の位置及び/又は複数の方向を示すことができる。例えば、飛行経路は、少なくとも、UAV用の初期の場所と目標の場所とを含むことができる。任意に、飛行経路は、UAVを現在位置から前の位置へと向けるように構成できる。別の例として、飛行経路は、UAV用の目標飛行方向を含むことができる。幾つかの実施形態において、複数の指示は、UAVに飛行経路に沿って移動させるべく、UAV用の速度及び/又は加速度を特定できる(例えば、最大6自由度までについて)。   In some embodiments, the flight path can indicate a series of desired multiple positions and / or multiple directions for the UAV (eg, for up to 6 degrees of freedom). For example, the flight path can include at least an initial location for the UAV and a target location. Optionally, the flight path can be configured to direct the UAV from the current position to the previous position. As another example, the flight path can include a target flight direction for the UAV. In some embodiments, the plurality of instructions can specify a speed and / or acceleration for the UAV to move the UAV along the flight path (eg, up to 6 degrees of freedom).

ステップ520において、複数のセンサを使用して、当該環境の少なくとも一部に関連するセンシングデータを受信する。複数のセンサは、複数の異なるタイプ(例えば、ビジョン、ライダ、超音波、GPS、等)の複数のセンサを含むことができる。センシングデータは、複数の障害物及び/又は他の複数の環境物の、場所及び複数の特性に関する情報を含むことができる。例えば、センシングデータは、UAVの、直ぐ近くの複数の障害物に対する近接度を示す距離情報を含むことができる。任意に、センシングデータは、UAVの飛行経路と重複する部分、又は、UAVの飛行経路の近くの部分など、UAVの飛行経路に沿う環境の一部に関する情報を含むことができる。   At step 520, sensing data associated with at least a portion of the environment is received using the plurality of sensors. The plurality of sensors can include a plurality of sensors of different types (eg, vision, lidar, ultrasound, GPS, etc.). Sensing data may include information regarding location and characteristics of multiple obstacles and / or other environmental objects. For example, the sensing data may include distance information indicating the proximity of the UAV to a plurality of nearby obstacles. Optionally, the sensing data may include information about a portion of the environment along the UAV flight path, such as a portion that overlaps the UAV flight path or a portion near the UAV flight path.

ステップ530において、センシングデータに基づいて、当該環境の少なくとも一部を表わす環境マップを生成する。環境マップは、UAVを直接囲む環境の一部を表わす局所マップであってもよい(例えば、UAVから半径約2m、5m、10m、15m、20m、25m、又は、50m内)。代替的に、環境マップは、UAVから相対的に遠い環境の一部も表わす全体マップであってもよい(例えば、UAVから半径約25m、50m、75m、100m、125m、150m、200m、225m、250m、300m、400m、500m、1000m、2000m、又は、5000m内)。環境マップのサイズは、以前に説明したように、ステップ510において使用される複数のセンサの有効範囲に基づいて決定してもよい。幾つかの実施形態において、環境マップは、本明細書で以前に説明したセンサフュージョンベースの複数の方法(例えば、スキーム300及び/又は方法400)を使用して生成できる。例えば、センシングデータは、複数の異なる座標系に対するデータを含むことができ、環境マップ生成は、センシングデータの結合を容易化すべく、データを単一座標系上にマッピングすることを含むことができる。   In step 530, an environment map representing at least a part of the environment is generated based on the sensing data. The environment map may be a local map that represents a portion of the environment that directly surrounds the UAV (eg, within a radius of about 2 m, 5 m, 10 m, 15 m, 20 m, 25 m, or 50 m from the UAV). Alternatively, the environment map may be a global map that also represents a portion of the environment relatively far from the UAV (eg, about 25 m, 50 m, 75 m, 100 m, 125 m, 150 m, 200 m, 225 m, radius from the UAV). 250 m, 300 m, 400 m, 500 m, 1000 m, 2000 m, or 5000 m). The size of the environment map may be determined based on the effective range of multiple sensors used in step 510, as previously described. In some embodiments, the environment map can be generated using a plurality of sensor fusion-based methods (eg, scheme 300 and / or method 400) previously described herein. For example, sensing data can include data for a plurality of different coordinate systems, and environment map generation can include mapping the data onto a single coordinate system to facilitate combining the sensing data.

ステップ540において、環境マップを使用して、当該環境の一部に位置する1または複数の障害物を検出する。マップ情報からの障害物検出は、様々なストラテジを使用して実行でき、例えば、特徴抽出技術又はパターン認識技術によって実行できる。任意に、障害物検出を実行すべく、適切な複数の機械学習アルゴリズムを実施できる。幾つかの実施形態において、もし環境マップが占有グリッドマップであるならば、継続的に占有される占有グリッドマップ内で複数の体積を検出することによって、複数の障害物を識別できる。複数の障害物検出結果によって、結果に対する対応する信用度情報だけでなく、各障害物の位置、方向、サイズ、近接度及び/又はタイプに関する情報が提供されてもよい。衝突リスクをUAVに引き起こす(例えば飛行経路に沿って又はその近くに位置する)複数の障害物を識別すべく、マップを分析できる。   In step 540, the environment map is used to detect one or more obstacles located in a portion of the environment. Obstacle detection from the map information can be performed using various strategies, for example, by feature extraction techniques or pattern recognition techniques. Optionally, a number of suitable machine learning algorithms can be implemented to perform obstacle detection. In some embodiments, if the environment map is an occupancy grid map, multiple obstacles can be identified by detecting multiple volumes in the continuously occupied occupancy grid map. Multiple obstacle detection results may provide information regarding the location, orientation, size, proximity and / or type of each obstacle, as well as corresponding confidence information for the results. The map can be analyzed to identify multiple obstacles that pose a collision risk to the UAV (eg, located along or near the flight path).

ステップ550において、環境マップを使用して、1または複数の障害物を回避すべくUAVに航行させる第2信号を生成する。UAVが障害物との衝突を回避すべく移動できる任意の複数の妨げられてない空間の場所だけでなく、UAVに対する1または複数の障害物の場所を決定することを目的として、環境マップを分析できる。従って、第2信号によって、UAVに複数の妨げられてない空間を通るように航行させる、(例えばUAVの推進システムに対する)適切な複数の制御信号を提供できる。UAVがある飛行経路に従って航行する複数の実施形態において、当該飛行経路は、1または複数の障害物を回避すべく、環境マップに基づいて変更でき、UAVは、変更された飛行経路に従って航行できる。複数の飛行経路変更によって、UAVに、複数の妨げられてない空間だけを通って行き来するように指示できる。例えば、UAVに、障害物周りを飛行させる(例えば、上方、下方、又は、側面)、障害物から離れて飛行させる、障害物から特定の距離を維持させるべく、飛行経路を変更できる。複数の変更された飛行経路が考えられる複数の状況において、例えば、移動する距離を最小化すること、移動時間を最小化すること、経路を移動するのに必要とされるエネルギー量を最小化すること、元の飛行経路からの変移量を最小化すること等、任意の適切な基準に基づいて、好ましい複数の飛行経路を選択できる。任意に、もし適切な飛行経路が決定できないならば、UAVは単に定位置でホバリングして、障害物がその経路外に移動するのを待機してもよく、又は、ユーザが手動制御をとるのを待機してもよい。   At step 550, the environment map is used to generate a second signal that causes the UAV to navigate to avoid one or more obstacles. Analyze the environmental map for the purpose of determining the location of one or more obstacles to the UAV, as well as any multiple unobstructed spatial locations that the UAV can move to avoid collisions with obstacles it can. Thus, the second signal can provide an appropriate plurality of control signals (eg, for a UAV propulsion system) that cause the UAV to navigate through unobstructed spaces. In embodiments where the UAV navigates according to a flight path, the flight path can be changed based on the environment map to avoid one or more obstacles, and the UAV can navigate according to the changed flight path. Multiple flight path changes can instruct the UAV to traverse only through multiple unobstructed spaces. For example, the flight path can be changed to cause the UAV to fly around the obstacle (eg, up, down, or side), to fly away from the obstacle, or to maintain a specific distance from the obstacle. In multiple situations where multiple modified flight paths are possible, for example, minimizing distance traveled, minimizing travel time, minimizing the amount of energy required to travel the path A preferred plurality of flight paths can be selected based on any suitable criteria, such as minimizing the amount of change from the original flight path. Optionally, if an appropriate flight path cannot be determined, the UAV may simply hover in place and wait for the obstacle to move off that path, or the user may take manual control You may wait.

UAV動作に対するマルチセンサフュージョンの他の例示的用途において、本明細書で提示される複数の実施形態は、「オートリターン」機能の一環として実施でき、当該実施形態において、UAVは、特定の複数の状況下で、現在の場所から「ホーム」の場所へと自動的に航行することになる。ホームの場所は、例えばUAVが最初に離陸して飛行を開始した場所のように、UAVが以前に通過した初期の場所であってもよい。代替的に、ホームの場所は、UAVが以前に通過した場所でなくてもよい。ホームの場所は、自動的に決定でき、又は、ユーザが指定できる。オートリターン機能がトリガーされ得る複数の状況の複数の例は、戻る指示をユーザから受信すること、ユーザのリモートコントローラとの通信、若しくは、ユーザがもはやUAVを制御できないという他の指標を損失すること、低いUAVバッテリーレベル、又は、UAV故障、若しくは、他の複数の緊急事態を検出すること、を含んでもよい。   In other exemplary applications of multi-sensor fusion for UAV operation, the embodiments presented herein can be implemented as part of an “auto-return” function, in which the UAV is a specific plurality of Under circumstances, you will automatically navigate from your current location to your “home” location. The home location may be the initial location where the UAV has previously passed, such as the location where the UAV first took off and started flying. Alternatively, the home location may not be the location where the UAV has previously passed. The home location can be determined automatically or can be specified by the user. Examples of situations in which the auto-return function can be triggered include receiving a return indication from the user, communicating with the user's remote controller, or other indication that the user can no longer control the UAV , Detecting a low UAV battery level, or a UAV failure, or other emergency situations.

図6は、複数の実施形態による、初期の場所へと戻るようにUAVを制御する方法600を図示している。幾つかの実施形態において、方法600を実行するためのユーザ入力を殆ど必要としないように、自動制御システムと関連付けられる1または複数のプロセッサが方法600を実施する。   FIG. 6 illustrates a method 600 for controlling a UAV to return to an initial location, according to embodiments. In some embodiments, one or more processors associated with the automated control system implement the method 600 so that little user input is required to perform the method 600.

ステップ610において、複数のセンサのうち少なくとも1つを使用して、UAVの初期の場所を決定する。幾つかの実施形態において、複数の異なるセンサタイプを有する複数のセンサを使用して、当該場所を決定できる。全体座標系(例えば複数のGPS座標)に対して、又は、局所座標系に対して(例えば、複数の局所環境的陸標又は特徴に対して)、当該場所を決定できる。   In step 610, at least one of the plurality of sensors is used to determine the initial location of the UAV. In some embodiments, multiple locations having multiple different sensor types can be used to determine the location. The location can be determined for a global coordinate system (eg, multiple GPS coordinates) or for a local coordinate system (eg, for multiple local environmental landmarks or features).

ステップ620において、UAVに当該環境内で航行させる第1信号を生成する。第1信号は、手動で、半自律的に、又は、完全自律的に生成できる。例えば、ユーザは、UAVの動きを制御する目的でUAVに送信される複数の指示を、リモートコントローラへと入力できる。別の例として、UAVは、予め定められた飛行経路に従って移動でき、又は、予め定められた場所に向かって移動できる。UAVは、(例えば、経度、緯度または高度について)初期の場所と異なる当該環境内の場所に向かって航行できる。   In step 620, a first signal is generated that causes the UAV to navigate within the environment. The first signal can be generated manually, semi-autonomously, or fully autonomously. For example, the user can input a plurality of instructions transmitted to the UAV for the purpose of controlling the movement of the UAV to the remote controller. As another example, the UAV can move according to a predetermined flight path or can move toward a predetermined location. The UAV can navigate towards a location in the environment that is different from the initial location (eg, for longitude, latitude, or altitude).

ステップ630において、複数のセンサのうち少なくとも1つから、当該環境に関連するセンシングデータを受信する。ステップ610で使用されるのと同じ複数のセンサから、又は、異なる複数のセンサから、センシングデータを受信できる。同様に、複数の異なるセンサタイプからセンシングデータを取得できる。そのようなセンシングデータは、本明細書で以前に説明したように、複数の環境物の場所及び複数の特性に関する情報を含むことができる。   In step 630, sensing data associated with the environment is received from at least one of the plurality of sensors. Sensing data can be received from the same sensors used in step 610 or from different sensors. Similarly, sensing data can be obtained from a plurality of different sensor types. Such sensing data may include information regarding the location and characteristics of multiple environmental objects, as previously described herein.

ステップ640において、センシングデータに基づいて、当該環境の少なくとも一部を表わす環境マップを生成する。センシングデータが複数のセンサタイプからのデータを含む複数の実施形態において、本明細書で以前に説明したセンサフュージョンベースの複数の方法(例えば、スキーム300及び/又は方法400)を使用して、環境マップを生成できる。結果として生じるマップは、任意の適切なフォーマットで提供でき、障害物占有に関連する情報を含んでもよい(例えば障害物グリッドマップ)。   In step 640, an environment map representing at least a part of the environment is generated based on the sensing data. In embodiments where the sensing data includes data from multiple sensor types, the sensor fusion-based methods (eg, scheme 300 and / or method 400) previously described herein may be used to A map can be generated. The resulting map can be provided in any suitable format and may include information related to obstacle occupancy (eg, an obstacle grid map).

ステップ650において、環境マップに基づいて、UAVに初期の場所へと戻らせる第2信号を生成する。第2信号は、オートリターン命令に応じて生成できる。オートリターン命令は、ユーザが入力でき、又は、例えばUAVを制御するリモートコントローラとの通信が損失するなどの緊急事態に応じて、自動的に生成できる。幾つかの実施形態において、一度、UAVがオートリターンするよう指示を受信したら、UAVは、自身の現在の場所、現在の場所と初期の場所との間の空間的関係、及び/又は、任意の複数の環境障害物の複数の場所を決定すべく、環境マップを使用できる。環境マップ内の障害物占有情報に基づいて、UAVは次に、現在の場所から初期の場所へと航行するための適切な経路(例えば飛行経路)を決定できる。UAV用の適切な経路を決定すべく、様々なアプローチを使用できる。例えば、図9A及び9Bに関して本明細書中で更に詳細に説明されるように、トポロジマップのような環境マップを使用して、経路を決定できる。幾つかの実施形態において、経路は、UAVの飛行を妨げるかもしれない1または複数の環境障害物を回避するように構成できる。代替的に又は組み合わせて、経路は、現在の場所と初期の場所との間における最短経路であってもよい。経路は、UAVが以前に通過した1または複数の部分も、UAVが以前に通過した経路と異なる1または複数の部分も、含んでもよい。例えば、経路の全体が、UAVが以前に通過したものであってもよい。別の例として、経路は、図8A及び8Bに関して本明細書中で更に詳細に説明されるように、UAVが以前に通過した複数の位置に対応する複数の通過点を含むことができる。逆に、経路の全体が、UAVが以前に通過したものでなくてもよい。幾つかの実施形態において、複数の潜在的経路を生成することができ、適切な基準に基づいて(例えば、合計飛行時間を最小化すること、合計飛行距離を最小化すること、エネルギー消費を最小化すること、遭遇する複数の障害物の数を最小化すること、複数の障害物からの予め定められた距離を維持すること、予め定められた高度範囲を維持すること、等)、複数の潜在的経路から1つの経路を選択できる。環境マップには、UAVに対する飛行経路情報(例えば、以前に通過した複数の経路、複数の潜在的経路、選択された複数の経路)を含めてもよい。   In step 650, a second signal is generated that causes the UAV to return to the initial location based on the environment map. The second signal can be generated in response to an auto return command. The auto-return command can be input by the user or can be automatically generated in response to an emergency situation, for example, loss of communication with a remote controller that controls the UAV. In some embodiments, once the UAV receives an instruction to auto-return, the UAV can determine its current location, the spatial relationship between the current location and the initial location, and / or any An environmental map can be used to determine multiple locations for multiple environmental obstacles. Based on the obstacle occupancy information in the environment map, the UAV can then determine an appropriate route (eg, flight route) for navigating from the current location to the initial location. Various approaches can be used to determine an appropriate path for the UAV. For example, a route can be determined using an environment map, such as a topology map, as described in more detail herein with respect to FIGS. 9A and 9B. In some embodiments, the path can be configured to avoid one or more environmental obstacles that may interfere with the flight of the UAV. Alternatively or in combination, the route may be the shortest route between the current location and the initial location. The path may include one or more parts that the UAV has previously passed, and one or more parts that are different from the path that the UAV has previously passed. For example, the entire path may have been previously passed by the UAV. As another example, the path may include a plurality of passage points corresponding to a plurality of locations that the UAV has previously passed, as described in further detail herein with respect to FIGS. 8A and 8B. Conversely, the entire path may not have been previously passed by the UAV. In some embodiments, multiple potential paths can be generated and based on appropriate criteria (eg, minimizing total flight time, minimizing total flight distance, minimizing energy consumption) , Minimizing the number of obstacles encountered, maintaining a predetermined distance from multiple obstacles, maintaining a predetermined altitude range, etc.), multiple potentials One route can be selected from the routes. The environment map may include flight path information for the UAV (eg, previously routed paths, potential paths, selected paths).

一度、経路を決定したら、UAVに初期の場所への経路に沿って移動させることを目的として、UAVの推進システムを制御するための複数の指示を生成すべく、経路情報を処理できる。例えば、経路は、UAVの飛行を現在の場所から初期の場所へと向ける複数の制御信号へと変換できる、UAVに対する一連の空間的位置情報及び空間的方向情報を含んでもよい。幾つかの実施形態において、UAVは、経路に沿って航行していると、自身の飛行を妨げる、経路に沿う1または複数の障害物を検出するかもしれない。そのような複数の状況において、UAVが初期の場所へと航行し続けるのを可能にすることを目的として、例えば、方法500について本明細書中で以前に説明した複数の技術を使用して、障害物を回避すべく経路を変更できる。   Once the route is determined, the route information can be processed to generate a plurality of instructions for controlling the UAV propulsion system for the purpose of moving the UAV along the route to the initial location. For example, the path may include a series of spatial location information and spatial direction information for the UAV that can convert the flight of the UAV into a plurality of control signals that direct the current location to the initial location. In some embodiments, the UAV may detect one or more obstacles along the path that interfere with its flight when navigating along the path. In order to allow the UAV to continue navigating to the initial location in such situations, for example, using the techniques previously described herein for method 500, The route can be changed to avoid obstacles.

図7は、多数の実施形態による、複数の障害物を回避しつつ初期の場所へと戻るようにUAVを制御する方法700を図示している。方法500と同様に、方法700は、UAVオートリターン機能の一環として、半自動化又は完全自動化された態様で実行できる。方法700の複数のステップの少なくとも幾つかは、UAVと関連付けられる1または複数のプロセッサによって実行できる。   FIG. 7 illustrates a method 700 for controlling a UAV to return to an initial location while avoiding multiple obstacles, according to a number of embodiments. Similar to method 500, method 700 can be performed in a semi-automated or fully automated manner as part of the UAV auto return function. At least some of the steps of method 700 may be performed by one or more processors associated with the UAV.

ステップ710において、複数のセンサのうち少なくとも1つを使用して、UAVの初期の場所を決定する。任意に、複数の異なるセンサタイプを使用して、初期の場所を決定できる。場所情報は、UAVの位置(例えば、高度、緯度、経度)及び/又は方向(例えば、ロール、ピッチ、ヨー)に関する情報を含むことができる。場所情報は、全体座標系(例えば地理座標系)、又は、(例えばUAVに対する)局所座標系に対して、提供できる。   In step 710, at least one of the plurality of sensors is used to determine the initial location of the UAV. Optionally, a plurality of different sensor types can be used to determine the initial location. The location information may include information regarding the location (eg, altitude, latitude, longitude) and / or direction (eg, roll, pitch, yaw) of the UAV. The location information can be provided for a global coordinate system (eg, a geographic coordinate system) or a local coordinate system (eg, for a UAV).

ステップ720において、UAVに当該環境内で、例えば初期の場所と異なる場所へと航行させる第1信号を生成する。本明細書で以前に説明したように、ユーザ入力、自律制御システムによって提供される複数の指示、又は、適切なそれらの組み合わせに基づいて、第1信号を生成できる。   In step 720, a first signal is generated that causes the UAV to navigate within the environment, eg, to a location different from the initial location. As previously described herein, the first signal can be generated based on user input, multiple instructions provided by the autonomous control system, or a suitable combination thereof.

ステップ730において、複数のセンサのうち少なくとも1つを使用して、当該環境に関連するセンシングデータを受信する。任意に、センシングデータは、ステップ710で使用された複数のセンサと異なる複数のセンサから受信できる。センシングデータは、上記で説明したように、適切なセンサフュージョンベースの複数のアプローチを使用して、複数の異なるセンサタイプからの複数のセンシング信号を組み合わせることによって生成できる。幾つかの実施形態において、結合されたセンサデータは、本明細書で以前に議論した複数の実施形態のように、代表的な環境マップを生成すべく使用できる。   In step 730, sensing data associated with the environment is received using at least one of the plurality of sensors. Optionally, sensing data can be received from a plurality of sensors different from the plurality of sensors used in step 710. Sensing data can be generated by combining multiple sensing signals from multiple different sensor types using appropriate sensor fusion-based multiple approaches, as described above. In some embodiments, the combined sensor data can be used to generate a representative environment map, as in embodiments previously discussed herein.

ステップ740において、初期の場所へと戻る指示を受信する。戻る指示は、ユーザがリモートコントローラへと入力でき、その後に続いて、UAVへと送信できる。代替的に、当該指示は、UAVによって自動的に生成でき、例えば、搭載プロセッサ及び/又はコントローラによって自動的に生成できる。幾つかの実施形態において、当該指示は、例えば、故障又は緊急事態が生じた際にユーザデバイスとUAVとの間の通信が不能となったことをUAVが検出するといった状況等で、いずれのユーザ入力からも独立して生成できる。   In step 740, an instruction to return to the initial location is received. The return instruction can be entered by the user into the remote controller and subsequently sent to the UAV. Alternatively, the instructions can be automatically generated by the UAV, for example, automatically by an onboard processor and / or controller. In some embodiments, the instructions may include any user, such as in situations where the UAV detects that communication between the user device and the UAV has been disabled in the event of a failure or emergency. It can be generated independently from the input.

ステップ750において、UAVに経路に沿って初期の場所へと戻させる第2信号を生成し、複数のセンサのうち少なくとも1つが当該経路に沿う障害物を検出した場合は当該障害物を回避すべく経路を変更する。任意に、障害物を検出すべく使用する複数のセンサは、ステップ710及び/又はステップ730で使用する複数のセンサと異なってもよい。障害物は、複数の異なるセンサタイプによって生成されるセンシングデータに基づいて検出できる。幾つかの実施形態において、障害物は、センサデータに基づいて生成される環境マップ(例えば占有グリッドマップ)を使用して検出できる。環境マップは、(例えばステップ730で収集されたセンシングデータに基づいて)以前に生成したものであってもよく、又は、UAVが経路に沿って航行するに連れてリアルタイムで生成してもよい。方法500に関して本明細書中で以前に説明されたもののように、UAVが検出された複数の障害物と衝突するのを防ぐことを目的として、経路を変更すべく様々なアプローチを使用できる。修正された経路の決定は、得られたセンシングデータ、及び/又は、環境マップ内で表わされる障害物情報に基づいて実行できる。   In step 750, a second signal is generated that causes the UAV to return to an initial location along the path, and if at least one of the plurality of sensors detects an obstacle along the path, the obstacle should be avoided. Change the route. Optionally, the plurality of sensors used to detect the obstacle may be different from the plurality of sensors used in step 710 and / or step 730. Obstacles can be detected based on sensing data generated by a plurality of different sensor types. In some embodiments, obstacles can be detected using an environmental map (eg, an occupancy grid map) that is generated based on sensor data. The environment map may have been previously generated (eg, based on sensing data collected at step 730) or may be generated in real time as the UAV navigates along the route. Various approaches can be used to change the path in order to prevent the UAV from colliding with multiple detected obstacles, such as those previously described herein with respect to the method 500. The determination of the corrected route can be performed based on the obtained sensing data and / or obstacle information represented in the environment map.

図8A及び8Bは、複数の実施形態による、複数の通過点を使用して初期の場所へと戻るようにUAVを制御するアルゴリズム800を図示している。アルゴリズム800は、UAVの動作を制御すべく使用される、適切なプロセッサ及び/又はコントローラによって実施できる。アルゴリズム800の1または複数のステップは、自動的に実行でき、これにより、オートリターン機能性をUAVに提供できる。   FIGS. 8A and 8B illustrate an algorithm 800 for controlling a UAV to return to an initial location using multiple pass points, according to multiple embodiments. The algorithm 800 can be implemented by a suitable processor and / or controller used to control the operation of the UAV. One or more steps of the algorithm 800 can be performed automatically, thereby providing auto-return functionality to the UAV.

ステップ802におけるUAV飛行の開始(例えば離陸)に続いて、ステップ804において、UAV飛行が終了したかどうかの決定を行う。当該決定は、UAVが(例えば地上のような表面に)着陸したかどうか、UAVの推進システムの電源が切れたかどうか、飛行を終了するという指示をユーザが提供したかどうか、等に基づき得る。もし飛行が終了したならば、アルゴリズム800はステップ806で完結する。そうでなければ、アルゴリズム800は、UAVの現在位置(例えば、緯度、経度、高度)を決定することを目的として、ステップ808に進む。現在位置は、本明細書で以前に説明したように、それらの少なくとも幾つかが複数の異なるタイプを有する1または複数のセンサを使用して決定できる。例えば、UAVは、GPSセンサと、ビジョンセンサのような他のセンサタイプとを含むことができる。GPSセンサが信頼できるセンシングデータを提供できない複数の状況(例えば、複数のGPS衛星との通信が最適以下かもしれない、屋内環境内及び/又は低高度環境内、GPSセンサが複数のGPS衛星との通信をまだ確立していない飛行開始時)を補償すべく、ビジョンセンシングデータを、GPSセンシングデータと組み合わせて、又は、GPSセンシングデータに代えて、使用できる。従って、GPSセンシングデータとビジョンセンシングデータとを組み合わせて使用することによって、位置決め精度を改善できる。任意に、現在位置は、UAVを全体座標系又は局所座標系に対して配置するのを可能にする環境マップを使用して決定できる。環境マップは、上記で説明したように、複数のセンサフュージョン技術を使用して生成してもよい。   Following the start of UAV flight in step 802 (eg, takeoff), a determination is made in step 804 as to whether the UAV flight has ended. The determination may be based on whether the UAV has landed (eg, on a surface such as the ground), whether the UAV's propulsion system has been turned off, whether the user has provided an instruction to end the flight, etc. If the flight is over, the algorithm 800 is complete at step 806. Otherwise, the algorithm 800 proceeds to step 808 with the goal of determining the current location (eg, latitude, longitude, altitude) of the UAV. The current position can be determined using one or more sensors, at least some of which have a plurality of different types, as previously described herein. For example, a UAV can include GPS sensors and other sensor types such as vision sensors. Multiple situations in which the GPS sensor cannot provide reliable sensing data (for example, in indoor and / or low altitude environments where communication with multiple GPS satellites may be suboptimal, the GPS sensor is not compatible with multiple GPS satellites) Vision sensing data can be used in combination with or in place of GPS sensing data to compensate for (when the flight has not yet been established). Therefore, positioning accuracy can be improved by using a combination of GPS sensing data and vision sensing data. Optionally, the current position can be determined using an environment map that allows the UAV to be located relative to the global or local coordinate system. The environment map may be generated using multiple sensor fusion techniques as described above.

ステップ810において、位置情報のリストのような適切なデータ構造内に現在位置情報を格納する。位置リストは、UAVが以前に通過した一組の位置を格納すべく使用でき、それらは本明細書中で「複数の通過点」と呼ばれるかもしれない。複数の通過点は、順次格納することができ、これにより、UAVが移動した飛行経路の表現を提供できる。そのような複数の実施形態において、位置リストに格納された第1通過点は、UAVの初期位置に対応する一方で、位置リストにおける最後の通過点は、UAVのもっとも最近の位置に対応する。従って、以下で説明するように、UAVに初期の場所へと戻させることを目的として、格納された複数の通過点を逆順で(最後から第1へ)移動できる。   In step 810, the current position information is stored in an appropriate data structure, such as a list of position information. The location list can be used to store a set of locations that the UAV has previously passed through, which may be referred to herein as “multiple passing points”. A plurality of passing points can be stored sequentially, thereby providing a representation of the flight path traveled by the UAV. In such embodiments, the first passing point stored in the position list corresponds to the initial position of the UAV, while the last passing point in the position list corresponds to the most recent position of the UAV. Therefore, as will be described below, a plurality of stored passing points can be moved in reverse order (from last to first) for the purpose of causing the UAV to return to the initial location.

ステップ812において、位置リスト内に格納された第1通過点に対応する初期の場所へと戻ることを目的として、UAVがオートリターン機能を開始すべきかどうかの決定を行う。本明細書で以前に説明したように、オートリターンの決定は、自動的に行うことができ、又は、ユーザ入力に基づいて行うことができる。もしオートリターン機能を開始しないならば、アルゴリズム800は、通過点決定及び格納の次のイテレーションを開始すべく、ステップ804へと戻る。幾つかの実施形態において、UAV飛行中に以前に通過した一連の通過点を生成して格納することを目的として、ステップ804、808、810および812を所望の頻度で(例えば、継続的に、0.5秒、1秒、2秒、5秒、10秒、20秒、又は、30秒毎に一度のように、予め定められた複数の時間間隔で)連続的に繰り返すことができる。一度、ステップ812においてUAVがオートリターンすべきであると決定したら、図8Bに関して以下で更に詳細に説明するように、ステップ814においてオートリターン機能を実行する。オートリターン機能が完了した後、ステップ806において、アルゴリズム800は完結する。   In step 812, a determination is made whether the UAV should initiate an auto return function with the goal of returning to the initial location corresponding to the first passing point stored in the position list. As previously described herein, the determination of auto-return can be made automatically or based on user input. If the auto return function is not initiated, the algorithm 800 returns to step 804 to begin the next iteration of pass point determination and storage. In some embodiments, steps 804, 808, 810, and 812 are performed at a desired frequency (e.g., continuously, for the purpose of generating and storing a series of previously passed points during a UAV flight. It can be repeated continuously (at predetermined time intervals) such as once every 0.5 seconds, 1 second, 2 seconds, 5 seconds, 10 seconds, 20 seconds, or 30 seconds. Once it is determined at step 812 that the UAV should autoreturn, an autoreturn function is performed at step 814, as described in more detail below with respect to FIG. 8B. After the auto return function is complete, at step 806, the algorithm 800 is complete.

図8Bは、複数の実施形態による、アルゴリズム800のステップ814の複数のサブステップを図示している。ステップ816でのオートリターン機能の開始に続いて、ステップ818において、位置リスト(複数の通過点のリスト)が空であるかどうかの決定を行う。もしリストが空であるならば、これは、UAVが初期の場所に到達したことを示しており、ステップ820において、オートリターン機能は完了する。もしリストが空でないならば、これは、UAVがまだ初期の場所に到達していないことを示している。そのような複数の例では、それからステップ822において、次の目標位置(通過点)を位置リストから検索する。   FIG. 8B illustrates multiple sub-steps of step 814 of algorithm 800, according to multiple embodiments. Following the start of the auto-return function in step 816, in step 818, a determination is made whether the position list (list of multiple passing points) is empty. If the list is empty, this indicates that the UAV has reached its initial location, and in step 820 the auto return function is complete. If the list is not empty, this indicates that the UAV has not yet reached its initial location. In such examples, the next target position (passing point) is then retrieved from the position list in step 822.

次にステップ824において、UAVの現在位置を決定する。現在位置は、例えばマルチセンサフュージョン及び/又は環境マッピングを使用するなど、本明細書で説明される複数のアプローチのいずれかを使用して決定できる。幾つかの実施形態において、現在位置と目標位置との間における飛行経路を生成することを目的として、現在位置と検索された目標位置との間の空間的関係を決定する。以前に説明したように、飛行経路は、複数の潜在的飛行障害物を回避すべく、環境マッピングデータに基づいて生成できる。   Next, in step 824, the current position of the UAV is determined. The current position can be determined using any of a number of approaches described herein, such as using multi-sensor fusion and / or environment mapping. In some embodiments, the spatial relationship between the current position and the retrieved target position is determined in order to generate a flight path between the current position and the target position. As previously described, a flight path can be generated based on environmental mapping data to avoid multiple potential flight obstacles.

ステップ826において、UAVは、例えばステップ824で生成した飛行経路を使用して、現在位置から目標位置へと航行する。UAVが目標位置に向かって移動するに連れて、UAVは、自身の飛行を妨げる何らかの障害物が存在するかどうかを決定すべく、センサデータを取得して処理することができる。例えば、センサデータは、上記で議論したように、障害物占有情報を含む局所環境マップを提供すべく使用できる。障害物情報を提供すべく使用できる例示的な複数のセンサは、ビジョンセンサ、ライダセンサ、超音波センサ等を含む。センサデータに基づき、ステップ828において、障害物が検出されたかどうかの決定を行う。もし障害物が1つも検出されないならば、UAVは、目標位置に向かう自身の航行を完了し、オートリターン機能は、次のイテレーションを開始すべく、ステップ818に進む。もし障害物が検出されたならば、ステップ830において示されるように、適切な障害物回避操作を決定して実行する。例えば、UAVが検出された障害物と衝突することなく目標の場所へと航行するように、(例えば環境マップデータに基づいて)飛行経路を変更できる。   In step 826, the UAV navigates from the current position to the target position using, for example, the flight path generated in step 824. As the UAV moves toward the target position, the UAV can acquire and process sensor data to determine if there are any obstacles that interfere with its flight. For example, the sensor data can be used to provide a local environment map that includes obstacle occupancy information, as discussed above. Exemplary sensors that can be used to provide obstacle information include vision sensors, lidar sensors, ultrasonic sensors, and the like. Based on the sensor data, a determination is made in step 828 as to whether an obstacle has been detected. If no obstacle is detected, the UAV completes its navigation towards the target position and the auto return function proceeds to step 818 to begin the next iteration. If an obstacle is detected, an appropriate obstacle avoidance operation is determined and executed as shown in step 830. For example, the flight path can be changed (eg, based on environmental map data) so that the UAV navigates to the target location without colliding with the detected obstacle.

図9A及び9Bは、複数の実施形態による、トポロジマップを使用して目標の場所へと戻るようにUAVを制御するアルゴリズム900を図示している。アルゴリズム800と同様に、アルゴリズム900は、UAVの動作を制御すべく使用される、適切なプロセッサ及び/又はコントローラによって実施できる。アルゴリズム900の1または複数のステップは、自動的に実行でき、これにより、オートリターン機能性をUAVに提供できる。   FIGS. 9A and 9B illustrate an algorithm 900 for controlling a UAV to return to a target location using a topology map, according to embodiments. Similar to algorithm 800, algorithm 900 can be implemented by a suitable processor and / or controller used to control the operation of the UAV. One or more steps of the algorithm 900 can be performed automatically, thereby providing auto-return functionality to the UAV.

ステップ902におけるUAV飛行の開始(例えば離陸)に続いて、アルゴリズム800のステップ802と同様に、ステップ904において、UAV飛行が終了したかどうかの決定を行う。もし飛行が終了したならば、アルゴリズム900はステップ906で完結する。そうでなければ、UAVを囲う環境に関連する環境情報だけでなく、UAVの現在位置も決定することを目的として、アルゴリズム900はステップ908に進む。幾つかの実施形態において、本明細書で以前に説明したように、環境情報は、1または複数の環境物の空間的配置、ジオメトリ及び/又は複数の特性に関する情報を含む。現在位置及び/又は環境情報は、1または複数のセンサから得られるセンシングデータを使用して決定できる。任意に、センシング結果の信頼性及び精度を改善すべく、複数のセンサフュージョン技術を使用して、複数の異なるセンサタイプからのセンシングデータを処理して組み合わせることができる。例えば、センシングデータは、GPSセンサ、及び、少なくとも1つの他のセンサタイプ(例えば、ビジョンセンサ、ライダセンサ及び/又は超音波センサ)から取得できる。   Following the start of UAV flight in step 902 (eg, takeoff), as in step 802 of algorithm 800, a determination is made in step 904 as to whether the UAV flight has ended. If the flight is over, the algorithm 900 is complete at step 906. Otherwise, the algorithm 900 proceeds to step 908 for the purpose of determining not only the environment information related to the environment surrounding the UAV, but also the current location of the UAV. In some embodiments, as previously described herein, environmental information includes information regarding the spatial arrangement, geometry, and / or characteristics of one or more environmental objects. Current location and / or environmental information can be determined using sensing data obtained from one or more sensors. Optionally, sensing data from multiple different sensor types can be processed and combined using multiple sensor fusion techniques to improve the reliability and accuracy of the sensing results. For example, sensing data can be obtained from a GPS sensor and at least one other sensor type (eg, a vision sensor, a lidar sensor and / or an ultrasonic sensor).

ステップ910において、動作環境を表わすトポロジマップに現在位置及び環境情報を加える。代替的な複数の実施形態において、他の複数のタイプのマップも使用できる(例えばグリッドマップのような複数のメトリックマップ)。トポロジマップは、UAVが以前に通過した複数の場所に対応する位置情報を格納すべく使用でき、これにより、UAVの飛行経路の記録を提供できる。加えて、トポロジマップは、本明細書で以前に説明された複数の実施形態による、様々な環境的場所間における接続性を描写すべく使用できる。任意に、トポロジマップは、複数の環境物の空間的位置及びジオメトリを示す情報だけでなく、表わされる複数の場所間の複数の距離を示す情報のようなメトリック情報も含むことができる。トポロジマップの少なくとも幾つかの部分は、例えばマルチセンサマッピングを使用して、UAV飛行中に生成できる。代替的に又は組み合わせて、トポロジマップの1または複数の部分は、UAVの動作に先立って生成でき、UAVに提供できる(例えば、リモートコントローラから送信でき、及び/又は、搭載メモリに格納できる)。後者の実施形態において、現在の環境情報を反映すべく、収集されたセンサデータに基づいて、UAV動作中にトポロジマップを洗練又は変更できる。   In step 910, the current position and environment information are added to the topology map representing the operating environment. In alternative embodiments, other types of maps can also be used (eg, multiple metric maps such as grid maps). The topology map can be used to store location information corresponding to multiple locations that the UAV has previously passed through, thereby providing a record of the flight path of the UAV. In addition, the topology map can be used to depict connectivity between various environmental locations according to embodiments previously described herein. Optionally, the topology map may include metric information such as information indicating multiple distances between the represented locations as well as information indicating the spatial location and geometry of multiple environmental objects. At least some portions of the topology map can be generated during a UAV flight using, for example, multi-sensor mapping. Alternatively or in combination, one or more portions of the topology map can be generated prior to UAV operation and provided to the UAV (eg, transmitted from a remote controller and / or stored in on-board memory). In the latter embodiment, the topology map can be refined or modified during UAV operation based on the collected sensor data to reflect current environmental information.

ステップ912において、アルゴリズム800のステップ812と同様に、目標位置に戻ることを目的として、UAVがオートリターン機能を開始すべきかどうかの決定を行う。もしオートリターン機能を開始しないならば、アルゴリズム900はステップ904に戻る。UAVが当該環境内で航行するに連れて、トポロジマップをもっとも最近の位置及び環境情報で更新することを目的として、ステップ904、908、910および912を所望の頻度で(例えば、継続的に、0.5秒、1秒、2秒、5秒、10秒、20秒、又は、30秒毎に一度のように、予め定められた複数の時間間隔で)連続的に繰り返すことができる。一度、ステップ912においてUAVがオートリターンすべきであると決定したら、図9Bに関して以下で更に詳細に説明するように、ステップ914においてオートリターン機能を実行する。オートリターン機能が完了した後、ステップ906において、アルゴリズム900は完結する。   In step 912, as in step 812 of algorithm 800, a determination is made as to whether the UAV should initiate an auto-return function for the purpose of returning to the target position. If the auto return function is not started, the algorithm 900 returns to step 904. As the UAV navigates within the environment, steps 904, 908, 910 and 912 are performed at a desired frequency (eg, continuously, with the goal of updating the topology map with the most recent location and environment information). It can be repeated continuously (at predetermined time intervals) such as once every 0.5 seconds, 1 second, 2 seconds, 5 seconds, 10 seconds, 20 seconds, or 30 seconds. Once it is determined at step 912 that the UAV should be autoreturned, an autoreturn function is performed at step 914 as described in more detail below with respect to FIG. 9B. After the auto return function is complete, in step 906, the algorithm 900 is complete.

図9Bは、複数の実施形態による、アルゴリズム900のステップ914の複数のサブステップを図示している。ステップ916でのオートリターン機能の開始に続いて、ステップ918において、UAVが目標位置に到達したかどうかの決定を行う。目標位置は、ユーザが指定した位置、又は、UAVが自動的に決定した位置であり得る。目標位置は、飛行開始の際のUAVの初期位置(例えば離陸の場所)のように、UAVが以前に通過した位置であり得る。代替的に、目標位置は、UAVが以前に通過していない位置であり得る。もしUAVが目標位置に到達したと決定するならば、ステップ920において、オートリターン機能は完了する。そうでなければ、オートリターンはステップ922に進む。   FIG. 9B illustrates multiple sub-steps of step 914 of algorithm 900, according to multiple embodiments. Following the start of the auto return function in step 916, in step 918, a determination is made whether the UAV has reached the target position. The target position may be a position specified by the user or a position automatically determined by the UAV. The target position may be a position where the UAV has previously passed, such as the initial position of the UAV at the start of flight (eg, the location of takeoff). Alternatively, the target location may be a location where no UAV has previously passed. If it is determined that the UAV has reached the target position, at step 920, the auto return function is complete. Otherwise, auto return proceeds to step 922.

ステップ922において、UAVの現在位置を、例えばマルチセンサフュージョン及び/又は環境マッピングを使用するなど、本明細書で説明される複数のアプローチのいずれかを使用して決定する。ステップ924において、現在のUAV位置に対応するトポロジマップ位置を決定し、これにより、トポロジマップ内に表わされる環境情報に対してUAVを配置できる。ステップ926において、トポロジマップに基づいて、現在位置から目標位置までの飛行経路を決定する。幾つかの実施形態において、戻る飛行経路の1または複数の部分は、UAVが以前に通過した飛行経路に対応してもよい。代替的に、飛行経路の1または複数の部分は、UAVの以前の飛行経路と異なっていてもよい。飛行経路は、任意の適切な基準に基づいて決定できる。例えば、飛行経路は、複数の環境障害物を回避するように構成できる。別の例として、飛行経路は、UAVが目標位置に到達すべく移動した合計の距離を最小化するように構成できる。その後に続いて、ステップ928において、UAVに飛行経路に沿って移動させるべく、決定された飛行経路に基づいて複数のUAV飛行制御を調整する。例えば、飛行経路によって、UAV用の一連の位置及び/又は方向を特定でき、UAVに特定の位置及び/又は方向をとらせるべく、適切な複数の制御信号を生成して複数のUAV推進システムへと送信できる。   In step 922, the current location of the UAV is determined using any of a number of approaches described herein, such as using multi-sensor fusion and / or environment mapping. In step 924, the topology map position corresponding to the current UAV position is determined, thereby allowing the UAV to be placed relative to the environmental information represented in the topology map. In step 926, a flight path from the current position to the target position is determined based on the topology map. In some embodiments, one or more portions of the returning flight path may correspond to the flight path that the UAV has previously passed. Alternatively, one or more portions of the flight path may be different from the previous flight path of the UAV. The flight path can be determined based on any suitable criteria. For example, the flight path can be configured to avoid multiple environmental obstacles. As another example, the flight path can be configured to minimize the total distance traveled by the UAV to reach the target position. Subsequently, in step 928, a plurality of UAV flight controls are adjusted based on the determined flight path to cause the UAV to move along the flight path. For example, the flight path can identify a series of positions and / or directions for the UAV, and generate appropriate control signals to allow the UAV to take a specific position and / or direction to multiple UAV propulsion systems. Can be sent.

UAVが目標位置に向かって移動するに連れて、UAVは、ステップ930および932において描写されているように、複数の障害物を検出して、適切な方法で複数の障害物回避操作を実行できる。障害物検出及び回避を実行する複数の技術は、各々、アルゴリズム800のステップ828および830について説明したものと同様であってもよい。任意に、障害物検出及び/又は回避は、生成したトポロジマップに基づき得る。例えば、一度、障害物が識別されたら、トポロジマップ内で表わされる環境情報は、複数の潜在的衝突を避ける飛行経路への適切な複数の変更を決定すべく使用できる。   As the UAV moves toward the target position, the UAV can detect multiple obstacles and perform multiple obstacle avoidance operations in an appropriate manner, as depicted in steps 930 and 932. . The techniques for performing obstacle detection and avoidance may each be similar to that described for steps 828 and 830 of algorithm 800. Optionally, obstacle detection and / or avoidance may be based on the generated topology map. For example, once an obstacle is identified, the environmental information represented in the topology map can be used to determine appropriate multiple changes to the flight path that avoid multiple potential collisions.

本明細書で説明される複数のシステム、装置および方法は、多種多様な可動物体に適用できる。以前に述べたように、航空機についての本明細書中のいずれの説明も、任意の可動物体に適用されて使用されてもよい。本願発明の可動物体は、例えば、空中(例えば固定翼航空機、回転翼航空機、又は、複数の固定翼も複数の回転翼も有さない航空機)、水中、(例えば船又は潜水艦)、地上(例えば、車、トラック、バス、バン、自動二輪車などの自動車、棒若しくは釣竿などの可動構造若しくはフレーム、又は、電車)、地下(例えば地下鉄)、宇宙空間(例えば、宇宙船、衛星、又は、宇宙探測機)、又は、これらの環境の任意の組み合わせなどの、任意の適切な環境内で動くように構成できる。可動物体は、本明細書中の他の箇所で説明される機体のような機体であり得る。幾つかの実施形態において、可動物体は、人間または動物等の生体に取り付けることができる。適切な動物には、トリ、イヌ、ネコ、ウマ、ウシ、ヒツジ、ブタ、ドルフィン(delphine)、齧歯動物または昆虫が含まれ得る。   The multiple systems, devices and methods described herein can be applied to a wide variety of movable objects. As previously mentioned, any description herein of an aircraft may be applied and used with any movable object. The movable object of the present invention may be, for example, in the air (for example, a fixed-wing aircraft, a rotary-wing aircraft, or an aircraft that does not have a plurality of fixed wings or a plurality of rotary wings), underwater (for example, a ship or a submarine), and the ground (for example, Cars, trucks, buses, vans, motor vehicles such as motorcycles, movable structures or frames such as rods or fishing rods, or trains), underground (for example, subways), outer space (for example, spaceships, satellites, or space exploration) Or any combination of these environments can be configured to run in any suitable environment. The movable object may be a fuselage such as a fuselage described elsewhere herein. In some embodiments, the movable object can be attached to a living body such as a human or animal. Suitable animals may include birds, dogs, cats, horses, cows, sheep, pigs, delphine, rodents or insects.

可動物体は、当該環境内で6自由度(例えば並進の3自由度および回転の3自由度)について自由に移動可能であってもよい。代替的に、可動物体の動きは、予め定められた経路、通路又は方向等によって、1または複数の自由度について制限できる。当該動きは、エンジンまたはモータなどの任意の適切な駆動機構によって作動できる。可動物体の駆動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風カエネルギー、重力エネルギー、化学エネルギー、核エネルギー、又は、それらの任意の適切な組み合わせ等の、任意の適切なエネルギー源によって電力を供給され得る。可動物体は、本明細書中の他の箇所で説明するように、推進システムを介して自己推進されてよい。推進システムは、任意に、電気エネルギー、磁気エネルギー、太陽エネルギー、風カエネルギー、重力エネルギー、化学エネルギー、核エネルギー、または、それらの任意の適切な組み合わせ等のエネルギー源で動いてもよい。代替的に、可動物体は、生物によって運ばれてもよい。   The movable object may be freely movable within the environment for six degrees of freedom (eg, three degrees of freedom for translation and three degrees of freedom for rotation). Alternatively, the movement of the movable object can be limited for one or more degrees of freedom, such as by a predetermined path, passage or direction. The movement can be actuated by any suitable drive mechanism such as an engine or motor. The drive mechanism of the movable object can be powered by any suitable energy source, such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof. Can be supplied. The movable object may be self-propelled via a propulsion system, as described elsewhere herein. The propulsion system may optionally operate with an energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof. Alternatively, the movable object may be carried by an organism.

場合によっては、可動物体は機体であり得る。適切な複数の機体は、複数のウォータービークル、複数の航空機、複数の宇宙航空機、又は、複数の地上輸送体を含んでもよい。例えば、航空機は、固定翼航空機(例えば飛行機、グライダー)、回転翼航空機(例えばヘリコプタ、回転翼機)、固定翼と回転翼との両方を有する航空機、又は、どちらも有さない航空機(例えば飛行船、熱気球)であってもよい。機体は、例えば、空中、水上、水中、宇宙空間、地上、又は、地下で自己推進型であるように、自己推進型であり得る。自己推進機体は、1または複数のエンジン、モータ、車輪、車軸、磁石、回転翼、プロペラ、翼、ノズル、又は、それらの任意の適切な組み合わせを含む推進システムのような、推進システムを利用できる。場合によっては、可動物体が、ある表面から離陸する、ある表面に着陸する、自身の現在位置並びに/若しくは方向を維持する(例えばホバリング)、方向を変更する、及び/又は、位置を変更することを可能にすべく、推進システムを使用できる。   In some cases, the movable object may be a fuselage. Suitable multiple aircraft may include multiple water vehicles, multiple aircraft, multiple space aircraft, or multiple ground vehicles. For example, an aircraft may be a fixed wing aircraft (eg, an airplane, a glider), a rotary wing aircraft (eg, a helicopter, a rotary wing aircraft), an aircraft having both fixed and rotary wings, or an aircraft that has neither (eg, an airship) , Hot air balloon). The airframe may be self-propelled, for example, self-propelled in the air, water, underwater, outer space, ground, or underground. The self-propelled airframe can utilize a propulsion system, such as a propulsion system including one or more engines, motors, wheels, axles, magnets, rotor blades, propellers, wings, nozzles, or any suitable combination thereof. . In some cases, moving objects take off from a surface, land on a surface, maintain their current position and / or direction (eg, hover), change direction, and / or change position A propulsion system can be used to make this possible.

可動物体は、ユーザが遠隔から制御でき、又は、可動物体内或いは可動物体上の搭乗者がその場で制御できる。幾つかの実施形態において、可動物体は、UAVのような無人可動物体である。UAVのような無人可動物体は、可動物体に乗る搭乗者を有さなくてもよい。可動物体は、人間若しくは自律制御システム(例えばコンピュータ制御システム)、又は、それらの任意の適切な組み合わせによって制御され得る。可動物体は、人工知能と共に構成されたロボットのような、自律的または半自律的ロボットであり得る。   The movable object can be remotely controlled by the user, or can be controlled on the spot by a passenger in or on the movable object. In some embodiments, the movable object is an unmanned movable object such as a UAV. An unmanned movable object such as a UAV may not have a passenger on the movable object. The movable object can be controlled by a human or autonomous control system (eg, a computer control system), or any suitable combination thereof. The movable object can be an autonomous or semi-autonomous robot, such as a robot configured with artificial intelligence.

可動物体は、任意の適切なサイズ及び/又は寸法を有することができる。幾つかの実施形態において、可動物体は、機体内或いは機体上に人間の搭乗者を乗せられるサイズ及び/又は寸法であってもよい。代替的に、可動物体は、機体内或いは機体上に人間の搭乗者を乗せることが可能なサイズ及び/又は寸法より小さくてもよい。可動物体は、人間によって持ち上げられ又は運ばれるのに適したサイズ及び/又は寸法であってもよい。代替的に、可動物体は、人間によって持ち上げられ又は運ばれるのに適したサイズ及び/又は寸法より大きくてもよい。場合によっては、可動物体は、およそ、2cm、5cm、10cm、50cm、1m、2m、5m、又は、10mと等しいか、それ未満である最大寸法(例えば長さ、幅、高さ、直径、対角線)を有してもよい。最大寸法は、およそ、2cm、5cm、10cm、50cm、1m、2m、5m、又は、10mと等しいか、それより大きくてもよい。例えば、可動物体の対向する回転翼の複数のシャフト間の距離は、およそ、2cm、5cm、10cm、50cm、1m、2m、5m、又は、10mと等しいか、それ未満であってもよい。代替的に、対向する回転翼の複数のシャフト間の距離は、およそ、2cm、5cm、10cm、50cm、1m、2m、5m、又は、10mと等しいか、それより大きくてもよい。   The movable object can have any suitable size and / or dimensions. In some embodiments, the movable object may be sized and / or dimensioned to carry a human occupant in or on the fuselage. Alternatively, the movable object may be smaller than the size and / or dimensions that allow a human occupant to be placed in or on the aircraft. The movable object may be of a size and / or dimensions suitable for being lifted or carried by a human. Alternatively, the movable object may be larger than the size and / or dimensions suitable for being lifted or carried by a human. In some cases, the movable object is approximately 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or a maximum dimension (eg, length, width, height, diameter, diagonal, less than or equal to 10 m). ). The maximum dimension may be approximately equal to or greater than 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. For example, the distance between the shafts of the opposed rotor blades of the movable object may be approximately equal to or less than 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. Alternatively, the distance between the shafts of opposing rotor blades may be approximately equal to or greater than 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m.

幾つかの実施形態において、可動物体は、100cm×100cm×100cm未満の体積、50cm×50cm×30cm未満の体積、又は、5cm×5cm×3cm未満の体積を有してもよい。可動物体の総体積は、およそ、1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1m、又は、10mと等しいか、それ未満であってもよい。逆に、可動物体の総体積は、およそ、1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1m、又は、10mと等しいか、それより大きくてもよい。 In some embodiments, the movable object may have a volume of less than 100 cm × 100 cm × 100 cm, a volume of less than 50 cm × 50 cm × 30 cm, or a volume of less than 5 cm × 5 cm × 3 cm. The total volume of the movable object is approximately 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3. , 200cm 3, 300cm 3, 500cm 3, 750cm 3, 1000cm 3, 5000cm 3, 10,000cm 3, 100,000cm 3, 1m 3, or equal to or 10 m 3, may be less than it. Conversely, the total volume of the movable object is approximately 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3. , 150cm 3, 200cm 3, 300cm 3, 500cm 3, 750cm 3, 1000cm 3, 5000cm 3, 10,000cm 3, 100,000cm 3, 1m 3, or equal to or 10 m 3, may be greater than that.

幾つかの実施形態において、可動物体は、およそ、32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cm、又は、5cmと等しいか、それ未満の設置面積(可動物体によって覆われる横方向の断面積のことを指してよい)を有してもよい。逆に、設置面積は、およそ、32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cm、又は、5cmと等しいか、それより大きくてもよい。 In some embodiments, the movable object is approximately, 32,000cm 2, 20,000cm 2, 10,000cm 2, 1,000cm 2, 500cm 2, 100cm 2, 50cm 2, 10cm 2, or a 5 cm 2 It may have an installation area equal to or less than that (which may refer to the lateral cross-sectional area covered by the movable object). Conversely, the footprint is approximately, 32,000cm 2, 20,000cm 2, 10,000cm 2, 1,000cm 2, 500cm 2, 100cm 2, 50cm 2, 10cm 2, or, or equal to 5 cm 2, it It may be larger.

場合によっては、可動物体は、1000kg又はそれより軽い重さを有してもよい。可動物体の重量は、およそ、1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg、又は、0.01kgと等しいか、それ未満であってもよい。逆に、重量は、およそ、1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg、又は、0.01kgと等しいか、それより重くてもよい。   In some cases, the movable object may have a weight of 1000 kg or less. The weight of the movable object is approximately 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, It may be equal to or less than 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, 0.1 kg, 0.05 kg, or 0.01 kg. Conversely, the weight is approximately 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, It may be equal to or heavier than 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, 0.1 kg, 0.05 kg, or 0.01 kg.

幾つかの実施形態において、可動物体は、可動物体によって運ばれる荷物に対して小さくてもよい。荷物は、以下で更に詳細に説明されるように、積載物及び/又は支持機構を含んでもよい。幾つかの例においては、荷物の重量に対する可動物体の重量の比は、およそ1:1と等しいか、それより大きいか、それ未満であってもよい。場合によっては、荷物の重量に対する可動物体の重量の比は、およそ1:1と等しいか、それより大きいか、それ未満であってもよい。任意に、荷物の重量に対する支持機構重量の比は、およそ1:1と等しいか、それより大きいか、それ未満であってもよい。所望される場合は、荷物の重量に対する可動物体の重量の比は、1:2、1:3、1:4、1:5、1:10、又は、更に小さい比と等しいか、それ未満であってもよい。逆に、荷物の重量に対する可動物体の重量の比は、1:2、1:3、1:4、1:5、1:10、又は、更に小さい比と等しいか、それより大きいものでもあり得る。   In some embodiments, the movable object may be small relative to the luggage carried by the movable object. The load may include loads and / or support mechanisms, as will be described in more detail below. In some examples, the ratio of the weight of the movable object to the weight of the load may be approximately equal to, greater than, or less than approximately 1: 1. In some cases, the ratio of the weight of the movable object to the weight of the load may be approximately equal to, greater than, or less than approximately 1: 1. Optionally, the ratio of the weight of the support mechanism to the weight of the load may be approximately equal to, greater than, or less than approximately 1: 1. If desired, the ratio of the weight of the movable object to the weight of the load is equal to or less than 1: 2, 1: 3, 1: 4, 1: 5, 1:10, or a smaller ratio. There may be. Conversely, the ratio of the weight of the moving object to the weight of the load is equal to or greater than 1: 2, 1: 3, 1: 4, 1: 5, 1:10, or even smaller ratios. obtain.

幾つかの実施形態において、可動物体は低いエネルギー消費量を有してもよい。例えば、可動物体は、およそ、5W/h、4W/h、3W/h、2W/h、1W/h、又は、更に小さい数値と等しいか、それ未満の使用量であってもよい。場合によっては、可動物体の支持機構は、低いエネルギー消費量を有してもよい。例えば、支持機構は、およそ、5W/h、4W/h、3W/h、2W/h、1W/h、又は、更に小さい数値未満の使用量であってもよい。任意に、可動物体の積載物は、およそ、5W/h、4W/h、3W/h、2W/h、1W/h、又は、更に小さい数値未満などの、低いエネルギー消費量を有してもよい。   In some embodiments, the movable object may have a low energy consumption. For example, the movable object may have a usage amount approximately equal to or less than 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or a smaller numerical value. In some cases, the support mechanism of the movable object may have a low energy consumption. For example, the support mechanism may be approximately less than 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or even less than the amount used. Optionally, the load of movable objects may have a low energy consumption, such as approximately 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h, or even smaller values. Good.

図10は、本願発明の複数の実施形態による、無人航空機(UAV)1000を図示している。UAVは、本明細書で説明される可動物体の一例であってもよい。UAV1000は、4つの回転翼1002、1004、1006および1008を有する推進システムを含むことができる。任意の数の回転翼が提供されてもよい(例えば、1つ、2つ、3つ、4つ、5つ、6つ、又は、それより多くの数)。複数の回転翼は、本明細書の他の箇所で説明される複数の自動引締め回転翼の複数の実施形態であり得る。無人航空機の、複数の回転翼、複数の回転翼組立体、又は、他の複数の推進システムは、無人航空機がホバリングすること/位置を維持すること、方向を変更すること、及び/又は、場所を変更することを可能にしてもよい。対向する回転翼の複数のシャフト間の距離は、任意の適切な長さ1010であり得る。例えば、長さ1010は、2mと等しいか、或いは、それ未満であり得、又は、5mと等しいか、或いは、それ未満であり得る。幾つかの実施形態において、長さ1010は、40cmから1m、10cmから2m、または、5cmから5mの範囲内であり得る。UAVについての本明細書中のいずれの説明も、異なるタイプの可動物体のような可動物体に適用されてもよく、その逆であってもよい。   FIG. 10 illustrates an unmanned aerial vehicle (UAV) 1000 in accordance with embodiments of the present invention. A UAV may be an example of a movable object described herein. The UAV 1000 can include a propulsion system having four rotor blades 1002, 1004, 1006, and 1008. Any number of rotor blades may be provided (eg, one, two, three, four, five, six, or more). The plurality of rotor blades can be a plurality of embodiments of a plurality of self-tightening rotor blades described elsewhere herein. The unmanned aerial vehicle's multiple rotors, multiple rotor assembly, or other propulsion systems may be used to maintain / change the direction and / or location of the unmanned aircraft May be changed. The distance between the shafts of opposing rotor blades can be any suitable length 1010. For example, the length 1010 can be equal to or less than 2 m, or can be equal to or less than 5 m. In some embodiments, the length 1010 can be in the range of 40 cm to 1 m, 10 cm to 2 m, or 5 cm to 5 m. Any description herein for UAVs may apply to movable objects, such as different types of movable objects, and vice versa.

幾つかの実施形態において、可動物体は、荷物を運ぶように構成できる。荷物は、複数の乗客、貨物、設備、機器等のうち1または複数を含むことができる。荷物は、筐体内に設けられ得る。筐体は、可動物体の筐体と別個にされてもよく、又は、可動物体用の筐体の一部であってもよい。代替的に、荷物は筐体を提供され得、その一方で、可動物体は筐体を有さない。代替的に、荷物の複数の部分、又は、荷物全体が、筐体内に設けられ得る。荷物は、可動物体に対して強固に固定され得る。任意に、荷物は、可動物体に対して移動可能であり得る(例えば可動物体に対して並進でき、又は、回転できる)。   In some embodiments, the movable object can be configured to carry luggage. The luggage can include one or more of a plurality of passengers, cargo, equipment, equipment, and the like. The luggage can be provided in the housing. The casing may be separate from the casing of the movable object, or may be a part of the casing for the movable object. Alternatively, the luggage may be provided with a housing, while the movable object does not have a housing. Alternatively, multiple pieces of luggage or the entire luggage can be provided in the housing. The load can be firmly fixed to the movable object. Optionally, the load can be movable relative to the movable object (eg, can be translated or rotated relative to the movable object).

幾つかの実施形態において、荷物は積載物を含む。積載物は、如何なる動作又は機能も実行しないように構成できる。代替的に、積載物は、機能的な積載物として既知でもある、動作又は機能を実行するように構成された積載物であり得る。例えば、積載物は、1または複数の目標を調査する1または複数のセンサを含むことができる。任意の適切なセンサは、画像キャプチャ装置(例えばカメラ)、音声キャプチャ装置(例えば放射面マイクロフォン)、赤外線撮像装置、又は、紫外線撮像装置のように、積載物へと組み込むことができる。センサによって、静的センシングデータ(例えば写真)又は動的センシングデータ(例えばビデオ)を提供できる。幾つかの実施形態において、センサは、積載物の目標に対するセンシングデータを提供する。代替的に又は組み合わせて、積載物は、複数の信号を1または複数の目標に提供する、1または複数のエミッタを含むことができる。照明源又は音源などの、任意の適切なエミッタを使用できる。幾つかの実施形態において、積載物は、例えば可動物体から離れているモジュールとの通信用のような、1または複数の送受信機を含む。任意に、積載物は、環境または目標と相互作用するように構成できる。例えば、積載物は、ツール、機器、又は、ロボットアームのような複数のオブジェクトを操作することが可能な機構を含むことができる。   In some embodiments, the load includes a load. The load can be configured not to perform any action or function. Alternatively, the load may be a load configured to perform an action or function, also known as a functional load. For example, the load can include one or more sensors that survey one or more targets. Any suitable sensor can be incorporated into the load, such as an image capture device (eg, a camera), an audio capture device (eg, a radiation surface microphone), an infrared imaging device, or an ultraviolet imaging device. Sensors can provide static sensing data (eg, photographs) or dynamic sensing data (eg, video). In some embodiments, the sensor provides sensing data for a load target. Alternatively or in combination, the load can include one or more emitters that provide multiple signals to one or more targets. Any suitable emitter can be used, such as an illumination source or a sound source. In some embodiments, the load includes one or more transceivers, such as for communication with a module remote from the movable object. Optionally, the load can be configured to interact with the environment or goals. For example, the load can include a mechanism capable of manipulating multiple objects, such as a tool, equipment, or robot arm.

任意に、荷物は、支持機構を含んでもよい。積載物に対して支持機構を提供でき、積載物は、直接的(例えば可動物体に直接接触する)または間接的(例えば可動物体に接触しない)のいずれか一方で、支持機構を介して可動物体に連結できる。逆に、積載物は、支持機構を必要とすることなく、可動物体上に取り付けできる。積載物は、支持機構と一体的に形成できる。代替的に、積載物は、支持機構に着脱可能に連結できる。幾つかの実施形態において、積載物は、1または複数の積載物要素を含むことができ、複数の積載物要素のうち1または複数は、可動物体、及び/又は、上記で説明した支持機構に対して移動可能であり得る。   Optionally, the luggage may include a support mechanism. A support mechanism can be provided for the load, the load being either directly (eg, directly contacting the movable object) or indirectly (eg, not contacting the movable object), the movable object via the support mechanism. Can be linked to. Conversely, the load can be mounted on a movable object without the need for a support mechanism. The load can be formed integrally with the support mechanism. Alternatively, the load can be removably coupled to the support mechanism. In some embodiments, the load can include one or more load elements, one or more of the load elements being on the movable object and / or the support mechanism described above. In contrast, it may be movable.

支持機構は、可動物体と一体的に形成できる。代替的に、支持機構は、可動物体に着脱可能に連結できる。支持機構は、直接的又は間接的に可動物体に連結できる。支持機構は、積載物にサポートを提供できる(例えば、積載物の重量の少なくとも一部を運ぶことができる)。支持機構は、積載物の動きを安定化及び/又は方向づけることが可能な、適切な取り付け構造(例えばジンバルプラットフォーム)を含むことができる。幾つかの実施形態において、支持機構は、可動物体に対する積載物の状態(例えば、位置及び/又は方向)を制御するように適合できる。例えば、積載物が可動物体の動きによらず適切な基準フレームに対して自身の位置及び/又は方向を維持するように、支持機構を可動物体に対して(例えば並進の1、2若しくは3度、及び/又は、回転の1、2若しくは3度について)動くように構成できる。基準フレームは、固定された基準フレーム(例えば周囲環境)であり得る。代替的に、基準フレームは、移動基準フレーム(例えば可動物体、積載物目標)であり得る。   The support mechanism can be formed integrally with the movable object. Alternatively, the support mechanism can be detachably connected to the movable object. The support mechanism can be directly or indirectly connected to the movable object. The support mechanism can provide support to the load (eg, can carry at least a portion of the weight of the load). The support mechanism can include a suitable mounting structure (eg, a gimbal platform) that can stabilize and / or direct the movement of the load. In some embodiments, the support mechanism can be adapted to control the state (eg, position and / or orientation) of the load relative to the movable object. For example, the support mechanism can be moved relative to the movable object (eg, 1, 2 or 3 degrees of translation) so that the load maintains its position and / or orientation relative to the appropriate reference frame regardless of the movement of the movable object. , And / or about 1, 2 or 3 degrees of rotation). The reference frame may be a fixed reference frame (eg, the ambient environment). Alternatively, the reference frame can be a moving reference frame (eg, movable object, load target).

幾つかの実施形態において、支持機構は、支持機構及び/又は可動物体に対する積載物の移動を可能にするように構成できる。当該移動は、最大3自由度までについての(例えば、1つ、2つ若しくは3つの軸に沿う)並進移動、若しくは、最大3自由度までについての(例えば、1つ、2つ若しくは3つの軸周りの)回転移動、又は、それらの任意の適切な組み合わせであり得る。   In some embodiments, the support mechanism can be configured to allow movement of the load relative to the support mechanism and / or the movable object. The movement can be translational up to 3 degrees of freedom (eg along 1, 2 or 3 axes) or up to 3 degrees of freedom (eg 1, 2 or 3 axes). (Around) rotational movement, or any suitable combination thereof.

場合によっては、支持機構は、支持機構フレーム組立体および支持機構作動組立体を含むことができる。支持機構フレーム組立体は、構造的サポートを積載物に提供できる。支持機構フレーム組立体は、幾つかが相互に移動可能であり得る個別の支持機構フレームコンポーネントを含むことができる。支持機構作動組立体は、個別の支持機構フレームコンポーネントの動きを作動させる1または複数のアクチュエータ(例えば複数のモータ)を含むことができる。複数のアクチュエータは、複数の支持機構フレームコンポーネントが同時に動くことを可能にすることができ、又は、一度に1つの支持機構フレームコンポーネントが動くことを可能にするように構成してもよい。支持機構フレームコンポーネントの動きによって、積載物の対応する動きを生成できる。例えば、支持機構作動組立体は、1または複数の回転軸(例えば、ロール軸、ピッチ軸若しくはヨー軸)周りでの、1または複数の支持機構フレームコンポーネントの回転を作動させることができる。1または複数の支持機構フレームコンポーネントの回転によって、積載物に、可動物体に対して1または複数の回転軸周りで回転させることができる。代替的に又は組み合わせて、支持機構作動組立体は、1または複数の並進軸に沿う1または複数の支持機構フレームコンポーネントの並進移動を作動させることができ、これにより、可動物体に対する、1または複数の対応する軸に沿う積載物の並進移動を生成することができる。   In some cases, the support mechanism can include a support mechanism frame assembly and a support mechanism actuation assembly. The support mechanism frame assembly can provide structural support to the load. The support mechanism frame assembly may include individual support mechanism frame components, some of which may be movable relative to each other. The support mechanism actuation assembly can include one or more actuators (e.g., multiple motors) that actuate the movement of individual support mechanism frame components. The plurality of actuators may allow multiple support mechanism frame components to move simultaneously, or may be configured to allow one support mechanism frame component to move at a time. The movement of the support mechanism frame component can generate a corresponding movement of the load. For example, the support mechanism actuation assembly can actuate rotation of one or more support mechanism frame components about one or more rotation axes (eg, roll axis, pitch axis, or yaw axis). By rotating one or more support mechanism frame components, the load can be rotated about one or more axes of rotation relative to the movable object. Alternatively or in combination, the support mechanism actuation assembly can actuate the translation of one or more support mechanism frame components along one or more translation axes, thereby providing one or more to the movable object. A translational movement of the load along the corresponding axis can be generated.

幾つかの実施形態において、固定された基準フレーム(例えば周囲環境)に対する、及び/又は、互いに対する、可動物体、支持機構および積載物の動きは、端末が制御できる。端末は、可動物体、支持機構及び/又は積載物から離れた場所にある遠隔制御装置であり得る。端末は、支持プラットフォーム上に配置することができ、又は、支持プラットフォームに取り付けることができる。代替的に、端末は、ハンドヘルドデバイス又はウェアラブルデバイスであり得る。例えば、端末は、スマートフォン、タブレット、ラップトップ、コンピュータ、メガネ、グローブ、ヘルメット、マイク、又は、適切なそれらの組み合わせを含むことができる。端末は、キーボード、マウス、ジョイスティック、タッチスクリーン、又は、ディスプレイ等のユーザインタフェースを含むことができる。手動で入力された複数のコマンド、音声制御、ジェスチャ制御、又は、(例えば、端末の動き、場所、或いは、傾きを介した)位置制御等の任意の適切なユーザ入力を、端末と相互作用すべく使用できる。   In some embodiments, the terminal can control the movement of the movable object, the support mechanism, and the load relative to a fixed reference frame (eg, the surrounding environment) and / or relative to each other. The terminal may be a remote control device that is remote from the movable object, the support mechanism and / or the load. The terminal can be located on the support platform or can be attached to the support platform. Alternatively, the terminal can be a handheld device or a wearable device. For example, the terminal can include a smartphone, tablet, laptop, computer, glasses, glove, helmet, microphone, or any combination thereof. The terminal may include a user interface such as a keyboard, mouse, joystick, touch screen, or display. Any suitable user input, such as manually entered commands, voice control, gesture control, or position control (eg, via terminal movement, location, or tilt) interacts with the terminal Can be used as much as possible.

端末は、可動物体、支持機構、及び/又は、積載物の任意の適切な状態を制御すべく使用され得る。例えば、端末は、固定された基準に対して、互いから及び/又は互いに、可動物体、支持機構及び/又は積載物の、位置及び/又は方向を制御すべく使用され得る。幾つかの実施形態において、端末は、支持機構の作動組立体、積載物のセンサ、又は、積載物のエミッタ等の、可動物体、支持機構及び/又は積載物の個々の要素を制御すべく使用され得る。端末は、可動物体、支持機構、又は、積載物のうち1または複数と通信するように適合された無線通信装置を含むことができる。   The terminal may be used to control any suitable state of the movable object, support mechanism, and / or load. For example, the terminals can be used to control the position and / or orientation of movable objects, support mechanisms and / or loads from each other and / or with respect to a fixed reference. In some embodiments, the terminal is used to control a movable object, support mechanism, and / or individual elements of the load, such as a support mechanism actuation assembly, load sensor, or load emitter. Can be done. The terminal may include a wireless communication device adapted to communicate with one or more of a movable object, a support mechanism, or a load.

端末は、可動物体、支持機構及び/又は積載物の情報を見るのに適切な表示ユニットを含むことができる。例えば、端末は、位置、並進速度、並進加速度、方向、角速度、角加速度、又は、任意の適切なそれらの組み合わせに関する、可動物体、支持機構及び/又は積載物の情報を表示するように構成できる。幾つかの実施形態において、端末は、機能的な積載物によって提供されるデータ(例えば、カメラまたは他の画像撮像装置によって記録された複数の画像)のような、積載物によって提供される情報を表示できる。   The terminal may include a display unit suitable for viewing information on movable objects, support mechanisms and / or loads. For example, the terminal can be configured to display information about movable objects, support mechanisms and / or loads regarding position, translation speed, translation acceleration, direction, angular velocity, angular acceleration, or any suitable combination thereof. . In some embodiments, the terminal displays information provided by the load, such as data provided by the functional load (eg, multiple images recorded by a camera or other imaging device). Can be displayed.

任意に、同じ端末が、可動物体、支持機構及び/又は積載物からの情報を受信及び/又は表示する事と、可動物体、支持機構並びに/若しくは積載物、又は、可動物体、支持機構並びに/若しくは積載物の状態を制御する事との両方を行ってもよい。例えば、端末は、積載物によってキャプチャされた画像データ、又は、積載物の位置についての情報を表示する一方で、ある環境に対する積載物の位置決めを制御してもよい。代替的に、異なる複数の機能用に、異なる複数の端末が使用されてもよい。例えば、第1端末が、可動物体、支持機構及び/又は積載物の動き又は状態を制御してもよく、その一方で、第2端末が、可動物体、支持機構及び/又は積載物からの情報を受信及び/又は表示してもよい。例えば、第1端末が、ある環境に対する積載物の位置決めを制御すべく使用され得る一方で、第2端末が、積載物によってキャプチャされる画像データを表示する。可動物体と、可動物体の制御並びにデータの受信の両方を行う統合された端末との間で、又は、可動物体と、可動物体の制御並びにデータ受信の両方を行う複数の端末との間で、様々な通信モードが利用されてもよい。例えば、可動物体と、可動物体の制御および可動物体からのデータ受信の両方を行う端末との間に、少なくとも2つの異なる通信モードが形成されてもよい。   Optionally, the same terminal receives and / or displays information from the movable object, support mechanism and / or load, and the movable object, support mechanism and / or load, or movable object, support mechanism and / or Or you may perform both with controlling the state of a load. For example, the terminal may control the positioning of the load with respect to a certain environment while displaying image data captured by the load or information about the position of the load. Alternatively, different terminals may be used for different functions. For example, the first terminal may control the movement or state of the movable object, support mechanism and / or load, while the second terminal may receive information from the movable object, support mechanism and / or load. May be received and / or displayed. For example, a first terminal can be used to control the positioning of a load relative to an environment while a second terminal displays image data captured by the load. Between a movable object and an integrated terminal that both controls the movable object and receives data, or between a movable object and multiple terminals that both control the movable object and receive data, Various communication modes may be used. For example, at least two different communication modes may be formed between a movable object and a terminal that performs both control of the movable object and data reception from the movable object.

図11は、複数の実施形態による、支持機構1102及び積載物1104を含む可動物体1100を図示している。可動物体1100は航空機として描写されているが、この描写は、限定することを意図されておらず、本明細書で以前に説明したように、任意の適切なタイプの可動物体が使用され得る。当業者であれば、複数の航空機システムに関連して本明細書で説明される複数の実施形態のいずれもが、任意の適切な可動物体(例えばUAV)に適用され得る、ということを理解するだろう。場合によっては、積載物1104は、支持機構1102を必要とせずに、可動物体1100上に提供されてもよい。可動物体1100は、推進機構1106、センシングシステム1108、及び、通信システム1110を含んでもよい。   FIG. 11 illustrates a movable object 1100 including a support mechanism 1102 and a load 1104 according to multiple embodiments. Although the movable object 1100 is depicted as an aircraft, this depiction is not intended to be limiting and any suitable type of movable object may be used, as previously described herein. Those skilled in the art will appreciate that any of the embodiments described herein in connection with multiple aircraft systems can be applied to any suitable movable object (eg, UAV). right. In some cases, the load 1104 may be provided on the movable object 1100 without the need for the support mechanism 1102. The movable object 1100 may include a propulsion mechanism 1106, a sensing system 1108, and a communication system 1110.

推進機構1106は、以前に説明したように、複数の回転翼、複数のプロペラ、複数の翼、複数のエンジン、複数のモータ、複数の車輪、複数の車軸、複数の磁石、又は、複数のノズルのうち1または複数を含むことができる。例えば、推進機構1106は、本明細書の他の箇所で開示されるように、複数の自動引締め回転翼、複数の回転翼組立体、又は、他の複数の回転式推進ユニットであってもよい。可動物体は、1または複数、2又は3以上、3又は4以上、4又は5以上の推進機構を有してもよい。複数の推進機構は、全て同じタイプであってもよい。代替的に、1または複数の推進機構が、異なるタイプの複数の推進機構であり得る。複数の推進機構1106は、本明細書の他の箇所で説明されるように、支持要素(例えば駆動シャフト)のような任意の適切な手段を使用して、可動物体1100上に取り付けることができる。推進機構1106は、上部、底部、前部、後部、複数の側面、又は、適切なそれらの組み合わせ等、可動物体1100の任意の適切な部分上に取り付けることができる。   As described above, the propulsion mechanism 1106 includes a plurality of rotor blades, a plurality of propellers, a plurality of blades, a plurality of engines, a plurality of motors, a plurality of wheels, a plurality of axles, a plurality of magnets, or a plurality of nozzles. One or more of them. For example, the propulsion mechanism 1106 may be a plurality of self-tightening rotor blades, a plurality of rotor blade assemblies, or other plurality of rotary propulsion units, as disclosed elsewhere herein. . The movable object may have one or more, two or more, three or more, three or four or more, four or five or more propulsion mechanisms. The plurality of propulsion mechanisms may all be the same type. Alternatively, the one or more propulsion mechanisms may be different types of propulsion mechanisms. The plurality of propulsion mechanisms 1106 can be mounted on the movable object 1100 using any suitable means, such as a support element (eg, a drive shaft), as described elsewhere herein. . The propulsion mechanism 1106 can be mounted on any suitable portion of the movable object 1100, such as top, bottom, front, back, multiple sides, or any combination thereof.

幾つかの実施形態において、複数の推進機構1106は、可動物体1100の如何なる水平方向の動きも必要とせずに(例えば滑走路を進むことなく)、可動物体1100が、ある表面から鉛直に離陸すること、又は、ある表面に鉛直に着陸することを可能にすることができる。任意に、複数の推進機構1106は、可動物体1100が空中を特定の位置及び/又は方向にホバリングすることを可能にするよう動作できる。複数の推進機構1100のうち1または複数は、他の複数の推進機構と独立して制御されてもよい。代替的に、複数の推進機構1100は、同時に制御されるように構成できる。例えば、可動物体1100は、可動物体に揚力及び/又は推進力を提供することができる、複数の水平に方向付けられた回転翼を有することができる。複数の水平に方向付けられた回転翼は、可動物体1100に、鉛直離陸性能、鉛直着陸性能およびホバリング性能を提供すべく作動され得る。幾つかの実施形態において、水平に方向付けられた複数の回転翼のうち1または複数は、時計回り方向でスピンしてもよく、その一方で、水平に複数の回転翼のうち1または複数は反時計回り方向でスピンしてもよい。例えば、時計回りの複数の回転翼の数は、反時計回りの複数の回転翼の数と等しくてもよい。水平に方向付けられた複数の回転翼の各々の回転速さは、各々の回転翼によって生成される揚力及び/又は推進力を制御すべく独立して変更でき、これにより、(例えば、最大3度までの並進移動、及び、最大3度までの回転移動に関して)可動物体1100の空間的配置、速度及び/又は加速度を調整する。   In some embodiments, the multiple propulsion mechanisms 1106 do not require any horizontal movement of the movable object 1100 (eg, without traveling on the runway), and the movable object 1100 takes off vertically from a surface. Or it can be possible to land vertically on a surface. Optionally, the plurality of propulsion mechanisms 1106 are operable to allow the movable object 1100 to hover in the air to a particular position and / or direction. One or more of the plurality of propulsion mechanisms 1100 may be controlled independently of the other plurality of propulsion mechanisms. Alternatively, multiple propulsion mechanisms 1100 can be configured to be controlled simultaneously. For example, the movable object 1100 can have a plurality of horizontally oriented rotors that can provide lift and / or propulsion to the movable object. The plurality of horizontally oriented rotors may be operated to provide the movable object 1100 with vertical takeoff performance, vertical landing performance, and hover performance. In some embodiments, one or more of the horizontally oriented rotors may spin in a clockwise direction, while one or more of the horizontally rotors are You may spin in a counterclockwise direction. For example, the number of clockwise rotating blades may be equal to the number of counterclockwise rotating blades. The rotational speed of each of the plurality of horizontally oriented rotors can be independently varied to control the lift and / or propulsion generated by each rotor, thereby allowing (for example, up to 3 Adjust the spatial arrangement, speed and / or acceleration of the movable object 1100 (for translation up to degrees and rotational movement up to 3 degrees).

センシングシステム1108は、(例えば、最大3度までの並進移動、及び、最大3度までの回転移動に関して)可動物体1100の空間的配置、速度及び/又は加速度を感知し得る1または複数のセンサを含むことができる。1または複数のセンサは、複数の全地球測位システム(GPS)センサ、運動センサ、慣性センサ、近接センサ、又は、イメージセンサを含むことができる。センシングシステム1108によって提供されるセンシングデータは、(例えば、以下で説明されるような適切な処理ユニット及び/又は制御モジュールを使用して)可動物体1100の空間的配置、速度及び/又は方向を制御すべく使用できる。代替的に、センシングシステム1108は、複数の天気状況、複数の潜在的障害物への近接度、複数の地理的特徴の場所、複数の人工建造物の場所等の、可動物体を取り囲む環境に関するデータを提供すべく使用できる。   Sensing system 1108 includes one or more sensors that can sense the spatial arrangement, velocity, and / or acceleration of movable object 1100 (eg, for translational movements up to 3 degrees and rotational movements up to 3 degrees). Can be included. The one or more sensors can include a plurality of global positioning system (GPS) sensors, motion sensors, inertial sensors, proximity sensors, or image sensors. Sensing data provided by the sensing system 1108 controls the spatial arrangement, velocity and / or direction of the movable object 1100 (eg, using an appropriate processing unit and / or control module as described below). Can be used as much as possible. Alternatively, the sensing system 1108 may provide data about the environment surrounding the movable object, such as multiple weather conditions, proximity to multiple potential obstacles, multiple geographical feature locations, multiple artificial building locations, etc. Can be used to provide.

通信システム1110は、無線信号1116を介して、通信システム1114を有する端末1112と通信することを可能にする。通信システム1110、1114は、無線通信に適した、任意の数の送信機、受信機及び/又は送受信機を含んでもよい。データを一方向だけで送信できるように、通信は単方向通信であってもよい。例えば、単方向通信は、データを端末1112に、又は、その逆に送信する可動物体1100だけを含んでもよい。データは、通信システム1110の1または複数の送信機から、通信システム1112の1または複数の受信機へと、又は、その逆に、送信されてもよい。代替的に、データを可動物体1100と端末1112との間で両方向に送信できるように、通信は双方向通信であってもよい。双方向通信は、データを通信システム1110の1または複数の送信機から通信システム1114の1または複数の受信機へと、又は、その逆に、送信することを含むことができる。   The communication system 1110 can communicate with a terminal 1112 having a communication system 1114 via a wireless signal 1116. The communication systems 1110, 1114 may include any number of transmitters, receivers, and / or transceivers suitable for wireless communication. The communication may be unidirectional so that data can be transmitted in only one direction. For example, unidirectional communication may include only a movable object 1100 that transmits data to the terminal 1112 or vice versa. Data may be transmitted from one or more transmitters of communication system 1110 to one or more receivers of communication system 1112 or vice versa. Alternatively, the communication may be two-way communication so that data can be transmitted in both directions between the movable object 1100 and the terminal 1112. Bi-directional communication can include transmitting data from one or more transmitters of communication system 1110 to one or more receivers of communication system 1114 or vice versa.

幾つかの実施形態において、端末1112は、可動物体1100、支持機構1102および積載物1104のうち1または複数に対して制御データを提供すること、及び、可動物体1100、支持機構1102および積載物1104のうち1または複数からの情報(例えば、可動物体、支持機構または積載物の位置情報及び/又は動き情報、積載物カメラによってキャプチャされた画像データのような積載物によって感知されたデータ)を受信することができる。場合によっては、端末からの制御データは、可動物体、支持機構及び/又は積載物の、複数の相対位置、複数の移動、複数の作動、又は、複数の制御に対する複数の指示を含んでもよい。例えば、制御データによって、(例えば複数の推進機構1106の制御による)可動物体の場所及び/又は方向の変更、又は、(例えば支持機構1102の制御による)可動物体に対する積載物の動き、という結果がもたらされてもよい。端末からの制御データによって、カメラ又は他の画像撮像装置の動作の制御(例えば、複数の静止画又は動画を撮る、ズームイン又はズームアウトする、オン又はオフにする、複数の撮像モードを切り換える、画像解像度を変更する、フォーカスを変更する、被写界深度を変更する、露光時間を変更する、視野角または視野を変更する)のような、積載物の制御という結果がもたらされてもよい。場合によっては、可動物体、支持機構及び/又は積載物からの複数の通信は、1または複数のセンサからの(例えばセンシングシステム1108又は積載物1104の)情報を含んでもよい。複数の通信は、1または複数の異なるタイプのセンサ(例えば、複数のGPSセンサ、複数の運動センサ、複数の慣性センサ、複数の近接センサ又は複数のイメージセンサ)からの感知された情報を含んでもよい。そのような情報は、可動物体、支持機構及び/又は積載物の位置(例えば場所、方向、動き、又は、加速度)に関するものであってもよい。積載物からのそのような情報は、積載物によってキャプチャされたデータ、又は、積載物についての感知された状態を含んでもよい。端末1112によって送信されて提供された制御データは、可動物体1100、支持機構1102又は積載物1104のうち1または複数の状態を制御するように構成できる。代替的に又は組み合わせて、支持機構1102及び積載物1104はまた、端末1112と通信するように構成された通信モジュールを各々含み得、これによって、端末は、独立して、可動物体1100、支持機構1102および積載物1104の各々との通信と、これらの制御とを行うことができる。   In some embodiments, terminal 1112 provides control data for one or more of movable object 1100, support mechanism 1102 and load 1104, and moveable object 1100, support mechanism 1102 and load 1104. Receive information from one or more of the above (eg, data sensed by the load, such as position information and / or movement information of a movable object, support mechanism or load, image data captured by a load camera) can do. In some cases, the control data from the terminal may include multiple relative positions, multiple movements, multiple actuations, or multiple instructions for multiple controls of the movable object, support mechanism and / or load. For example, the control data may result in a change in the location and / or orientation of the movable object (eg, by control of a plurality of propulsion mechanisms 1106) or movement of the load relative to the movable object (eg, by control of the support mechanism 1102). May be provided. Control of the operation of the camera or other imaging device (for example, taking a plurality of still images or moving images, zooming in or out, turning on or off, switching a plurality of imaging modes, and the like according to control data from the terminal, image This may result in control of the load, such as changing resolution, changing focus, changing depth of field, changing exposure time, changing viewing angle or field of view. In some cases, multiple communications from movable objects, support mechanisms, and / or loads may include information from one or more sensors (eg, sensing system 1108 or load 1104). The plurality of communications may include sensed information from one or more different types of sensors (eg, multiple GPS sensors, multiple motion sensors, multiple inertial sensors, multiple proximity sensors, or multiple image sensors). Good. Such information may relate to the position (eg, location, direction, movement, or acceleration) of the movable object, support mechanism, and / or load. Such information from the load may include data captured by the load or a sensed state about the load. The control data transmitted and provided by the terminal 1112 can be configured to control one or more states of the movable object 1100, the support mechanism 1102, or the load 1104. Alternatively or in combination, the support mechanism 1102 and the load 1104 may also each include a communication module configured to communicate with the terminal 1112, whereby the terminal independently includes the movable object 1100, the support mechanism. Communication with each of 1102 and the load 1104 and control of these can be performed.

幾つかの実施形態において、可動物体1100は、端末1112に加えて、又は、端末1112に代えて、他の遠隔装置と通信するように構成できる。端末1112はまた、可動物体1100だけでなく他の遠隔装置と通信するように構成してもよい。例えば、可動物体1100及び/又は端末1112は、他の可動物体、又は、他の可動物体の支持機構或いは積載物と通信してもよい。所望される場合、遠隔装置は、第2端末または他のコンピューティング装置(例えばコンピュータ、ラップトップ、タブレット、スマートフォン、又は、他のモバイル装置)であってもよい。遠隔装置は、データを可動物体1100に送信し、可動物体1100からデータを受信し、データを端末1112に送信し、及び/又は、端末1112からデータを受信するように構成できる。任意に、可動物体1100及び/又は端末1112から受信されたデータがウェブサイトまたはサーバへとアップロードされ得るように、遠隔装置は、インターネットまたは他の通信ネットワークに接続できる。   In some embodiments, the movable object 1100 can be configured to communicate with other remote devices in addition to or in place of the terminal 1112. Terminal 1112 may also be configured to communicate with other remote devices as well as movable object 1100. For example, the movable object 1100 and / or the terminal 1112 may communicate with other movable objects or other movable object support mechanisms or loads. If desired, the remote device may be a second terminal or other computing device (eg, a computer, laptop, tablet, smartphone, or other mobile device). The remote device can be configured to send data to the movable object 1100, receive data from the movable object 1100, send data to the terminal 1112, and / or receive data from the terminal 1112. Optionally, the remote device can be connected to the Internet or other communication network so that data received from movable object 1100 and / or terminal 1112 can be uploaded to a website or server.

図12は、複数の実施形態による、可動物体を制御するシステム1200のブロック図としての模式図である。システム1200は、本明細書で開示される複数のシステム、複数の装置、及び、複数の方法のうち、任意の適切な実施形態と組み合わせて使用できる。システム1200は、センシングモジュール1202、処理ユニット1204、非一時的コンピュータ可読媒体1206、制御モジュール1208、及び、通信モジュール1210を含むことができる。   FIG. 12 is a schematic diagram as a block diagram of a system 1200 for controlling a movable object, according to multiple embodiments. System 1200 can be used in combination with any suitable embodiment of the systems, devices, and methods disclosed herein. System 1200 can include a sensing module 1202, a processing unit 1204, a non-transitory computer readable medium 1206, a control module 1208, and a communication module 1210.

センシングモジュール1202は、複数の異なる方法で、複数の可動物体に関する情報を収集する、複数の異なるタイプのセンサを利用できる。複数の異なるタイプのセンサは、複数の異なるタイプの信号、又は、複数の異なるソースからの複数の信号を感知してもよい。例えば、複数のセンサは、複数の慣性センサ、複数のGPSセンサ、複数の近接センサ(例えばライダ)、又は、複数のビジョン/イメージセンサ(例えばカメラ)を含むことができる。センシングモジュール1202は、複数のプロセッサを有する処理ユニット1204に、動作可能に連結できる。幾つかの実施形態において、センシングモジュールは、センシングデータを適切な外部装置またはシステムへと直接送信するように構成された送信モジュール1212(例えばWi−Fi画像送信モジュール)に、動作可能に連結できる。例えば、送信モジュール1212は、センシングモジュール1202のカメラによってキャプチャされた複数の画像を遠隔端末へと送信すべく、使用できる。   The sensing module 1202 can utilize a plurality of different types of sensors that collect information about a plurality of movable objects in a plurality of different ways. The plurality of different types of sensors may sense a plurality of different types of signals or a plurality of signals from a plurality of different sources. For example, the plurality of sensors can include a plurality of inertial sensors, a plurality of GPS sensors, a plurality of proximity sensors (eg, a lidar), or a plurality of vision / image sensors (eg, a camera). The sensing module 1202 can be operatively coupled to a processing unit 1204 having a plurality of processors. In some embodiments, the sensing module can be operably coupled to a transmission module 1212 (eg, a Wi-Fi image transmission module) configured to transmit sensing data directly to an appropriate external device or system. For example, the transmission module 1212 can be used to transmit multiple images captured by the camera of the sensing module 1202 to a remote terminal.

処理ユニット1204は、プログラム可能なプロセッサ(例えば中央演算処理装置(CPU))のような、1または複数のプロセッサを有することができる。処理ユニット1204は、非一時的コンピュータ可読媒体1206に、動作可能に連結できる。非一時的コンピュータ可読媒体1206は、1または複数のステップを実行する目的で、処理ユニット1204が実行可能な、ロジック、コード及び/又は複数のプログラム命令を格納できる。非一時的コンピュータ可読媒体は、1または複数のメモリユニット(例えば、SDカード又はランダムアクセスメモリ(RAM)等のリムーバブルメディア又は外部格納装置)を含むことができる。幾つかの実施形態において、センシングモジュール1202からのデータは、非一時的コンピュータ可読媒体1206の複数のメモリユニットに直接伝達して、その中に格納することができる。非一時的コンピュータ可読媒体1206の複数のメモリユニットは、本明細書で説明される複数の方法の、任意の適切な実施形態を実行すべく、処理ユニット1204が実行可能な、ロジック、コード及び/又は複数のプログラム命令を格納できる。例えば、処理ユニット1204は、処理ユニット1204の1または複数のプロセッサに、センシングモジュールによって生成されるセンシングデータを分析させる複数の指示を実行するように構成できる。複数のメモリユニットは、処理ユニット1204によって処理される予定の、センシングモジュールからのセンシングデータを格納できる。幾つかの実施形態において、非一時的コンピュータ可読媒体1206の複数のメモリユニットは、処理ユニット1204によって生成される複数の処理結果を格納すべく使用できる。   The processing unit 1204 can include one or more processors, such as a programmable processor (eg, a central processing unit (CPU)). The processing unit 1204 can be operatively coupled to a non-transitory computer readable medium 1206. The non-transitory computer readable medium 1206 can store logic, code, and / or multiple program instructions that can be executed by the processing unit 1204 for the purpose of performing one or more steps. Non-transitory computer readable media may include one or more memory units (eg, removable media such as an SD card or random access memory (RAM) or an external storage device). In some embodiments, data from the sensing module 1202 can be communicated directly to and stored in multiple memory units of the non-transitory computer readable medium 1206. The plurality of memory units of the non-transitory computer readable medium 1206 may include logic, code, and / or code that can be executed by the processing unit 1204 to perform any suitable embodiment of the methods described herein. Or a plurality of program instructions can be stored. For example, the processing unit 1204 can be configured to execute a plurality of instructions that cause one or more processors of the processing unit 1204 to analyze sensing data generated by the sensing module. The plurality of memory units can store sensing data from the sensing module that is to be processed by the processing unit 1204. In some embodiments, multiple memory units of non-transitory computer readable media 1206 can be used to store multiple processing results generated by processing unit 1204.

幾つかの実施形態において、処理ユニット1204は、可動物体の状態を制御する制御モジュール1208に、動作可能に連結できる。例えば、制御モジュール1208は、可動物体の空間的配置、速度及び/又は加速度を6自由度に関して調整すべく、可動物体の複数の推進機構を制御するように構成できる。代替的に又は組み合わせて、制御モジュール1208は、支持機構の状態、積載物の状態又はセンシングモジュールの状態のうち1または複数を制御できる。   In some embodiments, the processing unit 1204 can be operatively coupled to a control module 1208 that controls the state of the movable object. For example, the control module 1208 can be configured to control multiple propulsion mechanisms of the movable object to adjust the spatial arrangement, speed and / or acceleration of the movable object with respect to six degrees of freedom. Alternatively or in combination, the control module 1208 can control one or more of the state of the support mechanism, the state of the load, or the state of the sensing module.

処理ユニット1204は、1または複数の外部装置(例えば端末、ディスプレイ装置又はリモートコントローラ)からのデータを送信及び/又は受信するように構成された通信モジュール1210に、動作可能に連結できる。有線通信又は無線通信などの任意の適切な通信手段を使用できる。例えば、通信モジュール1210は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線機、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信網、クラウド通信等のうち1または複数を利用できる。任意に、複数のタワー、複数の衛星、又は、複数の移動局などの複数の中継局を使用できる。複数の無線通信は、近接度依存型または近接度独立型であり得る。幾つかの実施形態において、通信用に見通し線が必要であってもよく、必要でなくてもよい。通信モジュール1210は、センシングモジュール1202からのセンシングデータ、処理ユニット1204によって生成された複数の処理結果、予め定められた制御データ、端末またはリモートコントローラからの複数のユーザ命令等のうち1または複数を、送信及び/又は受信できる。   The processing unit 1204 can be operatively coupled to a communication module 1210 that is configured to transmit and / or receive data from one or more external devices (eg, a terminal, display device, or remote controller). Any suitable communication means such as wired communication or wireless communication can be used. For example, the communication module 1210 uses one or more of a local area network (LAN), a wide area network (WAN), an infrared ray, a wireless device, WiFi, a point-to-point (P2P) network, a telecommunication network, cloud communication, and the like. it can. Optionally, multiple relay stations such as multiple towers, multiple satellites, or multiple mobile stations can be used. The plurality of wireless communications may be proximity dependent or proximity independent. In some embodiments, a line of sight may or may not be required for communication. The communication module 1210 receives one or more of sensing data from the sensing module 1202, a plurality of processing results generated by the processing unit 1204, predetermined control data, a plurality of user commands from a terminal or a remote controller, and the like. Can transmit and / or receive.

システム1200の複数のコンポーネントは、任意の適切な構成で配置できる。例えば、システム1200の複数のコンポーネントのうち1または複数は、可動物体、支持機構、積載物、端末、センシングシステム、又は、上記のうち1または複数と通信する追加の外部デバイス上に配置できる。加えて、図12は、単一の処理ユニット1204と、単一の非一時的コンピュータ可読媒体1206とを描写しているが、当業者であれば、これは限定することを意図されておらず、システム1200は複数の処理ユニット及び/又は非一時的コンピュータ可読媒体を含むことができる、ということを理解するだろう。幾つかの実施形態において、複数の処理ユニット及び/又は非一時的コンピュータ可読媒体のうち1または複数は、可動物体上、支持機構上、積載物上、端末上、センシングモジュール上、又は、上記のうち1または複数と通信する追加の外部デバイス上、又は、適切なそれらの組み合わせ等の、複数の異なる場所に位置できる。これにより、システム1200によって実行される処理機能および/またはメモリ機能の任意の適切な態様を、前述の複数の場所のうち1または複数の場所で行うことができる。   The multiple components of system 1200 can be arranged in any suitable configuration. For example, one or more of the components of system 1200 can be located on a movable object, a support mechanism, a load, a terminal, a sensing system, or an additional external device that communicates with one or more of the above. In addition, FIG. 12 depicts a single processing unit 1204 and a single non-transitory computer readable medium 1206, which is not intended to be limiting by those skilled in the art. It will be appreciated that the system 1200 can include multiple processing units and / or non-transitory computer readable media. In some embodiments, one or more of the plurality of processing units and / or non-transitory computer readable media is on a movable object, on a support mechanism, on a load, on a terminal, on a sensing module, or as described above. It can be located on a number of different locations, such as on an additional external device that communicates with one or more, or a suitable combination thereof. This allows any suitable aspect of the processing functions and / or memory functions performed by the system 1200 to occur at one or more of the aforementioned locations.

本明細書で使用されるように、A及び/又はBとは、AまたはBと、AおよびBのような複数のそれらの組み合わせとのうち1または複数を包含する。   As used herein, A and / or B includes one or more of A or B and combinations thereof such as A and B.

本願発明の複数の好ましい実施形態が本明細書で示されて説明されたが、その一方で、そのような複数の実施形態は単に例示を目的として提供されるものである、ということは当業者にとって明らかだろう。今や、多数の変形、変更、及び、置換が、本発明から逸脱することなく、当業者に思い浮かばれるだろう。本発明を実施する場合に、本明細書で説明された本発明の複数の実施形態に対する様々な代替案が採用されてもよい、ということが理解されるべきである。以下の複数の請求項が本発明の範囲を画定し、これら複数の請求項の範囲内の複数の方法並びに複数の構造、及び、それらの複数の等価物が、これにより包含されることが意図されている。
[項目1]
ある環境内で可動物体を制御する方法であって、
前記可動物体によって運ばれる複数のセンサのうち少なくとも1つを使用して、前記可動物体の初期の場所を決定するステップと、
前記可動物体に前記環境内で航行させる第1信号を生成するステップと、
前記複数のセンサのうち少なくとも1つを使用して、前記環境に関連するセンシングデータを受信するステップと、
前記センシングデータに基づいて、前記環境の少なくとも一部を表わす環境マップを生成するステップと、
前記初期の場所へと戻る指示を受信するステップと、
前記環境マップに基づいて、前記可動物体に前記初期の場所へと戻らせる第2信号を生成するステップと
を含む、方法。
[項目2]
前記可動物体は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しないように構成される、請求項1に記載の方法。
[項目3]
前記複数のセンサは全地球測位システム(GPS)センサを含む、請求項1に記載の方法。
[項目4]
前記複数のセンサはビジョンセンサを含む、請求項1に記載の方法。
[項目5]
前記複数のセンサは近接センサを含む、請求項1に記載の方法。
[項目6]
前記近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含む、請求項5に記載の方法。
[項目7]
前記環境マップはトポロジカルマップを含む、請求項1に記載の方法。
[項目8]
前記環境マップはメトリックマップを含む、請求項1に記載の方法。
[項目9]
前記メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含む、請求項8に記載の方法。
[項目10]
前記メトリックマップは占有グリッドマップを含む、請求項8に記載の方法。
[項目11]
前記第2信号を生成するステップは、
前記複数のセンサのうち少なくとも1つを使用して、前記可動物体の現在の場所を決定するステップと、
前記環境マップに基づいて前記現在の場所から前記初期の場所までの経路を決定するステップと、
前記可動物体に前記初期の場所へと戻る経路に沿って移動させる信号を生成するステップと
を含む、請求項1に記載の方法。
[項目12]
前記経路を決定するステップは、前記現在の場所から前記初期の場所までの最短経路を決定するステップを含む、請求項11に記載の方法。
[項目13]
前記経路を決定するステップは、前記環境内における1または複数の障害物を回避する、前記現在の場所から前記初期の場所までの経路を決定するステップを含む、請求項11に記載の方法。
[項目14]
前記経路は、前記可動物体が以前に通過した1または複数の部分を含む、請求項11に記載の方法。
[項目15]
前記経路は、前記可動物体が以前に通過した経路と異なる、請求項11に記載の方法。
[項目16]
前記経路は、前記可動物体の飛行経路である、請求項11に記載の方法。
[項目17]
前記経路は、前記可動物体の空間的位置および方向を含む、請求項16に記載の方法。
[項目18]
前記経路は、前記可動物体が以前に通過した複数の位置に対応する複数の通過点を含み、前記複数の通過点は、前記可動物体が前記環境内を航行すると記録される、請求項11に記載の方法。
[項目19]
前記複数の通過点は、前記可動物体が前記環境内を航行すると、リアルタイムで記録される、請求項18に記載の方法。
[項目20]
前記複数の通過点は、前記可動物体が前記環境内を航行すると、予め定められた時間間隔で記録される、請求項18に記載の方法。
[項目21]
前記複数の通過点は、リストデータ構造内に格納される、請求項18に記載の方法。
[項目22]
前記可動物体に前記経路に沿って移動させる前記信号を生成するステップは、
前記環境内で前記経路に沿って位置された障害物を検出するステップと、
前記障害物を回避すべく前記経路を変更するステップと、
前記可動物体に前記変更された経路に沿って移動させる信号を生成するステップと
を含む、請求項11に記載の方法。
[項目23]
ある環境内で可動物体を制御するシステムであって、
前記可動物体によって運ばれる複数のセンサと、
1または複数のプロセッサと
を備え、
前記1または複数のプロセッサは、個々に又は集合的に、
前記複数のセンサのうち少なくとも1つを使用して、前記可動物体の初期の場所を決定し、
前記可動物体に前記環境内で航行させる第1信号を生成し、
前記複数のセンサのうち少なくとも1つを使用して、前記環境に関連するセンシングデータを受信し、
前記センシングデータに基づいて、前記環境の少なくとも一部を表わす環境マップを生成し、
前記初期の場所へと戻る指示を受信し、
前記環境マップに基づいて、前記可動物体に前記初期の場所へと戻るべく航行させる第2信号を生成するように構成される、
システム。
[項目24]
ある環境内で無人航空機を制御する方法であって、
前記無人航空機に前記環境内で航行させる第1信号を生成するステップと、
前記無人航空機によって運ばれる複数のセンサを使用して、前記環境の少なくとも一部に関連するセンシングデータを受信するステップと、
前記センシングデータに基づいて、前記環境の少なくとも一部を表わす環境マップを生成するステップと、
前記環境マップを使用して、前記環境の一部に位置する1または複数の障害物を検出するステップと、
前記環境マップを使用して、前記無人航空機に前記1または複数の障害物を回避すべく航行させる第2信号を生成するステップと
を含む、方法。
[項目25]
前記無人航空機は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しないように構成される、請求項24に記載の方法。
[項目26]
前記複数のセンサは全地球測位システム(GPS)センサを含む、請求項24に記載の方法。
[項目27]
前記複数のセンサはビジョンセンサを含む、請求項24に記載の方法。
[項目28]
前記複数のセンサは近接センサを含む、請求項24に記載の方法。
[項目29]
前記近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含む、請求項28に記載の方法。
[項目30]
前記環境マップはトポロジカルマップを含む、請求項24に記載の方法。
[項目31]
前記環境マップはメトリックマップを含む、請求項24に記載の方法。
[項目32]
前記メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含む、請求項31に記載の方法。
[項目33]
前記メトリックマップは占有グリッドマップを含む、請求項31に記載の方法。
[項目34]
前記第1信号は、前記無人航空機と通信する遠隔端末から受信する複数の指示に基づいて生成される、請求項24に記載の方法。
[項目35]
前記複数の指示は、ユーザによって前記遠隔端末に入力される、請求項34に記載の方法。
[項目36]
前記第1信号は、前記無人航空機によって自律的に生成される、請求項24に記載の方法。
[項目37]
前記センシングデータは、複数の異なる座標系に対するデータを含み、前記環境マップを生成するステップは、前記データを単一座標系へとマッピングするステップを含む、請求項24に記載の方法。
[項目38]
前記第1信号を生成するステップは、前記無人航空機用の飛行経路を生成するステップを含み、前記第2信号を生成するステップは、前記1または複数の障害物を回避すべく、前記環境マップに基づいて前記飛行経路を変更するステップを含む、請求項24に記載の方法。
[項目39]
前記飛行経路は、前記無人航空機を現在位置から前の位置へと向けるように構成される、請求項38に記載の方法。
[項目40]
ある環境内で無人航空機を制御するシステムであって、
前記無人航空機によって運ばれる複数のセンサと、
1または複数のプロセッサと
を備え、
前記1または複数のプロセッサは、個々に又は集合的に、
前記無人航空機に前記環境内で航行させる第1信号を生成し、
前記無人航空機によって運ばれる複数のセンサを使用して、前記環境の少なくとも一部に関連するセンシングデータを受信し、
前記センシングデータに基づいて、前記環境の少なくとも一部を表わす環境マップを生成し、
前記環境マップを使用して、前記環境の前記一部に位置する1または複数の障害物を検出し、
前記環境マップを使用して、前記無人航空機に前記1または複数の障害物を回避すべく航行させる第2信号を生成するように構成される、
システム。
[項目41]
ある環境内で無人航空機を制御する方法であって、
前記環境に関連する第1センシング信号を第1センサから受信して、前記環境に関連する第2センシング信号を第2センサから受信するステップと、
前記第1センシング信号を使用する第1環境マップと、前記第2センシング信号を使用する第2環境マップとを生成するステップと、
前記第1環境マップ及び前記第2環境マップを組み合わせるステップと
を含み、
前記第1センサ及び前記第2センサは、複数の異なるセンサタイプであり、前記無人航空機によって運ばれ、
前記第1環境マップ及び前記第2環境マップの各々は、前記環境に対する障害物占有情報を含み、
これにより、前記環境に対する障害物占有情報を含む最終環境マップを生成する、
方法。
[項目42]
少なくとも部分的に前記最終環境マップにおける前記障害物占有情報に基づいて、前記無人航空機に前記環境内で航行させる信号を生成するステップを更に含む、請求項41に記載の方法。
[項目43]
前記無人航空機は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しないように構成される、請求項41に記載の方法。
[項目44]
前記第1センサまたは前記第2センサのうち少なくとも1つは全地球測位システム(GPS)センサを含む、請求項41に記載の方法。
[項目45]
前記第1センサまたは前記第2センサのうち少なくとも1つはビジョンセンサを含む、請求項41に記載の方法。
[項目46]
前記第1センサまたは前記第2センサのうち少なくとも1つは近接センサを含む、請求項41に記載の方法。
[項目47]
前記近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含む、請求項46に記載の方法。
[項目48]
前記最終環境マップはトポロジカルマップを含む、請求項41に記載の方法。
[項目49]
前記最終環境マップはメトリックマップを含む、請求項41に記載の方法。
[項目50]
前記メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含む、請求項49に記載の方法。
[項目51]
前記メトリックマップは占有グリッドマップを含む、請求項49に記載の方法。
[項目52]
前記第1環境マップは、第1座標系に対して提供され、前記第2環境マップは、前記第1座標系と異なる第2座標系に対して提供される、請求項41に記載の方法。
[項目53]
前記第1座標系は全体座標系であり、前記第2座標系は局所座標系である、請求項52に記載の方法。
[項目54]
前記第1環境マップ及び前記第2環境マップを組み合わせるステップは、前記第1環境マップ及び前記第2環境マップを単一座標系に変換するステップを含む、請求項52に記載の方法。
[項目55]
前記第1センサのセンシング範囲は、前記第2センサのセンシング範囲と異なる、請求項41に記載の方法。
[項目56]
ある環境内で無人航空機を制御するシステムであって、
前記無人航空機によって運ばれ、前記環境に関連する第1センシング信号を生成するように構成される第1センサと、
前記無人航空機によって運ばれ、前記環境に関連する第2センシング信号を生成するように構成される第2センサと、
1または複数のプロセッサと
を備え、
前記第2センサ及び前記第1センサは複数の異なるセンサタイプであり、
前記1または複数のプロセッサは、個々に又は集合的に、
前記第1センシング信号及び前記第2センシング信号を受信し、
前記第1センシング信号を使用して第1環境マップを生成して、前記第2センシング信号を使用して第2環境マップを生成し、
前記第1環境マップ及び前記第2環境マップを組み合わせるように構成され、
前記第1環境マップ及び前記第2環境マップの各々は、前記環境に対する障害物占有情報を含み、
これにより、前記環境に対する障害物占有情報を含む最終環境マップを生成する、
システム。
[項目57]
ある環境内で無人航空機を制御する方法であって、
前記無人航空機によって運ばれる複数のセンサのうち少なくとも1つを使用して、前記無人航空機の初期の場所を決定するステップと、
前記無人航空機に前記環境内で航行させる第1信号を生成するステップと、
前記複数のセンサのうち少なくとも1つを使用して、前記環境に関連するセンシングデータを受信するステップと、
前記初期の場所へと戻る指示を受信するステップと、
前記無人航空機に経路に沿って前記初期の場所へと戻らせる第2信号を生成するステップと
を含み、
前記複数のセンサのうち少なくとも1つが前記環境内で前記経路に沿って位置された障害物を検出した場合、前記経路は、前記障害物を回避すべく変更される、
方法。
[項目58]
前記無人航空機は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しないように構成される、請求項57に記載の方法。
[項目59]
前記複数のセンサは全地球測位システム(GPS)センサを含む、請求項57に記載の方法。
[項目60]
前記複数のセンサはビジョンセンサを含む、請求項57に記載の方法。
[項目61]
前記複数のセンサは近接センサを含む、請求項57に記載の方法。
[項目62]
前記近接センサは、以下の、ライダセンサ、超音波センサ又は飛行時カメラセンサのうち少なくとも1つを含む、請求項61に記載の方法。
[項目63]
前記環境マップはトポロジカルマップを含む、請求項57に記載の方法。
[項目64]
前記環境マップはメトリックマップを含む、請求項57に記載の方法。
[項目65]
前記メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含む、請求項64に記載の方法。
[項目66]
前記メトリックマップは占有グリッドマップを含む、請求項64に記載の方法。
[項目67]
前記経路は、前記無人航空機が以前に通過した1または複数の部分を含む、請求項57に記載の方法。
[項目68]
前記経路は、前記無人航空機が以前に通過した経路と異なる、請求項57に記載の方法。
[項目69]
前記経路は、前記無人航空機の飛行経路である、請求項57に記載の方法。
[項目70]
前記経路は、前記無人航空機の空間的位置および方向を含む、請求項69に記載の方法。
[項目71]
ある環境内で無人航空機を制御するシステムであって、
前記無人航空機によって運ばれる複数のセンサと、
1または複数のプロセッサと
を備え、
前記1または複数のプロセッサは、個々に又は集合的に、
前記無人航空機によって運ばれる複数のセンサのうち少なくとも1つを使用して、前記無人航空機の初期の場所を決定し、
前記無人航空機に前記環境内で航行させる第1信号を生成し、
前記複数のセンサのうち少なくとも1つを使用して、前記環境に関連するセンシングデータを受信し、
前記初期の場所へと戻る指示を受信し、
前記無人航空機に経路に沿って前記初期の場所へと戻らせる第2信号を生成するように構成され、
前記複数のセンサのうち少なくとも1つが前記環境内で前記経路に沿って位置された障害物を検出した場合、前記経路は、前記障害物を回避すべく変更される、
システム。
[項目72]
ある環境のマップを生成する方法であって、
無人航空機によって運ばれる1または複数のビジョンセンサから、前記環境に対する深度情報を含む第1センシングデータを受信するステップと、
前記無人航空機によって運ばれる1または複数の近接センサから、前記環境に対する深度情報を含む第2センシングデータを受信するステップと、
前記第1センシングデータ及び前記第2センシングデータを使用して、前記環境に対する深度情報を含む環境マップを生成するステップと
を含む、方法。
[項目73]
前記第1センシングデータ及び前記第2センシングデータの各々は、複数のピクセルを有する少なくとも1つの画像を含み、前記複数のピクセルの各ピクセルは、2次元画像座標及び深度値に関連付けられている、請求項72に記載の方法。
[項目74]
前記複数のピクセルの各ピクセルは、色値と関連付けられる、請求項73に記載の方法。
[項目75]
前記第1センシングデータ及び前記第2センシングデータの各々は、前記環境内の1または複数の物体に対するシルエット情報を含む、請求項72に記載の方法。
[項目76]
少なくとも部分的に前記環境マップにおける前記深度情報に基づいて、前記無人航空機に前記環境内を航行させる信号を生成するステップを更に含む、請求項72に記載の方法。
[項目77]
前記無人航空機は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しないように構成される、請求項72に記載の方法。
[項目78]
前記1または複数のビジョンセンサは単一のカメラを含む、請求項72に記載の方法。
[項目79]
前記1または複数のビジョンセンサは2又は3以上のカメラを含む、請求項72に記載の方法。
[項目80]
前記1または複数の近接センサは、少なくとも1つの超音波センサを含む、請求項72に記載の方法。
[項目81]
前記1または複数の近接センサは、少なくとも1つのライダセンサを含む、請求項72に記載の方法。
[項目82]
前記第1センシングデータは第1セットの深度画像を含み、前記第2センシングデータは第2セットの深度画像を含む、請求項72に記載の方法。
[項目83]
前記環境マップを生成するステップは、
前記第1セットの深度画像に存在する第1の複数の特徴点を識別するステップと、
前記第2セットの深度画像に存在する第2の複数の特徴点を識別するステップと、
前記第1の複数の特徴点と前記第2の複数の特徴点との間の対応を決定するステップと、
前記対応に基づいて、前記第1セットの深度画像と前記第2セットの深度画像とを組み合わせることによって前記環境マップを生成するステップと
を含み、
前記第2の複数の特徴点の各々は、前記第1の複数の特徴点の1つに対応する、請求項82に記載の方法。
[項目84]
前記第1センシングデータは、第1座標系に対して提供され、前記第2センシングデータは、前記第1座標系と異なる第2座標系に対して提供される、請求項72に記載の方法。
[項目85]
前記環境マップを生成するステップは、第3座標系に対して前記第1センシングデータ及び前記第2センシングデータを表現するステップを含む、請求項84に記載の方法。
[項目86]
前記第3座標系は、前記第1座標系または前記第2座標系のいずれか一方である、請求項85に記載の方法。
[項目87]
前記第3座標系は、前記第1座標系および前記第2座標系と異なる、請求項85に記載の方法。
[項目88]
前記環境マップはトポロジカルマップを含む、請求項72に記載の方法。
[項目89]
前記環境マップはメトリックマップを含む、請求項72に記載の方法。
[項目90]
前記メトリックマップは、以下の、ポイントクラウド、3Dグリッドマップ、2Dグリッドマップ又は2.5Dグリッドマップのうち少なくとも1つを含む、請求項89に記載の方法。
[項目91]
前記メトリックマップは占有グリッドマップを含む、請求項89に記載の方法。
[項目92]
ある環境のマップを生成するシステムであって、
無人航空機によって運ばれ、前記環境に対する深度情報を含む第1センシングデータを生成するように構成される、1または複数のビジョンセンサと、
前記無人航空機によって運ばれ、前記環境に対する深度情報を含む第2センシングデータを生成するように構成される、1または複数の近接センサと、
1または複数のプロセッサと
を備え、
前記1または複数のプロセッサは、個々に又は集合的に、
前記第1センシングデータ及び前記第2センシングデータを受信し、
前記第1センシングデータ及び前記第2センシングデータを使用して、前記環境に対する深度情報を含む環境マップを生成するように構成される、
システム。
While preferred embodiments of the present invention have been shown and described herein, it should be understood by those skilled in the art that such embodiments are provided for illustrative purposes only. It will be clear to you. Numerous variations, modifications, and substitutions will now occur to those skilled in the art without departing from the invention. It should be understood that various alternatives to the embodiments of the invention described herein may be employed when practicing the invention. The following claims define the scope of the present invention, and are intended to encompass the methods and structures and their equivalents within the scope of these claims. Has been.
[Item 1]
A method for controlling a movable object in an environment,
Determining an initial location of the movable object using at least one of a plurality of sensors carried by the movable object;
Generating a first signal that causes the movable object to navigate within the environment;
Receiving sensing data associated with the environment using at least one of the plurality of sensors;
Generating an environment map representing at least a portion of the environment based on the sensing data;
Receiving an instruction to return to the initial location;
Generating a second signal that causes the movable object to return to the initial location based on the environment map.
[Item 2]
The method of claim 1, wherein the movable object is configured to detect the presence of a flight restriction region and not fly within a predetermined distance of the flight restriction region.
[Item 3]
The method of claim 1, wherein the plurality of sensors comprises a global positioning system (GPS) sensor.
[Item 4]
The method of claim 1, wherein the plurality of sensors comprises a vision sensor.
[Item 5]
The method of claim 1, wherein the plurality of sensors includes proximity sensors.
[Item 6]
The method of claim 5, wherein the proximity sensor comprises at least one of the following: a lidar sensor, an ultrasonic sensor or a flight camera sensor.
[Item 7]
The method of claim 1, wherein the environment map comprises a topological map.
[Item 8]
The method of claim 1, wherein the environment map comprises a metric map.
[Item 9]
9. The method of claim 8, wherein the metric map comprises at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map.
[Item 10]
The method of claim 8, wherein the metric map comprises an occupancy grid map.
[Item 11]
Generating the second signal comprises:
Using at least one of the plurality of sensors to determine a current location of the movable object;
Determining a route from the current location to the initial location based on the environment map;
Generating a signal that causes the movable object to move along a path back to the initial location.
[Item 12]
The method of claim 11, wherein determining the route includes determining a shortest route from the current location to the initial location.
[Item 13]
12. The method of claim 11, wherein determining the path comprises determining a path from the current location to the initial location that avoids one or more obstacles in the environment.
[Item 14]
The method of claim 11, wherein the path includes one or more portions through which the movable object has previously passed.
[Item 15]
The method of claim 11, wherein the path is different from a path through which the movable object has previously passed.
[Item 16]
The method of claim 11, wherein the path is a flight path of the movable object.
[Item 17]
The method of claim 16, wherein the path includes a spatial position and direction of the movable object.
[Item 18]
The route includes a plurality of passage points corresponding to a plurality of positions where the movable object has previously passed, and the plurality of passage points are recorded when the movable object navigates in the environment. The method described.
[Item 19]
The method of claim 18, wherein the plurality of passing points are recorded in real time as the movable object navigates within the environment.
[Item 20]
The method of claim 18, wherein the plurality of passing points are recorded at predetermined time intervals as the movable object navigates within the environment.
[Item 21]
The method of claim 18, wherein the plurality of passage points are stored in a list data structure.
[Item 22]
Generating the signal to move the movable object along the path comprises:
Detecting obstacles located along the path in the environment;
Changing the route to avoid the obstacle;
Generating a signal to cause the movable object to move along the altered path.
[Item 23]
A system for controlling a moving object in an environment,
A plurality of sensors carried by the movable object;
With one or more processors,
The one or more processors may be individually or collectively
Using at least one of the plurality of sensors to determine an initial location of the movable object;
Generating a first signal that causes the movable object to navigate within the environment;
Receiving sensing data associated with the environment using at least one of the plurality of sensors;
Generating an environment map representing at least a portion of the environment based on the sensing data;
Receiving instructions to return to the initial location,
Based on the environment map, configured to generate a second signal that causes the movable object to navigate back to the initial location;
system.
[Item 24]
A method for controlling an unmanned aerial vehicle in an environment,
Generating a first signal that causes the unmanned aircraft to navigate within the environment;
Receiving sensing data related to at least a portion of the environment using a plurality of sensors carried by the unmanned aerial vehicle;
Generating an environment map representing at least a portion of the environment based on the sensing data;
Detecting one or more obstacles located in a part of the environment using the environment map;
Generating a second signal using the environmental map to cause the unmanned aircraft to navigate to avoid the one or more obstacles.
[Item 25]
25. The method of claim 24, wherein the unmanned aerial vehicle is configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area.
[Item 26]
25. The method of claim 24, wherein the plurality of sensors includes a global positioning system (GPS) sensor.
[Item 27]
The method of claim 24, wherein the plurality of sensors comprises a vision sensor.
[Item 28]
25. The method of claim 24, wherein the plurality of sensors includes proximity sensors.
[Item 29]
29. The method of claim 28, wherein the proximity sensor comprises at least one of the following lidar sensor, ultrasonic sensor or in-flight camera sensor.
[Item 30]
The method of claim 24, wherein the environment map comprises a topological map.
[Item 31]
The method of claim 24, wherein the environment map comprises a metric map.
[Item 32]
32. The method of claim 31, wherein the metric map comprises at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map.
[Item 33]
32. The method of claim 31, wherein the metric map comprises an occupancy grid map.
[Item 34]
25. The method of claim 24, wherein the first signal is generated based on a plurality of instructions received from a remote terminal that communicates with the unmanned aircraft.
[Item 35]
35. The method of claim 34, wherein the plurality of instructions are input to the remote terminal by a user.
[Item 36]
25. The method of claim 24, wherein the first signal is generated autonomously by the unmanned aerial vehicle.
[Item 37]
25. The method of claim 24, wherein the sensing data includes data for a plurality of different coordinate systems, and generating the environment map includes mapping the data to a single coordinate system.
[Item 38]
The step of generating the first signal includes the step of generating a flight path for the unmanned aerial vehicle, and the step of generating the second signal is performed on the environment map to avoid the one or more obstacles. 25. The method of claim 24, comprising changing the flight path based on.
[Item 39]
40. The method of claim 38, wherein the flight path is configured to direct the unmanned aircraft from a current position to a previous position.
[Item 40]
A system for controlling an unmanned aerial vehicle in an environment,
A plurality of sensors carried by the unmanned aerial vehicle;
With one or more processors,
The one or more processors may be individually or collectively
Generating a first signal that causes the unmanned aircraft to navigate within the environment;
Using a plurality of sensors carried by the unmanned aerial vehicle to receive sensing data related to at least a portion of the environment;
Generating an environment map representing at least a portion of the environment based on the sensing data;
Using the environment map to detect one or more obstacles located in the part of the environment;
Configured to generate a second signal using the environmental map to cause the unmanned aircraft to navigate to avoid the one or more obstacles;
system.
[Item 41]
A method for controlling an unmanned aerial vehicle in an environment,
Receiving a first sensing signal associated with the environment from a first sensor and receiving a second sensing signal associated with the environment from a second sensor;
Generating a first environment map using the first sensing signal and a second environment map using the second sensing signal;
Combining the first environment map and the second environment map;
The first sensor and the second sensor are a plurality of different sensor types and are carried by the unmanned aerial vehicle,
Each of the first environment map and the second environment map includes obstacle occupancy information for the environment,
This generates a final environment map containing obstacle occupancy information for the environment.
Method.
[Item 42]
42. The method of claim 41, further comprising generating a signal that causes the unmanned aircraft to navigate within the environment based at least in part on the obstacle occupancy information in the final environment map.
[Item 43]
42. The method of claim 41, wherein the unmanned aerial vehicle is configured to detect the presence of a flight restriction region and not fly within a predetermined distance of the flight restriction region.
[Item 44]
42. The method of claim 41, wherein at least one of the first sensor or the second sensor comprises a global positioning system (GPS) sensor.
[Item 45]
42. The method of claim 41, wherein at least one of the first sensor or the second sensor comprises a vision sensor.
[Item 46]
42. The method of claim 41, wherein at least one of the first sensor or the second sensor comprises a proximity sensor.
[Item 47]
47. The method of claim 46, wherein the proximity sensor comprises at least one of the following lidar sensor, ultrasonic sensor or in-flight camera sensor.
[Item 48]
42. The method of claim 41, wherein the final environment map comprises a topological map.
[Item 49]
42. The method of claim 41, wherein the final environment map comprises a metric map.
[Item 50]
50. The method of claim 49, wherein the metric map comprises at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map.
[Item 51]
50. The method of claim 49, wherein the metric map comprises an occupancy grid map.
[Item 52]
42. The method of claim 41, wherein the first environment map is provided for a first coordinate system and the second environment map is provided for a second coordinate system that is different from the first coordinate system.
[Item 53]
53. The method of claim 52, wherein the first coordinate system is a global coordinate system and the second coordinate system is a local coordinate system.
[Item 54]
53. The method of claim 52, wherein combining the first environment map and the second environment map includes transforming the first environment map and the second environment map into a single coordinate system.
[Item 55]
42. The method of claim 41, wherein a sensing range of the first sensor is different from a sensing range of the second sensor.
[Item 56]
A system for controlling an unmanned aerial vehicle in an environment,
A first sensor carried by the unmanned aerial vehicle and configured to generate a first sensing signal associated with the environment;
A second sensor carried by the unmanned aerial vehicle and configured to generate a second sensing signal associated with the environment;
With one or more processors,
The second sensor and the first sensor are a plurality of different sensor types,
The one or more processors may be individually or collectively
Receiving the first sensing signal and the second sensing signal;
Generating a first environment map using the first sensing signal, generating a second environment map using the second sensing signal;
Configured to combine the first environment map and the second environment map;
Each of the first environment map and the second environment map includes obstacle occupancy information for the environment,
This generates a final environment map containing obstacle occupancy information for the environment.
system.
[Item 57]
A method for controlling an unmanned aerial vehicle in an environment,
Determining an initial location of the unmanned aerial vehicle using at least one of a plurality of sensors carried by the unmanned aerial vehicle;
Generating a first signal that causes the unmanned aircraft to navigate within the environment;
Receiving sensing data associated with the environment using at least one of the plurality of sensors;
Receiving an instruction to return to the initial location;
Generating a second signal that causes the unmanned aircraft to return along the path to the initial location;
If at least one of the plurality of sensors detects an obstacle located along the path in the environment, the path is changed to avoid the obstacle;
Method.
[Item 58]
58. The method of claim 57, wherein the unmanned aerial vehicle is configured to detect the presence of a flight restriction region and not fly within a predetermined distance of the flight restriction region.
[Item 59]
58. The method of claim 57, wherein the plurality of sensors includes a global positioning system (GPS) sensor.
[Item 60]
58. The method of claim 57, wherein the plurality of sensors comprises a vision sensor.
[Item 61]
58. The method of claim 57, wherein the plurality of sensors includes proximity sensors.
[Item 62]
62. The method of claim 61, wherein the proximity sensor comprises at least one of the following: a lidar sensor, an ultrasonic sensor, or a flight camera sensor.
[Item 63]
58. The method of claim 57, wherein the environment map comprises a topological map.
[Item 64]
58. The method of claim 57, wherein the environment map comprises a metric map.
[Item 65]
The method of claim 64, wherein the metric map comprises at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map.
[Item 66]
The method of claim 64, wherein the metric map comprises an occupancy grid map.
[Item 67]
58. The method of claim 57, wherein the path includes one or more portions that the unmanned aircraft has previously passed.
[Item 68]
58. The method of claim 57, wherein the route is different from a route that the unmanned aircraft has previously traveled.
[Item 69]
58. The method of claim 57, wherein the path is a flight path of the unmanned aircraft.
[Item 70]
70. The method of claim 69, wherein the path includes a spatial position and orientation of the unmanned aerial vehicle.
[Item 71]
A system for controlling an unmanned aerial vehicle in an environment,
A plurality of sensors carried by the unmanned aerial vehicle;
With one or more processors,
The one or more processors may be individually or collectively
Using at least one of a plurality of sensors carried by the unmanned aerial vehicle to determine an initial location of the unmanned aerial vehicle;
Generating a first signal that causes the unmanned aircraft to navigate within the environment;
Receiving sensing data associated with the environment using at least one of the plurality of sensors;
Receiving instructions to return to the initial location,
Configured to generate a second signal that causes the unmanned aircraft to return along the path to the initial location;
If at least one of the plurality of sensors detects an obstacle located along the path in the environment, the path is changed to avoid the obstacle;
system.
[Item 72]
A method for generating a map of an environment,
Receiving first sensing data including depth information for the environment from one or more vision sensors carried by an unmanned aerial vehicle;
Receiving second sensing data including depth information for the environment from one or more proximity sensors carried by the unmanned aerial vehicle;
Generating an environment map that includes depth information for the environment using the first sensing data and the second sensing data.
[Item 73]
Each of the first sensing data and the second sensing data includes at least one image having a plurality of pixels, and each pixel of the plurality of pixels is associated with a two-dimensional image coordinate and a depth value. Item 72. The method according to Item 72.
[Item 74]
74. The method of claim 73, wherein each pixel of the plurality of pixels is associated with a color value.
[Item 75]
The method of claim 72, wherein each of the first sensing data and the second sensing data includes silhouette information for one or more objects in the environment.
[Item 76]
73. The method of claim 72, further comprising generating a signal that causes the unmanned aircraft to navigate through the environment based at least in part on the depth information in the environment map.
[Item 77]
73. The method of claim 72, wherein the unmanned aerial vehicle is configured to detect the presence of a flight restriction region and not fly within a predetermined distance of the flight restriction region.
[Item 78]
The method of claim 72, wherein the one or more vision sensors include a single camera.
[Item 79]
73. The method of claim 72, wherein the one or more vision sensors include two or more cameras.
[Item 80]
75. The method of claim 72, wherein the one or more proximity sensors include at least one ultrasonic sensor.
[Item 81]
75. The method of claim 72, wherein the one or more proximity sensors include at least one lidar sensor.
[Item 82]
73. The method of claim 72, wherein the first sensing data includes a first set of depth images and the second sensing data includes a second set of depth images.
[Item 83]
The step of generating the environment map includes:
Identifying a first plurality of feature points present in the first set of depth images;
Identifying a second plurality of feature points present in the second set of depth images;
Determining a correspondence between the first plurality of feature points and the second plurality of feature points;
Generating the environment map based on the correspondence by combining the first set of depth images and the second set of depth images; and
83. The method of claim 82, wherein each of the second plurality of feature points corresponds to one of the first plurality of feature points.
[Item 84]
73. The method of claim 72, wherein the first sensing data is provided for a first coordinate system and the second sensing data is provided for a second coordinate system that is different from the first coordinate system.
[Item 85]
85. The method of claim 84, wherein generating the environment map comprises expressing the first sensing data and the second sensing data with respect to a third coordinate system.
[Item 86]
86. The method of claim 85, wherein the third coordinate system is either the first coordinate system or the second coordinate system.
[Item 87]
86. The method of claim 85, wherein the third coordinate system is different from the first coordinate system and the second coordinate system.
[Item 88]
The method of claim 72, wherein the environment map comprises a topological map.
[Item 89]
The method of claim 72, wherein the environment map comprises a metric map.
[Item 90]
90. The method of claim 89, wherein the metric map comprises at least one of the following point cloud, 3D grid map, 2D grid map, or 2.5D grid map.
[Item 91]
90. The method of claim 89, wherein the metric map comprises an occupancy grid map.
[Item 92]
A system that generates a map of an environment,
One or more vision sensors carried by an unmanned aerial vehicle and configured to generate first sensing data including depth information for the environment;
One or more proximity sensors carried by the unmanned aerial vehicle and configured to generate second sensing data including depth information for the environment;
With one or more processors,
The one or more processors may be individually or collectively
Receiving the first sensing data and the second sensing data;
Configured to generate an environment map including depth information for the environment using the first sensing data and the second sensing data;
system.

Claims (29)

ある環境内で無人航空機を制御する方法であって、
前記環境に関連する第1センシング信号を第1センサから受信して、前記環境に関連する第2センシング信号を第2センサから受信するステップと、
前記第1センシング信号を使用する第1環境マップと、前記第2センシング信号を使用する第2環境マップとを生成するステップと、
前記第1環境マップ及び前記第2環境マップを組み合わせるステップと
を含み、
前記第1センサ及び前記第2センサは、複数の異なるセンサタイプであり、前記無人航空機に搭載され、
前記第1環境マップ及び前記第2環境マップは、それぞれ前記環境における障害物情報を含み、
前記環境における障害物情報を含む最終環境マップを生成する、
方法。
A method for controlling an unmanned aerial vehicle in an environment,
Receiving a first sensing signal associated with the environment from a first sensor and receiving a second sensing signal associated with the environment from a second sensor;
Generating a first environment map using the first sensing signal and a second environment map using the second sensing signal;
Combining the first environment map and the second environment map;
The first sensor and the second sensor are a plurality of different sensor types, mounted on the unmanned aerial vehicle,
The first environment map and the second environment map each include obstacle information in the environment,
Generating a final environment map including obstacle information in the environment;
Method.
少なくとも部分的に前記最終環境マップにおける前記障害物情報に基づいて、前記環境で航行させる信号を生成するステップを更に含む、請求項1に記載の方法。   The method of claim 1, further comprising generating a signal to navigate in the environment based at least in part on the obstacle information in the final environment map. 前記無人航空機は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しない、請求項1または2に記載の方法。   The method according to claim 1 or 2, wherein the unmanned aerial vehicle detects the presence of a flight restriction area and does not fly within a predetermined distance of the flight restriction area. 前記第1センサまたは前記第2センサのうち少なくとも1つは、全地球測位システム(GPS)センサ、ビジョンセンサ及び近接センサのうちの少なくとも1つを含む、請求項1から3の何れか一項に記載の方法。   4. The device according to claim 1, wherein at least one of the first sensor or the second sensor includes at least one of a global positioning system (GPS) sensor, a vision sensor, and a proximity sensor. The method described. 前記最終環境マップはトポロジカルマップまたはメトリックマップを含む、請求項1から4の何れか一項に記載の方法。   The method according to any one of claims 1 to 4, wherein the final environment map comprises a topological map or a metric map. 前記第1環境マップは、第1座標系に対して提供され、前記第2環境マップは、前記第1座標系と異なる第2座標系に対して提供される、請求項1から5の何れか一項に記載の方法。   The first environment map is provided for a first coordinate system, and the second environment map is provided for a second coordinate system different from the first coordinate system. The method according to one item. 前記第1座標系は全体座標系であり、前記第2座標系は局所座標系である、請求項6に記載の方法。   The method of claim 6, wherein the first coordinate system is a global coordinate system and the second coordinate system is a local coordinate system. 前記最終環境マップを生成するステップは、前記第1環境マップ及び前記第2環境マップを単一座標系に変換するステップをさらに含む、請求項6または7に記載の方法。   The method according to claim 6 or 7, wherein the step of generating the final environment map further includes the step of converting the first environment map and the second environment map into a single coordinate system. 前記第1センサのセンシング範囲は、前記第2センサのセンシング範囲と異なる、請求項1から8の何れか一項に記載の方法。   The method according to any one of claims 1 to 8, wherein a sensing range of the first sensor is different from a sensing range of the second sensor. ある環境内で無人航空機を制御するシステムであって、
前記無人航空機に搭載され、前記環境に関連する第1センシング信号を生成する第1センサと、
前記無人航空機に搭載され、前記環境に関連する第2センシング信号を生成する第2センサと、
1または複数のプロセッサと
を備え、
前記第2センサ及び前記第1センサは複数の異なるセンサタイプであり、
前記1または複数のプロセッサは、
前記第1センシング信号及び前記第2センシング信号を受信し、
前記第1センシング信号を使用して第1障害物占有情報を含む第1環境マップを生成して、前記第2センシング信号を使用して第2障害物占有情報を含む第2環境マップを生成し、
前記第1環境マップ及び前記第2環境マップに基づいて、最終環境マップを生成する、
システム。
A system for controlling an unmanned aerial vehicle in an environment,
A first sensor mounted on the unmanned aerial vehicle and generating a first sensing signal related to the environment;
A second sensor mounted on the unmanned aerial vehicle and generating a second sensing signal related to the environment;
One or more processors,
The second sensor and the first sensor are a plurality of different sensor types,
The one or more processors are:
Receiving the first sensing signal and the second sensing signal;
A first environment map including first obstacle occupation information is generated using the first sensing signal, and a second environment map including second obstacle occupation information is generated using the second sensing signal. ,
Generating a final environment map based on the first environment map and the second environment map;
system.
前記無人航空機に請求項1から9の何れか一項に記載の方法を実行させるためのプログラム。   The program for making the said unmanned aircraft perform the method as described in any one of Claim 1 to 9. ある環境内で無人航空機を制御する通信端末であって、
1または複数のプロセッサを備え、
前記1または複数のプロセッサは、
前記無人航空機に搭載された互いに異なるセンサタイプの第1センサ及び第2センサのそれぞれから、前記環境に関連する第1センシング信号及び第2センシング信号を受信し、
前記第1センシング信号を使用して第1障害物占有情報を含む第1環境マップを生成して、前記第2センシング信号を使用して第2障害物占有情報を含む第2環境マップを生成し、
前記第1環境マップ及び前記第2環境マップに基づいて、最終環境マップを生成する、
通信端末。
A communication terminal that controls an unmanned aerial vehicle in an environment,
One or more processors,
The one or more processors are:
Receiving a first sensing signal and a second sensing signal related to the environment from each of a first sensor and a second sensor of different sensor types mounted on the unmanned aerial vehicle;
A first environment map including first obstacle occupation information is generated using the first sensing signal, and a second environment map including second obstacle occupation information is generated using the second sensing signal. ,
Generating a final environment map based on the first environment map and the second environment map;
Communication terminal.
ある環境のマップを生成する方法であって、
無人航空機に搭載される1または複数のビジョンセンサから、前記環境に対する深度情報を含む第1センシングデータを受信するステップと、
前記無人航空機に搭載される1または複数の近接センサから、前記環境に対する深度情報を含む第2センシングデータを受信するステップと、
前記第1センシングデータ及び前記第2センシングデータを使用して、前記環境に対する深度情報を含む環境マップを生成するステップと
を含む、方法。
A method for generating a map of an environment,
Receiving first sensing data including depth information for the environment from one or more vision sensors mounted on an unmanned aerial vehicle;
Receiving second sensing data including depth information for the environment from one or more proximity sensors mounted on the unmanned aerial vehicle;
Generating an environment map including depth information for the environment using the first sensing data and the second sensing data.
前記第1センシングデータ及び前記第2センシングデータの各々は、複数のピクセルを有する少なくとも1つの画像を含み、前記複数のピクセルの各ピクセルは、2次元画像座標及び深度値に関連付けられている、請求項13に記載の方法。   Each of the first sensing data and the second sensing data includes at least one image having a plurality of pixels, and each pixel of the plurality of pixels is associated with a two-dimensional image coordinate and a depth value. Item 14. The method according to Item 13. 前記複数のピクセルの各ピクセルは、色値と関連付けられる、請求項14に記載の方法。   The method of claim 14, wherein each pixel of the plurality of pixels is associated with a color value. 前記第1センシングデータ及び前記第2センシングデータの各々は、前記環境内の1または複数の物体に対するシルエット情報を含む、請求項13から15の何れか一項に記載の方法。   The method according to any one of claims 13 to 15, wherein each of the first sensing data and the second sensing data includes silhouette information for one or more objects in the environment. 少なくとも部分的に前記環境マップにおける前記深度情報に基づいて、前記無人航空機に前記環境内を航行させる信号を生成するステップを更に含む、請求項13から16の何れか一項に記載の方法。   17. A method according to any one of claims 13 to 16, further comprising generating a signal for causing the unmanned aircraft to navigate through the environment based at least in part on the depth information in the environment map. 前記無人航空機は、飛行制限領域の存在を検出して、前記飛行制限領域の予め定められた距離内を飛行しないように構成される、請求項13から17の何れか一項に記載の方法。   18. A method according to any one of claims 13 to 17, wherein the unmanned aerial vehicle is configured to detect the presence of a flight restriction area and not fly within a predetermined distance of the flight restriction area. 前記1または複数の近接センサは、少なくとも1つの超音波センサまたは少なくとも1つのライダセンサを含む、請求項13から18の何れか一項に記載の方法。   The method according to any one of claims 13 to 18, wherein the one or more proximity sensors comprise at least one ultrasonic sensor or at least one lidar sensor. 前記第1センシングデータは第1セットの深度画像を含み、前記第2センシングデータは第2セットの深度画像を含む、請求項13から19の何れか一項に記載の方法。   20. The method according to any one of claims 13 to 19, wherein the first sensing data includes a first set of depth images and the second sensing data includes a second set of depth images. 前記環境マップを生成するステップは、
前記第1セットの深度画像に存在する第1の複数の特徴点を識別するステップと、
前記第2セットの深度画像に存在する第2の複数の特徴点を識別するステップと、
前記第1の複数の特徴点と前記第2の複数の特徴点との間の対応を決定するステップと、
前記対応に基づいて、前記第1セットの深度画像と前記第2セットの深度画像とを利用して前記環境マップを生成するステップと
を含み、
前記第2の複数の特徴点の各々は、前記第1の複数の特徴点の1つに対応する、請求項20に記載の方法。
The step of generating the environment map includes:
Identifying a first plurality of feature points present in the first set of depth images;
Identifying a second plurality of feature points present in the second set of depth images;
Determining a correspondence between the first plurality of feature points and the second plurality of feature points;
Generating the environment map based on the correspondence using the first set of depth images and the second set of depth images;
21. The method of claim 20, wherein each of the second plurality of feature points corresponds to one of the first plurality of feature points.
前記第1センシングデータは、第1座標系に対して提供され、前記第2センシングデータは、前記第1座標系と異なる第2座標系に対して提供される、請求項13から21の何れか一項に記載の方法。   The first sensing data is provided for a first coordinate system, and the second sensing data is provided for a second coordinate system different from the first coordinate system. The method according to one item. 前記環境マップを生成するステップは、第3座標系に対して前記第1センシングデータ及び前記第2センシングデータを表現するステップを含む、請求項22に記載の方法。   23. The method of claim 22, wherein generating the environment map includes expressing the first sensing data and the second sensing data with respect to a third coordinate system. 前記第3座標系は、前記第1座標系または前記第2座標系のいずれか一方である、請求項23に記載の方法。   24. The method of claim 23, wherein the third coordinate system is either the first coordinate system or the second coordinate system. 前記第3座標系は、前記第1座標系および前記第2座標系と異なる、請求項23に記載の方法。   24. The method of claim 23, wherein the third coordinate system is different from the first coordinate system and the second coordinate system. 前記環境マップはトポロジカルマップまたはメトリックマップを含む、請求項13から25の何れか一項に記載の方法。   26. A method according to any one of claims 13 to 25, wherein the environment map comprises a topological map or a metric map. ある環境のマップを生成するシステムであって、
無人航空機に搭載され、前記環境に対する深度情報を含む第1センシングデータを生成する1または複数のビジョンセンサと、
前記無人航空機に搭載され、前記環境に対する深度情報を含む第2センシングデータを生成するように1または複数の近接センサと、
1または複数のプロセッサと
を備え、
前記1または複数のプロセッサは、
前記第1センシングデータ及び前記第2センシングデータを受信し、
前記第1センシングデータ及び前記第2センシングデータを使用して、前記環境に対する深度情報を含む環境マップを生成する、
システム。
A system that generates a map of an environment,
One or more vision sensors mounted on an unmanned aerial vehicle and generating first sensing data including depth information for the environment;
One or more proximity sensors mounted on the unmanned aerial vehicle to generate second sensing data including depth information for the environment;
One or more processors,
The one or more processors are:
Receiving the first sensing data and the second sensing data;
Generating an environment map including depth information for the environment using the first sensing data and the second sensing data;
system.
前記無人航空機に請求項13から26の何れか一項に記載の方法を実行させるためのプログラム。   A program for causing the unmanned aircraft to execute the method according to any one of claims 13 to 26. 無人航空機と通信し、ある環境のマップを生成する通信端末であって、
1または複数のプロセッサを備え、
前記1または複数のプロセッサは、
前記無人航空機に搭載された1または複数のビジョンセンサおよび1または複数の近接センサのそれぞれから、前記環境に対する深度情報を含む第1センシングデータ及び第2センシングデータを受信し、
前記第1センシングデータ及び前記第2センシングデータを使用して、前記環境に対する深度情報を含む環境マップを生成する、
通信端末。
A communication terminal that communicates with an unmanned aerial vehicle and generates a map of an environment,
One or more processors,
The one or more processors are:
Receiving first sensing data and second sensing data including depth information for the environment from each of one or more vision sensors and one or more proximity sensors mounted on the unmanned aerial vehicle;
Generating an environment map including depth information for the environment using the first sensing data and the second sensing data;
Communication terminal.
JP2017207628A 2017-10-26 2017-10-26 Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal Active JP6487010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017207628A JP6487010B2 (en) 2017-10-26 2017-10-26 Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017207628A JP6487010B2 (en) 2017-10-26 2017-10-26 Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016533706A Division JP6235716B2 (en) 2014-09-05 2014-09-05 Method for controlling an unmanned aerial vehicle in an environment and system for controlling an unmanned aerial vehicle in an environment

Publications (2)

Publication Number Publication Date
JP2018055695A JP2018055695A (en) 2018-04-05
JP6487010B2 true JP6487010B2 (en) 2019-03-20

Family

ID=61836813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017207628A Active JP6487010B2 (en) 2017-10-26 2017-10-26 Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal

Country Status (1)

Country Link
JP (1) JP6487010B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200143217A (en) * 2019-06-14 2020-12-23 엘지전자 주식회사 How to update a map in Fusion Slam and a robot that implements it

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962650B2 (en) 2017-10-31 2021-03-30 United States Of America As Represented By The Administrator Of Nasa Polyhedral geofences
US11395096B2 (en) 2018-06-04 2022-07-19 Nec Corporation Information sharing device, information sharing method, and recording medium
CN108806223A (en) * 2018-06-20 2018-11-13 广东电网有限责任公司 A kind of electric energy meter mobile set copy device and method
KR102104031B1 (en) * 2018-08-16 2020-04-24 한국항공우주연구원 Indoor 3D location estimating system and method using multiple sensors
GB2577134B (en) * 2018-09-10 2021-01-13 Perceptual Robotics Ltd Control and navigation systems
KR102209569B1 (en) * 2018-12-18 2021-01-28 주식회사 포스코 High strength and ductility steel sheet, and method for manufacturing the same
WO2021035471A1 (en) * 2019-08-26 2021-03-04 Beijing Voyager Technology Co., Ltd. Systems and methods for positioning a target subject
KR20210029518A (en) 2019-09-06 2021-03-16 삼성전자주식회사 Multi-sensor based unmanned aerial vehicle and its control method
CN111650965B (en) * 2020-06-17 2023-06-20 北华航天工业学院 Unmanned aerial vehicle autonomous return control system and control method thereof
CN112015203B (en) * 2020-09-07 2024-04-02 深圳大漠大智控技术有限公司 Unmanned aerial vehicle cluster track tracking method and system
CN112781595B (en) * 2021-01-12 2023-08-01 北京航空航天大学 Indoor airship positioning and obstacle avoidance system based on depth camera
WO2023047653A1 (en) 2021-09-27 2023-03-30 ソニーセミコンダクタソリューションズ株式会社 Information processing device and information processing method
CN114035616B (en) * 2021-10-22 2023-10-20 中国人民解放军国防科技大学 Method and system for controlling striking of aircraft to moving target
CN116484118B (en) * 2023-03-24 2024-04-09 中国科学院空天信息创新研究院 Unmanned aerial vehicle flight environment data service system and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031884A (en) * 2007-07-25 2009-02-12 Toyota Motor Corp Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
JP5776324B2 (en) * 2011-05-17 2015-09-09 富士通株式会社 Map processing method and program, and robot system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200143217A (en) * 2019-06-14 2020-12-23 엘지전자 주식회사 How to update a map in Fusion Slam and a robot that implements it
KR102246236B1 (en) 2019-06-14 2021-04-28 엘지전자 주식회사 How to update a map in Fusion Slam and a robot that implements it

Also Published As

Publication number Publication date
JP2018055695A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
US11914369B2 (en) Multi-sensor environmental mapping
JP6487010B2 (en) Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal
US11697411B2 (en) Apparatus and methods for obstacle detection
US20220357753A1 (en) Drop-off location planning for delivery vehicle
US10599149B2 (en) Salient feature based vehicle positioning
JP6181300B2 (en) System for controlling the speed of unmanned aerial vehicles
CN111506109B (en) Selective processing of sensor data
CN107850902B (en) Camera configuration on a movable object
JP2019050007A (en) Method and device for determining position of mobile body and computer readable medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190220

R150 Certificate of patent or registration of utility model

Ref document number: 6487010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250