JP2019050007A - Method and device for determining position of mobile body and computer readable medium - Google Patents

Method and device for determining position of mobile body and computer readable medium Download PDF

Info

Publication number
JP2019050007A
JP2019050007A JP2018206656A JP2018206656A JP2019050007A JP 2019050007 A JP2019050007 A JP 2019050007A JP 2018206656 A JP2018206656 A JP 2018206656A JP 2018206656 A JP2018206656 A JP 2018206656A JP 2019050007 A JP2019050007 A JP 2019050007A
Authority
JP
Japan
Prior art keywords
salient
images
salient features
uav
movable object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018206656A
Other languages
Japanese (ja)
Inventor
ツォン ジャオ
Cong Zhao
ツォン ジャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018206656A priority Critical patent/JP2019050007A/en
Publication of JP2019050007A publication Critical patent/JP2019050007A/en
Ceased legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a device and a method for determining a position of a mobile body and a computer readable medium.SOLUTION: There is provided a method 100 for determining a position of a mobile body, in which an imaging device is connected to such a movable object as an unmanned aircraft (UAV). The imaging device, for example, a camera captures one or more images. Significant features in the one or more images are identified. Distances from the mobile body to the significant features are calculated so that the position of the mobile body is determined.SELECTED DRAWING: Figure 1

Description

無人航空機(UAV:unmanned aerial vehicle)などの可動物体は、軍事及び民間用途の多種多様の環境内の監視、偵察及び探査タスクを行うことに使用され得る。このような可動物体は、環境内の可動物体の位置を評価するように構成されたセンサを含み得る。可動物体の位置の正確且つ精密な判断は、例えば可動物体が半自律的又は完全自律的やり方で動作する場合に重要かもしれない。   Mobile objects such as unmanned aerial vehicles (UAVs) can be used to perform surveillance, reconnaissance and exploration tasks in a wide variety of environments for military and civilian applications. Such movable objects may include sensors configured to assess the position of the movable object in the environment. Accurate and precise determination of the position of the moveable object may be important, for example, when the moveable object operates in a semi-autonomous or fully autonomous manner.

可動物体の位置を評価するための既存手法は幾つかの例では最適であるとは言えないかもしれない。例えば、GPSセンサを利用する手法は、可動物体(例えば、UAV)が動作する環境により制限され得、搭載された補助的支援センサを必要とし得る。例えば、スラム(SLAM:Simultaneous Localization and Mapping)を利用する手法は正確さと精度を欠くことがあり、時間とともに誤差を蓄積し得る。   Existing approaches to evaluating the position of movable objects may not be optimal in some instances. For example, approaches utilizing GPS sensors may be limited by the environment in which the moveable object (e.g., UAV) operates, and may require an on-board auxiliary assistance sensor. For example, techniques that use SLAM (Simultaneous Localization and Mapping) may lack accuracy and precision, and may accumulate errors over time.

本明細書において開示される実施形態は環境内の可動物体の位置を評価する装置及び方法を提供する。多くの実施形態では、可動物体を取り囲む環境に関する情報を収集するために撮像装置が使用され得る。撮像装置から得られた画像データは、例えば画像内の顕著特徴を判断するために処理され得る。識別された顕著特徴は更に、可動物体の位置を判断するために利用され得る。有利には、本明細書で説明する手法は、画像データに基づき物体位置の改善された且つ効率的な評価を提供し得、車両の自律航行又は制御を改善するために使用され得る。   Embodiments disclosed herein provide an apparatus and method for evaluating the position of a movable object in an environment. In many embodiments, an imaging device may be used to gather information about the environment surrounding the moveable object. Image data obtained from the imaging device may be processed, for example, to determine salient features in the image. The identified salient features may further be utilized to determine the position of the moveable object. Advantageously, the techniques described herein may provide an improved and efficient assessment of object position based on image data, and may be used to improve the autonomous navigation or control of a vehicle.

したがって、一態様では、車両の位置を判断する方法が提供される。本方法は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するステップと、複数の画像から環境内でほぼ静止した複数の静止顕著特徴を1つ又は複数のプロセッサの助けを借りて識別するステップと、車両から複数の静止顕著特徴のそれぞれまでの距離を1つ又は複数のプロセッサの助けを借りて計算するステップと、車両から複数の静止顕著特徴のそれぞれまでの距離に基づき車両の位置を1つ又は複数のプロセッサの助けを借りて判断するステップと含む。   Thus, in one aspect, a method is provided for determining the position of a vehicle. The method comprises the steps of receiving a plurality of images captured by the one or more field sensors and a plurality of stationary salient features substantially stationary in the environment from the plurality of images with the aid of one or more processors. And calculating the distance from the vehicle to each of the plurality of stationary salient features with the help of one or more processors; and based on the distance from the vehicle to each of the plurality of stationary salient features Determining the location of the data with the help of one or more processors.

別の態様では、車両の位置を判断するための装置が提供される。本装置は、複数の画像を捕捉するように構成された1つ又は複数の視野センサと、複数の画像から環境内でほぼ静止した複数の静止顕著特徴を識別し、車両から複数の静止顕著特徴のそれぞれまでの距離を計算し、車両から複数の静止顕著特徴のそれぞれまでの距離に基づき車両の位置を判断するように個々に又は集合的に構成された1つ又は複数のプロセッサとを含む。   In another aspect, an apparatus is provided for determining the position of a vehicle. The apparatus identifies one or more view sensors configured to capture a plurality of images, a plurality of stationary salient features that are substantially stationary in the environment from the plurality of images, and a plurality of stationary salient features from the vehicle And one or more processors individually or collectively configured to calculate the distance to each of and to determine the position of the vehicle based on the distance from the vehicle to each of the plurality of stationary salient features.

別の態様では、車両の位置を判断するためのプログラム命令を含む非一時的コンピュータ可読媒体が提供される。本コンピュータ可読媒体は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するためのプログラム命令と、複数の画像から環境内でほぼ静止した複数の静止顕著特徴を識別するためのプログラム命令と、車両から複数の静止顕著特徴のそれぞれまでの距離を計算するためのプログラム命令と、車両から複数の静止顕著特徴のそれぞれまでの距離に基づき車両の位置を判断するためのプログラム命令とを含む。   In another aspect, there is provided a non-transitory computer readable medium comprising program instructions for determining the position of a vehicle. The computer readable medium comprises program instructions for receiving a plurality of images captured by one or more field of view sensors and a program for identifying a plurality of stationary stationary salient features within the environment from the plurality of images. Instructions, program instructions for calculating the distances from the vehicle to each of the plurality of stationary salient features, and program instructions for determining the position of the vehicle based on the distances from the vehicle to each of the plurality of stationary salient features Including.

別の態様では、車両の位置を判断する方法が提供される。本方法は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するステップと、複数の画像から複数の顕著特徴を1つ又は複数のプロセッサの助けを借りて識別するステップと、車両から複数の顕著特徴のそれぞれまでの距離を1つ又は複数のプロセッサの助けを借りて計算するステップと、車両から複数の顕著特徴のそれぞれまでの距離に基づき車両の位置を1つ又は複数のプロセッサの助けを借りて判断するステップであって、上記位置は少なくとも2組の同心円の交差ゾーン内にあり、各組は複数の顕著特徴のうちの少なくとも1つを中心とする、ステップとを含む。   In another aspect, a method is provided for determining the position of a vehicle. The method comprises the steps of: receiving a plurality of images captured by the one or more vision sensors; identifying a plurality of salient features from the plurality of images with the aid of one or more processors; Calculating the distance from the vehicle to each of the plurality of salient features with the aid of one or more processors, and the position of the vehicle on the basis of the distance from the vehicle to each of the plurality of salient features. Determining with the help of, wherein the location is in at least two sets of concentric zones of intersection, each set being centered on at least one of the plurality of salient features.

別の態様では、車両の位置を判断するための装置が提供される。本装置は、複数の画像を捕捉するように構成された1つ又は複数の視野センサと、複数の画像から複数の顕著特徴を識別し、車両から複数の顕著特徴のそれぞれまでの距離を計算し、車両から複数の顕著特徴のそれぞれまでの距離に基づき車両の位置を判断するように個々に又は集合的に構成された1つ又は複数のプロセッサであって、上記位置は少なくとも2組の同心円の交差ゾーン内にあり、各組は複数の顕著特徴のうちの少なくとも1つを中心とする、プロセッサとを含む。   In another aspect, an apparatus is provided for determining the position of a vehicle. The apparatus identifies a plurality of salient features from the plurality of images, one or more view sensors configured to capture a plurality of images, and calculates a distance from the vehicle to each of the plurality of salient features. One or more processors individually or collectively configured to determine the position of the vehicle based on the distance from the vehicle to each of the plurality of salient features, the positions being at least two sets of concentric circles And a processor within the intersection zone, each set centered on at least one of the plurality of salient features.

別の態様では、車両の位置を判断するためのプログラム命令を含む非一時的コンピュータ可読媒体が提供される。本コンピュータ可読媒体は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するためのプログラム命令と、複数の画像から複数の顕著特徴を識別するためのプログラム命令と、車両から複数の顕著特徴のそれぞれまでの距離を計算するためのプログラム命令と、車両から複数の顕著特徴のそれぞれまでの距離に基づき車両の位置を判断するためのプログラム命令であって、上記位置は少なくとも2組の同心円の交差ゾーン内にあり、各組は複数の顕著特徴のうちの少なくとも1つを中心とする、プログラム命令とを含む。   In another aspect, there is provided a non-transitory computer readable medium comprising program instructions for determining the position of a vehicle. The computer readable medium comprises program instructions for receiving a plurality of images captured by the one or more vision sensors, program instructions for identifying a plurality of salient features from the plurality of images, and a plurality of programs from the vehicle. Program instructions for calculating the distance to each of the salient features and program instructions for determining the position of the vehicle based on the distances to the salient features from the vehicle, the positions being at least two sets And program instructions within concentric zones of intersection, each set centered on at least one of the plurality of salient features.

別の態様では、車両の位置を判断する方法が提供される。本方法は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するステップと、複数の画像から複数の顕著特徴候補を1つ又は複数のプロセッサの助けを借りて識別するステップと、2つ以上の顕著特徴を1つ又は複数のプロセッサの助けを借りて選択するステップであって、選択された顕著特徴は複数の顕著特徴候補のサブセットである、ステップと、車両から選択された顕著特徴のそれぞれまでの距離を1つ又は複数のプロセッサの助けを借りて計算するステップと、車両から選択された顕著特徴のそれぞれまでの距離に基づき車両の位置を1つ又は複数のプロセッサの助けを借りて判断するステップとを含む。   In another aspect, a method is provided for determining the position of a vehicle. The method comprises the steps of receiving a plurality of images captured by the one or more vision sensors, and identifying a plurality of salient feature candidates from the plurality of images with the aid of one or more processors. Selecting two or more salient features with the help of one or more processors, wherein the selected salient features are a subset of the plurality of salient feature candidates, and the salient selected from the vehicle Calculating the distance to each of the features with the help of one or more processors, and the position of the vehicle on the basis of the distance of each of the salient features selected from the vehicle to one or more processors. And a step of borrowing and judging.

別の態様では、車両の位置を判断するための装置が提供される。本装置は、複数の画像を捕捉するように構成された1つ又は複数の視野センサと、複数の画像から複数の顕著特徴候補を識別し、複数の顕著特徴候補のサブセットである2つ以上の顕著特徴を選択し、車両から選択された顕著特徴のそれぞれまでの距離を計算し、車両から選択された顕著特徴のそれぞれまでの距離に基づき車両の位置を判断するように個々に又は集合的に構成された1つ又は複数のプロセッサとを含む。   In another aspect, an apparatus is provided for determining the position of a vehicle. The apparatus identifies one or more view sensors configured to capture a plurality of images, identifies a plurality of salient feature candidates from the plurality of images, and is a subset of the plurality of salient feature candidates. Select the salient features, calculate the distance from the vehicle to each of the salient features selected, and individually or collectively to determine the position of the vehicle based on the distance to the salient features selected from the vehicle And one or more configured processors.

別の態様では、車両の位置を判断するためのプログラム命令を含む非一時的コンピュータ可読媒体が提供される。本コンピュータ可読媒体は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するためのプログラム命令と、複数の画像から複数の顕著特徴候補を識別するためのプログラム命令と、複数の顕著特徴候補のサブセットである2つ以上の顕著特徴を選択するためのプログラム命令と、車両から選択された顕著特徴のそれぞれまでの距離を計算するためのプログラム命令と、車両から選択された顕著特徴のそれぞれまでの距離に基づき車両の位置を判断するためのプログラム命令とを含む。   In another aspect, there is provided a non-transitory computer readable medium comprising program instructions for determining the position of a vehicle. The computer readable medium comprises program instructions for receiving a plurality of images captured by one or more view sensors, program instructions for identifying a plurality of salient feature candidates from the plurality of images, and a plurality of salient features. Program instructions for selecting two or more salient features that are a subset of the feature candidate, program instructions for calculating the distance from the vehicle to each of the salient features selected, and salient features selected from the car Program instructions for determining the position of the vehicle based on the distances to each.

別の態様では、車両の位置を判断する方法が提供される。本方法は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するステップと、複数の画像から1つ又は複数の認識可能物体に対応する複数の顕著領域を1つ又は複数のプロセッサの助けを借りて識別するステップと、車両から複数の顕著領域のそれぞれまでの距離を1つ又は複数のプロセッサの助けを借りて計算するステップと、車両から複数の顕著領域のそれぞれまでの距離に基づき車両の位置を1つ又は複数のプロセッサの助けを借りて判断するステップとを含む。   In another aspect, a method is provided for determining the position of a vehicle. The method comprises the steps of receiving a plurality of images captured by the one or more field sensors, and a plurality of salient regions corresponding to one or more recognizable objects from the plurality of images. The steps of identifying with the aid of the step of calculating the distance from the vehicle to each of the plurality of saliency areas with the help of one or more processors, and the distance from the vehicle to each of the plurality of saliency areas Determining the position of the vehicle with the help of one or more processors.

別の態様では、車両の位置を判断するための装置が提供される。本装置は、複数の画像を捕捉するように構成された1つ又は複数の視野センサと、複数の画像から、1つ又は複数の認識可能物体に対応する複数の顕著領域を識別し、車両から複数の顕著領域のそれぞれまでの距離を計算し、車両から複数の顕著領域のそれぞれまでの距離に基づき車両の位置を判断するように個々に又は集合的に構成された1つ又は複数のプロセッサとを含む。   In another aspect, an apparatus is provided for determining the position of a vehicle. The apparatus identifies a plurality of salient regions corresponding to one or more recognizable objects from the one or more view sensors configured to capture the plurality of images, and the plurality of images, from the vehicle One or more processors individually or collectively configured to calculate the distance to each of the plurality of salient regions and to determine the position of the vehicle based on the distance from the vehicle to each of the plurality of salient regions including.

別の態様では、車両の位置を判断するためのプログラム命令を含む非一時的コンピュータ可読媒体が提供される。本コンピュータ可読媒体は、1つ又は複数の視野センサにより捕捉された複数の画像を受信するためのプログラム命令と、複数の画像から1つ又は複数の認識可能物体に対応する複数の顕著領域を識別するためのプログラム命令と、車両から複数の顕著領域のそれぞれまでの距離を計算するためのプログラム命令と、車両から複数の顕著領域のそれぞれまでの距離に基づき車両の位置を判断するためのプログラム命令とを含む。   In another aspect, there is provided a non-transitory computer readable medium comprising program instructions for determining the position of a vehicle. The computer readable medium identifies program instructions for receiving a plurality of images captured by the one or more vision sensors, and identifies a plurality of salient regions corresponding to one or more recognizable objects from the plurality of images Program instructions for determining the position of the vehicle based on the program instructions for calculating the distance from the vehicle to each of the plurality of salient regions And.

本発明の様々な態様は、個々に、集合的に又は互いに組み合わせて理解され得るということを理解すべきである。本明細書で説明する本発明の様々な態様は以下に記載される具体的用途のうちの任意のものに適用され得る。本発明の他の目的と特徴は、本明細書、特許請求の範囲、添付図面の精査により明白になる。   It should be understood that the various aspects of the invention may be understood individually, collectively or in combination with one another. The various aspects of the invention described herein may be applied to any of the specific applications described below. Other objects and features of the present invention will become apparent upon review of the specification, claims and accompanying drawings.

参照による援用
本明細書で述べられる全ての刊行物、特許、及び特許出願は、個々の刊行物、特許、又は特許出願が参照により援用されるように具体的かつ個々に示されたと同程度に、参照により本明細書に援用される。
Incorporation by Reference All publications, patents, and patent applications mentioned herein are specifically and specifically indicated to be incorporated by reference as if each individual publication, patent or patent application was incorporated by reference. , Incorporated herein by reference.

本発明の新規な特徴は添付の特許請求の範囲における特殊性によって記載される。本発明の特徴及び利点のさらなる理解は、本発明の原理が利用される例示的な実施形態を記載する以下の詳細説明と添付図面とを参照することにより得られる。   The novel features of the present invention are set forth by the peculiarities in the appended claims. A further understanding of the features and advantages of the present invention can be obtained by reference to the following detailed description that sets forth illustrative embodiments, in which the principles of the invention are utilized, and the accompanying drawings.

幾つかの実施形態による、車両の位置を判断する方法を提供する。According to some embodiments, a method of determining the position of a vehicle is provided. 幾つかの実施形態による、撮像装置により捕捉された画像と画像の顕著度マップを示す。5 shows a saliency map of an image captured by an imaging device and an image according to some embodiments. 幾つかの実施形態による、可動物体から顕著特徴までの距離に基づいて判断された可動物体の位置を示す。7 illustrates the position of the moveable object determined based on the distance from the moveable object to the salient feature, according to some embodiments. 幾つかの実施形態による、室外環境で動作するUAVを示す。7 illustrates a UAV operating in an outdoor environment, according to some embodiments. 幾つかの実施形態による、SLAMで計算されたポイントクラウドを示す。7 illustrates a point cloud calculated with SLAM, according to some embodiments. 幾つかの実施形態による、室内環境で動作するUAVを示す。7 illustrates a UAV operating in an indoor environment, according to some embodiments. 幾つかの実施形態による、無人航空機(UAV)を示す。1 illustrates an unmanned aerial vehicle (UAV), according to some embodiments. 幾つかの実施形態による、キャリア及びペイロードを含む可動物体を示す。1 illustrates a movable object including a carrier and a payload, according to some embodiments. 幾つかの実施形態による、可動物体を制御するシステムのブロック図による概略図を示す。FIG. 1 shows a schematic diagram according to a block diagram of a system for controlling movable objects according to some embodiments.

可動物体の位置を評価するためのシステム及び方法が提供される。本明細書で使用されるように、可動物体は本明細書の他の箇所でされるように移動され得る任意の物体を指し得る。例えば、可動物体は、携帯電話、時計、UAV、自動車、ボート、コンピュータ、PDA、タブレットなどであり得る。本明細書の多くの実施形態はUAVを参照して説明されるが、参照は非限定的であるということと、実施形態は任意の可動物体に平等に適用可能であるということとを理解すべきである。幾つかの例では、可動物体の位置は1つ又は複数のセンサの助けを借りて判断され得る。例えば、1つ又は複数の視野センサが環境の画像を捕捉し得る。画像内の顕著領域は、別の箇所で更に説明するように識別(例えば、判断)され得る。可動物体から顕著領域のそれぞれまでの距離が例えば視差に基づき計算され得、一方、可動物体の位置は例えばマルチラテレーション手法を使用して判断され得る。環境内の可動物体の位置(例えば、配置)に関する情報は更に、自律航行及び制御(例えば、UAVの)などの用途で利用され得る。   Systems and methods are provided for evaluating the position of a moveable object. As used herein, a moveable object may refer to any object that may be moved as done elsewhere herein. For example, the movable object may be a mobile phone, a watch, a UAV, a car, a boat, a computer, a PDA, a tablet, and the like. Although many embodiments herein are described with reference to a UAV, it is understood that the references are non-limiting and that the embodiments are equally applicable to any moveable object. It should. In some instances, the position of the moveable object may be determined with the aid of one or more sensors. For example, one or more vision sensors may capture an image of the environment. Salient regions in the image may be identified (e.g., determined) as described further elsewhere. The distance from the movable object to each of the salient regions may for example be calculated based on the parallax, while the position of the movable object may be determined using, for example, a multi-later approach. Information regarding the position (e.g., placement) of movable objects within the environment may further be utilized in applications such as autonomous navigation and control (e.g., in UAVs).

幾つかの実施形態では、UAV又は他の可動物体は1つ又は複数のセンサを担持するようにされ得る。1つ又は複数のセンサは、UAVの状態、周囲環境、又は環境内の物体及び障害物に関係する情報などの関連データを収集するように構成され得る。関連データは別の用途において解析、処理、又は使用され得る。例えば、収集された関連データに基づき、UAV航行を制御するための制御信号を生成することが可能である。本明細書において開示される実施形態と共に使用するのに好適な例示的センサは、位置センサ(例えば、全地球測位システム(GPS:global positioning system)センサ、位置三角測量を可能にする携帯装置送信器)、視覚センサ(例えば、可視光、赤外線光、又は紫外線光を検出することができるカメラなどの撮像装置)、近接性又は測距センサ(例えば、超音波センサ、ライダー(lidar)、飛行時間計測式又は深度カメラ)、慣性センサ(例えば、加速度計、ジャイロスコープ、慣性測定ユニット(IMU:inertial measurement unit))、高度センサ、姿勢センサ(例えば、コンパス)、圧力センサ(例えば、気圧計)、音声センサ(例えば、マイクロホン)、又は電界/磁界センサ(例えば、磁力計(電磁気センサ))を含む。   In some embodiments, a UAV or other movable object may be made to carry one or more sensors. The one or more sensors may be configured to collect relevant data, such as information related to the state of the UAV, the surrounding environment, or objects and obstacles in the environment. Relevant data may be analyzed, processed or used in other applications. For example, based on the relevant data collected, it is possible to generate control signals to control UAV navigation. Exemplary sensors suitable for use with the embodiments disclosed herein include position sensors (eg, global positioning system (GPS) sensors, portable device transmitters that enable position triangulation) Vision sensor (for example, an imaging device such as a camera capable of detecting visible light, infrared light, or ultraviolet light), proximity or distance measurement sensor (for example, ultrasonic sensor, lidar, time of flight measurement) Formula or depth camera), inertial sensor (eg, accelerometer, gyroscope, inertial measurement unit (IMU)), altitude sensor, attitude sensor (eg, compass), pressure sensor (eg, barometer), voice Sensor (eg, microphone) or electric field Magnetic field sensor (e.g., magnetometer (electromagnetic sensor)) including.

1、2、3、4、5、6、7、8、又はそれ以上のセンサなど任意の好適な数及び組み合わせのセンサが使用され得る。任意選択的に、データは様々なタイプ(例えば、2、3、4、5、6、7、8、又はそれ以上のタイプ)のセンサから受信され得る。異なるタイプのセンサは、異なるタイプの信号又は情報(例えば、位置、配向、速度、加速度、近接性、圧力など)を測定し得、及び/又はデータを取得するために異なるタイプの測定技術を利用し得る。例えば、センサは、能動センサ(例えば、それ自身のエネルギー源からエネルギーを生成して測定するセンサ)と受動センサ(例えば、有効エネルギを検出するセンサ)の任意の好適な組み合わせを含み得る。別の例として、幾つかのセンサは、グローバル座標系で提供される絶対測定データ(例えば、GPSセンサにより提供される位置データ、コンパス又は磁力計により提供される姿勢情報)を生成し得、一方、他のセンサは、局所座標系で提供される相対測定データ(例えば、ジャイロスコープにより提供される相対的角速度、加速度計により提供される相対的並進加速度、視覚センサにより提供される相対的姿勢情報、超音波センサ、ライダー、又は飛行時間計測式カメラにより提供される相対的距離情報)を生成し得る。幾つかの例では、局所座標系はUAVに対して定義されるボディ座標系であり得る。   Any suitable number and combination of sensors may be used, such as 1, 2, 3, 4, 5, 6, 7, 8, or more sensors. Optionally, data may be received from various types of sensors (eg, 2, 3, 4, 5, 6, 7, 8, or more types). Different types of sensors may measure different types of signals or information (eg, position, orientation, velocity, acceleration, proximity, pressure, etc.) and / or utilize different types of measurement techniques to acquire data It can. For example, the sensor may include any suitable combination of an active sensor (eg, a sensor that generates and measures energy from its own energy source) and a passive sensor (eg, a sensor that detects effective energy). As another example, some sensors may generate absolute measurement data (eg, position data provided by a GPS sensor, attitude information provided by a compass or magnetometer) provided in a global coordinate system, while , Other sensors, relative measurement data provided in the local coordinate system (eg, relative angular velocity provided by the gyroscope, relative translational acceleration provided by the accelerometer, relative attitude information provided by the visual sensor Relative distance information provided by an ultrasonic sensor, a rider, or a time-of-flight camera. In some instances, the local coordinate system may be a body coordinate system defined for the UAV.

センサは、UAV、周囲環境、又は環境内の物体に関係するデータなど様々な種類のデータを収集するように構成され得る。例えば、センサの少なくとも幾つかはUAVの状態に関するデータを提供するように構成され得る。センサにより提供される状態情報は、UAVの空間的配置に関する情報(例えば、位置、経度、緯度及び/又は高度などの位置情報、ロール、ピッチ及び/又はヨーなどの配向又は姿勢情報)を含み得る。状態情報はまた、UAVの運動に関する情報(例えば、併進速度、並進加速度、角速度、角加速度など)を含み得る。センサは、例えば最大6つの自由度(例えば、位置及び/又は並進の3つの自由度、配向及び/又は回転の3つの自由度)に関するUAVの空間的配置及び/又は運動を判断するように構成され得る。グローバル座標系又は局所座標系に対する状態情報が提供され得る。グローバル座標系はUAV又は別のエンティティの位置とは独立した座標系を指し得る。局所座標系はUAV又は別のエンティティに対する座標系を指し得る。例えば、センサは、UAVとUAVを制御するユーザとの間の距離又はUAVとUAVの飛行の出発点との間の距離を判断するように構成され得る。幾つかの例では、センサはUAVとUAVの近くの物体との間の距離を判断するように構成され得る。   The sensors may be configured to collect various types of data, such as data related to UAVs, the surrounding environment, or objects in the environment. For example, at least some of the sensors may be configured to provide data regarding the status of the UAV. The state information provided by the sensor may include information on the spatial arrangement of the UAV (eg, position information such as position, longitude, latitude and / or altitude, orientation or attitude information such as roll, pitch and / or yaw) . The state information may also include information regarding the motion of the UAV (eg, translational velocity, translational acceleration, angular velocity, angular acceleration, etc.). The sensor is configured to determine, for example, the spatial arrangement and / or movement of the UAV with respect to up to six degrees of freedom (eg, three degrees of position and / or translation, three degrees of orientation and / or rotation) It can be done. State information may be provided for a global coordinate system or a local coordinate system. A global coordinate system may refer to a coordinate system that is independent of the location of the UAV or another entity. A local coordinate system may refer to a coordinate system to a UAV or another entity. For example, the sensor may be configured to determine the distance between the UAV and the user controlling the UAV or the distance between the UAV and the departure point of the flight of the UAV. In some instances, the sensor may be configured to determine the distance between the UAV and an object near the UAV.

センサにより得られるデータは様々な種類の環境情報を提供し得る。例えば、センサデータは、室内環境、室外環境、低高度環境、又は高高度環境などの環境タイプを示し得る。センサデータはまた、天候(例えば、晴れ、雨、雪)、視界条件、風速、時刻等々を含む現在の環境条件に関する情報を提供し得る。更に、センサにより収集される環境情報は、環境内の物体(本明細書で説明する障害物又はプロセッサにより認識可能なランドマークなど)に関する情報を含み得る。障害物情報は、環境内の障害物の数、密度、幾何学形状、空間的配置、移動、軌道、及び/又は速度に関する情報を含み得る。   The data obtained by the sensors can provide various types of environmental information. For example, sensor data may indicate an environment type, such as an indoor environment, an outdoor environment, a low altitude environment, or a high altitude environment. Sensor data may also provide information regarding current environmental conditions, including weather (eg, sunny, rain, snow), visibility conditions, wind speed, time of day, and so on. In addition, environmental information collected by the sensors may include information regarding objects in the environment, such as obstacles or landmarks recognizable by the processor as described herein. Obstacle information may include information regarding the number, density, geometry, spatial arrangement, movement, trajectory, and / or speed of obstacles in the environment.

幾つかの実施形態では、UAVは、本明細書では「撮像装置」とも呼ぶ1つ又は複数の視野センサを含み得る。多くの実施形態はUAVへ結合された1つの撮像装置を有するとして本明細書で説明されるが、1、2、3、4、5又はそれ以上など任意の数の撮像装置が撮像装置などのUAVに結合され得るということを理解すべきである。撮像装置は、電磁放射線(例えば、可視光、赤外光及び/又は紫外光)を検出し、検出された電磁放射線に基づき画像データを生成するように構成され得る。例えば、撮像装置は、光の波長に応じて電気信号を生成する電荷結合素子(CCD:charge−coupled device)センサ又は相補型金属酸化膜半導体(CMOS:complementary metal−oxide−semiconductor)センサを含み得る。その結果の電気信号は画像データを生成するために処理され得る。撮像装置により生成される画像データは、静止画像(例えば、写真)、動画像(例えば、映像)、又は好適なそれらの組み合わせであり得る1つ又は複数の画像を含み得る。画像データは多色(例えば、RGB、CMYK、HSV)又は単色(例えば、グレイスケール、白黒、セピア)であり得る。   In some embodiments, the UAV may include one or more vision sensors, also referred to herein as an "imaging device." Although many embodiments are described herein as having one imaging device coupled to a UAV, any number of imaging devices, such as 1, 2, 3, 4, 5 or more may be imaging devices, etc. It should be understood that it can be coupled to the UAV. The imaging device may be configured to detect electromagnetic radiation (eg, visible light, infrared light and / or ultraviolet light) and generate image data based on the detected electromagnetic radiation. For example, the imaging device may include a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor that generates an electrical signal depending on the wavelength of light. . The resulting electrical signal may be processed to generate image data. The image data generated by the imaging device may include one or more images that may be still images (eg, photographs), moving images (eg, video), or a suitable combination thereof. The image data may be multicolor (e.g., RGB, CMYK, HSV) or single color (e.g., grayscale, black and white, sepia).

幾つかの実施形態では、撮像装置はカメラであり得る。カメラは動画像データ(例えば、映像)を捕捉し得る映画撮影用カメラ又はビデオカメラであり得る。カメラは静止画像(例えば、写真)を捕捉するスチールカメラであり得る。カメラは双眼カメラであり得る。本明細書で使用される双眼カメラはステレオ又はステレオビジョンカメラを指し得る。ステレオカメラは2台のカメラを含み得る。カメラは単眼カメラであり得る。本明細書で提供される幾つかの実施形態はカメラの文脈で説明されるが、本開示は任意の好適な撮像装置に適用され得るということを理解すべきである。カメラに関係する本明細書のいかなる記載も任意の好適な撮像装置又は他のタイプの撮像装置に適用され得る。カメラは3D場面(例えば、環境、1つ又は複数の物体など)の2D画像を生成するために使用され得る。カメラにより生成される画像は2D像面上への3D場面の投影を表し得る。したがって、2D画像内の各点は景色内の3D空間座標に対応する。カメラは光学素子(例えば、レンズ、ミラー、フィルタなど)を含み得る。カメラはカラー画像、階調スケール画像、赤外線画像などを捕捉し得る。   In some embodiments, the imaging device may be a camera. The camera may be a movie camera or video camera that may capture moving image data (e.g., video). The camera may be a still camera that captures still images (eg, photographs). The camera may be a binocular camera. As used herein, a binocular camera may refer to a stereo or stereo vision camera. A stereo camera may include two cameras. The camera may be a monocular camera. Although some embodiments provided herein are described in the context of a camera, it should be understood that the present disclosure may be applied to any suitable imaging device. Any description herein relating to a camera may apply to any suitable imaging device or other type of imaging device. A camera may be used to generate 2D images of 3D scenes (e.g., an environment, one or more objects, etc.). The image generated by the camera may represent a projection of the 3D scene onto a 2D image plane. Thus, each point in the 2D image corresponds to 3D space coordinates in the scene. The camera may include optical elements (eg, lenses, mirrors, filters, etc.). The camera may capture color images, tone scale images, infrared images, and the like.

撮像装置は特定の画像解像度で画像又は一系列の画像を捕捉し得る。幾つかの実施形態では、画像解像度は画像内の画素数により定義され得る。幾つかの実施形態では、画像解像度は、約352×420画素、480×320画素、720×480画素、1280×720画素、1440×1080画素、1920×1080画素、2048×1080画素、3840×2160画素、4096×2160画素、7680×4320画素、又は15360×8640画素以上であり得る。カメラは、4Kカメラ又はより高い解像度を有するカメラであり得る。   The imaging device may capture an image or a series of images at a particular image resolution. In some embodiments, the image resolution may be defined by the number of pixels in the image. In some embodiments, the image resolution is approximately 352 × 420 pixels, 480 × 320 pixels, 720 × 480 pixels, 1280 × 720 pixels, 1440 × 1080 pixels, 1920 × 1080 pixels, 2048 × 1080 pixels, 3840 × 2160. It may be more than a pixel, 4096 × 2160 pixels, 7680 × 4320 pixels, or 15360 × 8640 pixels. The camera may be a 4K camera or a camera with higher resolution.

撮像装置は調整可能パラメータを有し得る。異なるパラメータ下では、異なる画像が同一外部条件(例えば、位置、照明)下で撮像装置により捕捉され得る。調整可能パラメータは、露出(例えば、露光時間、シャッター速度、絞り、フィルム感度)、利得、ガンマ線、関心領域、ビニング/サブサンプリング、画素クロック、オフセット、トリガ、ISOなどを含み得る。露出に関係するパラメータは撮像装置内の画像センサに到達する光量を制御し得る。例えば、シャッター速度は画像センサに到達する光の時間量を制御し得、絞りは所与の時間内に画像センサに到達する光量を制御し得る。利得に関係するパラメータは光センサからの信号の増幅を制御し得る。ISOは自然光に対するカメラの感度のレベルを制御し得る。露出及び利得のパラメータ制御は、集合的に考慮され得、本明細書ではEXPOと呼ばれることがある。   The imaging device may have adjustable parameters. Under different parameters, different images may be captured by the imaging device under the same external conditions (e.g. position, illumination). Adjustable parameters may include exposure (eg, exposure time, shutter speed, aperture, film sensitivity), gain, gamma rays, region of interest, binning / subsampling, pixel clock, offset, trigger, ISO, etc. Parameters related to exposure may control the amount of light reaching the image sensor in the imaging device. For example, the shutter speed may control the amount of time of light reaching the image sensor, and the aperture may control the amount of light reaching the image sensor in a given time. Parameters related to gain may control the amplification of the signal from the light sensor. ISO can control the level of sensitivity of the camera to natural light. Parameter control of exposure and gain may be considered collectively and may be referred to herein as EXPO.

撮像装置のそれぞれは視野を有し得る。撮像装置の視野は撮像装置により検知可能である(例えば、可視である)環境の広がりであり得る。視野は撮像装置により撮像される所与の場面の角度範囲により測定され得る画角に関係し得る。撮像装置の画角は約360°、300°、240°、180°、150°、120°、90°、60°、30°、20°又は10°未満の角度であり得る。視野は可動物体に対する撮像装置の相対的方向により記述され得る。例えば、視野は可動物体(例えば、UAV)に対し垂直方向、水平方向、上方、下方、側方等であり得る。撮像装置はそれぞれ光軸を有し得る。撮像装置の光軸(「主軸」とも呼ばれることがある)は線であり得、この線に沿って撮像装置内においてある程度の回転対称がある。幾つかの実施形態では、撮像装置の光軸は撮像装置の光学部品(例えば、レンズ、光センサ)の中心を通る。   Each of the imaging devices may have a field of view. The field of view of the imaging device may be a spread of the environment that is detectable (eg, visible) by the imaging device. The field of view may relate to the angle of view that may be measured by the angular range of a given scene imaged by the imaging device. The angle of view of the imaging device may be less than about 360 °, 300 °, 240 °, 180 °, 150 °, 120 °, 90 °, 60 °, 30 °, 20 ° or 10 °. The field of view can be described by the relative orientation of the imaging device relative to the movable object. For example, the field of view may be perpendicular, horizontal, above, below, sides, etc. with respect to the moveable object (eg, UAV). The imaging devices may each have an optical axis. The optical axis (sometimes referred to as the "principal axis") of the imaging device may be a line along which there is a degree of rotational symmetry within the imaging device. In some embodiments, the optical axis of the imaging device passes through the center of the optics (eg, lens, light sensor) of the imaging device.

本開示の撮像装置は、可動物体のボディの上、下、側面、又はその中など可動物体の任意の好適な部分上に位置し得る。幾つかの撮像装置は、可動物体の空間的配置及び/又は運動が撮像装置の空間的配置及び/又は運動に対応するように、UAVへ機械的に結合され得る。撮像装置は固定継手を介し可動物体に結合され得、したがって撮像装置は取り付けられる可動物体の一部分に対して移動しない。代替的に、撮像装置と可動物体間の結合は可動物体に対する撮像装置の移動(例えばUAVに対する併進又は回転移動)を許容し得る。例えば、ジンバルなどのキャリアを介した撮像装置と可動物体間の結合は可動物体に対する撮像装置の移動を許容し得る。可動物体に対する撮像装置の移動は併進(例えば、水平方向、垂直方向)及び/又は回転(例えば、ピッチ、ヨー及び/又はロール軸の周りの)であり得る。可動物体に対する撮像装置の移動は所定又は既知量であり得る。1つ又は複数のセンサが車両に対する撮像装置の移動を検知し得る。可動物体に対する撮像装置の移動は、ユーザ入力により遠隔的に、自律的に、又は半自律的に制御され得る。継手は恒久的継手であってもよいし非恒久的(例えば、解除可能)継手であってもよい。好適な結合方法は、接着剤、ボンディング、溶着及び/又はファスナ(例えば、ねじ、釘、ピン)を含み得る。任意選択的に、撮像装置は可動物体の一部と一体的に形成され得る。更に、本明細書で論述される実施形態のように、撮像装置は、撮像装置により収集されたデータがUAVの様々な機能(例えば、航行、制御、推進、ユーザ又は他の装置との通信など)に使用され得るように、可動物体の一部(例えば、処理ユニット、制御システム、データストレージ)と電気的に結合され得る。撮像装置はUAVの一部(例えば、処理ユニット、制御システム、データストレージ)と動作可能に結合され得る。   The imaging device of the present disclosure may be located on any suitable part of the movable object, such as above, below, to the side of, or in the body of the movable object. Some imaging devices may be mechanically coupled to the UAV such that the spatial arrangement and / or movement of the movable object corresponds to the spatial arrangement and / or movement of the imaging device. The imaging device may be coupled to the movable object via a fixed joint so that the imaging device does not move relative to the part of the movable object to be attached. Alternatively, the coupling between the imaging device and the movable object may allow movement of the imaging device relative to the movable object (e.g. translational or rotational movement relative to the UAV). For example, coupling between the imaging device and the movable object via a carrier such as a gimbal may allow movement of the imaging device relative to the movable object. The movement of the imaging device relative to the moveable object may be translational (e.g. horizontal, vertical) and / or rotation (e.g. around pitch, yaw and / or roll axes). The movement of the imaging device relative to the movable object may be a predetermined or known amount. One or more sensors may detect movement of the imaging device relative to the vehicle. The movement of the imaging device relative to the moveable object may be controlled remotely, autonomously or semi-autonomously by user input. The joint may be a permanent joint or a non-permanent (eg, releasable) joint. Suitable bonding methods may include adhesives, bonding, welding and / or fasteners (eg, screws, nails, pins). Optionally, the imaging device may be integrally formed with a part of the movable object. Further, as in the embodiments discussed herein, the imaging device may be configured to communicate data collected by the imaging device to various functions of the UAV (eg, navigation, control, propulsion, communication with users or other devices, etc.) Can be electrically coupled to a portion of the movable object (e.g., a processing unit, control system, data storage). The imaging device may be operatively coupled to a portion of the UAV (e.g., a processing unit, control system, data storage).

1つ又は複数の画像は撮像装置により捕捉され得る。2つ以上の画像の系列が撮像装置により捕捉され得る。例えば、約2、3、4、5、10、15、20、25、50、100、150、200又はそれ以上の画像の系列が撮像装置により捕捉され得る。撮像装置は特定の捕捉速度で一系列の画像を捕捉し得る。幾つかの実施形態では、一系列の画像は、約24p、25p、30p、48p、50p、60p、72p、90p、100p、120p、300p、50i又は60iなど標準ビデオフレーム速度で捕捉され得る。幾つかの実施形態では、一系列の画像は、0.0001秒、0.0002秒、0.0005秒、0.001秒、0.002秒、0.005秒、0.002秒、0.05秒、0.01秒、0.02秒、0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、又は10秒毎に約1画像以下で捕捉され得る。幾つかの実施形態では、捕捉速度はユーザ入力及び/又は外部条件(例えば、雨、雪、風、捕捉されている環境のテクスチャ)に依存して変化し得る。   One or more images may be captured by an imaging device. Two or more sequences of images may be captured by the imaging device. For example, sequences of about 2, 3, 4, 5, 10, 15, 20, 25, 50, 100, 150, 200 or more images may be captured by the imaging device. The imaging device may capture a sequence of images at a particular capture rate. In some embodiments, a series of images may be captured at a standard video frame rate, such as about 24p, 25p, 30p, 48p, 60p, 72p, 90p, 100p, 120p, 300p, 50i or 60i. In some embodiments, a series of images may have 0.0001 second, 0.0002 second, 0.0005 second, 0.001 second, 0.002 second, 0.005 second, 0.002 second,. About 1 image every 05 seconds, 0.01 seconds, 0.02 seconds, 0.05 seconds, 0.1 seconds, 0.2 seconds, 0.5 seconds, 1 second, 2 seconds, 5 seconds, or 10 seconds It can be captured below. In some embodiments, the capture rate may vary depending on user input and / or external conditions (eg, rain, snow, wind, texture of the captured environment).

本明細書で説明する撮像装置により得られる画像はUAV動作に関係する多種多様な用途に使用され得る。幾つかの実施形態では、画像は環境内のUAV航行を(例えば、自律的に、半自律的に、又は手動で)容易にするために使用される。幾つかの実施形態では、画像は障害物検出及び回避に使用される。幾つかの実施形態では、画像はUAVの状態情報を評価又は判断するために処理され得る。状態情報は位置情報、方位情報、速度情報(例えば、角速度又は併進速度)及び/又は加速度情報(例えば、角加速度又は並進加速度)を含み得る。状態情報は、1つ又は複数の撮像装置により得られる1つ又は複数の画像を使用して(例えば、1つ又は複数のプロセッサによる処理により)評価又は判断され得る。   The images obtained by the imaging device described herein may be used in a wide variety of applications related to UAV operation. In some embodiments, the image is used to facilitate UAV navigation within the environment (eg, autonomously, semi-autonomously, or manually). In some embodiments, the image is used for obstacle detection and avoidance. In some embodiments, the image may be processed to evaluate or determine UAV status information. State information may include position information, orientation information, velocity information (e.g., angular or translational velocity) and / or acceleration information (e.g., angular or translational acceleration). State information may be evaluated or determined (eg, by processing by one or more processors) using one or more images obtained by one or more imaging devices.

例えば、撮像装置により捕捉される画像は環境内のUAVの位置を判断するために使用され得る。図1は、幾つかの実施形態による、車両(例えば、UAV)の位置を判断する方法100を提供する。同様に、方法100を実行するためのプログラム命令を含む非一時的コンピュータ可読媒体もまた提供され得る。ステップ102では、複数の画像が1つ又は複数のプロセッサにより受信される。プロセッサは、フィールドプログラマブルゲートアレイ(FPGA:field−programmable gate array)、特定用途向け集積回路(ASIC:application−specific integrated circuit)、特定用途専用標準品(ASSP:application−specific standard product)、デジタル信号プロセッサ(DSP:digital signal processor)、中央処理装置(CPU:central processing unit)、グラフィック処理装置(GPU:graphics processing unit)、視野処理ユニット(VPU:vision processing unit)、コンプレックスプログラマブルロジックデバイス(CPLD:complex programmable logic device)などを含み得る。プロセッサは、可動物体(例えば、UAV)に搭載された搭載プロセッサ、又は撮像装置により担持された埋め込み型プロセッサであり得る。プロセッサはUAV及び/又は撮像装置から分離された非搭載プロセッサ(例えば、地上局においてUAV及び/又はカメラと通信する)であり得る。本明細書で参照される1つ又は複数のプロセッサは、本明細書で列挙されるステップ104、106、108において更に助けるように個々に又は集合的に構成され得る。   For example, the image captured by the imaging device may be used to determine the position of the UAV in the environment. FIG. 1 provides a method 100 for determining the position of a vehicle (e.g., a UAV), according to some embodiments. Similarly, non-transitory computer readable media may also be provided that include program instructions for performing the method 100. At step 102, a plurality of images are received by one or more processors. The processor includes field-programmable gate array (FPGA), application-specific integrated circuit (ASIC), application-specific standard product (ASSP), digital signal processor (DSP: digital signal processor), central processing unit (CPU: central processing unit), graphics processing unit (GPU: graphics processing unit), visual field processing unit (VPU: vision processing unit), complex professional It may include a programmable logic device (CPLD) or the like. The processor may be an on-board processor mounted on a moveable object (e.g., a UAV) or an embedded processor carried by an imaging device. The processor may be a non-mounted processor (e.g., communicating with the UAV and / or the camera at the ground station) separate from the UAV and / or the imaging device. The one or more processors referred to herein may be configured individually or collectively to further aid in the steps 104, 106, 108 recited herein.

幾つかの実施形態では、複数の画像は単一撮像装置により捕捉される。例えば、複数の画像は、一定時間間隔にわたって単一撮像装置により捕捉された2つ以上の画像を含み得る。時間間隔は、約1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒、9秒、10秒、15秒、20秒、30秒、45秒又は60秒以下であり得る。幾つかの実施形態では、複数の画像は2つ以上の撮像装置により捕捉される。2つ以上の撮像装置は同じタイプ又は異なるタイプの撮像装置であり得る。例えば、2つ以上の撮像装置は単眼カメラ、双眼カメラ、スチールカメラ、ビデオカメラを含み得る。幾つかの実施形態では、複数の画像は、それぞれが単一時点で又は一定時間間隔にわたって異なる視野を有する2つ以上の撮像装置により捕捉される1つ又は複数の画像を含み得る。例えば、複数の画像は、2つ以上の撮像装置により一定時間間隔にわたって捕捉される2つ以上の画像を含み得る。時間間隔は、約1秒、2秒、3秒、4秒、5秒、6秒、7秒、8秒、9秒、10秒、15秒、20秒、30秒、45秒又は60秒以下であり得る。複数の画像は、約2、3、4、5、10、15、20、25、50、100、150、200、250、300、500、1000又はそれ以上の画像を含み得る。複数の画像は車両が動いている間(例えば、UAVが飛行中)に捕捉され得る。複数の画像は車両が静止している間に捕捉され得る。複数の画像は室内又は室外環境で捕捉され得る。   In some embodiments, multiple images are captured by a single imager. For example, the plurality of images may include two or more images captured by a single imager over a fixed time interval. The time interval is about 1 second, 2 seconds, 3 seconds, 4 seconds, 5 seconds, 6 seconds, 7 seconds, 8 seconds, 9 seconds, 10 seconds, 15 seconds, 20 seconds, 30 seconds, 45 seconds or 60 seconds or less It can be. In some embodiments, the plurality of images are captured by more than one imaging device. The two or more imaging devices may be the same type or different types of imaging devices. For example, the two or more imaging devices may include a monocular camera, a binocular camera, a still camera, a video camera. In some embodiments, the plurality of images may include one or more images captured by two or more imagers each having a different field of view at a single time or over a fixed time interval. For example, the plurality of images may include two or more images captured over a fixed time interval by two or more imaging devices. The time interval is about 1 second, 2 seconds, 3 seconds, 4 seconds, 5 seconds, 6 seconds, 7 seconds, 8 seconds, 9 seconds, 10 seconds, 15 seconds, 20 seconds, 30 seconds, 45 seconds or 60 seconds or less It can be. The plurality of images may include about 2, 3, 4, 5, 10, 15, 20, 25, 50, 100, 150, 200, 250, 300, 500, 1000 or more images. Multiple images may be captured while the vehicle is moving (eg, while the UAV is in flight). Multiple images may be captured while the vehicle is stationary. Multiple images may be captured in an indoor or outdoor environment.

ステップ104では、複数の顕著特徴が、1つ又は複数のプロセッサを使用して複数の画像から識別される。幾つかの実施形態では、1つ又は複数の顕著特徴は1つ又は複数のプロセッサを使用して複数の画像から識別される。本明細書で使用されるように、顕著特徴は画像内の顕著領域又は特色のある(例えば、認識可能)物体を指し得る。顕著特徴は、画像内の目立つ又は人間の観察者の注意を引く可能性が高い要素を指し得る。顕著特徴は意味論上の意味を有し得る。顕著特徴は、コンピュータビジョン処理下で一貫して識別され得る要素を指し得る。顕著特徴は、画像内の生物、非生物、ランドマーク、マーク、ロゴ、障害物などを指し得る。顕著特徴は、異なる条件下で一貫して観測され得る。例えば、顕著特徴は、一日の異なる時間中に、異なる照明条件下で、異なる天候条件下で、異なる画像捕捉設定(例えば、異なる利得、露出など)下でなど、異なる視点から取得された画像内に一貫して識別され得る(例えば、人間の観察者、又はコンピュータプログラムにより)。例えば、顕著特徴は人間、動物、表面、体、構造物、建物、車両、平面、標識などを含み得る。   At step 104, a plurality of salient features are identified from the plurality of images using one or more processors. In some embodiments, one or more salient features are identified from the plurality of images using one or more processors. As used herein, salient features may refer to salient areas or features (eg, recognizable) objects in an image. A salient feature may refer to an element in an image that is likely to be noticeable or attentive to a human observer. Prominent features may have semantic meaning. Prominent features may refer to elements that can be consistently identified under computer vision processing. Prominent features may refer to creatures, non-livings, landmarks, marks, logos, obstacles, etc. in the image. Prominent features can be consistently observed under different conditions. For example, the salient features may be images acquired from different viewpoints, such as under different lighting conditions, under different weather conditions, under different image capture settings (eg, under different gains, exposures, etc.) during different times of day It can be consistently identified (eg, by a human observer or by a computer program). For example, salient features may include humans, animals, surfaces, bodies, structures, buildings, vehicles, planes, signs, and the like.

顕著特徴は任意の既存の顕著度計算(例えば、検出)方法を使用して識別又は判断され得る。幾つかの例では、顕著度検出方法は学習ベース又は画像処理ベースであり得る。例えば、顕著特徴は、コントラストベース(例えば、色、強度、配向、サイズ、運動、深度ベースなど)のフィルタ処理により、スペクトル残留手法を使用することにより、周波数同調式顕著領域検出(frequency−tuned salient region detection)を介し、オブジェクトネス(objectness)推定のための2進ノルム勾配(binarized normed gradient)を介し、コンテキスト意識トップダウン手法(context−aware top down approach)を使用することにより、サイトエントロピー率(site entropy rate)により可視顕著度を測定することにより等々により識別され得る。例えば、顕著特徴は、1つ又は複数の画像をコントラストベースフィルタ処理することにより生成される顕著度マップ(例えば、色、強度、配向など)内で識別され得る。顕著度マップは特徴コントラストを有する領域を表し得る。顕著度マップは人が見る予測器であり得る。顕著度マップは、特徴又は固定物(fixation)を表す空間ヒートマップ(spatial heat map)を含み得る。例えば、顕著度マップでは、顕著領域は非顕著領域より高い輝度コントラスト、色コントラスト、エッジコンテンツ、強度などを有し得る。幾つかの実施形態では、顕著特徴は物体認識アルゴリズム(例えば、特徴ベース方法、外観ベース方法など)を使用して識別され得る。任意選択的に、1つ又は複数の物体、又はパターン、物体、図形、色、ロゴ、輪郭などのタイプが、可能な顕著特徴として予め格納され得る。画像は、予め格納された顕著特徴(例えば、物体又は物体のタイプ)を識別するために解析され得る。予め格納された顕著特徴は更新され得る。代替的に、顕著特徴は予め格納される必要が無くてもよい。顕著特徴は予め格納された情報とは独立にリアルタイムベースで認識され得る。   Prominent features may be identified or determined using any existing saliency calculation (eg, detection) method. In some instances, the saliency detection method may be learning based or image processing based. For example, salient features may be filtered based on contrast (eg, color, intensity, orientation, size, motion, depth, etc.), and frequency-tuned salient detection using spectral residual techniques. Site entropy rate (Region detection) by using context-aware top down approach, through region detection, through binarized normed gradient, for objectness estimation. It can be identified by measuring the visual saliency according to site entropy rate) and so on. For example, salient features may be identified within a saliency map (eg, color, intensity, orientation, etc.) generated by contrast-based filtering one or more images. The saliency map may represent a region with feature contrast. The saliency map may be a human-viewing predictor. The saliency map may include a spatial heat map that represents features or fixations. For example, in a saliency map, salient regions may have higher luminance contrast, color contrast, edge content, intensity, etc. than non- salient regions. In some embodiments, salient features may be identified using object recognition algorithms (eg, feature based methods, appearance based methods, etc.). Optionally, one or more objects or types of patterns, objects, figures, colors, logos, contours etc. may be pre-stored as possible salient features. The image may be analyzed to identify pre-stored salient features (eg, objects or types of objects). The pre-stored salient features may be updated. Alternatively, the salient features may not need to be pre-stored. The salient features may be recognized on a real time basis independently of the prestored information.

幾つかの実施形態では、ステップ104は、複数の顕著特徴を識別するステップと、ステップ110に示すような識別された複数の顕著特徴のサブセットを選択するステップとを含み得る。サブセットは識別された複数の顕著特徴のすべて又は一部を含み得る。幾つかの実施形態では、ステップ104は複数の顕著特徴候補を識別するステップと、ステップ112に示すようなさらなる処理のために顕著特徴候補のサブセットを選択するステップとを含み得る。サブセットは複数の顕著特徴候補のすべて又は一部を含み得る。幾つかの例では、所定数の顕著特徴が、複数の識別された顕著特徴(又は識別された顕著特徴候補)から選択され得る。例えば、選択される所定数の顕著特徴は、約2、3、4、5、10、15、20、25、50、100、150、200、500、1000、2000、3000又は5000顕著特徴以下であり得る。幾つかの例では、ある条件を満足する又は判定基準を満足する顕著特徴(又は顕著特徴候補)だけが識別及び/又は選択され得る。例えば、静止した又はほぼ静止した顕著特徴(又は顕著特徴候補)が選択され得る。例えば、所定の識別性(例えば、画素階調レベル、コントラストレベル、色、配向、強度、複雑性などの分散)を満足する又は超える顕著特徴(又は顕著特徴候補)が選択され得る。幾つかの例では、判定基準に合う又は最良適合する所定数の顕著特徴が選択され得る。例えば、複数の画像内で最も高いコントラストレベルを有する2、3、4、5、10、15、20、25、50、100、150、200、500、1000、2000、3000又は5000の顕著特徴が選択され得る。本明細書で使用されるように、複数の顕著特徴(又は顕著特徴候補)を識別するステップと顕著特徴(又は顕著特徴候補)のサブセットを選択するステップはまた、顕著特徴(又は顕著特徴候補)のサブセットを識別するステップと呼ばれることがある。例えば、複数の画像から複数の顕著特徴を識別するステップと静止した顕著特徴をさらなる処理のために(例えば、コンピュータビジョンのために)選択するステップは、複数の画像から複数の静止顕著特徴を識別するステップと呼ばれることがある。   In some embodiments, step 104 may include identifying a plurality of salient features and selecting a subset of the plurality of salient features identified as shown in step 110. The subset may include all or part of the plurality of salient features identified. In some embodiments, step 104 may include identifying a plurality of salient feature candidates and selecting a subset of salient feature candidates for further processing as shown in step 112. The subset may include all or part of the plurality of salient feature candidates. In some instances, a predetermined number of salient features may be selected from the plurality of salient salient features (or identified salient feature candidates). For example, the predetermined number of salient features selected may be less than about 2, 3, 4, 5, 10, 15, 20, 25, 50, 100, 150, 200, 500, 1000, 2000, 3000 or 5000 salient features possible. In some instances, only salient features (or salient feature candidates) that meet certain conditions or meet the criteria may be identified and / or selected. For example, stationary or nearly stationary salient features (or salient feature candidates) may be selected. For example, salient features (or salient feature candidates) that meet or exceed a predetermined distinctiveness (eg, pixel tone level, contrast level, variance such as color, orientation, intensity, complexity, etc.) may be selected. In some instances, a predetermined number of salient features that meet or best match the criteria may be selected. For example, 2, 3, 4, 5, 10, 15, 20, 25, 50, 100, 150, 200, 500, 1000, 2000, 3000 or 5000 salient features having the highest contrast levels in multiple images. It can be selected. As used herein, the steps of identifying multiple salient features (or salient feature candidates) and selecting a subset of salient features (or salient feature candidates) may also be salient features (or salient feature candidates) Sometimes referred to as identifying a subset of For example, the steps of identifying multiple salient features from multiple images and selecting stationary salient features for further processing (e.g., for computer vision) may identify multiple stationary salient features from multiple images. It is sometimes called a step to

本明細書で使用されるように、静止顕著特徴は複数の画像内で位置変化を経験しない顕著特徴を指し得る。静止顕著特徴は単一撮像装置により撮られた複数の画像(例えば、時間経過画像)から及び/又は2つ以上の撮像装置により撮られた複数の画像から識別され得る。顕著特徴は、複数の画像内で位置変化を全く経験しなければ、位置変化を経験しないと判断され得る。例えば、顕著特徴は複数の画像内の固定位置を占め得る。例えば、静止又は空中静止UAVに搭載された単一カメラが、一定期間にわたる建物の画像データを含む複数の画像を取得し得る。建物は複数の画像内の固定位置(例えば、ほぼ固定された位置)を保ち得、位置変化を経験しないと判断され得る。代替的に又は併せて、顕著特徴は、他の要因に関連する(例えば、他の要因を考慮して、他の要因を補償する)複数の画像内で位置変化を経験しなければ、位置変化を経験しないと判断され得る。例えば、顕著特徴は複数の画像内の異なる場所を占め得るが、各画像内の顕著特徴の位置が、車両、撮像装置、撮像装置を支持するキャリアの移動又は異なる撮像装置間の移動/配向など他の要因で補償(例えば、相殺)されれば、顕著特徴は位置変化を経験しないと判断され得る。例えば、移動するUAVは建物の画像データを含む複数の画像を取得し得る。建物は複数の画像のそれぞれの中の異なる位置を占め得る。しかし、UAVの移動で補償されると、建物は複数の画像内で位置変化を経験しないと判断され得る。幾つかの例では、UAVの移動は慣性センサなどのセンサで測定され得る。ほぼ静止した顕著特徴は、複数の画像内で約1%、2%、5%、10%、15%、20%又は30%又はそれ未満の位置変化を経験する顕著特徴を指し得る。顕著特徴は静止していても静止していなくてもよい。建物などの静止物体は画像内の静止顕著特徴として識別され得る。生物又は非生物が画像内の静止顕著特徴として識別され得る。   As used herein, stationary salient features may refer to salient features that do not experience positional changes in multiple images. The stationary salient features may be identified from a plurality of images (e.g., time lapse images) taken by a single imaging device and / or from a plurality of images taken by two or more imaging devices. A salient feature may be determined to not experience a change in position if it does not experience any change in position in the plurality of images. For example, salient features may occupy fixed locations in multiple images. For example, a single camera mounted on a stationary or airborne UAV may acquire multiple images including image data of a building over a period of time. The building may maintain fixed positions (e.g., substantially fixed positions) in the plurality of images and may be determined not to experience position changes. Alternatively or in combination, the salient feature may change position if it does not experience position changes in the plurality of images associated with other factors (eg, taking into account other factors and compensating for other factors) It can be determined that you do not experience. For example, while the salient features may occupy different locations in multiple images, the position of the salient features in each image may be the vehicle, the imaging device, movement of the carrier supporting the imaging device, movement / orientation between different imaging devices, etc. If compensated (e.g., offset) by other factors, the salient feature may be determined not to experience position change. For example, a moving UAV may acquire multiple images including image data of a building. The building may occupy different locations in each of the plurality of images. However, once compensated with the movement of the UAV, it may be determined that the building does not experience position changes in multiple images. In some instances, the movement of the UAV may be measured with a sensor, such as an inertial sensor. A near stationary salient feature may refer to a salient feature that experiences a positional change of about 1%, 2%, 5%, 10%, 15%, 20% or 30% or less in multiple images. The salient features may or may not be stationary. Stationary objects, such as buildings, may be identified as stationary salient features in the image. Creatures or non-organisms can be identified as stationary salient features in the image.

図2は、幾つかの実施形態による、撮像装置により捕捉された画像202と画像の顕著度マップ204を示す。顕著度マップ204は画像202をフィルタ処理することにより得られるかもしれない。フィルタ処理後、顕著度マップ内の各画素はどれくらい同画素が顕著であるかを説明し得る。顕著度マップの一部は顕著特徴候補として分類され得る。例えば、図2は3つの顕著特徴候補206、208、210を示す。顕著特徴候補は、例えば顕著特徴候補の特色性の評価のために無作為に又は網羅的に生成され得る。幾つかの例では、境界ボックス(bounding box)の特色性の評価のためにボックスが物体(例えば、顕著特徴候補)を覆うように生成され得る。図2はボックスにより囲まれた物体を示すが、物体は特色性の評価のために任意の形状(例えば、円、楕円、三角形など)により包含され得るということが理解される。   FIG. 2 illustrates an image 202 captured by an imaging device and a saliency map 204 of the image, according to some embodiments. The saliency map 204 may be obtained by filtering the image 202. After filtering, each pixel in the saliency map may explain how the same pixel is noticeable. A portion of the saliency map may be classified as a salient feature candidate. For example, FIG. 2 shows three salient feature candidates 206, 208, 210. The salient feature candidates may be generated randomly or exhaustively, for example, for evaluation of the saliency of the salient feature candidates. In some instances, a box may be generated to cover an object (e.g., salient feature candidate) for evaluation of the characteristics of the bounding box. Although FIG. 2 shows an object surrounded by a box, it is understood that the object can be encompassed by any shape (e.g., a circle, an ellipse, a triangle, etc.) for the assessment of feature characteristics.

顕著特徴候補の識別性は、例えば閾値により又は教え込まれた分類手段(trained classifier)により境界ボックス(例えば、顕著特徴候補)を顕著特徴(例えば、顕著物体)か否(例えば、興味の無い背景)かに分類するために判断され得る。例えば、各顕著特徴候補(例えば、各境界ボックス)の画素階調レベルの分散が計算され得る。顕著特徴候補の分散が一定の閾値を超えれば、識別性が十分に大きいということを意味し得、画像の当該部分が顕著特徴又は顕著物体として選択され得る。代替的に、顕著特徴候補の分散が一定の閾値を超えなければ、識別性が十分に大きくないということを意味し得、画像の当該部分は顕著特徴候補としては落とされ得る、又は興味が無い背景として分類され得る。幾つかの例では、顕著特徴候補の識別性は教え込まれた分類手段(例えば、サポートベクターマシン、ランダムフォレスト)を介して判断され得る。   The distinctiveness of the salient feature candidate is, for example, whether the bounding box (eg salient feature candidate) is a salient feature (eg salient object) or not (eg a notable background) by eg threshold or by trained classifier. ) Can be judged to be classified. For example, the variance of pixel tone levels of each salient feature candidate (e.g., each bounding box) may be calculated. If the variance of the salient feature candidates exceeds a certain threshold, it may mean that the discriminability is sufficiently large, and that part of the image may be selected as a salient feature or salient object. Alternatively, if the variance of salient feature candidates does not exceed a certain threshold, it may mean that the discrimination is not large enough, and that part of the image may be dropped as the salient feature candidate or not interested It can be classified as background. In some instances, the distinctiveness of salient feature candidates may be determined via trained classifiers (eg, support vector machines, random forests).

図2では、顕著特徴候補206、208だけが所定閾値を超えた画素階調レベルの分散を有すると判断され、顕著特徴候補210は顕著特徴候補から落とされた。幾つかの例では、落とされなかった顕著特徴候補は顕著特徴として選択され得る。幾つかの例では、落とされなかった顕著特徴候補は、他の条件を満足すれば顕著特徴として選択され得る。例えば、顕著特徴候補は連続映像フレームにわたって追跡され得る(例えば、複数の画像が撮像装置により一定時間間隔にわたって撮られていれば)。顕著特徴候補が連続映像フレーム内で位置変化を経験しないと判断されれば(例えば、撮像装置の移動が補償された後)、顕著特徴候補は顕著特徴として選択され得る。図2では、顕著特徴候補206、208は連続画像フレーム(図示せず)にわたって静止していると判断され、顕著特徴として選択された。   In FIG. 2, it is determined that only the salient feature candidates 206 and 208 have the variance of the pixel gradation level exceeding the predetermined threshold, and the salient feature candidate 210 is dropped from the salient feature candidates. In some instances, salient feature candidates that have not been dropped may be selected as salient features. In some instances, salient feature candidates that have not been dropped may be selected as salient features if other conditions are satisfied. For example, salient feature candidates may be tracked over successive video frames (e.g., if multiple images are taken by the imaging device over a fixed time interval). If it is determined that the salient feature candidate does not experience a position change in the continuous video frame (eg, after movement of the imaging device has been compensated), the salient feature candidate may be selected as the salient feature. In FIG. 2, salient feature candidates 206, 208 were determined to be stationary over successive image frames (not shown) and were selected as salient features.

識別(例えば、又は選択)された複数の顕著特徴(又は顕著特徴候補)は、例えばコンピュータビジョンに使用するために更に処理され得る。ステップ106では、車両から複数の顕著特徴のそれぞれまでの距離が1つ又は複数のプロセッサを使用して計算される。幾つかの例では、仮想座標が各顕著特徴に設定され得る。仮想座標は2次元座標又は3次元座標系であり得る。幾つかの例では、顕著特徴のうちの1つの位置は原点座標及びUAVの座標として設定され得、及び/又は他の顕著特徴は顕著特徴のうちの1つに相対的であり得る。幾つかの例では、車両の位置は原点座標として設定され得、顕著特徴の座標は車両に相対的で有り得る。車両から顕著特徴までの距離は、視差に基づいて場面の深度(例えば、顕著特徴の深度)を計算することにより判断され得る。例えば、車両は様々な場所から複数の画像を取得し得る。すぐ近くの物体は、様々な場所から観測された場合、より遠くの物体より大きな視差を有し得、視差は顕著特徴までの距離を判断するために使用され得る。顕著特徴までの距離は顕著特徴領域までの距離を指し得る。例えば、顕著特徴までの距離は、顕著特徴の中心(例えば、水平方向中心、垂直方向中心、又はその両方)までの距離、顕著特徴の質量中心までの距離などを指し得る。顕著特徴領域(例えば、点でない)までの距離の計算は、不安定な特徴から生じ得る計算誤差を最小化し得る。顕著特徴の座標は顕著特徴領域の座標を指し得る。幾つかの例では、顕著特徴の座標は、顕著特徴の中心(例えば、水平方向中心、垂直方向中心、又はその両方)、顕著特徴の質量中心の座標などの座標を指し得る。幾つかの実施形態では、車両又は顕著特徴のそれぞれの2次元又は3次元座標を計算する必要は無い。顕著特徴のそれぞれの仮想座標は、撮像装置又は車両に搭載された又は搭載されないプロセッサへ動作可能に結合されたメモリ内に格納され得る。各顕著特徴までの距離は、撮像装置又は車両に搭載された又は搭載されないプロセッサへ動作可能に結合されたメモリ内に格納され得る。車両と顕著特徴間の距離はリアルタイムで計算され得る。例えば、車両と顕著特徴間の距離は車両が動いている間(例えば、UAVが飛行中)に計算され得る。車両の運動は1つ又は複数の慣性センサの助けを借りて判断され得る。顕著特徴の位置は、車両と顕著特徴間の距離が計算されている間静止したままであり得る。顕著特徴の位置は、車両と顕著特徴間の距離が計算されている間変化し得る。幾つかの実施形態では、顕著特徴のグローバルマップが維持され得る(例えば、撮像装置又は車両に搭載された又は搭載されないプロセッサへ動作可能に結合されたメモリ内に)。幾つかの実施形態では、環境又は顕著特徴のグローバルマップを維持する必要は無く、車両の位置が判断され得る。これは、顕著特徴が複数の画像内で判断され、顕著特徴までの距離が計算されるからである。   The plurality of salient features (or salient feature candidates) identified (e.g., or selected) may be further processed, for example, for use in computer vision. At step 106, the distances from the vehicle to each of the plurality of salient features are calculated using one or more processors. In some instances, virtual coordinates may be set for each salient feature. The virtual coordinates may be two dimensional coordinates or a three dimensional coordinate system. In some instances, the position of one of the salient features may be set as origin coordinates and UAV coordinates, and / or other salient features may be relative to one of the salient features. In some instances, the position of the vehicle may be set as the origin coordinates, and the coordinates of the salient features may be relative to the vehicle. The distance from the vehicle to the salient feature may be determined by calculating the depth of the scene (eg, the depth of the salient feature) based on the parallax. For example, a vehicle may obtain multiple images from various locations. Objects in close proximity may have greater parallax than objects farther away when observed from different locations, and the parallax may be used to determine the distance to the salient feature. The distance to the salient feature may refer to the distance to the salient feature region. For example, the distance to the salient feature may refer to the distance to the center of the salient feature (eg, the horizontal center, the vertical center, or both), the distance to the centroid of the salient feature, etc. Calculation of the distance to salient feature regions (e.g., not points) may minimize calculation errors that may result from unstable features. The coordinates of the salient feature may point to the coordinates of the salient feature area. In some instances, the coordinates of the salient feature may point to coordinates such as the center of the salient feature (eg, the horizontal center, the vertical center, or both), the coordinates of the centroid of the salient feature, and the like. In some embodiments, it is not necessary to calculate two-dimensional or three-dimensional coordinates of each of the vehicles or salient features. The virtual coordinates of each of the salient features may be stored in a memory operably coupled to the imaging device or a processor mounted or not mounted on the vehicle. The distance to each salient feature may be stored in a memory operably coupled to an imaging device or a processor mounted or not mounted on a vehicle. The distance between the vehicle and the salient feature may be calculated in real time. For example, the distance between the vehicle and the salient feature may be calculated while the vehicle is moving (eg, while the UAV is in flight). Vehicle motion may be determined with the aid of one or more inertial sensors. The position of the salient feature may remain stationary while the distance between the vehicle and the salient feature is calculated. The position of the salient feature may change while the distance between the vehicle and the salient feature is calculated. In some embodiments, a global map of salient features may be maintained (eg, in a memory operably coupled to an imaging device or a processor mounted or not mounted on a vehicle). In some embodiments, there is no need to maintain a global map of the environment or salient features, and the position of the vehicle can be determined. This is because a salient feature is determined in a plurality of images and the distance to the salient feature is calculated.

ステップ108では、車両の位置は、車両から複数の顕著特徴のそれぞれまでの距離に基づき判断される。車両の位置は2つ以上の顕著特徴に基づき2次元座標系で判断され得る。車両の位置は3つ以上の顕著特徴に基づき3次元座標系で判断され得る。車両の位置は多点原理(例えば、三辺測量術、マルチラテレーションなど)に基づき判断され得る。   At step 108, the position of the vehicle is determined based on the distance from the vehicle to each of the plurality of salient features. The position of the vehicle can be determined in a two-dimensional coordinate system based on two or more salient features. The position of the vehicle can be determined in a three-dimensional coordinate system based on three or more salient features. The position of the vehicle can be determined based on multipoint principles (eg, trilateration, multilateration, etc.).

図3は、幾つかの実施形態による、可動物体から顕著特徴までの距離に基づいて判断された可動物体の位置を示す。図示のように、2次元座標系の可動物体301の位置は2つの顕著特徴303、305までの距離R1、R2に基づき判断され得る。複数の顕著特徴のそれぞれの車両までの距離は方法100のステップ106に基づいて判断され得る。半径R1の円が顕著特徴303の仮想座標の周囲にトレースされ得、半径R2の円が顕著特徴305の仮想座標の周囲にトレースされ得る。円が交差する2つの点307、309は可動物体の可能位置であり得る。幾つかの例では、可動物体の位置は円の交差ゾーン312内であり得る。既知の(例えば、予め決められた)距離を有する第3の顕著特徴が、可動物体の正確な配置(例えば位置307と309間の)を判断するために利用され得る。   FIG. 3 illustrates the position of the moveable object determined based on the distance from the moveable object to the salient feature, according to some embodiments. As shown, the position of the movable object 301 in the two-dimensional coordinate system may be determined based on the distances R1, R2 to the two salient features 303, 305. The distance to each vehicle of the plurality of salient features may be determined based on step 106 of method 100. A circle of radius R1 may be traced around virtual coordinates of salient feature 303, and a circle of radius R2 may be traced around virtual coordinates of salient feature 305. The two points 307, 309 where the circles intersect may be possible positions of the movable object. In some instances, the position of the movable object may be within the intersection zone 312 of a circle. A third salient feature having a known (e.g., predetermined) distance may be utilized to determine the correct placement of the movable object (e.g., between positions 307 and 309).

同じ原理は、3以上の顕著特徴に基づき可動物体の3次元位置を判断するステップへ適用され得る。例えば、3つの顕著特徴のそれぞれを中心とする3つの円の交差点内の位置であり且つ3つの顕著特徴のそれぞれまでの適切な距離(例えば、適切な半径)の交差点内の位置が可動物体の位置であると判断され得る。可動物体の位置の判断を改善するために追加の顕著特徴が考慮され得る。   The same principle can be applied to the step of determining the three-dimensional position of the movable object based on three or more salient features. For example, a position within the intersection of three circles centered on each of the three salient features and a position within the intersection of a suitable distance (eg, a suitable radius) to each of the three salient features is the movable object It may be determined to be a position. Additional salient features may be considered to improve the determination of the position of the movable object.

本明細書で開示される装置、方法及びコンピュータ可読媒体は可動物体の改善された操作能力を提示し得る。図4は、幾つかの実施形態による、室外環境400内で動作するUAV402を示す。室外環境400は、都市、郊外、田舎の環境、又は建物内に少なくとも部分的に存在しない任意の他の環境であり得る。UAV402は、地上404の比較的近く(例えば、低高度)で又は地上404から比較的離れて(例えば、高高度)動作され得る。例えば、地上から約10m以下で動作するUAV402は低高度に存在すると考えられ得、地上から約10m以上で動作するUAV402は高高度に存在すると考えられ得る。   The devices, methods and computer readable media disclosed herein can present improved maneuverability of movable objects. FIG. 4 illustrates a UAV 402 operating in an outdoor environment 400 according to some embodiments. The outdoor environment 400 may be a urban, suburban, rural environment, or any other environment not at least partially present in a building. UAV 402 may be operated relatively near (e.g., low altitude) ground 404 or relatively away (e.g., high altitude) ground 404. For example, a UAV 402 operating at about 10 m or less from the ground may be considered to be present at low altitude, and a UAV 402 operating at about 10 m from the ground may be considered to be present at high altitude.

幾つかの実施形態では、室外環境400は1つ又は複数の物体408a〜408dを含む。建物、地上車両(例えば、自動車、オートバイ、トラック、自転車)、人間、動物、植物(例えば、木、潅木)、他の人工又は自然構造物などの幾つかの物体(例えば、物体408a、408d)は地上404に位置し得る。幾つかの物体は、地上404、水、人工構造物、又は自然構造物に接触し得る及び/又はこれらにより支持され得る。代替的に、幾つかの物体は完全に空中406に位置し得(例えば、物体408b、408c)且つ可動性であり得る(例えば、航空機、飛行機、ヘリコプター、熱気球、UAV又は鳥)。空中の物体は、地上404により、又は水により、又は任意の自然又は人工構造物により支持されないかもしれない。地上404にある障害物(例えば、塔、超高層ビル、街灯、無線塔、電力線、木などの高い構造物)は実質的に空中406に広がる部分を含み得る。   In some embodiments, outdoor environment 400 includes one or more objects 408a-408d. Some objects (eg, objects 408a, 408d) such as buildings, ground vehicles (eg, cars, motorcycles, trucks, bicycles), humans, animals, plants (eg, trees, bushes), other artificial or natural structures May be located on the ground 404. Some objects may contact and / or be supported by the ground 404, water, artificial structures, or natural structures. Alternatively, some objects may be completely located in the air 406 (eg, objects 408b, 408c) and movable (eg, an aircraft, plane, helicopter, hot air balloon, UAV or bird). Objects in the air may not be supported by the ground 404 or by water or by any natural or artificial structure. Obstacles on the ground 404 (eg, towers, skyscrapers, streetlights, wireless towers, power lines, tall structures such as trees) may include portions that substantially extend into the air 406.

幾つかの例では、GPSセンサなどのセンサが、室外環境400内でUAV402を測位するために利用され得る。幾つかの実施形態では、物体はGPS信号と干渉し得、GPS信号は室外環境では利用可能でないかもしれない。幾つかの実施形態では、GPSセンサに基づく測位の精度はメートル程度であり得、精密な測位には補助測位センサ(例えば、IMUセンサ、撮像装置)が必要かもしれない。幾つかの例では、室外環境でUAVを測位するためにSLAMが利用され得る。図5は、幾つかの実施形態による、SLAMで計算されたポイントクラウドを示す。画像内の各点(例えば、501、503、505)の3次元座標が計算され得、環境のグローバルマップが維持され得る。幾つかの例では、不安定な特徴は、蓄積し得る計算誤差を生じ得る。環境内でUAVを測位するための他のセンサ又は方法(例えば、GPS又はSLAM)の代替物として又はその補足として視野センサが利用され得る。例えば、視野センサはGPSセンサが働かない領域内で利用され得る。   In some examples, sensors such as GPS sensors may be utilized to position the UAV 402 within the outdoor environment 400. In some embodiments, the object may interfere with the GPS signal, and the GPS signal may not be available in the outdoor environment. In some embodiments, the accuracy of positioning based on GPS sensors may be on the order of meters, and precise positioning may require auxiliary positioning sensors (eg, IMU sensors, imaging devices). In some instances, SLAM may be utilized to position a UAV in an outdoor environment. FIG. 5 shows a point cloud computed with SLAM, according to some embodiments. Three-dimensional coordinates of each point (eg, 501, 503, 505) in the image may be calculated and a global map of the environment may be maintained. In some instances, unstable features can result in computational errors that can accumulate. A field of view sensor may be utilized as an alternative to, or as a complement to, other sensors or methods (eg, GPS or SLAM) for positioning a UAV in the environment. For example, a field of view sensor may be utilized in areas where the GPS sensor does not work.

幾つかの例では、UAV402へ結合された1つ又は複数の視野センサは、室外環境400の複数の画像(物体の画像データを含む)を取得し得る。物体の画像データは画像内の顕著特徴であり得る。物体の画像データは画像内の静止顕著特徴であり得る。幾つかの実施形態では、可動物体の位置を判断するために静止顕著特徴だけが考慮され得る。UAV402の位置は、本明細書で先に説明したように2つ以上の顕著特徴までのUAVの距離を測定することにより判断され得る。UAVの位置は環境のグローバルマップを維持すること無く判断され得、誤差蓄積は最小である又は全く無いかもしれない。本出願の装置及び方法による可動物体の測位は、約1cm、5cm、10cm、20cm、50cm、75cm、100cm、1.5m、2m、5m、又は10m、又はこれら以内の顕著特徴に対する可動物体の実際の位置であり得る。可動物体の位置の判断は別の動作中に利用され得る。例えば、位置情報は室外環境400でUAV402を航行させるために利用され得る。幾つかの例では、室外環境でUAVを航行させるには1つ又は複数の視野センサで十分かもしれない。幾つかの例では、航行のために1つ又は複数の視野センサが1つ又は複数の他のセンサ(例えば、IMUセンサ)と共に利用され得る。   In some examples, one or more vision sensors coupled to UAV 402 may acquire multiple images of outdoor environment 400 (including image data of an object). The image data of the object may be salient features in the image. The image data of the object may be stationary salient features in the image. In some embodiments, only stationary salient features may be considered to determine the position of the movable object. The position of the UAV 402 can be determined by measuring the distance of the UAV to two or more salient features as described earlier herein. The location of the UAV can be determined without maintaining a global map of the environment, and error accumulation may be minimal or not at all. Positioning of movable objects according to the apparatus and method of the present application is the actuality of movable objects for salient features within about 1 cm, 5 cm, 10 cm, 20 cm, 50 cm, 75 cm, 100 cm, 1.5 m, 2 m, 5 m, or 10 m or more. It may be in the position of The determination of the position of the moveable object can be used during another operation. For example, location information may be utilized to navigate UAV 402 in outdoor environment 400. In some instances, one or more vision sensors may be sufficient to navigate the UAV in an outdoor environment. In some instances, one or more field of view sensors may be utilized with one or more other sensors (eg, an IMU sensor) for navigation.

図6は、幾つかの実施形態による、室内環境650で動作するUAV652を示す。室内環境650は、床656、1つ又は複数の壁658、及び/又は天井又は屋根660を有する建物654の内部である。例示的な建物は、住居、商用、又は家、アパート、事務所、製造施設、貯蔵施設などの工業用建物を含む。建物654の内部は、UAV652が内部空間に制約されるように床656、壁658、天井660により完全に囲まれ得る。逆に、床656、壁658又は天井660のうちの少なくとも1つは存在しなくてもよく、これによりUAV652が内部から外部へ(又は逆もまた同様)飛行できるようにする。代替的に又は組み合わせて、1つ又は複数の絞り864が床656、壁658又は天井660(例えば、ドア、窓、天窓)に形成され得る。   FIG. 6 illustrates a UAV 652 operating in a room environment 650, according to some embodiments. The indoor environment 650 is the interior of a building 654 having a floor 656, one or more walls 658, and / or a ceiling or roof 660. Exemplary buildings include residential, commercial, or industrial buildings such as homes, apartments, offices, manufacturing facilities, storage facilities, and the like. The interior of the building 654 may be completely surrounded by the floor 656, the wall 658 and the ceiling 660 such that the UAV 652 is confined to the interior space. Conversely, at least one of the floor 656, the wall 658 or the ceiling 660 may not be present, thereby allowing the UAV 652 to fly from the inside to the outside (or vice versa). Alternatively or in combination, one or more stops 864 may be formed in floor 656, wall 658 or ceiling 660 (eg, door, window, skylight).

室外環境400と同様に、室内環境650は1つ又は複数の物体662a〜662dを含み得る。家具、器具、人間、動物、植物、他の人工又は自然物などの幾つかの物体(例えば、障害物662a)が床656上に位置し得る。逆に、鳥又は他のUAVなど幾つかの物体(例えば、物体662b)が空中に位置し得る。室内環境650内の幾つかの障害物は他の構造物又は物体により支持され得る。照明設備、天井扇風機、梁又は他の天井取り付け器具又は構造物などの物体(例えば、障害物662c)もまた天井660へ取り付けられ得る。幾つかの実施形態では、照明設備、棚、キャビネット、他の壁取り付け器具又は構造物などの物体(例えば、障害物662d)が壁658へ取り付けられ得る。特には、建物654の構造部品(床656、壁658、天井660を含む)もまた物体であると考えられ得る。   Similar to the outdoor environment 400, the indoor environment 650 may include one or more objects 662a-662d. Some objects (eg, obstacle 662 a) such as furniture, appliances, humans, animals, plants, other artificial or natural objects may be located on floor 656. Conversely, some objects (eg, object 662b) such as birds or other UAVs may be located in the air. Some obstacles in the indoor environment 650 may be supported by other structures or objects. Objects such as lighting fixtures, ceiling fans, beams or other ceiling mounts or structures (eg, obstacle 662 c) may also be attached to the ceiling 660. In some embodiments, objects such as lighting fixtures, shelves, cabinets, other wall-mounted fixtures or structures (eg, obstacle 662d) may be attached to the wall 658. In particular, the structural components of the building 654 (including the floor 656, the walls 658, the ceiling 660) may also be considered objects.

本明細書で説明する物体は、ほぼ静止し得る(例えば建物、植物、構造物)又は実質的に可動であり得る(例えば、人間、動物、車両又は他の移動可能な物体)。幾つかの物体は静止部品と可動部品の組合せ(例えば、風車)を含み得る。可動物体又は障害物部品は所定の又は予測可能な経路又はパターンに従って移動し得る。例えば、自動車の移動は比較的予測可能であり得る(例えば、道路の形状に基づいて)。代替的に、幾つかの可動物体又は対象部品はランダム又はそうでなければ予測不能な軌道に沿って移動し得る。例えば、動物などの生物は比較的予測不能なやり方で移動し得る。   The objects described herein may be substantially stationary (eg, buildings, plants, structures) or substantially movable (eg, humans, animals, vehicles or other movable objects). Some objects may include a combination of stationary and moving parts (e.g., a wind turbine). The moveable object or obstacle part may move according to a predetermined or predictable path or pattern. For example, the movement of a car may be relatively predictable (eg, based on the shape of the road). Alternatively, some moveable objects or parts of interest may move along random or otherwise unpredictable trajectories. For example, organisms such as animals can move in a relatively unpredictable manner.

幾つかの実施形態では、GPS信号は室内環境で利用可能ではないかもしれなく、したがって室内環境内のUAV652を測位するためのGPSセンサは利用されなくてもよい。幾つかの例では、室内環境内のUAVを測位するためのSLAMが利用され得る。SLAMに基づく測位のために、画像内の各点の3次元座標が計算され得、環境のグローバルマップが維持され得る。幾つかの例では、不安定な特徴は蓄積し得る計算誤差を生じ得る。環境内でUAVを測位するための他のセンサ又は方法(例えば、GPS又はSLAM)の代替物として又はその補完として視野センサが利用され得る。例えば、視野センサはGPSセンサが働かない領域(例えば、室内環境)内で利用され得る。   In some embodiments, GPS signals may not be available in the indoor environment, so GPS sensors for positioning the UAV 652 in the indoor environment may not be utilized. In some instances, SLAM may be utilized to locate a UAV in an indoor environment. For SLAM-based positioning, three-dimensional coordinates of each point in the image can be calculated and a global map of the environment can be maintained. In some instances, unstable features may result in computational errors that may accumulate. A field of view sensor may be utilized as an alternative to, or as a complement to, other sensors or methods (eg, GPS or SLAM) for positioning a UAV in the environment. For example, a field of view sensor may be utilized within the area where the GPS sensor does not work (e.g., an indoor environment).

幾つかの例では、UAV652へ結合された1つ又は複数の視野センサが室内環境650の複数の画像(物体の画像データを含む)を取得し得る。物体の画像データは画像内の顕著特徴であり得る。物体の画像データは画像内の静止顕著特徴であり得る。幾つかの実施形態では、可動物体の位置を判断するために静止顕著特徴だけが考慮され得る。幾つかの実施形態では、可動物体の位置を判断するために、静止顕著特徴と予測可能な経路又はパターンに従って移動する可動特徴との両方が考慮され得る。UAV652の位置は、本明細書で先に説明したように2つ以上の顕著特徴までのUAVの距離を測定することにより判断され得る。UAVの位置は環境のグローバルマップを維持することなく判断され得、誤差蓄積は最小である又は全く無いかもしれない。本出願の装置及び方法による可動物体の測位は、約1cm、5cm、10cm、20cm、50cm、75cm、100cm、1.5m、2m、5m又は10m、又はそれ以内の顕著特徴に対する可動物体の実際の位置であり得る。可動物体の位置の判断は別の動作中に利用され得る。例えば、室内環境650でUAV652を航行させるために位置情報が利用され得る。幾つかの例では、室内環境でUAVを航行させるには1つ又は複数の視野センサで十分かもしれない。幾つかの例では、航行のために1つ又は複数の視野センサが1つ又は複数の他のセンサ(例えば、IMUセンサ)と共に利用され得る。   In some examples, one or more vision sensors coupled to UAV 652 may acquire multiple images of indoor environment 650 (including image data of an object). The image data of the object may be salient features in the image. The image data of the object may be stationary salient features in the image. In some embodiments, only stationary salient features may be considered to determine the position of the movable object. In some embodiments, both stationary salient features and movable features that move according to a predictable path or pattern may be considered to determine the position of the movable object. The position of UAV 652 may be determined by measuring the distance of the UAV to two or more salient features as described earlier herein. The location of the UAV can be determined without maintaining a global map of the environment, and error accumulation may be minimal or not at all. Positioning of movable objects according to the apparatus and method of the present application is the actual movement object relative to salient features within about 1 cm, 5 cm, 10 cm, 20 cm, 50 cm, 75 cm, 100 cm, 1.5 m, 2 m, 5 m or 10 m or less. It may be a position. The determination of the position of the moveable object can be used during another operation. For example, location information may be utilized to navigate UAV 652 in indoor environment 650. In some instances, one or more vision sensors may be sufficient to navigate the UAV in the indoor environment. In some instances, one or more field of view sensors may be utilized with one or more other sensors (eg, an IMU sensor) for navigation.

本明細書で提供された実施形態は、車両の位置を判断するための、車両を測位するための、自律航行及び制御のためなどの比較的少ない特徴(例えば、顕著特徴)の使用を可能にし得る。少ない特徴の使用は、車両航行中のより少ない又は最小の処理能力を必要とし得る。少ない特徴(例えば、点よりも)の使用はより小さい誤差を生じ(例えば、不安定な特徴点の影響を最小化することにより)、車両の精密且つ正確な航行及び制御を可能にし得る。グローバルマップを維持する必要の無い、特徴(例えば、顕著特徴)までの距離に基づく位置の判断又は自己測位は誤差の蓄積を低下し、車両の精密且つ正確な航行及び制御を可能にし得る。顕著特徴の使用は、顕著特徴がしばしば一意的に識別可能(例えば、一貫して及び繰り返し識別可能)であるので、位置の判断に必要とされる特徴を少なくし得る。顕著特徴はまた、予め格納されたパターン又は物体を必要とすることなくアドホック又はリアルタイムベースで識別され得る。これは、画像の一致などを探すための処理時間要件を低減し得る。   The embodiments provided herein enable the use of relatively few features (e.g. salient features), such as for autonomous navigation and control, to determine the position of the vehicle, for positioning the vehicle, etc. obtain. The use of less features may require less or less processing power during vehicle navigation. The use of fewer features (e.g., than points) may result in smaller errors (e.g., by minimizing the effects of unstable feature points), enabling precise and accurate navigation and control of the vehicle. Position determination based on distance to features (e.g. salient features) or self-positioning without the need to maintain a global map may reduce error accumulation and allow precise and accurate navigation and control of the vehicle. The use of salient features may reduce the number of features required for position determination, as salient features are often uniquely identifiable (e.g., consistently and repeatedly distinguishable). Prominent features may also be identified on an ad hoc or real time basis without the need for pre-stored patterns or objects. This may reduce the processing time requirements to look for image matches and the like.

本明細書で提供される実施形態は様々な種類のUAVに適用され得る。例えば、UAVは、10kg以下の重量及び/又は1.5m以下の最大次元を有する小型のUAVであり得る。幾つかの実施形態では、UAVは、複数のプロペラにより空中を移動するように推進されるマルチ回転翼航空機(例えば、クワドロコプター)などの回転翼機であり得る。本明細書で提示される実施形態と共に使用するのに好適なUAV及び他の可動物体の追加例は、以下に更に詳細に説明される。   The embodiments provided herein may be applied to various types of UAVs. For example, the UAV may be a compact UAV having a weight of 10 kg or less and / or a maximum dimension of 1.5 m or less. In some embodiments, the UAV may be a rotorcraft, such as a multi-rotor aircraft (e.g., quadcopter) that is propelled to move in the air by multiple propellers. Additional examples of UAVs and other moveable objects suitable for use with the embodiments presented herein are described in further detail below.

本明細書で説明するUAVは、完全に自律的に(例えば、車上制御装置などの好適なコンピュータシステムにより)、半自律的に、又は手動で(例えば、人間のユーザにより)動作させられ得る。UAVは、好適なエンティティ(例えば、人間のユーザ又は自律制御システム)から命令を受信し、1つ又は複数の動作を行うことによりこのような命令に応答し得る。例えば、UAVは、地上から離陸する、空中を移動する(例えば、並進の最大3つの自由度と回転の最大3つの自由度とに関し)、標的位置又は一連の標的位置へ移動する、空中静止する、地上に着地するなどのように制御され得る。別の例として、UAVは、特定の速度及び/又は加速度で(例えば、並進の最大3つの自由度と回転の最大3つの自由度とに関し)又は特定の移動経路に沿って移動するように制御され得る。更に、本明細書で説明する部品(例えば、センサ、アクチュエータ、推進装置、ペイロードなど)など1つ又は複数のUAV部品を制御するために命令が使用され得る。例えば、幾つかの命令がカメラなどのUAVペイロードの位置、配向及び又は動作を制御するために使用され得る。任意選択的に、UAVは、1つ又は複数の所定の運転規則にしたがって動作するように構成され得る。運転規則は、UAVの位置(例えば、緯度、経度、高度)、配向(例えば、ロール、ピッチ、ヨー)、速度(例えば、併進及び又は角度)、及び/又は加速度(例えば、併進及び又は角度)などUAVの任意の好適な態様を制御するために使用され得る。例えば、運転規則は、UAVが閾値高さを超えて飛行することが許可されないように設計され得、例えばUAVは地上から高さ400m以下で飛行するように構成され得る。幾つかの実施形態では、運転規則は、UAV安全性を改善するとともに安全事件を防止するための自動機構を提供するようにされ得る。例えば、UAVは、制限された飛行領域(例えば、空港)を検知するように及び制限された飛行領域の所定距離内で飛行しないように構成され得、これにより航空機及び他の障害物との潜在的衝突を防ぐ。 The UAVs described herein may be operated completely autonomously (eg, by a suitable computer system such as an on-board controller), semi-autonomously, or manually (eg, by a human user) . A UAV may receive instructions from a suitable entity (eg, a human user or an autonomous control system) and respond to such instructions by performing one or more operations. For example, the UAV may take off from the ground, move in the air (e.g., for a maximum of three degrees of freedom for translation and for a maximum of three degrees of rotation), move to a target position or a series of target positions, and hover , Landing on the ground, etc. can be controlled. As another example, the UAV is controlled to move at a particular velocity and / or acceleration (e.g., for a maximum of three degrees of freedom for translation and for a maximum of three degrees of rotation) or along a particular path of movement It can be done. Further, instructions may be used to control one or more UAV components, such as components described herein (eg, sensors, actuators, propulsion devices, payloads, etc.). For example, some instructions may be used to control the position, orientation, and / or operation of a UAV payload, such as a camera. Optionally, the UAV may be configured to operate according to one or more predetermined driving rules. The driving rules may be UAV position (eg, latitude, longitude, altitude), orientation (eg, roll, pitch, yaw), velocity (eg, translation and / or angle), and / or acceleration (eg, translation and / or angle) Etc. may be used to control any suitable aspect of the UAV. For example, the driving rules may be designed such that the UAV is not allowed to fly above the threshold height, for example the UAV may be configured to fly at a height of 400 m or less from the ground. In some embodiments, driving rules can be made to provide an automatic mechanism to improve UAV safety and prevent safety incidents. For example, the UAV may be configured to detect a limited flight area (e.g., an airport) and not to fly within a predetermined distance of the restricted flight area, thereby allowing the potential with aircraft and other obstacles. Prevent potential conflicts.

本明細書で説明したシステム、装置及び方法は多種多様の可動物体に適用され得る。前述のように、UAVに関する本明細書中の任意の記載は任意の可動物体に適用され使用され得る。本発明の可動物体は、空中(例えば、固定翼航空機、回転翼航空機、又は固定翼も回転翼も有しない航空機)で、水中(例えば、船又は潜水艦)で、地上(例えば、自動車などのモータ車両、トラック、バス、バン型車、オートバイ、棒、釣り竿などの可動構造又は枠、又は列車)で、地下(例えば、地下道)で、宇宙空間(例えば、宇宙飛行機、衛星、又は探査衛星)で、又はこれらの環境の任意の組み合わせなど任意の好適な環境内で移動するように構成され得る。可動物体は本明細書中の別の箇所において説明した車両などの車両であり得る。可動物体は、人による入力を必要としない自走無人車両であり得る。幾つかの実施形態では、可動物体は人又は動物などの生体上に搭載され得る。好適な動物としては、山羊類、犬類、猫類、馬類、牛類、羊類、豚類、イルカ、ネズミ類又は昆虫類が挙げられる。幾つかの実施形態では、可動物体は担持され得る。   The systems, devices and methods described herein may be applied to a wide variety of moveable objects. As mentioned above, any description herein of a UAV may be applied and used to any moveable object. The movable object of the present invention is in the air (eg, fixed wing aircraft, rotary wing aircraft, or an aircraft having neither fixed wings nor rotary wings), underwater (eg, ship or submarine), and a motor such as a car Vehicles, trucks, buses, vans, motorbikes, rods, movable structures or frames such as rods, or trains, underground (for example, underground roads), in space (for example, space planes, satellites, or search satellites) Or any combination of these environments may be configured to move within any suitable environment. The movable object may be a vehicle, such as the vehicle described elsewhere herein. The movable object may be a self-propelled unmanned vehicle that does not require human input. In some embodiments, the moveable object may be mounted on a living organism such as a human or an animal. Suitable animals include goats, dogs, cats, horses, cows, sheep, pigs, dolphins, rats or insects. In some embodiments, movable objects may be carried.

可動物体は6つの自由度(例えば、並進の3つの自由度と回転の3つの自由度)に関し環境内で自由に移動し得る。代替的に、可動物体の移動は、予め決められた経路、トラック又は配向など1つ又は複数の自由度に関し制約され得る。移動はエンジン又はモータなどの任意の好適な作動機構により作動され得る。可動物体の作動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風エネルギー、重力エネルギー、化学エネルギー、核エネルギー又はそれらの任意の好適な組み合せなど任意の好適なエネルギー源により動力を供給され得る。可動物体は、本明細書の他の箇所で説明したように推進系を介し自力推進され得る。推進系は任意選択的に、電気エネルギー、磁気エネルギー、太陽エネルギー、風エネルギー、重力エネルギー、化学エネルギー、核エネルギー又はそれらの任意の好適な組み合せなどのエネルギー源で動作し得る。代替的に、可動物体は生物により担持され得る。   A movable object may move freely within the environment with respect to six degrees of freedom (e.g., three degrees of translation and three degrees of rotation). Alternatively, the movement of the moveable object may be constrained with respect to one or more degrees of freedom, such as a predetermined path, track or orientation. The movement may be actuated by any suitable actuation mechanism, such as an engine or a motor. The actuation mechanism of the movable object may be powered by any suitable energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy or any suitable combination thereof. The moveable object may be self-propelled through the propulsion system as described elsewhere herein. The propulsion system may optionally operate with an energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy or any suitable combination thereof. Alternatively, the movable object may be carried by a living being.

幾つかの例では、可動物体は車両であり得る。好適な車両は水上機、航空機、宇宙船又は地上車両を含み得る。例えば、航空機は、固定翼航空機(例えば、飛行機、グライダ)、回転翼航空機(例えば、ヘリコプタ、回転翼機)、固定翼と回転翼の両方を有する航空機、又は何れも有しない航空機(例えば、小形飛行船、熱気球)であり得る。車両は、空中、水上又は水中、宇宙空間、地上又は地下を自力推進し得る。自力推進車両は、1つ又は複数のエンジン、モータ、車輪、車軸、磁石、回転子、プロペラ、回転翼、ノズル、又はそれらの任意の好適な組み合せを含む推進系などの推進系を利用し得る。幾つかの例では、推進系は、可動物体が表面から離陸する、表面に着地する、その現在位置及び/又は配向を維持する(例えば、空中静止する)、配向を変更する、及び/又は位置を変更することを可能にするために使用され得る。   In some instances, the moveable object may be a vehicle. Suitable vehicles may include seaplanes, aircraft, spacecraft or ground vehicles. For example, the aircraft may be fixed wing aircraft (eg, airplanes, gliders), rotary wing aircraft (eg, helicopters, rotary wing aircraft), aircraft having both fixed and rotary wings, or aircraft having neither It can be an airship, a hot air balloon). The vehicle can self-promote the air, water or water, space, ground or underground. A self-propelled vehicle may utilize a propulsion system such as a propulsion system including one or more engines, motors, wheels, axles, magnets, rotors, propellers, rotors, nozzles, or any suitable combination thereof. . In some instances, the propulsion system takes off from the surface, lands on the surface, maintains its current position and / or orientation (eg, is hovering), changes orientation, and / or position Can be used to allow changes.

可動物体は、ユーザにより遠隔的に制御されてもよいし、可動物体内の又はその上の乗員により局所的に制御されてもよい。幾つかの実施形態では、可動物体はUAVなどの無人可動物体である。UAVなどの無人可動物体は乗員を有しなくてもよい。可動物体は、人、又は自律制御システム(例えば、コンピュータ制御システム)、又はそれらの任意の好適な組み合せにより制御され得る。可動物体は、人工知能により構成されたロボットなどの自律的又は半自律的ロボットであり得る。   The moveable object may be controlled remotely by the user or locally by an occupant in or on the moveable object. In some embodiments, the movable object is an unmanned movable object such as a UAV. An unmanned movable object such as a UAV may have no occupant. The moveable object may be controlled by a person, or an autonomous control system (e.g. a computer control system), or any suitable combination thereof. The movable object may be an autonomous or semi-autonomous robot such as a robot configured by artificial intelligence.

可動物体は任意の好適な大きさ及び/又は次元を有し得る。幾つかの実施形態では、可動物体は車両内又はその上に人間の乗員を有するための大きさ及び/又は次元のものであり得る。代替的に、可動物体は車両内又はその上の人間の乗員を有することができるものより小さな大きさ及び/又は次元のものであり得る。可動物体は人間により持ち上げられる又は担持されるのに好適な大きさ及び/又は次元のものであり得る。代替的に、可動物体は人間により持ち上げられる又は担持されるのに好適な大きさ及び/又は次元より大きいかもしれない。幾つかの例では、可動物体は約2cm、5cm、10cm、50cm、1m、2m、5m、又は10m以下の最大次元(例えば、長さ、幅、高さ、直径、対角線)を有し得る。最大次元は約2cm、5cm、10cm、50cm、1m、2m、5m、又は10m以上であり得る。例えば、可動物体の対向回転子の軸間の距離は約2cm、5cm、10cm、50cm、1m、2m、5m、又は10m以下であり得る。代替的に、対向回転子の軸間の距離は約2cm、5cm、10cm、50cm、1m、2m、5m、又は10m以上であり得る。   The moveable object may have any suitable size and / or dimension. In some embodiments, the moveable object may be sized and / or dimensioned to have a human occupant in or on the vehicle. Alternatively, the movable object may be of smaller size and / or dimension than can have a human occupant in or on the vehicle. The moveable object may be of suitable size and / or dimension to be lifted or carried by a human. Alternatively, the moveable object may be larger than the preferred size and / or dimension for being lifted or carried by a human. In some examples, the movable object may have maximum dimensions (eg, length, width, height, diameter, diagonal) of about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m or less. The largest dimension may be about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m or more. For example, the distance between the axes of opposing rotors of the movable object may be less than or equal to about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m, or 10 m. Alternatively, the distance between the axes of the opposed rotors may be about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or more than 10 m.

幾つかの実施形態では、可動物体は100cm×100cm×100cm未満、50cm×50cm×30cm未満、5cm×5cm×3cm未満の体積を有し得る。可動物体の全容積は約1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1m、又は10m以下であり得る。逆に、可動物体の全容積は約1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1m、又は10m以上であり得る。 In some embodiments, the movable object may have a volume of less than 100 cm × 100 cm × 100 cm, 50 cm × 50 cm × 30 cm, 5 cm × 5 cm × 3 cm. The total volume of the movable object is about 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 3, 300cm 3, 500cm 3, 750cm 3, 1000cm 3, 5000cm 3, 10,000cm 3, may be 100,000cm 3, 1m 3, or 10 m 3 or less. Conversely, the total volume of the movable object is about 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3, 200cm 3, 300cm 3, 500cm 3, 750cm 3, 1000cm 3, 5000cm 3, 10,000cm 3, it may be 100,000cm 3, 1m 3, or 10 m 3 or more.

幾つかの実施形態では、可動物体は約32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cm、又は5cm以下のフットプリント(可動物体により包含される横方向断面積と呼ばれることがある)を有し得る。逆に、フットプリントは約32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cm又は5cm以上であり得る。 In some embodiments, the movable object is about 32,000cm 2, 20,000cm 2, 10,000cm 2 , 1,000cm 2, 500cm 2, 100cm 2, 50cm 2, 10cm 2, or 5 cm 2 or less footprint It may have (sometimes referred to as a transverse cross-sectional area encompassed by a moveable object). Conversely, the footprint of about 32,000cm 2, 20,000cm 2, 10,000cm 2 , may be 1,000cm 2, 500cm 2, 100cm 2 , 50cm 2, 10cm 2 or 5 cm 2 or more.

幾つかの例では、可動物体は1000kg以下の重量であり得る。可動物体の重量は約1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg又は0.01kg以下であり得る。逆に、重量は約1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg, 0.05kg又は0.01kg以上であり得る。   In some instances, the moveable object can weigh 1000 kg or less. The weight of the movable object is about 1000 kg, 750 kg, 500 kg, 200 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg It may be less than 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, 0.1 kg, 0.05 kg or 0.01 kg. Conversely, the weight is about 1000 kg, 750 kg, 500 kg, 200 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 kg, 12 kg, 10 kg, 9 kg, 8 kg, 7 kg, It may be 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.5 kg, 0.1 kg, 0.05 kg or more than 0.01 kg.

幾つかの実施形態では、可動物体は可動物体により担持される積荷に比べて小さくてもよい。負荷は以下に更に詳細に説明されるようにペイロード及び/又はキャリアを含み得る。幾つかの例では、負荷重量に対する可動物体重量の比は約1:1より大きくても、小さくても、又は等しくてもよい。幾つかの例では、負荷重量に対する可動物体重量の比は約1:1より大きくても、小さくても、又は等しくてもよい。任意選択的に、負荷重量に対するキャリア重量の比は約1:1より大きくても、小さくても、又は等しくてもよい。必要に応じて、負荷重量に対するキャリア重量の比は1:2、1:3、1:4、1:5、1:10以下又は更にそれ未満であり得る。逆に、負荷重量に対する可動物体重量の比は1:2、1:3、1:4、1:5、1:10以上又は更にそれを超え得る。   In some embodiments, the moveable object may be smaller than the load carried by the moveable object. The load may include the payload and / or the carrier as described in more detail below. In some instances, the ratio of movable object weight to load weight may be greater than, less than, or equal to about 1: 1. In some instances, the ratio of movable object weight to load weight may be greater than, less than, or equal to about 1: 1. Optionally, the ratio of carrier weight to load weight may be greater than, less than, or equal to about 1: 1. Optionally, the ratio of carrier weight to loaded weight may be less than or equal to 1: 2, 1: 3, 1: 4, 1: 5, 1:10 or even less. Conversely, the ratio of movable object weight to load weight may be greater than 1: 2, 1: 3, 1: 4, 1: 5, 1:10 or even more.

幾つかの実施形態では、可動物体は低エネルギー消費量を有し得る。例えば、可動物体は約5W/h、4W/h、3W/h、2W/h、1W/h未満、又は更にそれ未満を使用し得る。幾つかの例では、可動物体の搬送体は低エネルギー消費量を有し得る。例えば、キャリアは約5W/h、4W/h、3W/h、2W/h、1W/h未満、又はそれ未満を使用し得る。任意選択的に、可動物体のペイロードは約5W/h、4W/h、3W/h、2W/h、1W/h未満、又はそれ未満などの低エネルギー消費量を有し得る。   In some embodiments, movable objects may have low energy consumption. For example, the movable object may use less than or about 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h or less. In some instances, the movable object carrier may have a low energy consumption. For example, the carrier may use about 5 W / h, 4 W / h, 3 W / h, 2 W / h, less than 1 W / h, or less. Optionally, the payload of the movable object may have a low energy consumption, such as about 5 W / h, 4 W / h, 3 W / h, 2 W / h, less than or less than 1 W / h.

図7は本発明の実施形態による無人航空機(UAV)700を示す。UAVは本明細書に記載のような可動物体の例であり得る。UAV1000は4つの回転子702、704、706、708を有する推進系を含み得る。任意の数(例えば、1、2、3、4、5、6、7、8又はそれ以上)の回転子が設けられ得る。無人航空機の回転子、回転子アセンブリ、又は他の推進系は、無人航空機が空中静止し/位置を維持し、配向を変更し、及び/又は位置を変更できるようにし得る。対向回転子の軸間の距離は任意の好適な長さ710であり得る。例えば、長さ710は2m以下又は5m以下であり得る。幾つかの実施形態では、長さ710は40cm〜1m、10cm〜2m、又は5cm〜5mの範囲内であり得る。UAVの本明細書の任意の記載は異なるタイプの可動物体などの可動物体に適用し得、逆もまた同様である。   FIG. 7 shows an unmanned aerial vehicle (UAV) 700 according to an embodiment of the present invention. A UAV may be an example of a moveable object as described herein. UAV 1000 may include a propulsion system having four rotors 702, 704, 706, 708. Any number (eg, 1, 2, 3, 4, 5, 6, 7, 8 or more) of rotors may be provided. A rotor, rotor assembly, or other propulsion system of the unmanned aerial vehicle may allow the unmanned aerial vehicle to remain airborne / position maintained, change orientation, and / or change position. The distance between the opposed rotor axes may be any suitable length 710. For example, the length 710 can be 2 m or less or 5 m or less. In some embodiments, the length 710 can be in the range of 40 cm to 1 m, 10 cm to 2 m, or 5 cm to 5 m. Any description herein of a UAV may apply to movable objects, such as different types of movable objects, and vice versa.

幾つかの実施形態では、可動物体は負荷を担持するように構成され得る。負荷は1又は複数の乗客、貨物、装備、機器などを含み得る。負荷は筐体内に設けられ得る。筐体は可動物体の筐体とは別であってもよいし可動物体の筐体の一部であってもよい。代替的に、負荷は筐体を備え得るが、可動物体は筐体を有しない。代替的に、負荷の一部又は全負荷は筐体無しに設けられ得る。負荷は可動物体へ強固に固定され得る。任意選択的に、負荷は可動物体に対して可動(例えば、可動物体に対して併進可能又は回転可能)であり得る。   In some embodiments, the moveable object may be configured to carry a load. The load may include one or more passengers, cargo, equipment, equipment, and the like. The load may be provided in the housing. The housing may be separate from the housing of the movable object or part of the housing of the movable object. Alternatively, the load may comprise a housing, but the movable object does not have a housing. Alternatively, part or all of the load may be provided without a housing. The load may be rigidly fixed to the movable object. Optionally, the load may be movable (e.g., movable or rotatable relative to the movable object) relative to the movable object.

幾つかの実施形態では、負荷はペイロードを含む。ペイロードはいかなる動作又は機能も行わないように構成され得る。代替的に、ペイロードは動作又は機能を行うように構成されたペイロード(機能的ペイロードとしても知られる)であり得る。例えば、ペイロードは1つ又は複数の標的を測量するための1つ又は複数のセンサを含み得る。画像捕捉装置(例えば、カメラ)、音声捕捉装置(例えば、放物面マイクロフォン)、赤外線撮像装置、又は紫外線撮像装置などの任意の好適なセンサがペイロード内に取り込まれ得る。センサは静的感知データ(例えば、写真)又は動的感知データ(例えば、映像)を提供し得る。幾つかの実施形態では、センサはペイロードの標的の感知データを提供する。代替的に又は組み合わせて、ペイロードは1つ又は複数の標的へ信号を提供するための1つ又は複数の発射手段を含み得る。照明光源又は音源などの任意の好適な発射手段が使用され得る。幾つかの実施形態では、ペイロードは可動物体から遠く離れたモジュールとの通信のためなどの1つ又は複数の送受信器を含む。任意選択的に、ペイロードは環境又は標的と相互作用するように構成され得る。例えば、ペイロードはロボットアームなどの物体を操作することができる道具、機器、又は機構を含み得る。   In some embodiments, the load comprises a payload. The payload may be configured to perform no operation or function. Alternatively, the payload may be a payload (also known as a functional payload) configured to perform an operation or function. For example, the payload may include one or more sensors for surveying one or more targets. Any suitable sensor such as an image capture device (e.g., a camera), an audio capture device (e.g., a parabolic microphone), an infrared imager, or an ultraviolet imager may be incorporated into the payload. The sensor may provide static sensing data (eg, a photo) or dynamic sensing data (eg, an image). In some embodiments, the sensor provides sensing data of a target of the payload. Alternatively or in combination, the payload may include one or more launch means for providing a signal to one or more targets. Any suitable launch means may be used, such as an illumination light source or a sound source. In some embodiments, the payload includes one or more transceivers, such as for communication with a module remote from the moveable object. Optionally, the payload can be configured to interact with the environment or target. For example, the payload may include a tool, device, or mechanism capable of manipulating an object, such as a robotic arm.

任意選択的に、負荷はキャリアを含み得る。キャリアはペイロードに設けられ得、ペイロードはキャリアを介し直接的に(例えば、可動物体と直接接触して)又は間接的に(例えば、可動物体と接触すること無く)のいずれかで可動物体へ結合され得る。逆に、ペイロードはキャリアを必要とすること無く可動物体上に搭載され得る。ペイロードはキャリアと一体的に形成され得る。代替的に、ペイロードはキャリアへ着脱自在に結合され得る。幾つかの実施形態では、ペイロードは1つ又は複数のペイロード要素を含み得、ペイロード要素の1つ又は複数は上述のように可動物体及び/又はキャリアに対し可動であり得る。   Optionally, the load may include a carrier. The carrier may be provided in the payload, and the payload is coupled to the movable object either directly (eg, in direct contact with the movable object) or indirectly (eg, without contact with the movable object) via the carrier It can be done. Conversely, the payload can be mounted on the movable object without the need for a carrier. The payload may be integrally formed with the carrier. Alternatively, the payload may be removably coupled to the carrier. In some embodiments, the payload may include one or more payload elements, and one or more of the payload elements may be movable relative to the moveable object and / or carrier as described above.

キャリアは可動物体と一体的に形成され得る。代替的に、キャリアは可動物体へ着脱自在に結合され得る。キャリアは可動物体へ直接又は間接的に結合され得る。キャリアはペイロードを支持し得る(例えば、ペイロードの重量の少なくとも一部を担持し得る)。キャリアはペイロードの移動を安定化及び/又は指示することができる好適な取り付け構造(例えば、ジンバルプラットフォーム)を含み得る。幾つかの実施形態では、キャリアは可動物体に対するペイロードの状態(例えば、位置及び/又は配向)を制御するようにされ得る。例えば、キャリアは、ペイロードが可動物体の移動にもかかわらず好適な基準座標系に対するその位置及び/又は配向を維持するように可動物体に対して(例えば、並進の1、2又は3つの自由度に関して及び/又は回転の1、2又は3つの自由度に関して)移動するように構成され得る。基準座標系は固定基準座標系(例えば、周囲環境)であり得る。代替的に、基準座標系は動く基準座標系(例えば、可動物体、ペイロード標的)であり得る。   The carrier may be integrally formed with the movable object. Alternatively, the carrier may be removably coupled to the movable object. The carrier may be coupled directly or indirectly to the movable object. The carrier may support the payload (eg, may carry at least a portion of the weight of the payload). The carrier may include a suitable mounting structure (eg, a gimbal platform) that can stabilize and / or direct the movement of the payload. In some embodiments, the carrier may be adapted to control the state (eg, position and / or orientation) of the payload relative to the moveable object. For example, the carrier may be moved relative to the movable object (eg, one, two or three degrees of freedom of translation such that the payload maintains its position and / or orientation relative to the preferred reference coordinate system despite movement of the movable object) And / or with respect to one, two or three degrees of freedom of rotation). The reference coordinate system may be a fixed reference coordinate system (eg, the surrounding environment). Alternatively, the reference coordinate system may be a moving reference coordinate system (e.g. movable object, payload target).

幾つかの実施形態では、キャリアは、キャリア及び/又は可動物体に対するペイロードの移動を許容するように構成され得る。移動は最大3つの自由度(例えば、1、2又は3つの軸に沿った)に関する並進、又は最大3つの自由度(例えば、約1、2又は3つの軸)に関する回転、又はそれらの任意の好適な組み合せであり得る。   In some embodiments, the carrier may be configured to allow movement of the payload relative to the carrier and / or the moveable object. The movement may be translated for up to three degrees of freedom (eg, along one, two or three axes), or rotated for up to three degrees of freedom (eg, about one, two or three axes), or any of them It may be a preferred combination.

幾つかの例では、キャリアはキャリアフレームアセンブリとキャリア作動アセンブリ(carrier actuation assembly)とを含み得る。キャリアフレームアセンブリは構造的支持をペイロードへ与え得る。キャリアフレームアセンブリは個々のキャリアフレーム部品を含み得、そのうちの幾つかは互いに対して可動であり得る。キャリア作動アセンブリは個々のキャリアフレーム部品の移動を作動させる1つ又は複数のアクチュエータ(例えば、モータ)を含み得る。アクチュエータは複数のキャリアフレーム部品の移動を同時に許容し得る、又は一回の単一のキャリアフレーム部品の移動を許容するように構成され得る。キャリアフレーム部品の移動は、それに応じたペイロードの移動を生じ得る。例えば、キャリア作動アセンブリは1つ又は複数の回転軸(例えば、ロール軸、ピッチ軸、又はヨー軸)を中心とする1つ又は複数のキャリアフレーム部品の回転を作動させ得る。1つ又は複数のキャリアフレーム部品の回転は、可動物体に対し、ペイロードを1つ又は複数の回転軸を中心として回転させ得る。代替的に又は組み合わせて、キャリア作動アセンブリは1つ又は複数の併進軸に沿った1つ又は複数のキャリアフレーム部品の並進を作動させ得、したがって可動物体に対し、1つ又は複数の当該軸に沿ったペイロードの並進を生じ得る。   In some instances, the carrier can include a carrier frame assembly and a carrier actuation assembly. The carrier frame assembly may provide structural support to the payload. The carrier frame assembly may include individual carrier frame parts, some of which may be movable relative to one another. The carrier actuation assembly may include one or more actuators (eg, motors) that actuate the movement of the individual carrier frame components. The actuator may be configured to allow movement of multiple carrier frame parts simultaneously or to allow movement of one single carrier frame part. Movement of the carrier frame component may result in movement of the payload accordingly. For example, the carrier actuation assembly may actuate rotation of one or more carrier frame components about one or more rotation axes (e.g., roll, pitch, or yaw axes). Rotation of the one or more carrier frame components may cause the payload to rotate about one or more rotation axes relative to the moveable object. Alternatively or in combination, the carrier actuation assembly may actuate the translation of one or more carrier frame parts along one or more translational axes, thus for the moveable object one or more axes of interest. Translation of the payload along can occur.

幾つかの実施形態では、固定基準座標系(例えば、周囲環境)に対する及び/又は互いに対する可動物体、キャリア、及びペイロードの移動は端末により制御され得る。端末は、可動物体、キャリア及び/又はペイロードから離れた位置における遠隔制御装置であり得る。端末は支持プラットフォーム上に配置又はそれへ固定され得る。代替的に、端末は携帯型又は装着型装置であり得る。例えば、端末は、スマートフォン、タブレット、ラップトップ、コンピュータ、眼鏡、グローブ、ヘルメット、マイクロホン、又は好適なそれらの組み合わせを含み得る。端末は、キーボード、マウス、ジョイスティック、タッチスクリーン又はディスプレイなどのユーザインターフェースを含み得る。端末と相互作用するために、手動入力命令、音声制御、ジェスチャ制御、又は位置制御(例えば、端末の移動、位置、又は傾斜を介した)など任意の好適なユーザ入力が利用され得る。   In some embodiments, movement of the moveable object, the carrier, and the payload relative to a fixed reference coordinate system (e.g., the surrounding environment) and / or with respect to each other may be controlled by the terminal. The terminal may be a remote control at a location remote from the movable object, the carrier and / or the payload. The terminal may be disposed on or fixed to the support platform. Alternatively, the terminal may be a portable or wearable device. For example, the terminal may include a smartphone, a tablet, a laptop, a computer, glasses, gloves, a helmet, a microphone, or a suitable combination thereof. The terminal may include a user interface such as a keyboard, a mouse, a joystick, a touch screen or a display. Any suitable user input may be utilized, such as manual input instructions, voice control, gesture control, or position control (eg, via movement, position or tilt of the terminal) to interact with the terminal.

端末は、可動物体、キャリア及び/又はペイロードの任意の好適な状態を制御するために使用され得る。例えば、端末は、固定基準に対する及び/又は互いに対する可動物体、キャリア及び/又はペイロードの位置及び/又は配向を制御するために使用され得る。幾つかの実施形態では、端末は、可動物体、キャリア及び/又はペイロードの個々の要素(キャリアの作動アセンブリ、ペイロードのセンサ、又はペイロードの発射手段など)を制御するために使用され得る。端末は、可動物体、キャリア又はペイロードのうちの1つ又は複数と通信するようにされた無線通信装置を含み得る。   The terminal may be used to control any suitable state of the moveable object, the carrier and / or the payload. For example, terminals may be used to control the position and / or orientation of movable objects, carriers and / or payloads with respect to fixed references and / or with respect to each other. In some embodiments, the terminal may be used to control the movable object, the carrier and / or the individual elements of the payload, such as an actuation assembly of the carrier, a sensor of the payload, or a launch means of the payload. The terminal may include a wireless communication device adapted to communicate with one or more of the movable object, the carrier or the payload.

端末は、可動物体、キャリア及び/又はペイロードの情報を見るのに好適な表示装置を含み得る。例えば、端末は、位置、併進速度、並進加速度、配向、角速度、角加速度又は任意の好適なそれらの組み合わせに関する可動物体、キャリア及び/又はペイロードの情報を表示するように構成され得る。幾つかの実施形態では、端末は、機能的ペイロードにより提供されるデータ(例えば、カメラ又は他の撮像装置により記録された画像)などペイロードにより提供される情報を表示し得る。   The terminal may include a display suitable for viewing movable object, carrier and / or payload information. For example, the terminal may be configured to display information of movable objects, carriers and / or payloads regarding position, translational velocity, translational acceleration, orientation, angular velocity, angular acceleration or any suitable combination thereof. In some embodiments, the terminal may display information provided by the payload, such as data provided by the functional payload (eg, an image recorded by a camera or other imaging device).

任意選択的に、同じ端末が、可動物体、キャリア及び/又はペイロードを制御する又は可動物体、キャリア及び/又はペイロードの状態を制御することと、可動物体、キャリア及び/又はペイロードからの情報を受信及び/又は表示することとの両方を行い得る。例えば、端末は、ペイロードにより捕捉された画像データ又はペイロードの位置についての情報を表示しながら環境に対するペイロードの位置を制御し得る。代替的に、様々な端末が様々な機能に使用され得る。例えば、第1の端末が可動物体、キャリア及び/又はペイロード移動又は状態を制御し得、一方第2の端末が可動物体、キャリア及び/又はペイロードからの情報を表示及び/又は受信し得る。例えば、第2の端末がペイロードにより捕捉された画像データを表示する間、第1の端末は環境に対するペイロードの位置決めを制御するために使用され得る。様々な通信方式が、可動物体と可動物体を制御しデータを受信する統合端末との間又は可動物体と可動物体を制御しデータを受信する複数の端末との間で利用され得る。例えば、少なくとも2つの異なる通信方式が、可動物体を制御することと可動物体からデータを受信することとの両方を行う端末と可動物体との間に形成され得る。   Optionally, the same terminal controls the movable object, the carrier and / or the payload or controls the state of the movable object, the carrier and / or the payload, and receives information from the movable object, the carrier and / or the payload And / or displaying. For example, the terminal may control the position of the payload relative to the environment while displaying information about the position of the image data or payload captured by the payload. Alternatively, different terminals may be used for different functions. For example, a first terminal may control movable object, carrier and / or payload movement or status, while a second terminal may display and / or receive information from the movable object, carrier and / or payload. For example, while the second terminal displays the image data captured by the payload, the first terminal may be used to control the positioning of the payload relative to the environment. Various communication schemes may be used between the movable object and the integrated terminal that controls the movable object and receives data, or between the movable object and a plurality of terminals that controls the movable object and receives data. For example, at least two different communication schemes may be formed between the movable object and a terminal that both controls the movable object and receives data from the movable object.

図8は、幾つかの実施形態による、キャリア802及びペイロード804を含む可動物体800を示す。可動物体800は航空機として描写されるが、本明細書で先に説明したようにこの描写は限定することを意図していなく、任意の好適なタイプの可動物体が使用され得る。当業者は、航空機システムの文脈で本明細書に記載された実施形態のうちの任意のものが任意の好適な可動物体(例えば、UAV)へ適用され得るということを認識するであろう。幾つかの例では、ペイロード804はキャリア802を必要とすること無く可動物体800上に設けられ得る。可動物体800は推進機構806、感知システム808、通信システム810を含み得る。   FIG. 8 shows a moveable object 800 including a carrier 802 and a payload 804, according to some embodiments. Although the moveable object 800 is depicted as an aircraft, this depiction is not intended to be limiting as described earlier herein, and any suitable type of moveable object may be used. Those skilled in the art will recognize that any of the embodiments described herein in the context of an aircraft system may be applied to any suitable moveable object (e.g., a UAV). In some instances, the payload 804 can be provided on the moveable object 800 without the need for the carrier 802. Movable object 800 may include a propulsion mechanism 806, a sensing system 808, and a communication system 810.

推進機構806は、先に説明したように回転子、プロペラ、回転翼、エンジン、モータ、車輪、車軸、磁石又はノズルのうちの1つ又は複数を含み得る。例えば、推進機構806は、本明細書の他の箇所で説明したように、回転子アセンブリ又は他の回転推進装置であり得る。可動物体は1つ又は複数、2つ以上、3以上、又は4つ以上の推進機構を有し得る。推進機構は全て同じタイプであり得る。代替的に、1つ又は複数の推進機構は異なるタイプの推進機構であり得る。推進機構806は、本明細書の他の箇所で説明したような支持要素(例えば、駆動軸)など任意の好適な手段を使用することにより可動物体800上に搭載され得る。推進機構806は、可動物体800の上部、下部、前部、後部、側部又は好適なそれらの組み合わせなど任意の好適な部分上に搭載され得る。   The propulsion mechanism 806 may include one or more of a rotor, a propeller, a rotor, an engine, a motor, a wheel, an axle, a magnet or a nozzle as described above. For example, the propulsion mechanism 806 can be a rotor assembly or other rotational propulsion device, as described elsewhere herein. The moveable object may have one or more, two or more, three or more, or four or more propulsion mechanisms. The propulsion mechanisms may all be of the same type. Alternatively, one or more propulsion mechanisms may be different types of propulsion mechanisms. The push mechanism 806 may be mounted on the moveable object 800 by using any suitable means, such as a support element (e.g., a drive shaft) as described elsewhere herein. The propulsion mechanism 806 may be mounted on any suitable portion, such as the upper, lower, front, rear, side or any suitable combination thereof of the moveable object 800.

幾つかの実施形態では、推進機構806は、可動物体800が可動物体800のいかなる水平運動も必要とすること無く(例えば、滑走路を走行すること無く)表面から垂直方向に離陸又は表面上に垂直方向に着陸できるようにし得る。任意選択的に、推進機構806は、可動物体800が所定位置及び/又は配向で空中静止できるように動作可能であり得る。1つ又は複数の推進機構800が他の推進機構とは独立に制御され得る。代替的に、推進機構800は同時に制御されるように構成され得る。例えば、可動物体800は、可動物体へ揚力及び/又は推力を与え得る複数の水平面指向回転子(horizontally oriented rotor)を有し得る。可動物体800へ垂直離陸、垂直着陸及び空中静止能力を与えるためにマルチ水平面指向回転子が作動され得る。幾つかの実施形態では、マルチ水平面指向回転子の1つ又は複数が時計回り方向にスピンし得、マルチ水平面指向回転子の1つ又は複数は反時計回転の方向にスピンし得る。例えば、時計回り回転子の数は反時計回り回転子の数に等しくてもよい。水平面指向回転子のそれぞれの回転速度は、各回転子により生成された揚力及び/又は推力を制御するために独立に変更され得、これにより可動物体800の空間的配置、速度、及び/又は加速度を調整する(例えば、並進の最大3つの自由度と回転の最大3つの自由度に関して)。   In some embodiments, the propulsion mechanism 806 can be vertically taken off or on the surface from the surface (e.g., without traveling the runway) without the movable object 800 requiring any horizontal movement of the movable object 800. It may be possible to land vertically. Optionally, the propulsion mechanism 806 may be operable to allow the movable object 800 to hover in the air at a predetermined position and / or orientation. One or more propulsion mechanisms 800 may be controlled independently of other propulsion mechanisms. Alternatively, propulsion mechanism 800 may be configured to be controlled simultaneously. For example, movable object 800 may have a plurality of horizontally oriented rotors that can provide lift and / or thrust to the movable object. A multi-horizontally-oriented rotor can be actuated to give the movable object 800 vertical take-off, vertical landing and hovering capabilities. In some embodiments, one or more of the multi-horizontally oriented rotors may spin in a clockwise direction and one or more of the multi-horizontally oriented rotors may spin in the counterclockwise direction. For example, the number of clockwise rotors may be equal to the number of counterclockwise rotors. The rotational speed of each of the horizontally oriented rotors may be independently varied to control the lift and / or thrust generated by each rotor, thereby causing the spatial arrangement, velocity, and / or acceleration of the movable object 800. (E.g., for a maximum of three degrees of freedom of translation and a maximum of three degrees of rotation).

感知システム808は、可動物体800の空間的配置、速度、及び/又は加速度を(例えば、並進の最大3つの自由度と回転の最大3つの自由度に関して)感知し得る1つ又は複数のセンサを含み得る。1つ又は複数のセンサは、全地球測位システム(GPS)センサ、運動センサ、慣性センサ、近接センサ又は画像センサを含み得る。感知システム808により提供される感知データは、可動物体800の空間的配置、速度、及び/又は配向を制御する(例えば、以下に述べるような好適な処理ユニット及び/又は制御モジュールを使用することにより)ために使用され得る。代替的に、感知システム808は、可動物体を取り囲む環境に関するデータ(天候状況、潜在的障害物への近接性、地理的特徴の位置、人工構造の位置など)を提供するために使用され得る。   The sensing system 808 may sense one or more sensors that may sense the spatial arrangement, velocity, and / or acceleration of the moveable object 800 (e.g., in terms of up to three degrees of freedom for translation and up to three degrees of rotation). May be included. The one or more sensors may include global positioning system (GPS) sensors, motion sensors, inertial sensors, proximity sensors or image sensors. The sensing data provided by the sensing system 808 controls the spatial arrangement, velocity, and / or orientation of the moveable object 800 (eg, by using a suitable processing unit and / or control module as described below) Can be used for Alternatively, sensing system 808 may be used to provide data regarding the environment surrounding the moveable object (weather status, proximity to potential obstacles, location of geographic features, location of artificial structures, etc.).

通信システム810は、通信システム814を有する端末812との無線信号816を介した通信を可能にする。通信システム810、814は任意の数の送信器、受信器及び/又は無線通信に好適な送受信器を含み得る。通信は一方向通信であり得、したがってデータは一方向だけに送信され得る。例えば、一方向通信は、可動物体800だけが端末812へデータを送信する(又は逆もまた同様である)ステップを含み得る。データは、通信システム810の1つ又は複数の送信器から通信システム812の1つ又は複数の受信器へ送信され得る(又は逆もまた同様)。代替的に、通信は双方向通信であり得、したがってデータは可動物体と端末812間の両方向に送信され得る。双方向通信は、通信システム810の1つ又は複数の送信器から通信システム814の1つ又は複数の受信器へデータを送信する(逆もまた同様である)ステップを含み得る。   Communication system 810 enables communication via wireless signal 816 with terminal 812 having communication system 814. The communication systems 810, 814 may include any number of transmitters, receivers and / or transceivers suitable for wireless communication. The communication may be one-way communication, so data may be transmitted in one direction only. For example, one-way communication may include the step where only movable object 800 transmits data to terminal 812 (or vice versa). Data may be transmitted from one or more transmitters of the communication system 810 to one or more receivers of the communication system 812 (or vice versa). Alternatively, the communication may be bi-directional communication, so data may be transmitted in both directions between the movable object and the terminal 812. Two-way communication may include transmitting data from one or more transmitters of the communication system 810 to one or more receivers of the communication system 814 (and vice versa).

幾つかの実施形態では、端末812は、可動物体800、キャリア802、ペイロード804のうちの1つ又は複数へ制御データを提供し得、可動物体800、キャリア802、ペイロード804のうちの1つ又は複数から情報(例えば、可動物体、キャリア又はペイロードの位置及び/又は運動情報、ペイロードカメラにより捕捉された画像データなどのペイロードにより感知されたデータ)を受信し得る。幾つかの例では、端末からの制御データは、可動物体、キャリア及び/又はペイロードの相対位置、移動、作動又は制御のための命令を含み得る。例えば、制御データは、可動物体の位置及び/又は配向の修正(例えば、推進機構806の制御を介した)、又は可動物体に対するペイロードの移動(例えば、キャリア802の制御を介した)を生じ得る。端末からの制御データは、カメラ又は他の撮像装置の動作の制御などペイロードの制御(例えば、静止画又は動画を撮影する、ズームイン又はズームアウトする、ターンオン又はオフする、撮像モードを切り替える、被写界深度を変更する、焦点を変更する、画像解像度を変更する、露光時間を変更する、視角又は視野を変更する)を生じ得る。幾つかの例では、可動物体、キャリア及び/又はペイロードからの通信は1つ又は複数のセンサからの情報(例えば、感知システム808又はペイロード804に関する)を含み得る。通信は1つ又は複数の異なるタイプのセンサ(例えば、GPSセンサ、運動センサ、慣性センサ、近接センサ又は画像センサ)からの感知情報を含み得る。このような情報は可動物体、キャリア及び/又はペイロードの位置(例えば、位置、配向)、移動又は加速度に関し得る。ペイロードからのこのような情報はペイロードより捕捉されたデータ又はペイロードの感知状態を含み得る。端末812により送信され提供される制御データは可動物体800、キャリア802又はペイロード804のうちの1つ又は複数の状態を制御するように構成され得る。代替的に又は組み合わせて、キャリア802とペイロード804はまたそれぞれ、端末812と通信するように構成された通信モジュールを含み得、したがって端末は可動物体800、キャリア802、ペイロード804のそれぞれと独立に通信し、それぞれを制御し得る。   In some embodiments, terminal 812 may provide control data to one or more of movable object 800, carrier 802, payload 804 and may be one or more of movable object 800, carrier 802, payload 804. Information may be received from more than one (eg, position and / or motion information of the movable object, carrier or payload, data sensed by the payload, such as image data captured by the payload camera). In some instances, control data from the terminal may include relative position, movement, actuation or control of the moveable object, carrier and / or payload. For example, the control data may result in correction of the position and / or orientation of the moveable object (eg, via control of the propulsion mechanism 806) or movement of the payload relative to the moveable object (eg, via control of the carrier 802) . Control data from the terminal controls the payload, such as controlling the operation of a camera or other imaging device (e.g., taking a still or moving image, zooming in or out, turning on or off, switching imaging mode, imaging It is possible to change the depth of field, change the focus, change the image resolution, change the exposure time, change the viewing angle or the field of view). In some examples, communication from the moveable object, carrier and / or payload may include information from one or more sensors (eg, regarding sensing system 808 or payload 804). The communication may include sensed information from one or more different types of sensors (eg, GPS sensors, motion sensors, inertial sensors, proximity sensors or image sensors). Such information may relate to the position (eg, position, orientation), movement or acceleration of the moveable object, carrier and / or payload. Such information from the payload may include the data or payload sensed from the payload. Control data transmitted and provided by terminal 812 may be configured to control the state of one or more of movable object 800, carrier 802 or payload 804. Alternatively or in combination, carrier 802 and payload 804 may also each include a communication module configured to communicate with terminal 812 so that the terminal communicates independently with each of movable object 800, carrier 802, and payload 804. And each can be controlled.

幾つかの実施形態では、可動物体800は端末812に加えて又は端末812の代わりに別の遠隔装置と通信するように構成され得る。端末812はまた、可動物体800だけでなく別の遠隔装置とも通信するように構成され得る。例えば、可動物体800及び/又は端末812は別の可動物体と又は別の可動物体のキャリア又はペイロードと通信し得る。必要に応じて、遠隔装置は第2の端末又は他のコンピュータ装置(例えば、コンピュータ、ラップトップ、タブレット、スマートフォン又は他の携帯装置)であり得る。遠隔装置は、データを可動物体800へ送信し、データを可動物体800から受信し、データを端末812へ送信し、及び/又はデータを端末812から受信するように構成され得る。任意選択的に、遠隔装置はインターネット又は他の電気通信ネットワークへ接続され得、したがって可動物体800及び/又は端末812から受信されたデータはウェブサイト又はサーバーへアップロードされ得る。   In some embodiments, movable object 800 may be configured to communicate with another remote device in addition to or in place of terminal 812. Terminal 812 may also be configured to communicate not only with moveable object 800 but also with other remote devices. For example, movable object 800 and / or terminal 812 may communicate with another movable object or with the carrier or payload of another movable object. If desired, the remote device may be a second terminal or other computing device (eg, a computer, laptop, tablet, smartphone or other portable device). The remote device may be configured to transmit data to movable object 800, receive data from movable object 800, transmit data to terminal 812 and / or receive data from terminal 812. Optionally, the remote device may be connected to the Internet or other telecommunication network, so that data received from the mobile object 800 and / or the terminal 812 may be uploaded to a website or server.

図9は、幾つかの実施形態による、可動物体を制御するためのシステム900のブロック図による概略図である。システム900は、本明細書において開示されたシステム、装置及び方法の任意の好適な実施形態と組み合わせて使用され得る。システム900は感知モジュール902、処理ユニット904、非一時的コンピュータ可読媒体906、制御モジュール908、通信モジュール910を含み得る。   FIG. 9 is a schematic diagram according to a block diagram of a system 900 for controlling movable objects according to some embodiments. System 900 may be used in combination with any of the preferred embodiments of the systems, apparatus and methods disclosed herein. System 900 may include a sensing module 902, a processing unit 904, non-transitory computer readable media 906, a control module 908, and a communication module 910.

感知モジュール902は、可動物体に関係する情報を収集する様々なタイプのセンサを様々なやり方で利用し得る。様々なタイプのセンサが様々な源から様々なタイプの信号又は信号を感知し得る。例えば、センサは慣性センサ、GPSセンサ、近接センサ(例えば、ライダー)又は視野/画像センサ(例えば、カメラ)を含み得る。感知モジュール902は複数のプロセッサを有する処理ユニット904へ作動可能に結合され得る。幾つかの実施形態では、感知モジュールは、好適な外部装置又はシステムへ感知データを直接送信するように構成された送信モジュール912(例えば、Wi−Fi映像電送モジュール)へ作動可能に結合され得る。例えば、送信モジュール912は感知モジュール902のカメラにより捕捉された画像を遠隔端末へ送信するために使用され得る。   The sensing module 902 may utilize various types of sensors that collect information related to movable objects in various manners. Different types of sensors may sense different types of signals or signals from different sources. For example, the sensor may include an inertial sensor, a GPS sensor, a proximity sensor (eg, a rider) or a field / image sensor (eg, a camera). The sensing module 902 may be operatively coupled to a processing unit 904 having a plurality of processors. In some embodiments, the sensing module may be operatively coupled to a transmission module 912 (e.g., a Wi-Fi video transmission module) configured to transmit sensing data directly to a suitable external device or system. For example, transmission module 912 may be used to transmit an image captured by the camera of sensing module 902 to a remote terminal.

処理ユニット904はプログラム可能プロセッサ(例えば、中央処理装置(CPU))など1つ又は複数のプロセッサを有し得る。処理ユニット904は非一時的コンピュータ可読媒体906へ作動可能に結合され得る。非一時的コンピュータ可読媒体906は、1つ又は複数のステップを行うための処理ユニット904により実行可能なロジック、コード及び/又はプログラム命令を格納し得る。非一時的コンピュータ可読媒体は1つ又は複数のメモリユニット(例えば、SDカード又はランダムアクセスメモリ(RAM)など取り外し可能な媒体又は外部記憶装置)を含み得る。幾つかの実施形態では、感知モジュール902からのデータは非一時的コンピュータ可読媒体906のメモリユニットへ直接運ばれその中に格納され得る。非一時的コンピュータ可読媒体906のメモリユニットは、本明細書で説明した方法の任意の好適な実施形態を行うために処理ユニット904により実行可能なロジック、コード、プログラム命令を及び/又はコードを格納し得る。例えば、処理ユニット904は、処理ユニット904の1つ又は複数のプロセッサに感知モジュールにより生成された感知データを解析させる命令を実行するように構成され得る。メモリユニットは、処理ユニット904により処理される感知モジュールからの感知データを格納し得る。幾つかの実施形態では、非一時的コンピュータ可読媒体906のメモリユニットは処理ユニット904により生成された処理結果を格納するために使用され得る。   The processing unit 904 may comprise one or more processors, such as a programmable processor (e.g., a central processing unit (CPU)). Processing unit 904 may be operatively coupled to non-transitory computer readable medium 906. Non-transitory computer readable medium 906 may store logic, code and / or program instructions executable by processing unit 904 for performing one or more steps. Non-transitory computer readable media may include one or more memory units (eg, removable media such as an SD card or random access memory (RAM) or external storage). In some embodiments, data from sensing module 902 may be directly carried to and stored in a memory unit of non-transitory computer readable medium 906. A memory unit of non-transitory computer readable medium 906 stores logic, code, program instructions and / or code executable by processing unit 904 to perform any of the preferred embodiments of the methods described herein. It can. For example, processing unit 904 may be configured to execute instructions that cause one or more processors of processing unit 904 to analyze sensing data generated by the sensing module. The memory unit may store sensing data from the sensing module processed by the processing unit 904. In some embodiments, a memory unit of non-transitory computer readable medium 906 may be used to store processing results generated by processing unit 904.

幾つかの実施形態では、処理ユニット904は可動物体の状態を制御するように構成された制御モジュール908へ作動可能に結合され得る。例えば、制御モジュール908は、6つの自由度に関する可動物体の空間的配置、速度、及び/又は加速度を調整するように可動物体の推進機構を制御するように構成され得る。代替的に又は組み合わせて、制御モジュール908はキャリア、ペイロード又は感知モジュールの状態のうちの1つ又は複数を制御し得る。   In some embodiments, the processing unit 904 may be operatively coupled to a control module 908 configured to control the state of the moveable object. For example, control module 908 may be configured to control the propulsion mechanism of the movable object to adjust the spatial arrangement, velocity, and / or acceleration of the movable object with respect to six degrees of freedom. Alternatively or in combination, control module 908 may control one or more of the carrier, payload or sensing module states.

処理ユニット904は、1つ又は複数の外部装置(例えば、端末、表示装置又は他の遠隔制御装置)からデータを送信及び/又は受信するように構成された通信モジュール910へ作動可能に結合され得る。有線通信又は無線通信など任意の好適な通信手段が使用され得る。例えば、通信モジュール910は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、通信ネットワーク、クラウド通信などのうちの1つ又は複数を利用し得る。任意選択的に、塔、衛星又は移動局などの中継局が使用され得る。無線通信は近接性依存であっても近接性非依存であってもよい。幾つかの実施形態では、通信のための見通し線が要求されてもされなくてもよい。通信モジュール910は、感知モジュール902からの感知データ、処理ユニット904により生成された処理結果、所定の制御データ、端末又は遠隔制御装置からのユーザ命令などのうちの1つ又は複数を送信及び/又は受信し得る。   The processing unit 904 may be operatively coupled to a communication module 910 configured to transmit and / or receive data from one or more external devices (eg, terminals, displays or other remote control devices). . Any suitable communication means such as wired communication or wireless communication may be used. For example, the communication module 910 may use one or more of a local area network (LAN), wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, communication network, cloud communication, etc. obtain. Optionally, relay stations such as towers, satellites or mobile stations may be used. Wireless communication may be proximity dependent or proximity independent. In some embodiments, a line of sight for communication may or may not be required. The communication module 910 transmits and / or transmits one or more of sensing data from the sensing module 902, processing results generated by the processing unit 904, predetermined control data, user commands from a terminal or a remote control device, etc. Can receive.

システム900の部品は任意の好適な構成で配置され得る。例えば、システム900の部品の1つ又は複数は、可動物体、キャリア、ペイロード、端末、感知システム、又はこれらのうちの1つ又は複数と通信する追加外部装置上に配置され得る。加えて、図9は単一処理ユニット904及び単一非一時的コンピュータ可読媒体906を描写するが、当業者は、これに限定されることを意図していないということと、システム900が複数の処理ユニット及び/又は非一時的コンピュータ可読媒体を含み得るということとを認識するだろう。幾つかの実施形態では、複数の処理ユニット及び/又は非一時的コンピュータ可読媒体のうちの1つ又は複数は、可動物体、キャリア、ペイロード、端末、感知モジュール、上記の1つ又は複数と通信する追加外部装置、又は好適なそれらの組み合わせ上など様々な位置に存在し得、したがってシステム900により行われる処理及び/又はメモリ機能のうちの任意の好適な態様は前述の位置の1つ又は複数で発生し得る。   The components of system 900 may be arranged in any suitable configuration. For example, one or more of the components of system 900 may be disposed on a movable object, a carrier, a payload, a terminal, a sensing system, or an additional external device in communication with one or more of these. In addition, although FIG. 9 depicts a single processing unit 904 and a single non-transitory computer readable medium 906, one of ordinary skill in the art is not intended to be limited thereto, and that multiple systems 900 are provided. It will be appreciated that the processing unit and / or non-transitory computer readable medium may be included. In some embodiments, one or more of the plurality of processing units and / or non-transitory computer readable media communicate with one or more of the movable object, the carrier, the payload, the terminal, the sensing module, There may be various locations, such as on additional external devices, or a suitable combination thereof, and thus any suitable aspect of the processing and / or memory functions performed by the system 900 is in one or more of the aforementioned locations. It can occur.

本明細書で使用されるように、A及び/又はBは、A又はB、A及びBなどのそれらの組み合わせのうちの1つ又は複数を包含する。   As used herein, A and / or B include one or more of A or B, a combination thereof such as A and B, and the like.

本明細書では本発明の好ましい実施形態が示され説明されたが、このような実施形態が単に一例として提供されたということは当業者にとって明白となる。今や、当業者には、本発明から逸脱すること無く非常に多くの変形、変更、及び置換が思い浮かぶことになる。本明細書に記載の本発明の実施形態の様々な代替案が本発明を実施する際に採用され得るということを理解すべきである。以下の特許請求の範囲は本発明の範囲を定義し、これらの特許請求の範囲に入る方法と構造及びそれらの同等物はこれによりカバーされるように意図されている。   While preferred embodiments of the present invention have been shown and described herein, it will be apparent to those skilled in the art that such embodiments are provided by way of example only. Numerous variations, changes, and substitutions will now occur to those skilled in the art without departing from the invention. It should be understood that various alternatives to the embodiments of the invention described herein may be employed in practicing the invention. It is intended that the following claims define the scope of the invention and that methods and structures within the scope of these claims and their equivalents be covered thereby.

Claims (21)

移動体の位置を判断する方法であって、
1つ又は複数のセンサにより取得された複数の画像を受信するステップと、
前記複数の画像から複数の顕著特徴を識別するステップと、
前記移動体から前記複数の顕著特徴のそれぞれまでの距離を計算するステップと、
前記計算した距離に基づいて、前記位置は少なくとも2組の同心円の交差ゾーン内にあり、前記各組は複数の前記顕著特徴のうちの少なくとも1つを中心とする、前記移動体の位置を判断するステップと、を含む方法。
A method of determining the position of a mobile
Receiving a plurality of images acquired by one or more sensors;
Identifying a plurality of salient features from the plurality of images;
Calculating the distance from the mobile to each of the plurality of salient features;
Based on the calculated distance, the position is in the intersection zone of at least two sets of concentric circles, and each set is determined the position of the mobile body around at least one of the plurality of salient features And a method comprising the steps of:
前記移動体は、無人航空機(UAV)である、請求項1に記載の方法。   The method according to claim 1, wherein the mobile body is an unmanned aerial vehicle (UAV). 前記複数の顕著特徴は、前記複数の画像をフィルタ処理することにより生成された顕著度マップを使用して識別される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of salient features are identified using a saliency map generated by filtering the plurality of images. 前記複数の顕著特徴は、前記顕著度マップの1つ又は複数の部分の画素階調レベルの分散を測定することにより識別される、請求項3に記載の方法。   4. The method of claim 3, wherein the plurality of salient features are identified by measuring the variance of pixel tone levels of one or more portions of the saliency map. 前記複数の顕著特徴は、前記画素階調レベルの前記分散が分散閾値を超えると識別される、請求項4に記載の方法。   5. The method of claim 4, wherein the plurality of salient features are identified as the variance of the pixel tone level exceeds a variance threshold. 前記複数の画像は、単焦点センサにより捕捉される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of images are captured by a single focus sensor. 前記移動体を局所座標系の原点として各顕著特徴の前記局所座標系の仮想座標を判断するステップを更に含む、請求項1に記載の方法。   The method according to claim 1, further comprising the step of determining virtual coordinates of the local coordinate system of each salient feature with the mobile object as the origin of the local coordinate system. 前記顕著特徴の前記仮想座標は、前記顕著特徴の中心にある、請求項7に記載の方法。   The method of claim 7, wherein the virtual coordinates of the salient feature are at the center of the salient feature. 前記顕著特徴の前記仮想座標は、静止顕著特徴の質量中心にある、請求項7に記載の方法。   The method according to claim 7, wherein the virtual coordinates of the salient feature are at the center of mass of the stationary salient feature. 前記局所座標系は、2次元座標系または3次元座標系である、請求項7に記載の方法。   The method according to claim 7, wherein the local coordinate system is a two-dimensional coordinate system or a three-dimensional coordinate system. 前記距離を計算するステップは、視差に基づいて前記顕著特徴の深度を測定するステップを有する、請求項1に記載の方法。   The method according to claim 1, wherein calculating the distance comprises measuring the depth of the salient feature based on disparity. 前記視差は、前記複数の画像における連続フレーム内で観測される、請求項11に記載の方法。   The method of claim 11, wherein the disparity is observed in consecutive frames in the plurality of images. 前記連続フレームは、前記移動体の移動中に捕捉される、請求項12に記載の方法。   The method according to claim 12, wherein the continuous frame is captured during movement of the mobile. 前記複数の画像は、前記移動体の移動中に捕捉される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of images are captured during movement of the mobile. 前記複数の画像は、異なる視野で捕捉された2つ以上の画像である、請求項1に記載の方法。   The method of claim 1, wherein the plurality of images are two or more images captured in different fields of view. 前記複数の顕著特徴は、(1)フィルタ処理により顕著度マップを得ることにより及び(2)前記顕著度マップから顕著特徴候補を得ることにより識別される、請求項1に記載の方法。   The method according to claim 1, wherein the plurality of salient features are identified by (1) obtaining a saliency map by filtering and (2) obtaining salient feature candidates from the saliency map. 前記複数の顕著特徴は、スペクトル残留手法を使用して識別される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of salient features are identified using a spectral residual approach. 前記複数の顕著特徴は、周波数同調式顕著領域検出を使用して識別される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of salient features are identified using frequency tuned salient area detection. 前記複数の顕著特徴は、オブジェクトネス推定のための2進ノルム勾配を使用して識別される、請求項1に記載の方法。   The method of claim 1, wherein the plurality of salient features are identified using a binary norm gradient for objectness estimation. 移動体の位置を判断する装置であって、
複数の画像を取得するように構成された1つ又は複数の視野センサと、
請求項1〜19のうちいずれか一項に記載の方法を実行する、1つ又は複数のプロセッサとを含む、装置。
A device for determining the position of a moving body,
One or more vision sensors configured to acquire a plurality of images;
20. An apparatus comprising one or more processors for performing the method of any one of claims 1-19.
移動体の位置を判断するためのプログラム命令を含む非一時的コンピュータ可読媒体であって、
請求項1〜19のうちいずれか一項に記載の方法を実行するための、プログラム命令
を含むコンピュータ可読媒体。
A non-transitory computer readable medium comprising program instructions for determining the position of a mobile, comprising:
20. A computer readable medium comprising program instructions for performing the method according to any one of the preceding claims.
JP2018206656A 2018-11-01 2018-11-01 Method and device for determining position of mobile body and computer readable medium Ceased JP2019050007A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018206656A JP2019050007A (en) 2018-11-01 2018-11-01 Method and device for determining position of mobile body and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018206656A JP2019050007A (en) 2018-11-01 2018-11-01 Method and device for determining position of mobile body and computer readable medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016557312A Division JP2018504652A (en) 2015-10-09 2015-10-09 Prominent feature based mobile positioning

Publications (1)

Publication Number Publication Date
JP2019050007A true JP2019050007A (en) 2019-03-28

Family

ID=65905670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018206656A Ceased JP2019050007A (en) 2018-11-01 2018-11-01 Method and device for determining position of mobile body and computer readable medium

Country Status (1)

Country Link
JP (1) JP2019050007A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991443A (en) * 2021-01-13 2021-06-18 哈尔滨工业大学(深圳) Suspension load state estimator based on fusion of visual encoders and estimation method
CN113409360A (en) * 2021-06-29 2021-09-17 深圳市商汤科技有限公司 High altitude parabolic detection method and device, equipment and computer storage medium
JPWO2021002001A1 (en) * 2019-07-04 2021-10-28 三菱電機株式会社 Mobile positioning device and mobile positioning system
CN115060238A (en) * 2022-05-18 2022-09-16 深圳荔石创新科技有限公司 Relative pose measurement method and device for underwater component
KR102664706B1 (en) * 2021-11-30 2024-05-09 한국과학기술원 Network-based Mobile SLAM System for High-level Feature Configuration and Method of Operation thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022157A (en) * 2000-05-26 2011-02-03 Honda Motor Co Ltd Position detection apparatus, position detection method and position detection program
JP2014232477A (en) * 2013-05-30 2014-12-11 株式会社ニコン Subject specifying device, imaging device, subject specifying method, and subject specifying program
WO2014203593A1 (en) * 2013-06-21 2014-12-24 株式会社エルム Control system for remote-control unmanned flight vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011022157A (en) * 2000-05-26 2011-02-03 Honda Motor Co Ltd Position detection apparatus, position detection method and position detection program
JP2014232477A (en) * 2013-05-30 2014-12-11 株式会社ニコン Subject specifying device, imaging device, subject specifying method, and subject specifying program
WO2014203593A1 (en) * 2013-06-21 2014-12-24 株式会社エルム Control system for remote-control unmanned flight vehicle

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A. KULSHRESHTHA ET AL.: "Time-frequency-tuned Salient Region Detection and Segmentation", 2013 3RD IEEE INTERNATIONAL ADVANCE COMPUTING CONFERENCE (IACC), JPN6019039385, 13 May 2013 (2013-05-13), ISSN: 0004439842 *
MING-MING CHENG ET AL.: "BING: Binarized Normed Gradients for Objectness Estimation at 300fps", 2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6019039386, 25 September 2014 (2014-09-25), pages 3286 - 3293, ISSN: 0004439843 *
XIAODI HOU ET AL.: "Saliency Detection: A Spectral Residual Approach", 2007 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6019039383, 16 July 2007 (2007-07-16), ISSN: 0004439841 *
森川 泰 他: "ステレオビジョンによる無人ヘリコプタの自己位置姿勢推定実験", ロボティクス・メカトロニクス 講演会2015 講演論文集, JPN6019039381, 16 May 2015 (2015-05-16), JP, pages 911 - 912, ISSN: 0004569806 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021002001A1 (en) * 2019-07-04 2021-10-28 三菱電機株式会社 Mobile positioning device and mobile positioning system
JP7006847B2 (en) 2019-07-04 2022-01-24 三菱電機株式会社 Mobile positioning device and mobile positioning system
CN112991443A (en) * 2021-01-13 2021-06-18 哈尔滨工业大学(深圳) Suspension load state estimator based on fusion of visual encoders and estimation method
CN112991443B (en) * 2021-01-13 2022-09-27 哈尔滨工业大学(深圳) Suspension load state estimator and estimation method based on fusion of visual encoder
CN113409360A (en) * 2021-06-29 2021-09-17 深圳市商汤科技有限公司 High altitude parabolic detection method and device, equipment and computer storage medium
KR102664706B1 (en) * 2021-11-30 2024-05-09 한국과학기술원 Network-based Mobile SLAM System for High-level Feature Configuration and Method of Operation thereof
CN115060238A (en) * 2022-05-18 2022-09-16 深圳荔石创新科技有限公司 Relative pose measurement method and device for underwater component
CN115060238B (en) * 2022-05-18 2023-11-10 深圳荔石创新科技有限公司 Method and device for measuring relative pose of underwater component

Similar Documents

Publication Publication Date Title
US10599149B2 (en) Salient feature based vehicle positioning
US20210065400A1 (en) Selective processing of sensor data
US10936869B2 (en) Camera configuration on movable objects
US11697411B2 (en) Apparatus and methods for obstacle detection
US11914369B2 (en) Multi-sensor environmental mapping
US10645300B2 (en) Methods and apparatus for image processing
JP6487010B2 (en) Method for controlling an unmanned aerial vehicle in a certain environment, method for generating a map of a certain environment, system, program, and communication terminal
JP2019050007A (en) Method and device for determining position of mobile body and computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210609

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210621

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210622

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210820

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210824

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220125

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220705

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220802

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220802

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20221220