JP2021036452A - System and method for adjusting uav locus - Google Patents

System and method for adjusting uav locus Download PDF

Info

Publication number
JP2021036452A
JP2021036452A JP2020186786A JP2020186786A JP2021036452A JP 2021036452 A JP2021036452 A JP 2021036452A JP 2020186786 A JP2020186786 A JP 2020186786A JP 2020186786 A JP2020186786 A JP 2020186786A JP 2021036452 A JP2021036452 A JP 2021036452A
Authority
JP
Japan
Prior art keywords
uav
autonomous flight
flight
autonomous
readable medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020186786A
Other languages
Japanese (ja)
Inventor
リティアン チャン
Litian Zhang
リティアン チャン
シャオ フ
Xiao Hu
シャオ フ
アン リュウ
Ang Liu
アン リュウ
グウェ ヅォ
Guyue Zhou
グウェ ヅォ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2020186786A priority Critical patent/JP2021036452A/en
Publication of JP2021036452A publication Critical patent/JP2021036452A/en
Pending legal-status Critical Current

Links

Abstract

To provide a system, a method, and a device for performing autonomous flight of one or a plurality of unmanned aircrafts and changing the autonomous flight.SOLUTION: In several cases, autonomous flight can be performed through first user input. The autonomous flight can be changed by second user input while maintaining the autonomous flight. First and second input can be inputted in different user interfaces. Various parameters of a UAV including a flight route can be changed while maintaining the autonomous flight so that a certain degree of control of the UAV is maintained during the autonomous flight.SELECTED DRAWING: Figure 3

Description

航空機は、監視、偵察、探索、物流輸送、災害救助、空撮、大規模農業オートメーション、ライブビデオ放送等を含め、広範囲の現実世界用途を有する。幾つかの用途では、搭載物(例えば、カメラ)を搭載した航空機は、ターゲットの周囲を飛行して、データを取得するか、又は特定のタスクを実行するように制御し得る。センサ及びナビゲーション技術の進歩に伴い、航空機の自律飛行又は制御が可能になった。自律飛行を使用する航空機の有用性は改善可能である。 Aircraft have a wide range of real-world applications, including surveillance, reconnaissance, exploration, logistics, disaster relief, aerial photography, large-scale agricultural automation, live video broadcasting, and more. In some applications, an aircraft carrying an on-board vehicle (eg, a camera) may fly around a target to acquire data or control it to perform a particular task. Advances in sensor and navigation technology have enabled autonomous flight or control of aircraft. The usefulness of aircraft using autonomous flight can be improved.

現在、航空機は、自律飛行中、予め設定された軌道又は自律的に計画された軌道に沿って飛行し得る。自律飛行の例は、航空機の自律リターン、1つ又は複数のウェイポイントに沿った航空機の自律ナビゲーション、及び/又は対象ポイントへの自律飛行を含み得る。自律飛行中のユーザ介入は、制限され得るか、又は航空機の自律飛行を中断し得る。しかし、幾つかの場合、ユーザが航空機の自律飛行に素早く介入又は補足する能力が望ましいことがある。例えば、航空機の自律リターン飛行中、ユーザの入力は、建物等の障害物を回避するに当たり有用であり得る(例えば、航空機が障害物回避センサを有さない場合)。加えて、幾つかの状況では、ユーザは、所与のタスクを達成するに当たり航空機の自律動作になお頼りながら、航空機の飛行をわずかに変更する能力を望み得る。例えば、ユーザは、選択されたターゲット又は行先から逸脱したいことがある。 Currently, aircraft may fly along a preset or autonomously planned orbit during autonomous flight. Examples of autonomous flight may include autonomous return of the aircraft, autonomous navigation of the aircraft along one or more waypoints, and / or autonomous flight to a target point. User intervention during autonomous flight can be restricted or interrupt the autonomous flight of the aircraft. However, in some cases, the ability of the user to quickly intervene or supplement the autonomous flight of the aircraft may be desirable. For example, during an autonomous return flight of an aircraft, user input may be useful in avoiding obstacles such as buildings (eg, if the aircraft does not have an obstacle avoidance sensor). In addition, in some situations, the user may desire the ability to slightly alter the flight of an aircraft while still relying on the autonomous movement of the aircraft to accomplish a given task. For example, the user may want to deviate from the selected target or destination.

したがって、航空機の自律飛行を変更する能力が必要とされる。そのような能力は、直観的で使用しやすく、人間がヒューマン−システムインタフェースとの対話を通して航空機の自律飛行を変更し、及び/又は作用できるようにする飛行制御システムを介して提供し得る。所望又は有利な場合、ユーザによるある程度の制御又は変更をなお可能にしながら、航空機を手動操縦することのユーザへの負担を大幅に低減することができる。 Therefore, the ability to change the autonomous flight of an aircraft is needed. Such capabilities may be provided through a flight control system that is intuitive and easy to use and allows humans to modify and / or act on the autonomous flight of an aircraft through interaction with a human-system interface. If desired or advantageous, the burden on the user of manually maneuvering the aircraft can be significantly reduced while still allowing some control or modification by the user.

したがって、一態様では、無人航空機(UAV)の自律飛行を変更するシステムが提供される。本システムは、第1のユーザ入力を受信するように構成される第1のユーザインタフェースであって、第1のユーザ入力は、UAVの自律飛行を行う1つ又は複数の命令を提供する、第1のユーザインタフェースと、第2のユーザ入力を受信するように構成される第2のユーザインタフェースであって、第2のユーザ入力は、UAVの自律飛行を変更する1つ又は複数の命令を提供する、第2のユーザインタフェースとを備える。 Therefore, in one aspect, a system is provided that modifies the autonomous flight of an unmanned aerial vehicle (UAV). The system is a first user interface configured to receive a first user input, the first user input providing one or more instructions for autonomous flight of the UAV. One user interface and a second user interface configured to receive a second user input, the second user input providing one or more instructions to alter the autonomous flight of the UAV. A second user interface is provided.

別の態様では、無人航空機(UAV)の自律飛行を変更する方法が提供される。本方法は、第1のユーザ入力を第1のユーザインタフェースにおいて受信することであって、第1のユーザ入力は、UAVの自律飛行を行う1つ又は複数の命令を提供する、第1のユーザ入力を受信することと、第2のユーザ入力を第2のユーザインタフェースにおいて受信することであって、第2のユーザ入力は、UAVの自律飛行を変更する1つ又は複数の命令を提供する、第2のユーザ入力を受信することとを含む。 In another aspect, a method of modifying the autonomous flight of an unmanned aerial vehicle (UAV) is provided. The method is to receive a first user input at the first user interface, the first user input providing one or more instructions for autonomous flight of the UAV. Receiving the input and receiving the second user input in the second user interface, the second user input provides one or more instructions to change the autonomous flight of the UAV. Includes receiving a second user input.

別の態様では、無人航空機(UAV)の飛行を変更する非一時的コンピュータ可読媒体が提供される。本非一時的コンピュータ可読媒体は、第1のユーザ入力を第1のユーザインタフェースにおいて受信することであって、第1のユーザ入力は、UAVの自律飛行を行う1つ又は複数の命令を提供する、第1のユーザ入力を受信することと、第2のユーザ入力を第2のユーザインタフェースにおいて受信することであって、第2のユーザ入力は、UAVの自律飛行を変更する1つ又は複数の命令を提供する、第2のユーザ入力を受信することとを行うコード、論理、又は命令を含む。 In another aspect, a non-transitory computer-readable medium that modifies the flight of an unmanned aerial vehicle (UAV) is provided. The non-temporary computer-readable medium is to receive a first user input in a first user interface, the first user input providing one or more instructions for autonomous flight of the UAV. , Receiving the first user input and receiving the second user input in the second user interface, the second user input being one or more altering the autonomous flight of the UAV. Includes code, logic, or instructions that provide instructions and that receive a second user input.

別の態様では、無人航空機(UAV)の自律飛行を変更するシステムが提供される。本システムは飛行コントローラを備え、飛行コントローラは、(1)第1のユーザインタフェースにおいて受信される第1のユーザ入力に応答して、UAVの自律飛行を行う第1の組の信号を生成し、(2)第2のユーザインタフェースにおいて受信される第2のユーザ入力に応答して、UAVの自律飛行を変更する第2の組の信号を生成するように構成される。 In another aspect, a system is provided that modifies the autonomous flight of an unmanned aerial vehicle (UAV). The system comprises a flight controller, which (1) generates a first set of signals for autonomous flight of the UAV in response to a first user input received in the first user interface. (2) It is configured to generate a second set of signals that alter the autonomous flight of the UAV in response to a second user input received in the second user interface.

別の態様では、無人航空機(UAV)の自律飛行を変更する方法が提供される。本方法は、飛行コントローラを用いて、第1のユーザインタフェースにおいて受信される第1のユーザ入力に応答して、UAVの自律飛行を行う第1の組の信号を生成することと、飛行コントローラを用いて、第2のユーザインタフェースにおいて受信される第2のユーザ入力に応答して、UAVの自律飛行を変更する第2の組の信号を生成することとを含む。 In another aspect, a method of modifying the autonomous flight of an unmanned aerial vehicle (UAV) is provided. The method uses a flight controller to generate a first set of signals for autonomous flight of the UAV in response to a first user input received in the first user interface, and the flight controller. It involves generating a second set of signals that alter the autonomous flight of the UAV in response to a second user input received at the second user interface.

別の態様では、無人航空機(UAV)の飛行を変更する非一時的コンピュータ可読媒体が提供される。本非一時的コンピュータ可読媒体は、飛行コントローラを用いて、第1のユーザインタフェースにおいて受信される第1のユーザ入力に応答して、UAVの自律飛行を行う第1の組の信号を生成することと、飛行コントローラを用いて、第2のユーザインタフェースにおいて受信される第2のユーザ入力に応答して、UAVの自律飛行を変更する第2の組の信号を生成することとを行うコード、論理、又は命令を備える。 In another aspect, a non-transitory computer-readable medium that modifies the flight of an unmanned aerial vehicle (UAV) is provided. The non-temporary computer-readable medium uses a flight controller to generate a first set of signals for autonomous flight of the UAV in response to a first user input received at the first user interface. And the code, logic that uses the flight controller to generate a second set of signals that alter the autonomous flight of the UAV in response to a second user input received in the second user interface. , Or with instructions.

別の態様では、無人航空機(UAV)が提供される。本UAVは、(1)UAVの自律飛行を命令する第1の組の信号であって、前記第1の組の信号は、第1のユーザインタフェースにおいて受信される第1のユーザ入力に基づいて生成される、第1の組の信号及び(2)UAVの自律飛行の変更を命令する第2の組の信号であって、前記第2の組の信号は、第2のユーザインタフェースにおいて受信される第2のユーザ入力に基づいて生成される、第2の組の信号を生成するように構成される飛行コントローラと、1つ又は複数の推進ユニットであって、(a)第1の組の信号に応答してUAVの自律飛行を行い、(b)第2の組の信号に応答してUAVの自律飛行を変更するように構成される1つ又は複数の推進ユニットとを備える。 In another aspect, an unmanned aerial vehicle (UAV) is provided. The UAV is (1) a first set of signals that command the autonomous flight of the UAV, and the first set of signals is based on a first user input received in a first user interface. The generated first set of signals and (2) the second set of signals instructing the change of autonomous flight of the UAV, the second set of signals being received in the second user interface. A flight controller configured to generate a second set of signals generated based on a second set of signals and one or more propulsion units (a) of the first set. It comprises one or more propulsion units configured to perform autonomous flight of the UAV in response to a signal and (b) alter autonomous flight of the UAV in response to a second set of signals.

別の態様では、無人航空機(UAV)の飛行を変更するシステムが提供される。本システムは1つ又は複数のプロセッサを備え、1つ又は複数のプロセッサは個々に又は集合的に、UAVの自律飛行を行うことであって、自律飛行は自律飛経路を含む、自律飛行を行うことと、ユーザ入力に応答して自律飛経路を変更することであって、自律飛経路は、自律飛行を維持しながら変更される、自律飛経路を変更することとを行うように構成される。 In another aspect, a system is provided that modifies the flight of an unmanned aerial vehicle (UAV). The system comprises one or more processors, one or more processors individually or collectively performing autonomous flight of the UAV, where autonomous flight includes autonomous flight paths. That is, the autonomous flight path is changed in response to the user input, and the autonomous flight path is configured to change the autonomous flight path while maintaining the autonomous flight. ..

別の態様では、無人航空機(UAV)の飛行を変更する方法が提供される。本方法は、UAVの自律飛行を行うことであって、自律飛行は自律飛経路を含む、自律飛行を行うことと、ユーザ入力に応答して自律飛経路を変更することであって、自律飛経路は、自律飛行を維持しながら変更される、自律飛経路を変更することとを含む。 In another aspect, a method of modifying the flight of an unmanned aerial vehicle (UAV) is provided. This method is to perform autonomous flight of UAV, and autonomous flight is to perform autonomous flight including autonomous flight path and to change the autonomous flight path in response to user input. The route includes changing the autonomous flight route, which is changed while maintaining the autonomous flight.

別の態様では、無人航空機(UAV)の飛行を変更する非一時的コンピュータ可読媒体が提供される。本非一時的コンピュータ可読媒体は、UAVの自律飛行を行うことであって、自律飛行は自律飛経路を含む、自律飛行を行うことと、ユーザ入力に応答して自律飛経路を変更することであって、自律飛経路は、自律飛行を維持しながら変更される、自律飛経路を変更することとを行うコード、論理、又は命令を備える。 In another aspect, a non-transitory computer-readable medium that modifies the flight of an unmanned aerial vehicle (UAV) is provided. This non-temporary computer-readable medium is to perform autonomous flight of UAV, and autonomous flight includes autonomous flight path, and by performing autonomous flight and changing the autonomous flight path in response to user input. Therefore, the autonomous flight path includes a code, logic, or instruction for changing the autonomous flight path, which is changed while maintaining the autonomous flight.

別の態様では、無人航空機(UAV)が提供される。本UAVは、(1)UAVの自律飛行の第1の組の信号であって、自律飛行は自律飛経路を含む、第1の組の信号及び(2)自律飛経路を変更する第2の組の信号であって、自律飛経路は、自律飛行を維持しながら変更される、第2の組の信号を生成するように構成される飛行コントローラと、1つ又は複数の推進ユニットであって、(a)第1の組の信号に応答してUAVの自律飛行を行い、(b)第2の組の信号に応答してUAVの自律飛経路を変更するように構成される1つ又は複数の推進ユニットとを備える。 In another aspect, an unmanned aerial vehicle (UAV) is provided. This UAV is (1) a first set of signals for autonomous flight of the UAV, the autonomous flight includes a first set of signals including an autonomous flight path, and (2) a second set of signals for changing the autonomous flight path. A set of signals, the autonomous flight path is a flight controller configured to generate a second set of signals that is modified while maintaining autonomous flight, and one or more propulsion units. , (A) autonomous flight of the UAV in response to the first set of signals, and (b) one or configured to change the autonomous flight path of the UAV in response to the second set of signals. It is equipped with multiple propulsion units.

本発明の異なる態様が、個々に、集合的に、又は互いと組み合わせて理解することができることが理解されるものとする。本明細書に記載される本発明の様々な態様は、以下記載される特定の用途のいずれか又は任意の他のタイプの可動物体に適用し得る。本明細書での航空機のあらゆる記載は、任意の車両等の任意の可動物体に適用し得、使用し得る。さらに、航空移動(例えば、飛行)の状況で本明細書に開示されるシステム、デバイス、及び方法は、地上移動、水上移動、水中移動、又は宇宙空間での移動等の他のタイプの移動の状況で適用することもできる。 It is to be understood that different aspects of the invention can be understood individually, collectively or in combination with each other. Various aspects of the invention described herein may be applicable to any of the specific applications described below or any other type of movable object. Any description of an aircraft herein may apply to and use any moving object, such as any vehicle. In addition, the systems, devices, and methods disclosed herein in the context of air travel (eg, flight) are those of other types of travel, such as ground travel, water travel, underwater travel, or travel in outer space. It can also be applied in situations.

本発明の他の目的及び特徴は、明細書、特許請求の範囲、及び添付図を検討することにより明らかになる。 Other objects and features of the present invention will become apparent by examining the specification, claims, and accompanying drawings.

本明細書において言及される全ての公開物、特許、及び特許出願は、個々の各公開物、特許、又は特許出願が特に且つ個々に参照により援用されることが示されるものとして、参照により本明細書に援用される。 All publications, patents, and patent applications referred to herein are hereby by reference as indicating that each individual publication, patent, or patent application is specifically and individually incorporated by reference. Incorporated in the specification.

本発明の新規の特徴は、添付の特許請求の範囲に特に記載される。本発明の原理が利用される例示的な実施形態を記載する以下の詳細な説明及び添付図面を参照することにより、本発明の特徴及び利点のよりよい理解が得られる。 The novel features of the present invention are specifically described in the appended claims. A better understanding of the features and advantages of the invention can be obtained by reference to the following detailed description and accompanying drawings that describe exemplary embodiments in which the principles of the invention are utilized.

実施形態によるナビゲーションに使用されるシステムの例を示す。An example of a system used for navigation according to an embodiment is shown. 実施形態によるユーザ端末を示す。The user terminal according to the embodiment is shown. 実施形態による、協働する第1のユーザインタフェース及び第2のユーザインタフェースを示す。A first user interface and a second user interface that cooperate with each other according to the embodiment are shown. 実施形態によるUAVの自律飛行を変更する方法を示す。A method of modifying the autonomous flight of a UAV according to an embodiment is shown. 実施形態による、ユーザ入力により変更されているUAVの自律飛経路を示す。The autonomous flight path of the UAV changed by the user input according to the embodiment is shown. 実施形態による、ユーザ入力により変更された可動物体の自律飛経路の側面図を示す。A side view of an autonomous flight path of a movable object changed by user input according to the embodiment is shown. 実施形態による、可動物体の自律飛行を比例的に変更するユーザ入力の力を示す。The user input force that proportionally changes the autonomous flight of a moving object according to the embodiment is shown. 実施形態による閾値に達した場合のUAVの挙動を示す。The behavior of the UAV when the threshold value according to the embodiment is reached is shown. 実施形態による、可動物体の自律飛行を変更するユーザ入力がリリースされた後のUAVの挙動を示す。The behavior of the UAV according to the embodiment after the user input for changing the autonomous flight of a movable object is released is shown. 実施形態による、ユーザ入力により変更されたUAVの新しい自律飛経路を示す。The new autonomous flight path of the UAV modified by the user input according to the embodiment is shown. 実施形態による無人航空機(UAV)を示す。An unmanned aerial vehicle (UAV) according to an embodiment is shown. 実施形態による、可動物体を制御するシステムのブロック図による概略図である。FIG. 5 is a schematic block diagram of a system for controlling a movable object according to an embodiment. 実施形態による、1つ又は複数の制御スティックの作動に応答して、曲線軌道で飛行するUAVを示す。A UAV flying in a curved orbit in response to the activation of one or more control sticks according to an embodiment is shown. 実施形態による、自律飛経路に沿って速度を増減して移動中の無人航空機の上から下を見た図を示す。The figure which saw from the top to the bottom of the unmanned aerial vehicle moving by increasing or decreasing the speed along the autonomous flight path according to the embodiment is shown.

本明細書に提供されるシステム、方法、及びデバイスは、自律動作航空機の飛行に作用し、及び/又は変更する能力をオペレータに与えるのに使用することができる。例えば、直観的であり、使用しやすいユーザ入力デバイスを提供し得る。ユーザ入力デバイスを利用して、航空機の自律動作中、航空機の飛行を変更し得る。幾つかの場合、自律動作中の航空機は所定の目標を有し得る。例えば、自律動作中の航空機は、達成が設計される所定のタスク又は飛行先のターゲットを有し得る。したがって、自律動作中の航空機は、飛経路及び/又は飛行方向等のパラメータがユーザ入力に従って変更される間、所定のタスクの達成を継続するか、又はターゲットに向かって進行し続け得る。幾つかの場合、ユーザにより許される変更の閾値を提供して、航空機が、ユーザ入力にも拘わらず、自律制御下でタスクを達成可能なこと、又は行先に到着可能なことを保証し得る。 The systems, methods, and devices provided herein can be used to give the operator the ability to act on and / or modify the flight of autonomous aircraft. For example, it may provide an intuitive and easy-to-use user input device. User input devices can be used to change the flight of an aircraft during autonomous operation of the aircraft. In some cases, an autonomously operating aircraft may have a given goal. For example, an autonomously operating aircraft may have a predetermined task or destination target for which achievement is designed. Thus, an autonomously operating aircraft may continue to accomplish a given task or continue to advance towards a target while parameters such as flight path and / or flight direction are changed according to user input. In some cases, it may provide a threshold of change allowed by the user to ensure that the aircraft is able to accomplish the task under autonomous control or reach its destination despite user input.

幾つかの場合、異なるタイプのユーザ入力を受け入れるために、異なるユーザインタフェースを提供し得る。異なるユーザインタフェースは、ハードウェアインタフェース及び/又はソフトウェアインタフェースを含み得る。例えば、異なるユーザインタフェースは、デバイスの物理的なボタン又は画面上に表示される対話ボタンを含み得る。幾つかの場合、異なるユーザインタフェースは、2つの異なるユーザインタフェースを含み得る。例えば、航空機の自律動作の容易さを改善するのに使用することができる第1のユーザインタフェースを提供し得る。第1のユーザインタフェースは、グラフィカルヒューマンシステムインタフェースとの対話を通して航空機の制御を可能にし得、航空機を手動操縦することの負担を大幅に低減し得る。第1のユーザインタフェースは、航空機に達成する自律タスクを提供する際に使用し得る。幾つかの場合、達成する自律タスクは、単純なコマンド(例えば、マップ上でターゲットに触れること)で指定し得る。航空機の自律動作(例えば、自律飛行)の単純で直観的な変更を可能にする第2のユーザインタフェースを提供し得る。例えば、航空機がターゲットに向かって自律的にナビゲート中である間、第2のユーザインタフェースへのユーザ入力は、航空機の軌道をわずかに変更し得る。幾つかの場合、第2のユーザインタフェースに提供されるユーザ入力は、航空機の自律飛行が維持されている間、自律飛行のパラメータを変更し得る。 In some cases, different user interfaces may be provided to accept different types of user input. Different user interfaces may include hardware and / or software interfaces. For example, different user interfaces may include physical buttons on the device or interactive buttons displayed on the screen. In some cases, different user interfaces may include two different user interfaces. For example, it may provide a first user interface that can be used to improve the ease of autonomous operation of an aircraft. The first user interface can allow control of the aircraft through interaction with the graphical human system interface and can significantly reduce the burden of manually maneuvering the aircraft. The first user interface can be used in providing the aircraft with autonomous tasks to be accomplished. In some cases, the autonomous task to be accomplished can be specified by a simple command (eg, touching the target on the map). It may provide a second user interface that allows simple and intuitive changes to the autonomous operation of the aircraft (eg, autonomous flight). For example, user input to the second user interface may slightly change the trajectory of the aircraft while the aircraft is autonomously navigating towards the target. In some cases, the user input provided to the second user interface may change the parameters of autonomous flight while the autonomous flight of the aircraft is maintained.

自律動作中の航空機の飛行に作用及び/又は変更する能力は、自律制御下での航空機の操作性を改善し得る。航空機を手動操縦することのユーザへの負担を大幅に減らすことができ、それでもなお、所望又は有利な場合、ユーザが自律飛行に作用又は変更することができるような自律飛行への調整(例えば、変更)を可能にし得る。異なるユーザインタフェースに提供される別個の機能は、熟練ユーザ又は未熟ユーザの両者が、本明細書に提供される発明により可能になる利点を利用し得るように制御を簡易化し得る。加えて、異なるユーザインタフェースに提供される別個の機能は、緊急時又は予期しない状況時、混乱又はエラーなしで素早い動作をとって(例えば、第2のユーザインタフェースで)、航空機の自律飛行を変更することができることを保証し得る。 The ability to act on and / or alter the flight of an aircraft during autonomous operation can improve the maneuverability of the aircraft under autonomous control. Adjustments to autonomous flight (eg, for example, that allow the user to act on or modify autonomous flight if desired or advantageous, while significantly reducing the burden on the user of manually maneuvering the aircraft. Change) may be possible. Separate features provided for different user interfaces can simplify control so that both experienced and inexperienced users can take advantage of the benefits provided by the inventions provided herein. In addition, the separate features provided to different user interfaces change the autonomous flight of the aircraft in an emergency or unexpected situation, taking quick action without confusion or error (eg in the second user interface). Can be guaranteed to be able to.

自律飛行を変更する能力は、ユーザが気付く、非検出(例えば、エラーを通して又は航空機が障害物センサを有さない場合)の、航空機が直面する障害物がある場合、特に有用であり得る。そのような場合、変更後、所与のタスクを引き続き達成し得るように航空機の自律動作を妨げずに、わずかな変更をUAV飛行に行い得る。幾つかの場合、自律飛行を変更する能力は、ターゲット行先に向けての自律飛行を維持しながら、所与の飛経路からのある程度の逸脱をユーザが望む(例えば、ユーザが何か興味があるものを見る)場合、特に有用であり得る。本明細書で使用される場合、飛経路とは、飛行中に航空機がとる経路を指し得る。幾つかの場合、飛経路とは、航空機の軌道又は航空機の飛行方向(例えば、二次元座標又は三次元座標で)を指し得る。幾つかの場合、飛経路とは、航空機が辿るように設定される、予め構成される飛経路(例えば、軌道)を指し得る。幾つかの場合、飛経路とは、航空機の瞬間飛行方向を指し得る。 The ability to change autonomous flight can be particularly useful when there are obstacles the aircraft faces that are not detected by the user (eg, through errors or if the aircraft does not have obstacle sensors). In such cases, after the change, minor changes may be made to the UAV flight without interfering with the autonomous operation of the aircraft so that the given task can continue to be accomplished. In some cases, the ability to change autonomous flight allows the user to desire some deviation from a given flight path while maintaining autonomous flight towards the target destination (eg, the user is interested in something). It can be especially useful when (seeing things). As used herein, flight path may refer to the path taken by an aircraft during flight. In some cases, the flight path can refer to the trajectory of the aircraft or the direction of flight of the aircraft (eg, in two-dimensional or three-dimensional coordinates). In some cases, the flight path can refer to a pre-configured flight path (eg, orbit) that the aircraft is set to follow. In some cases, the flight path can refer to the instantaneous flight direction of the aircraft.

ユーザ入力は、方向成分を飛経路に追加し、及び/又は速度又は加速度成分を航空機に追加することにより、航空機の飛経路に作用及び/又は変更し得る。幾つかの場合、自律飛行を変更する能力は、ユーザが、特定の飛行パターンでUAVを飛行させることを望むか、又は容易には実装されない操作(例えば、UAVを上昇スパイラル又は下降スパイラルで飛行させる)の実行を望む場合、特に有用であり得る。自律飛行を変更する能力が、任意のタイプの航空機及び空中、水上、陸上、及び/又は宇宙空間中を横断可能な任意の車両に組み込み可能であることに留意されたい。 User input may act and / or alter the flight path of the aircraft by adding a directional component to the flight path and / or adding a velocity or acceleration component to the aircraft. In some cases, the ability to modify autonomous flight allows the user to fly the UAV in a particular flight pattern or an operation that is not easily implemented (eg, flying the UAV in an ascending or descending spiral). ) Can be particularly useful if you wish to do so. Note that the ability to alter autonomous flight can be incorporated into any type of aircraft and any vehicle capable of crossing air, water, land, and / or space.

本発明の異なる態様が、個々に、集合的に、又は互いと組み合わせて理解することができることが理解されるものとする。本明細書に記載される本発明の様々な態様は、以下に記載される特定の用途のいずれか又は任意の他のタイプの遠隔制御される車両若しくは可動物体に適用し得る。 It is to be understood that different aspects of the invention can be understood individually, collectively or in combination with each other. Various aspects of the invention described herein may be applied to any other type of remotely controlled vehicle or moving object in any of the specific applications described below.

図1は、実施形態によるナビゲーションに使用されるシステムの例を示す。ナビゲーションシステムは、可動物体100と、可動物体との通信が可能なユーザ端末106とを含み得る。可動物体は、搭載物104を搬送するように構成し得る。ユーザ端末を使用して、可動物体及び/又は搭載物の1つ又は複数の移動特性を制御してもよい。例えば、ユーザ端末を使用して、可動物体をターゲットエリアにナビゲート可能なように可動物体を制御することができる。ユーザ端末を使用して、本明細書において更に記載されるように、可動物体の自律飛行を行う、可動物体(例えば、可動物体の飛行コントローラ)に送信される可動物体命令又はコマンドを与え得る。幾つかの場合、ユーザ端末を使用して、可動物体が自律的に動作中である間、可動物体を手動制御し、及び/又は可動物体のパラメータを変更し得る。 FIG. 1 shows an example of a system used for navigation according to an embodiment. The navigation system may include a movable object 100 and a user terminal 106 capable of communicating with the movable object. The movable object may be configured to carry the payload 104. User terminals may be used to control the movement characteristics of one or more of the moving objects and / or loads. For example, a user terminal can be used to control a movable object so that it can be navigated to a target area. A user terminal may be used to give a movable object command or command transmitted to a movable object (eg, a moving object flight controller) that performs autonomous flight of the movable object, as further described herein. In some cases, the user terminal may be used to manually control the moving object and / or change the parameters of the moving object while the moving object is operating autonomously.

可動物体100は、環境をトラバースすることが可能な任意の物体であり得る。可動物体は、空気、水、陸、及び/又は宇宙空間をトラバースすることが可能であり得る。環境は、移動不可能な物体(静止物体)及び移動可能な物体を含み得る。静止物体の例としては、地勢、植物、ランドマーク、建物、一体構造物、又は任意の固定された構造物を挙げることができる。移動可能な物体の例としては、人々、車両、動物、発射体等が挙げられる。 The movable object 100 can be any object capable of traversing the environment. Movable objects may be capable of traversing air, water, land, and / or outer space. The environment may include immovable objects (stationary objects) and movable objects. Examples of stationary objects include terrain, plants, landmarks, buildings, monolithic structures, or any fixed structure. Examples of movable objects include people, vehicles, animals, projectiles and the like.

幾つかの場合では、環境は慣性基準系であり得る。慣性基準系を使用して、時空間を均一的、等方的、及び時間独立的に記述し得る。慣性基準系は、可動物体に相対して確立し得、可動物体に従って移動し得る。慣性基準系での測定は、変換(例えば、ニュートン物理学でのガリレイ変換)により別の基準系(例えば、全球基準系(global reference frame))での測定に変換することができる。 In some cases, the environment can be an inertia frame of reference. Space-time can be described uniformly, isotropically, and time-independently using an inertial reference system. The inertial reference system can be established relative to a moving object and can move according to the moving object. Measurements in an inertial reference system can be transformed into measurements in another frame of reference (eg, global reference frame) by transformation (eg, Galilean transformation in Newtonian physics).

可動物体100は車両であり得る。車両は自己推進車両であり得る。車両は、1つ又は複数の推進ユニット107を用いて環境をトラバースし得る。車両は、航空車両、陸ベースの車両、水ベースの車両、又は宇宙空間ベースの車両であり得る。車両は無人車両であり得る。車両は、人間の乗員を乗せずに環境をトラバースすることが可能であり得る。代替的には、車両は人間の乗員を搬送し得る。幾つかの実施形態では、可動物体は無人航空機(UAV)であり得る。 The movable object 100 can be a vehicle. The vehicle can be a self-propelled vehicle. The vehicle may traverse the environment with one or more propulsion units 107. The vehicle can be an aviation vehicle, a land-based vehicle, a water-based vehicle, or a space-based vehicle. The vehicle can be an unmanned vehicle. The vehicle may be able to traverse the environment without a human occupant. Alternatively, the vehicle may carry a human occupant. In some embodiments, the moving object can be an unmanned aerial vehicle (UAV).

本明細書でのUAV又は任意の他のタイプの可動物体の任意の記載は、任意の他のタイプの可動物体又は様々なカテゴリの可動物体全般に適用し得、又はこの逆も同じであり得る。例えば、本明細書でのUAVの任意の記載は、任意の無人の陸境界、水ベース、又は宇宙ベースの車両に適用し得る。可動物体の更なる例は、本明細書の他の箇所で更に詳細に提供される。 Any description of the UAV or any other type of moving object herein may apply to any other type of moving object or various categories of moving objects in general, and vice versa. .. For example, any description of the UAV herein may apply to any unmanned land boundary, water-based, or space-based vehicle. Further examples of moving objects are provided in more detail elsewhere herein.

上述したように、可動物体は、環境内でトラバースすることが可能であり得る。可動物体は、三次元内で飛行することが可能であり得る。可動物体は、1つ、2つ、又は3つの軸に沿って空間並進することが可能であり得る。1つ、2つ、又は3つの軸は互いに直交し得る。軸は、ピッチ軸、ヨー軸、及び/又はロール軸に沿い得る。可動物体は、1つ、2つ、又は3つの軸の回りを回転可能であることもできる。1つ、2つ、又は3つの軸は、互いに直交し得る。軸は、ピッチ軸、ヨー軸、及び/又はロール軸であり得る。可動物体は、最高で自由度6に沿って移動可能であり得る。可動物体は、移動において可動物体を支援し得る1つ又は複数の推進ユニットを含み得る。例えば、可動物体は、1つ、2つ、又は3つ以上の推進ユニットを有するUAVであり得る。推進ユニットは、UAVの揚力を生成するように構成し得る。推進ユニットは回転翼を含み得る。可動物体はマルチ回転翼UAVであり得る。 As mentioned above, the movable object may be capable of traversing in the environment. Movable objects may be able to fly in three dimensions. Movable objects can be spatially translated along one, two, or three axes. One, two, or three axes can be orthogonal to each other. The axes may be along the pitch axis, yaw axis, and / or roll axis. Movable objects can also be rotatable around one, two, or three axes. One, two, or three axes can be orthogonal to each other. The axes can be pitch axes, yaw axes, and / or roll axes. Movable objects can be movable along a maximum of 6 degrees of freedom. The movable object may include one or more propulsion units that may assist the movable object in movement. For example, the movable object can be a UAV with one, two, or three or more propulsion units. The propulsion unit may be configured to generate lift for the UAV. The propulsion unit may include rotor blades. The movable object can be a multi-rotor UAV.

可動物体は任意の物理的構成を有し得る。例えば、可動物体は、中心体から延びる1つ又はアーム又は分岐部を有する中心体を有し得る。アームは中心体から側方又は放射状に延び得る。アームは、中心体に相対して移動可能であってもよく、又は中心体に相対して静止してもよい。アームは、1つ又は複数の推進ユニットを支持し得る。例えば、各アームは、1つ、2つ、又は3つ以上の推進ユニットを支持し得る。 Movable objects can have any physical configuration. For example, a movable object can have a centrosome with one or an arm or bifurcation extending from the centrosome. The arm can extend laterally or radially from the centrosome. The arm may be movable relative to the centrosome, or may be stationary relative to the centrosome. The arm may support one or more propulsion units. For example, each arm may support one, two, or three or more propulsion units.

可動物体は筐体を有し得る。筐体は、1つの一体片、2つの一体片、又は複数の個片から形成し得る。筐体は、1つ若しくは複数の構成要素が配置されるキャビティを含み得る。構成要素は、モーションコントローラ(例えば、飛行コントローラ)、1つ若しくは複数のプロセッサ、1つ若しくは複数のメモリ記憶ユニット、1つ若しくは複数のセンサ(例えば、1つ若しくは複数の慣性センサ又は本明細書の他の箇所に記載される任意の他のタイプのセンサ)、1つ若しくは複数のナビゲーションユニット(例えば、全地球測位システム(GPS)ユニット)、1つ若しくは通信ユニット、又は任意の他のタイプの構成要素等の電気構成要素であり得る。筐体は、単一のキャビティ又は複数のキャビティを有し得る。幾つかの場合では、モーションコントローラ(飛行コントローラなど)は、1つ又は複数の推進ユニットと通信し得、及び/又は1つ又は複数の推進ユニットの動作を制御し得る。モーションコントローラ(すなわち、飛行コントローラ)は、1つ又は複数の電子速度制御(ESC)モジュールを用いて1つ又は複数の推進ユニットと通信し、及び/又はその動作を制御し得る。モーションコントローラ(すなわち、飛行コントローラ)は、ESCモジュールと通信して、推進ユニットの動作を制御し得る。 The movable object may have a housing. The housing may be formed from one piece, two pieces, or a plurality of pieces. The housing may include a cavity in which one or more components are located. A component is a motion controller (eg, flight controller), one or more processors, one or more memory storage units, one or more sensors (eg, one or more inertial sensors or, as used herein. Any other type of sensor described elsewhere), one or more navigation units (eg, Global Positioning System (GPS) units), one or communication unit, or any other type of configuration. It can be an electrical component such as an element. The housing may have a single cavity or multiple cavities. In some cases, a motion controller (such as a flight controller) may communicate with one or more propulsion units and / or control the operation of one or more propulsion units. A motion controller (ie, a flight controller) may use one or more electronic speed control (ESC) modules to communicate with one or more propulsion units and / or control their operation. The motion controller (ie, flight controller) can communicate with the ESC module to control the operation of the propulsion unit.

可動物体はオンボード搭載物104を支持し得る。搭載物は、可動物体に相対して固定値を有してもよく、又は可動物体に相対して移動可能であってもよい。搭載物は、可動物体に相対して空間的に並進し得る。例えば、搭載物は、可動物体に相対して1つ、2つ、又は3つの軸に沿って移動し得る。搭載物は、可動物体に相対して回転することもできる。例えば、搭載物は、可動物体に相対して1つ、2つ、又は3つの軸の回りを回転し得る。軸は互いに直交し得る。軸は、ピッチ軸、ヨー軸、及び/又はロール軸であり得る。代替的には、搭載物は、可動物体内に固定又は統合し得る。 The movable object may support the onboard loading 104. The on-board object may have a fixed value relative to the movable object, or may be movable relative to the movable object. The payload can be spatially translated relative to the moving object. For example, the load can move along one, two, or three axes relative to a moving object. The load can also rotate relative to a moving object. For example, the payload may rotate around one, two, or three axes relative to a moving object. The axes can be orthogonal to each other. The axes can be pitch axes, yaw axes, and / or roll axes. Alternatively, the payload may be fixed or integrated within the movable object.

搭載物は、支持機構102を用いて可動物体に相対して移動可能であり得る。支持機構は、可動物体に相対する支持機構の移動を可能にし得る1つ又は複数のジンバルステージを含み得る。例えば、支持機構は、支持機構が可動物体に相対して第1の軸の回りを回転できるようにし得る第1のジンバルステージ、支持機構が可動物体に相対して第2の軸の回りを回転できるようにし得る第2のジンバルステージ、及び/又は支持機構が可動物体に相対して第3の軸の回りを回転できるようにし得る第3のジンバルステージを含み得る。本明細書の他の箇所に記載される支持機構の任意の説明及び/又は特徴が該当し得る。 The payload may be movable relative to a movable object using the support mechanism 102. The support mechanism may include one or more gimbal stages that may allow the support mechanism to move relative to the moving object. For example, the support mechanism is a first gimbal stage that can allow the support mechanism to rotate around a first axis relative to a movable object, the support mechanism rotates around a second axis relative to a movable object. It may include a second gimbal stage that may allow and / or a third gimbal stage that may allow the support mechanism to rotate around a third axis relative to a moving object. Any description and / or feature of the support mechanism described elsewhere herein may apply.

搭載物は、可動物体周囲の環境を感知可能なデバイス、信号を環境に放射可能なデバイス、及び/又は環境と相互作用可能なデバイスを含み得る。 The on-board equipment may include a device capable of sensing the environment around the moving object, a device capable of radiating a signal to the environment, and / or a device capable of interacting with the environment.

1つ又は複数のセンサは、搭載物として提供し得、環境を感知可能であり得る。1つ又は複数のセンサは、撮像デバイスを含み得る。撮像デバイスは物理的な撮像デバイスであり得る。撮像デバイスは、電磁放射線(例えば、可視光、赤外線光、及び/又は紫外線光)を検出し、検出された電磁放射線に基づいて画像データを生成するように構成することができる。撮像デバイスは、光の波長に応答して電気信号を生成する電荷結合素子(CCD)センサ又は相補型金属酸化膜半導体(CMOS)センサを含み得る。生成される電気信号は処理されて、画像データを生成することができる。撮像デバイスにより生成される画像データは、1つ又は複数の画像を含むことができ、画像は静止画(例えば、写真)、動的画像(例えば、ビデオ)、又はそれらの適する組合せであり得る。画像データは、多色性(例えば、RGB、CMYK、HSV)であってもよく、又は単色性(例えば、グレースケール、白黒、セピア)であってもよい。撮像デバイスは、光を画像センサに向けるように構成されたレンズを含み得る。 One or more sensors may be provided as an on-board device and may be environmentally sensitive. One or more sensors may include an imaging device. The imaging device can be a physical imaging device. The imaging device can be configured to detect electromagnetic radiation (eg, visible light, infrared light, and / or ultraviolet light) and generate image data based on the detected electromagnetic radiation. The imaging device may include a charge-coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor that produces an electrical signal in response to the wavelength of light. The generated electrical signal can be processed to generate image data. The image data generated by the imaging device can include one or more images, which can be a still image (eg, a photograph), a dynamic image (eg, a video), or a suitable combination thereof. The image data may be pleochroic (eg RGB, CMYK, HSV) or monochromatic (eg grayscale, black and white, sepia). The imaging device may include a lens configured to direct light at the image sensor.

撮像デバイスはカメラであることができる。カメラは、動的画像データ(例えば、ビデオ)を捕捉するムービーカメラ又はビデオカメラであることができる。カメラは、静止画(例えば、写真)を捕捉するスチルカメラであることができる。カメラは、動的画像データ及び静的画像の両方を捕捉し得る。カメラは、動的画像データの捕捉と静止画の捕捉とを切り替え得る。本明細書に提供される特定の実施形態は、カメラの状況で説明されるが、本開示が任意の適する撮像デバイスに適用可能であり、カメラに関連する本明細書での任意の説明が、任意の適する撮像デバイスにも適用可能であり、カメラに関連する本明細書での任意の説明が、他のタイプの撮像デバイスにも適用可能なことが理解されるものとする。カメラを使用して、3Dシーン(例えば、環境、1つ又は複数の物体等)の2D画像を生成することができる。カメラにより生成される画像は、3Dシーンの2D画像面への射影を表すことができる。したがって、2D画像内の各点は、シーンでの3D空間座標に対応する。カメラは光学要素(例えば、レンズ、ミラー、フィルタ等)を備え得る。カメラは、カラー画像、グレースケール画像、赤外線画像等を捕捉し得る。カメラは、赤外線画像を捕捉するように構成される場合、熱撮像デバイスであり得る。 The imaging device can be a camera. The camera can be a movie camera or a video camera that captures dynamic image data (eg, video). The camera can be a still camera that captures a still image (eg, a photo). The camera can capture both dynamic image data and static images. The camera can switch between capturing dynamic image data and capturing still images. Although the particular embodiments provided herein are described in the context of a camera, the disclosure is applicable to any suitable imaging device and any description herein relating to the camera. It is to be understood that it is applicable to any suitable imaging device and that any description herein relating to the camera is also applicable to other types of imaging devices. A camera can be used to generate a 2D image of a 3D scene (eg, an environment, one or more objects, etc.). The image generated by the camera can represent the projection of a 3D scene onto a 2D image plane. Therefore, each point in the 2D image corresponds to the 3D spatial coordinates in the scene. The camera may include optical elements (eg, lenses, mirrors, filters, etc.). The camera can capture color images, grayscale images, infrared images, and the like. The camera can be a thermal imaging device if it is configured to capture an infrared image.

幾つかの実施形態では、搭載物は、複数の撮像デバイス又は複数のレンズ及び/又は画像センサを有する撮像デバイスを含み得る。搭載物は、複数の画像を略同時に撮影可能であり得る。複数の画像は、3Dシーン、3D仮想環境、3Dマップ、又は3Dモデルの作成を支援し得る。例えば、右画像及び左画像を撮影し、立体マッピングに使用し得る。較正両眼画像から深度マップを計算し得る。任意の数の画像(例えば、2つ以上、3つ以上、4つ以上、5つ以上、6つ以上、7つ以上、8つ以上、9つ以上)を同時に撮影して、3Dシーン/仮想環境/モデル及び/又は深度マッピングの作成を支援し得る。画像は、略同じ方向に向けられてもよく、又はわずかに異なる方向に向けられてもよい。幾つかの場合では、他のセンサ(例えば、超音波データ、LIDARデータ、本明細書の他の箇所に記載される任意の他のセンサからのデータ、又は外部デバイスからのデータ)からのデータは、2D又は3Dの画像又はマップの作成を支援し得る。 In some embodiments, the payload may include an imaging device or an imaging device having a plurality of lenses and / or imaging sensors. The on-board device may be able to capture multiple images at about the same time. Multiple images can assist in the creation of 3D scenes, 3D virtual environments, 3D maps, or 3D models. For example, right and left images can be taken and used for stereoscopic mapping. A depth map can be calculated from the calibrated binocular image. 3D scene / virtual by shooting any number of images (for example, 2 or more, 3 or more, 4 or more, 5 or more, 6 or more, 7 or more, 8 or more, 9 or more) at the same time. Can assist in the creation of environment / models and / or depth mappings. The images may be oriented in substantially the same direction or in slightly different directions. In some cases, data from other sensors (eg, ultrasound data, lidar data, data from any other sensor described elsewhere in this specification, or data from an external device) Can assist in the creation of 2, 3D or 3D images or maps.

撮像デバイスは、特定の画像解像度で画像又は一連の画像を捕捉し得る。幾つかの実施形態では、画像解像度は、画像内のピクセル数によって定義し得る。幾つかの実施形態では、画像解像度は、約352×420ピクセル以上、約480×320ピクセル以上、約720×480ピクセル以上、約1280×720ピクセル以上、約1440×1080ピクセル以上、約1920×1080ピクセル以上、約2048×1080ピクセル以上、約3840×2160ピクセル以上、約4096×2160ピクセル以上、約7680×4320ピクセル以上、又は約15360×8640ピクセル以上であり得る。幾つかの実施形態では、カメラは、4Kカメラ又はより高い解像度を有するカメラであり得る。 The imaging device may capture an image or series of images at a particular image resolution. In some embodiments, the image resolution can be defined by the number of pixels in the image. In some embodiments, the image resolution is about 352 x 420 pixels or more, about 480 x 320 pixels or more, about 720 x 480 pixels or more, about 1280 x 720 pixels or more, about 1440 x 1080 pixels or more, about 1920 x 1080. It can be greater than or equal to pixels, greater than or equal to about 2048 × 1080 pixels, greater than or equal to about 3840 × 2160 pixels, greater than or equal to about 4096 × 2160 pixels, greater than or equal to about 7680 × 4320 pixels, or greater than or equal to about 15360 × 8640 pixels. In some embodiments, the camera can be a 4K camera or a camera with higher resolution.

撮像デバイスは、特定の捕捉率で一連の画像を捕捉し得る。幾つかの実施形態では、一連の画像は、約24p、約25p、約30p、約48p、約50p、約60p、約72p、約90p、約100p、約120p、約300p、約50i、又は約60i等の標準ビデオフレーム率で捕捉し得る。幾つかの実施形態では、一連の画像は、速度が0.0001秒以下、0.0002秒以下、0.0005秒以下、0.001秒以下、0.002秒以下、0.005秒以下、0.01秒以下、0.02秒以下、0.05秒以下、0.1秒以下、0.2秒以下、0.5秒以下、1秒以下、2秒以下、5秒以下、又は10秒以下毎に約1枚の画像を捕捉し得る。幾つかの実施形態では、捕捉率は、ユーザ入力及び/又は外部状況(例えば、雨、雪、風、環境の不明瞭な表面テクスチャ)に応じて変更し得る。 The imaging device can capture a series of images at a particular capture rate. In some embodiments, the series of images is about 24p, about 25p, about 30p, about 48p, about 50p, about 60p, about 72p, about 90p, about 100p, about 120p, about 300p, about 50i, or about. It can be captured at a standard video frame rate such as 60i. In some embodiments, the series of images has a speed of 0.0001 seconds or less, 0.0002 seconds or less, 0.0005 seconds or less, 0.001 seconds or less, 0.002 seconds or less, 0.005 seconds or less, 0.01 seconds or less, 0.02 seconds or less, 0.05 seconds or less, 0.1 seconds or less, 0.2 seconds or less, 0.5 seconds or less, 1 second or less, 2 seconds or less, 5 seconds or less, or 10 Approximately one image can be captured every second or less. In some embodiments, the capture rate may vary depending on user input and / or external conditions (eg, rain, snow, wind, unclear surface texture of the environment).

撮像デバイスは、調整可能なパラメータを有し得る。同一の外部状況(例えば、場所、照明)の影響下にありながら、異なるパラメータ下で、異なる画像を撮像デバイスにより捕捉し得る。調整可能なパラメータは、露出(例えば、露出時間、シャッタ速度、アパーチャ、フィルム速度)、利得、ガンマ、関心領域、ビニング/サブサンプリング、ピクセルクロック、オフセット、トリガーリング、ISO等を含み得る。露出に関連するパラメータは、撮像デバイス内の画像センサに達する光量を制御し得る。例えば、シャッタ速度は、光が画像センサに達する時間量を制御し得、アパーチャは、所与の時間で画像センサに達する光量を制御し得る。利得に関連するパラメータは、光学センサからの信号の増幅を制御し得る。ISOは、利用可能な光へのカメラの感度レベルを制御し得る。 The imaging device may have adjustable parameters. Different images can be captured by the imaging device under the same external conditions (eg, location, lighting) but under different parameters. Adjustable parameters may include exposure (eg, exposure time, shutter speed, aperture, film speed), gain, gamma, region of interest, binning / subsampling, pixel clock, offset, trigger ring, ISO and the like. Exposure-related parameters can control the amount of light that reaches the image sensor in the imaging device. For example, the shutter speed can control the amount of time light reaches the image sensor, and the aperture can control the amount of light that reaches the image sensor in a given amount of time. The gain-related parameters can control the amplification of the signal from the optical sensor. ISO can control the sensitivity level of the camera to the available light.

幾つかの代替の実施形態では、撮像デバイスは物理的撮像デバイスを超え得る。例えば、撮像デバイスは、画像又はビデオフレームの捕捉及び/又は生成が可能な任意の技法を含み得る。幾つかの実施形態では、撮像デバイスは、別の物理的デバイスから得られた画像を処理可能なアルゴリズムを指し得る。 In some alternative embodiments, the imaging device can go beyond the physical imaging device. For example, the imaging device may include any technique capable of capturing and / or generating an image or video frame. In some embodiments, the imaging device may refer to an algorithm capable of processing an image obtained from another physical device.

搭載物は1つ又は複数のタイプのセンサを含み得る。センサのタイプの幾つかの例としては、場所センサ(例えば、全地球測位システム(GPS)センサ、場所の三角測量を可能にするモバイルデバイス送信機)、モーションセンサ、ビジョンセンサ(例えば、カメラ等の可視光、赤外線光、又は紫外線光を検出可能な撮像デバイス)、近接性又は距離センサ(例えば、超音波センサ、ライダー、飛行時間又は深度カメラ)、慣性センサ(例えば、加速度計、ジャイロスコープ、及び/又は重力検出センサ、これらは慣性測定ユニット(IMU)を形成し得る)、高度センサ、姿勢センサ(例えば、コンパス)、圧力センサ(例えば、気圧計)、温度センサ、湿度センサ、振動センサ、オーディオセンサ(例えば、マイクロフォン)、及び/又はフィールドセンサ(例えば、磁力計、電磁センサ、電波センサ)を挙げることができる。 The on-board material may include one or more types of sensors. Some examples of sensor types include location sensors (eg, Global Positioning System (GPS) sensors, mobile device transmitters that enable location triangulation), motion sensors, vision sensors (eg, cameras, etc.). Imaging devices capable of detecting visible, infrared, or ultraviolet light), proximity or distance sensors (eg, ultrasonic sensors, riders, flight time or depth cameras), inertial sensors (eg, accelerometers, gyroscopes, and / Or gravity detection sensors, which can form inertial measurement units (IMUs)), altitude sensors, attitude sensors (eg, compass), pressure sensors (eg, barometer), temperature sensors, humidity sensors, vibration sensors, audio Sensors (eg, microphones) and / or field sensors (eg, magnetic meters, electromagnetic sensors, radio sensors) can be mentioned.

センサにより提供される検知データを使用して、可動物体の空間配置、速度、及び/又は向きを制御し得る(例えば、後述するように、適する処理ユニット及び/又は制御モジュールを使用して)。代替的には、センサを使用して、天候状況、潜在的な障害物への近さ、地理的特徴の位置、人工構造の位置等の可動物体の周囲環境に関するデータを提供し得る。 The detection data provided by the sensor can be used to control the spatial arrangement, velocity, and / or orientation of the moving object (eg, using suitable processing units and / or control modules, as described below). Alternatively, sensors can be used to provide data about the surrounding environment of moving objects such as weather conditions, proximity to potential obstacles, location of geographical features, location of man-made structures, and so on.

搭載物は、信号を環境に放射可能な1つ又は複数のデバイスを含み得る。例えば、搭載物は、電磁スペクトルに沿ったエミッタ(例えば、可視光エミッタ、紫外線エミッタ、赤外線エミッタ)を含み得る。搭載物は、レーザ又は任意の他のタイプの電磁エミッタを含み得る。搭載物は、超音波信号等の1つ又は複数の振動を放射し得る。搭載物は可聴音を放射し得る(例えば、スピーカから)。搭載物は、電波信号又は他のタイプの信号等の電波信号を放射し得る。 The on-board equipment may include one or more devices capable of radiating signals into the environment. For example, the payload may include emitters along the electromagnetic spectrum (eg, visible light emitters, ultraviolet light emitters, infrared emitters). The on-board material may include a laser or any other type of electromagnetic emitter. The on-board material may radiate one or more vibrations, such as an ultrasonic signal. The on-board material can emit audible sound (eg, from a speaker). The on-board material may radiate radio signals such as radio signals or other types of signals.

搭載物は、環境と相互作用可能であり得る。例えば、搭載物はロボットアームを含み得る。搭載物は、液体成分、気体成分、及び/又は固体成分等の送出品目を含み得る。例えば、搭載物は、殺虫剤、水、肥料、抗火材料、食料、パッケージ、又は任意の他の品目を含み得る。 The on-board material can interact with the environment. For example, the load may include a robot arm. The payload may include delivery items such as liquid components, gaseous components, and / or solid components. For example, the load may include pesticides, water, fertilizers, anti-fire materials, food, packaging, or any other item.

本明細書での搭載物の任意の例は、可動物体により搬送し得るデバイス又は可動物体の一部であり得るデバイスに適用し得る。例えば、1つ又は複数のセンサ108は、可動物体の一部であり得る。1つ又は複数のセンサは、搭載物に加えて提供し得る。これは、本明細書に記載される搭載物等の任意のタイプの搭載物に適用し得る。 Any example of the payload herein can be applied to a device that can be carried by a moving object or that can be part of a moving object. For example, one or more sensors 108 can be part of a moving object. One or more sensors may be provided in addition to the payload. This may apply to any type of loading, such as the loading described herein.

可動物体は、ユーザ端末106と通信可能であり得る。ユーザ端末は、可動物体自体、可動物体の搭載物、及び/又は可動物体の支持機構と通信し得、支持機構は搭載物の支持に使用される。本明細書での可動物体との通信という任意の記載は、可動物体の搭載物との通信、可動物体の支持機構との通信、及び/又は可動物体の1つ又は複数の個々の構成要素(例えば、通信ユニット、ナビゲーションユニット、推進ユニット、電源、プロセッサ、メモリ記憶ユニット、及び/又はアクチュエータ)との通信にも適用し得る。 The movable object may be able to communicate with the user terminal 106. The user terminal can communicate with the movable object itself, the load on the movable object, and / or the support mechanism for the movable object, and the support mechanism is used to support the load. The optional description of communication with a movable object herein refers to communication with a load of the movable object, communication with a support mechanism of the movable object, and / or one or more individual components of the movable object ( For example, it can be applied to communication with a communication unit, a navigation unit, a propulsion unit, a power supply, a processor, a memory storage unit, and / or an actuator).

可動物体とユーザ端末との通信は、無線通信116を介し得る。例えば、通信システム110を可動物体に提供し得る。対応する通信ユニット114は、ユーザ端末に提供し得、対応する通信ユニット114を使用して、通信システム間の通信リンク(例えば、無線通信リンク)を形成し得る。可動物体とユーザ端末との間に直接通信を提供し得る。直接通信は、いかなる中間デバイス又はネットワークも必要とせずに行い得る。可動物体とユーザ端末との間に間接通信を提供し得る。間接通信は、1つ又は複数の中間デバイス又はネットワークを用いて行い得る。例えば、間接通信は、電気通信ネットワークを利用し得る。間接通信は、1つ又は複数のルータ、通信塔、衛星、又は任意の他の中間デバイス若しくはネットワークを用いて実行し得る。通信のタイプの例としては、限定ではなく、インターネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、Bluetooth(登録商標)、近距離通信(NFC)技術、汎用パケット無線サービス(GPRS)、GSM(登録商標)、エンハンストデータGSM環境(EDGE)、3G、4G、又はロングタームエボリューション(LTE)プロトコル等のモバイルデータプロトコルに基づくネットワーク、赤外線(IR)通信技術、及び/又はWi−Fiを挙げることができ、無線、有線、又はそれらの組合せを介する通信であり得る。 Communication between the movable object and the user terminal may be via wireless communication 116. For example, the communication system 110 may be provided for a movable object. The corresponding communication unit 114 may be provided to the user terminal, and the corresponding communication unit 114 may be used to form a communication link (eg, a wireless communication link) between communication systems. It may provide direct communication between the movable object and the user terminal. Direct communication can be done without the need for any intermediate device or network. Indirect communication may be provided between the movable object and the user terminal. Indirect communication can be performed using one or more intermediate devices or networks. For example, indirect communication may utilize a telecommunications network. Indirect communication may be performed using one or more routers, communication towers, satellites, or any other intermediate device or network. Examples of types of communication include, but are not limited to, the Internet, Local Area Network (LAN), Wide Area Network (WAN), Bluetooth®, Near Field Communication (NFC) Technology, General Packet Radio Service (GPRS), GS M. (Registered Trademarks), Enhanced Data GSM Environment (EDGE), 3G, 4G, or networks based on mobile data protocols such as Long Term Evolution (LTE) Protocol, Infrared (IR) Communication Technology, and / or Wi-Fi. It can be wireless, wired, or a combination thereof.

ユーザ端末は、任意のタイプの外部デバイスであり得る。ユーザ端末は、ユーザからの入力を受信するように構成されるデバイスを個々に又は集合的に指し得る。ユーザ端末は、ユーザ入力を受信するように構成される1つ又は複数のユーザインタフェースを構成し得る。ユーザ端末の例としては、限定ではなく、スマートフォン/セルフォン、タブレット、個人情報端末(PDA)、ラップトップコンピュータ、デスクトップコンピュータ、メディアコンテンツプレーヤ、ビデオゲーミングステーション/システム、仮想現実システム、拡張現実システム、ウェアラブルデバイス(例えば、時計、眼鏡、手袋、ヘッドギア(帽子、ヘルメット、仮想現実ヘッドセット、拡張現実ヘッドセット、ヘッドマウントデバイス(HMD)、ヘッドバンド等)、ペンダント、アームバンド、足バンド、靴、ベスト)、ジェスチャ認識デバイス、マイクロフォン、画像データを提供若しくはレンダリング可能な任意の電子デバイス、制御スティックを有するリモートコントローラ、又は任意の他のタイプのデバイスを挙げることができる。ユーザ端末は、ハンドヘルド物体であり得る。ユーザ端末はポータブルであり得る。ユーザ端末は、人間ユーザにより携帯し得る。幾つかの場合では、ユーザ端末は、人間ユーザからリモートに配置し得、ユーザは、無線通信及び/又は有線通信を使用してユーザ端末を制御することができる。ユーザ端末の様々な例及び/又は特徴は、本明細書の他の箇所で更に詳細に提供される。 The user terminal can be any type of external device. The user terminal may point individually or collectively to devices configured to receive input from the user. The user terminal may configure one or more user interfaces configured to receive user input. Examples of user terminals are not limited to smartphones / cellphones, tablets, personal information terminals (PDAs), laptop computers, desktop computers, media content players, video gaming stations / systems, virtual reality systems, augmented reality systems, and wearables. Devices (eg watches, glasses, gloves, headgear (hats, helmets, virtual reality headsets, augmented reality headsets, head-mounted devices (HMDs), headbands, etc.), pendants, armbands, footbands, shoes, vests) , Gesture recognition devices, microphones, any electronic device capable of providing or rendering image data, a remote controller with a control stick, or any other type of device. The user terminal can be a handheld object. The user terminal can be portable. The user terminal can be carried by a human user. In some cases, the user terminal may be located remotely from a human user and the user may control the user terminal using wireless and / or wired communication. Various examples and / or features of the user terminal are provided in more detail elsewhere herein.

ユーザ端末は、1つ又は複数の動作の命令を提供し得る非一時的コンピュータ可読媒体を実行可能であり得る1つ又は複数のプロセッサを含み得る。ユーザ端末は、1つ又は複数の動作を実行するコード、論理、又は命令を含む非一時的コンピュータ可読媒体を含む1つ又は複数のメモリ記憶デバイスを含み得る。ユーザ端末は、ユーザ端末が可動物体と通信し、可動物体から撮像データを受信できるようにするソフトウェアアプリケーションを含み得る。ユーザ端末は通信ユニット114を含み得、通信ユニットにより、可動物体との通信が可能になり得る。幾つかの場合では、通信ユニットは、単一の通信モジュール又は複数の通信モジュールを含み得る。幾つかの場合では、ユーザ端末は、単一の通信リンク又は複数の異なるタイプの通信リンクを使用して可動物体と対話可能であり得る。ユーザ端末を使用して、可動物体の移動を制御し得る。幾つかの場合、ユーザ端末は、例えば、ユーザ入力に応答して、可動デバイスの自律動作(例えば、自律飛行)を行うように構成し得る。幾つかの場合、ユーザ端末は、更に後述するように、可動デバイスの自律動作を行う及び/又は変更するように構成し得る。幾つかの場合、ユーザ端末は任意選択的に使用して、可動物体の任意の構成要素(例えば、搭載物の動作、支持機構の動作、1つ又は複数のセンサ、通信、ナビゲーション、着陸スタンド、1つ又は複数の構成要素の作動、電源制御、又は任意の他の機能)を制御し得る。 The user terminal may include one or more processors capable of executing a non-transitory computer-readable medium capable of providing instructions for one or more operations. The user terminal may include one or more memory storage devices including a non-transitory computer-readable medium containing code, logic, or instructions that perform one or more operations. The user terminal may include a software application that allows the user terminal to communicate with the moving object and receive imaging data from the moving object. The user terminal may include a communication unit 114, which may allow communication with a moving object. In some cases, the communication unit may include a single communication module or multiple communication modules. In some cases, the user terminal may be able to interact with the moving object using a single communication link or multiple different types of communication links. A user terminal can be used to control the movement of moving objects. In some cases, the user terminal may be configured to perform autonomous movements (eg, autonomous flight) of the mobile device, for example, in response to user input. In some cases, the user terminal may be configured to perform and / or modify the autonomous operation of the mobile device, as described further below. In some cases, the user terminal is optionally used to optionally use any component of a moving object (eg, on-board motion, support mechanism motion, one or more sensors, communications, navigation, landing stands, etc. It may control the operation of one or more components, power control, or any other function).

ユーザ端末は1つ又は複数のユーザインタフェースを含み得、1つ又は複数のユーザインタフェースは1つ又は複数のデバイスに提供し得る。例えば、ユーザ端末は、1つ、2つ、3つ、4つ、5つ、6つ、7つ、8つ、9つ、10、又は11以上のユーザインタフェースを含み得る。ユーザインタフェースとは、ユーザ(例えば、UAVのオペレータ)による入力が受信されるインタフェースを指し得る。入力は任意のタイプのものであり得る。例えば、ユーザは、単にユーザインタフェースの一部(例えば、容量性タッチスクリーン)に触れることにより入力を提供し得る。例えば、ユーザは、ユーザインタフェースで機構(例えば、キーボード、マウス、ボタン、ジョイスティック等)を作動させて、ユーザ入力を提供し得る。幾つかの場合、ユーザは、可聴信号(例えば、音声コマンド)をユーザインタフェースに提供し得、可聴信号はユーザインタフェースにより受信される。幾つかの場合、ユーザインタフェースは、ユーザの動き(例えば、目の動き、手のジェスチャ等)を検知、追尾、又は追跡して、ユーザ入力を受信するように構成し得る。幾つかの場合、ユーザインタフェースは、程度の異なるユーザ入力を受信するように構成し得る。例えば、ユーザは、異なる量の力をユーザインタフェースの機構に及ぼすか、又は異なる程度でユーザインタフェースの機構を作動させ得、異なる量又は異なる程度は、ユーザインタフェース(又はユーザインタフェースに接続される1つ又は複数のプロセッサ)により適宜解釈し得る。例えば、ユーザは、異なる持続時間量にわたり入力を提供し得、異なる持続時間量は、ユーザインタフェース(又はユーザインタフェースに接続される1つ又は複数のプロセッサ)により適宜解釈し得る。代替又は追加として、ユーザ入力は、ユーザ入力を受信し、二進値入力としてユーザ入力を解釈するように構成し得る。例えば、ユーザインタフェースに触れているユーザは、ターゲットに向かう可動物体のコマンド効果飛行として解釈し得る。各ユーザインタフェースは、別個のデバイスに提供し得る。代替的には、2つ、3つ、4つ、5つ、又は6つ以上のユーザインタフェースを1つのデバイスに提供し得る。 The user terminal may include one or more user interfaces, and one or more user interfaces may be provided to one or more devices. For example, a user terminal may include one, two, three, four, five, six, seven, eight, nine, ten, or eleven or more user interfaces. The user interface can refer to an interface on which input from a user (eg, a UAV operator) is received. The input can be of any type. For example, the user may provide input by simply touching a portion of the user interface (eg, a capacitive touch screen). For example, the user may activate a mechanism (eg, keyboard, mouse, button, joystick, etc.) in the user interface to provide user input. In some cases, the user may provide an audible signal (eg, voice command) to the user interface, which is received by the user interface. In some cases, the user interface may be configured to detect, track, or track user movements (eg, eye movements, hand gestures, etc.) to receive user input. In some cases, the user interface may be configured to receive different degrees of user input. For example, a user may exert different amounts of force on a user interface mechanism or activate a user interface mechanism to a different degree, with different amounts or different degrees being one connected to the user interface (or one connected to the user interface). Or it can be appropriately interpreted by a plurality of processors). For example, the user may provide input over different duration amounts, which may be appropriately interpreted by the user interface (or one or more processors connected to the user interface). Alternatively or additionally, the user input may be configured to receive the user input and interpret the user input as a binary value input. For example, a user touching the user interface can interpret it as a command effect flight of a moving object towards the target. Each user interface may be provided on a separate device. Alternatively, two, three, four, five, or six or more user interfaces may be provided for one device.

幾つかの場合、異なるユーザインタフェースは、可動物体の異なる機能を制御し、及び/又は可動物体の異なる構成要素を制御するように構成し得る。例えば、第1のユーザ端末は、可動物体の自律動作を行うのに使用し得、一方、第2のユーザ端末は、自律動作を変更する(行う)のに使用し得る。幾つかの場合、異なるデバイスは、可動物体の異なる機能を制御し、及び/又は可動物体の異なる構成要素を制御するように構成し得る。異なるユーザインタフェース及び/又はデバイスは、互いと通信してもよく、又は通信しなくてもよい。例えば、異なるデバイスは、無線通信リンク又は有線通信リンクを介して互いと通信し得る。代替的には、異なるデバイスのそれぞれは、互いと通信せず、UAVと別個に通信し得る。 In some cases, different user interfaces may be configured to control different functions of the moving object and / or control different components of the moving object. For example, a first user terminal can be used to perform autonomous movements of a moving object, while a second user terminal can be used to change (perform) autonomous movements. In some cases, different devices may be configured to control different functions of the moving object and / or control different components of the moving object. Different user interfaces and / or devices may or may not communicate with each other. For example, different devices may communicate with each other via a wireless or wired communication link. Alternatively, each of the different devices may communicate with the UAV separately, rather than communicating with each other.

図2は、実施形態によるユーザ端末200を示す。ユーザ端末は、1つ又は複数のユーザインタフェースを含み得る。ユーザインタフェースは、ユーザ(例えば、UAVのオペレータ)による入力を受信するように構成し得る。ユーザは、可動物体のオペレータであり得る。各ユーザインタフェースは1つのデバイスに提供し得る。代替的には、異なるユーザインタフェースは異なるデバイスに提供し得、ユーザ端末は2つ以上のデバイスを含み得る。ユーザ端末は、ユーザ入力を受信し、可動物体及び/又は搭載物に送信される命令(例えば、信号)を生成及び/又は提供するように構成し得る。幾つかの場合、可動物体の自律飛行を行う命令を生成する1つの入力をユーザ端末で受信し得る。例えば、ターゲットをユーザ端末で指定し得、可動物体がターゲットに向かって自律的に移動するような命令を生成し、可動物体(例えば、可動物体の飛行コントローラ)に送信し得る。幾つかの場合、可動物体の自律動作に作用又は変更するユーザ入力をユーザ端末で受信し得る。例えば、ユーザ端末を使用して、可動物体の移動を手動で制御し、及び/又は可動物体の飛行(例えば、自律飛行)を変更し得る。 FIG. 2 shows a user terminal 200 according to an embodiment. The user terminal may include one or more user interfaces. The user interface may be configured to receive input from the user (eg, a UAV operator). The user can be an operator of a moving object. Each user interface may be provided for one device. Alternatively, different user interfaces may be provided to different devices, and the user terminal may include more than one device. The user terminal may be configured to receive user input and generate and / or provide instructions (eg, signals) transmitted to movable objects and / or payloads. In some cases, the user terminal may receive one input that generates an instruction to autonomously fly a moving object. For example, the target can be specified by the user terminal, and a command for the movable object to move autonomously toward the target can be generated and transmitted to the movable object (for example, a flight controller of the movable object). In some cases, the user terminal may receive user input that acts on or modifies the autonomous movement of the moving object. For example, a user terminal may be used to manually control the movement of the moving object and / or change the flight of the moving object (eg, autonomous flight).

幾つかの場合、ユーザ端末は、第1のユーザインタフェース202及び第2のユーザインタフェース204を含み得る。第1のユーザインタフェース及び第2のユーザインタフェースは、異なる特徴を有し得、可動物体の異なる機能の実装に使用し得る。例えば、第1のユーザインタフェースは、可動物体の自律動作(例えば、自律飛行)を行うユーザ入力を受信するように構成し得る。幾つかの場合、第1のユーザインタフェースは、特定のタスクを自律的に達成するか、又はターゲットに向かって自律的に移動するように可動物体に命令するユーザ入力を受信するように構成し得る。自律動作(例えば、自律飛行)するように可動物体に命令するには、1つの入力又は離散数の入力で十分であり得る。ユーザによる可動物体の連続監視又は監督は、第1のユーザインタフェースを利用する場合、必要としなくてもよい。 In some cases, the user terminal may include a first user interface 202 and a second user interface 204. The first user interface and the second user interface can have different features and can be used to implement different functions of the moving object. For example, the first user interface may be configured to receive user input that performs autonomous movements (eg, autonomous flight) of a moving object. In some cases, the first user interface may be configured to receive user input instructing a moving object to accomplish a particular task autonomously or move autonomously towards a target. .. One input or a discrete number of inputs may be sufficient to instruct a moving object to operate autonomously (eg, autonomous flight). Continuous monitoring or supervision of movable objects by the user may not be required when using the first user interface.

第1のユーザインタフェース202は、ディスプレイ203を含み得る。ディスプレイは画面であり得る。ディスプレイは、タッチスクリーンであってもよく、又はタッチスクリーンでなくともよい。ディスプレイは発光ダイオード(LED)画面、OLED画面、液晶ディスプレイ(LCD)画面、プラズマ画面、又は任意の他のタイプの画面であり得る。ディスプレイは、画像を示すように構成し得る。ディスプレイ上の画像は、可動物体の搭載物を用いて収集されたビューを示し得る。例えば、撮像デバイスにより収集された画像をディスプレイに表示し得る。幾つかの例では、撮像デバイスにより収集された画像は、一人称視点(FPV)と見なし得る。幾つかの場合では、単一の撮像デバイスを提供し得、単一のFPVを提供しうる。代替的には、異なる視野を有する複数の撮像デバイスを提供し得る。ビューは複数のFPV間で切り替えてもよく、又は複数のFPVを同時に表示してもよい。複数のFPVは、異なる視野を有し得る異なる撮像デバイスに対応(又は異なる撮像デバイスにより生成)し得る。 The first user interface 202 may include a display 203. The display can be a screen. The display may or may not be a touch screen. The display can be a light emitting diode (LED) screen, an OLED screen, a liquid crystal display (LCD) screen, a plasma screen, or any other type of screen. The display can be configured to show an image. The image on the display may show the view collected using the payload of the moving object. For example, the image collected by the imaging device may be displayed on the display. In some examples, the image collected by the imaging device can be considered as first person view (FPV). In some cases, a single imaging device can be provided and a single FPV can be provided. Alternatively, it may provide multiple imaging devices with different fields of view. The view may be switched between multiple FPVs, or multiple FPVs may be displayed at the same time. Multiple FPVs may correspond (or be generated by different imaging devices) to different imaging devices that may have different fields of view.

別の例では、ディスプレイ上の画像は、可動物体の搭載物からの情報を用いて生成し得るマップを示し得る。マップは、任意選択的に、立体マッピング技法を使用し得る複数の撮像デバイス(例えば、右カメラ、左カメラ、又はより多くのカメラ)を用いて生成し得る。幾つかの場合では、マップは、環境に相対する可動物体、環境に相対する撮像デバイス、及び/又は撮像デバイスに相対する可動物体についての位置情報に基づいて生成し得る。位置情報は、姿勢情報、空間場所情報、角速度、線形速度、角加速度、及び/又は線形加速度を含み得る。マップは、任意選択的に、本明細書の他の箇所で更に詳細に記載されるように、1つ又は複数の追加のセンサを用いて生成し得る。マップは、二次元マップ又は三次元マップであり得る。幾つかの場合、二次元マップは上から下を見たマップを示し得る。幾つかの場合、二次元マップは、様々な天然特徴及び人造特徴を示す地形図であり得る。幾つかの場合、二次元マップは見通し図(例えば、高度を示す)であり得る。幾つかの場合、ビューは切り替え得る(例えば、地形図と見通し図との間で)。幾つかの場合、ビューは、二次元マップ図と三次元マップ図との間で切り替え得、又は二次元マップ図及び三次元マップ図を同時に表示し得る。ビューは、1つ又は複数のFPVと1つ又は複数のマップビューとの間で切り替えてもよく、又は1つ又は複数のFPV及び1つ又は複数のマップビューを同時に表示してもよい。 In another example, the image on the display may represent a map that can be generated using information from the payload of the moving object. Maps can optionally be generated using multiple imaging devices (eg, right camera, left camera, or more cameras) that can use stereoscopic mapping techniques. In some cases, maps can be generated based on location information about moving objects relative to the environment, imaging devices relative to the environment, and / or movable objects relative to the imaging device. The position information may include attitude information, space / location information, angular velocity, linear velocity, angular acceleration, and / or linear acceleration. Maps can optionally be generated using one or more additional sensors, as described in more detail elsewhere herein. The map can be a two-dimensional map or a three-dimensional map. In some cases, a 2D map may show a top-to-bottom map. In some cases, the 2D map can be a topographic map showing various natural and man-made features. In some cases, the 2D map can be a line-of-sight map (eg, showing altitude). In some cases, the view can be switched (eg, between topographic and perspective maps). In some cases, the view may switch between a 2D map diagram and a 3D map diagram, or display a 2D map diagram and a 3D map diagram at the same time. The view may be switched between one or more FPVs and one or more map views, or one or more FPVs and one or more map views may be displayed simultaneously.

幾つかの実施形態では、画像は、第1のユーザインタフェース(例えば、仮想現実システム又は拡張現実システム)に表示される3D仮想環境において提供し得る。3D仮想環境は、任意選択的に、3Dマップに対応し得る。仮想環境は、ユーザが操作することができる複数のポイント又は物体を含み得る。ユーザは、仮想環境内の様々な異なる動作を通してポイント又は物体を操作することができる。それらの動作の例としては、1つ又は複数のポイント又は物体の選択、ドラッグアンドドロップ、並進、回転、スピン、プッシュ、プル、ズームイン、ズームアウト等を挙げることができる。三次元仮想空間でのポイント又は物体の任意のタイプの移動動作を意図し得る。 In some embodiments, the image may be provided in a 3D virtual environment displayed in a first user interface (eg, a virtual reality system or an augmented reality system). The 3D virtual environment can optionally correspond to a 3D map. The virtual environment may include multiple points or objects that can be manipulated by the user. The user can manipulate points or objects through a variety of different actions within the virtual environment. Examples of such actions include selection of one or more points or objects, drag and drop, translation, rotation, spin, push, pull, zoom in, zoom out, and the like. Any type of movement of a point or object in three-dimensional virtual space can be intended.

第1のユーザインタフェースは、グラフィカルユーザインタフェース(GUI)を含み得る。GUIは、可動物体の動作をユーザが制御できるようにし得る画像を示し得る。GUIは、自律的に動作するか、又は所与のタスクを達成するように可動物体にユーザが命令できるようにする画像を示し得る。例えば、ユーザは、追跡するターゲットを選択し、ナビゲートする行先であるエリア(例えば、所定のエリア又は対象ポイント)を選択し、可動物体をナビゲートする途中の1つ又は複数のウェイポイントを選択し、可動物体をユーザ(例えば、ユーザ端末)に戻す等することが可能であり得る。幾つかの場合、ユーザは、単に第1のユーザインタフェース上でポイント(例えば、一部)に触れるか、又はタップすることにより、タスクを達成するように可動物体に命令可能であり得る。幾つかの場合、第1のユーザインタフェースは、容量性タッチスクリーンを含み得る。第1のユーザインタフェースは、可動物体のタップアンドゴー(tap and go)機能を可能にし得る。単に第1のユーザインタフェースをタップする(例えば、第1のユーザインタフェースに表示されるマップ上の所望の位置)ことにより、可動物体に、タップされた物体及び/又はエリアに向かって自律的に動作するように命令し得る。例えば、可動物体の搭載物を用いて収集されたビューを示すディスプレイ上の画像の場合、ユーザは興味がある物体をタップすることで、自律的に物体を追尾又は追跡するように可動物体に命令し得る。例えば、マップ(例えば、2Dマップ又は3Dマップ)を示すディスプレイ上の画像の場合、ユーザはマップ上の位置をタップすることで、タップされた位置に向かって自律的にナビゲートするように可動物体に命令し得る。 The first user interface may include a graphical user interface (GUI). The GUI may represent an image that may allow the user to control the movement of the moving object. The GUI may show an image that allows the user to command a moving object to operate autonomously or to accomplish a given task. For example, the user selects a target to track, selects an area to navigate to (eg, a predetermined area or target point), and selects one or more waypoints in the process of navigating a moving object. However, it may be possible to return the movable object to the user (for example, the user terminal). In some cases, the user may be able to instruct a moving object to accomplish a task by simply touching or tapping a point (eg, a portion) on the first user interface. In some cases, the first user interface may include a capacitive touch screen. A first user interface may enable tap and go functionality for moving objects. By simply tapping the first user interface (eg, the desired position on the map displayed in the first user interface), the movable object will move autonomously towards the tapped object and / or area. Can be ordered to do. For example, in the case of an image on a display showing a view collected using a moving object payload, the user can tap the object of interest to instruct the moving object to autonomously track or track the object. Can be done. For example, in the case of an image on a display showing a map (eg, a 2D map or a 3D map), the user can tap a position on the map to autonomously navigate towards the tapped position. Can be ordered to.

幾つかの場合、ターゲットは、第1のユーザインタフェースにおいてユーザにより選択し得る。ターゲットは、画像(例えば、ディスプレイの)内で選択し得る。ユーザは、画像の一部(例えば、ポイント、地域、及び/又は物体)を選択して、ターゲット及び/又は方向を定義することもできる。ユーザは、画面(例えば、タッチスクリーン)に直接触れることにより、ターゲットを選択し得る。ユーザは、画面の一部に触れ得る。ユーザは、画面上のポイントに触れることにより、画面の一部に触れ得る。ユーザは、ユーザ対話デバイス(例えば、マウス、ジョイスティック、キーボード、トラックボール、タッチパッド、ボタン、口頭でのコマンド、ジェスチャ認識、姿勢センサ、熱センサ、タッチ容量性センサ、又は任意の他のデバイス)を用いて、画像の一部を選択することにより、ターゲットを選択し得る。タッチスクリーンは、ユーザのタッチの位置、タッチの長さ、タッチの圧力、及び/又はタッチの動きを検出するように構成し得、それにより、タッチの上述した各様式は、ユーザからの特定の入力コマンドを示し得る。 In some cases, the target may be selected by the user in the first user interface. The target can be selected within the image (eg, on the display). The user can also select parts of the image (eg, points, areas, and / or objects) to define targets and / or orientations. The user may select a target by directly touching the screen (eg, touch screen). The user can touch a part of the screen. The user can touch a part of the screen by touching a point on the screen. The user can use a user interaction device (eg, mouse, joystick, keyboard, trackball, touchpad, button, verbal command, gesture recognition, posture sensor, thermal sensor, touch capacitive sensor, or any other device). Can be used to select a target by selecting a portion of the image. The touch screen may be configured to detect the position of the user's touch, the length of the touch, the pressure of the touch, and / or the movement of the touch, whereby each mode of touch described above is specific to the user. Can indicate an input command.

可動物体は、ターゲットに向かって移行し、ターゲットの周囲をナビゲートし、及び/又はターゲットを視覚的に追跡するように構成し得る。ターゲットはターゲット行先であり得る。幾つかの場合、ターゲット行先は、可動物体に搭載される撮像デバイスにより捕捉された画像(例えば、FPV画像)上で選択される位置であり得る。例えば、1つ又は複数の位置は、例えば、画像上のポイントに触れることにより、撮像デバイスにより捕捉される画像(例えば、FPV画像)上でユーザにより選択し得る。画像の一部のそのようなタップは、飛経路を用いてその位置に飛行するように可動物体に命令し得る。幾つかの場合、ターゲット行先は、マップ上で選択される位置であり得る。例えば、位置206、208、及び210は、マップ上でユーザにより選択されたターゲットを含み得る。ターゲットは、例えば、実質的に上述したように、マップ上のポイントに触れることにより選択し得る。マップの一部のそのようなタップは、飛経路を用いてターゲットに飛行する(例えば、自律的に)ように可動物体に命令し得る。ターゲット(例えば、位置又は物体)に向かって自律的に飛行するように可動物体に命令するユーザインタフェースの一部でのそのようなタップは、本明細書では、タップツーゴー(tap to go)機能と呼び得る。幾つかの場合、ターゲット行先は、画像又はマップを用いずに、例えば、所定のリストから、スタンドアロン特徴等として選択される、予め決定されるか、又は予め構成される行先であり得る。例えば、ターゲット行先は、ユーザ端末の位置、ユーザの位置、指定されるウェイポイント、又は対象ポイント(例えば、ユーザにより指定されたホーム)であり得る。 Movable objects can be configured to migrate towards the target, navigate around the target, and / or visually track the target. The target can be the target destination. In some cases, the target destination can be a position selected on an image (eg, an FPV image) captured by an imaging device mounted on a moving object. For example, one or more positions may be selected by the user on an image captured by the imaging device (eg, an FPV image), for example by touching a point on the image. Such taps on some of the images may command the moving object to fly to that position using a flight path. In some cases, the target destination can be the location selected on the map. For example, positions 206, 208, and 210 may include targets selected by the user on the map. Targets can be selected, for example, by touching points on the map, substantially as described above. Some such taps on the map may instruct a moving object to fly (eg, autonomously) to a target using a flight path. Such a tap as part of a user interface that commands a moving object to fly autonomously towards a target (eg, a position or object) is referred to herein as a tap to go function. obtain. In some cases, the target destination can be a pre-determined or pre-configured destination that is selected, for example, from a predetermined list as a stand-alone feature, etc., without the use of images or maps. For example, the target destination can be the location of the user terminal, the location of the user, a designated waypoint, or a target point (eg, a home designated by the user).

幾つかの場合、ターゲットはターゲット物体であり得る。ターゲット物体は、静止ターゲット又は移動ターゲットであり得る。幾つかの場合、ユーザは、ターゲットが静止ターゲットであるか、それとも移動ターゲットであるかを指定し得る。代替的には、ユーザは、ターゲットが静止ターゲットであるか、それとも移動ターゲットであるかの任意の他のタイプのインジケータを提供し得る。代替的には、指示は提供されず、任意選択的にターゲットが静止ターゲットであるか、それとも移動ターゲットであるかのユーザ入力を必要とせずに、1つ又は複数のプロセッサを用いて自動的に判断し得る。ターゲット物体は、移動の状態に応じて、静止ターゲット又は移動ターゲットとして分類し得る。幾つかの場合、ターゲット物体は、任意の所与の時点で移動中又は静止中であり得る。ターゲット物体が移動中である場合、ターゲット物体は移動物体として分類し得る。逆に、同じターゲット物体が静止している場合、ターゲット物体は静止ターゲットとして分類し得る。 In some cases, the target can be the target object. The target object can be a stationary target or a moving target. In some cases, the user may specify whether the target is a stationary target or a moving target. Alternatively, the user may provide any other type of indicator of whether the target is a stationary target or a moving target. Alternatively, no instructions are provided and, optionally, automatically using one or more processors without requiring user input as to whether the target is a static target or a mobile target. I can judge. The target object can be classified as a stationary target or a moving target, depending on the state of movement. In some cases, the target object can be moving or stationary at any given time point. If the target object is in motion, the target object can be classified as a moving object. Conversely, if the same target object is stationary, the target object can be classified as a stationary target.

静止ターゲットは、環境内で略静止したままであり得る。静止ターゲットの例としては、自然風景特徴(例えば、木々、植物、山、丘、川、水路、小川、谷、巨岩、岩等)又は人造特徴(例えば、構造物、建物、道路、橋、柱、フェンス、動かない車両、サイン、照明等)を挙げることができるが、これらに限定されない。静止ターゲットは、大きなターゲット又は小さなターゲットを含み得る。ユーザは静止ターゲットを選択し得る。静止ターゲットは認識され得る。任意選択的に、静止ターゲットはマップ上に示され得る。可動物体は、静止ターゲットに移行し、及び/又は静止ターゲットの周囲をナビゲートし、及び/又は静止物体を追跡し得る。幾つかの場合、静止ターゲットは、構造又は物体の選択された部分に対応し得る。例えば、静止ターゲットは、高層ビルの特定の部分(例えば、最上階)に対応し得る。 The stationary target can remain substantially stationary in the environment. Examples of stationary targets are natural landscape features (eg trees, plants, mountains, hills, rivers, waterways, streams, valleys, rocks, rocks, etc.) or man-made features (eg structures, buildings, roads, bridges, pillars, etc.) , Fences, non-moving vehicles, signs, lights, etc.), but are not limited to these. Static targets can include large or small targets. The user can select a static target. Static targets can be recognized. Optionally, the stationary target can be shown on the map. The moving object can move to and / or navigate around the stationary target and / or track the stationary object. In some cases, the stationary target may correspond to a selected part of the structure or object. For example, a stationary target may correspond to a particular part of a skyscraper (eg, the top floor).

移動ターゲットは、環境内で移動可能であり得る。移動ターゲットは、常に移動していてもよく、又はある時間に移動中であってもよい。移動ターゲットは、かなり一定した方向で移動してもよく、又は方向を変更してもよい。移動ターゲットは、空中、地上、地下、水上又は水中、及び/又は宇宙空間を移動し得る。移動ターゲットは、生体移動ターゲット(例えば、人間、動物)又は非生体移動ターゲット(例えば、移動する車両、移動する機械、風に飛ばされているか、又は水で運ばれている物体、生体ターゲットにより運ばれている物体)であり得る。移動ターゲットは、1つの移動物体又は移動物体群を含み得る。例えば、移動ターゲットは、1人の人間又は移動中の人間群を含み得る。移動ターゲットは、大きなターゲット又は小さなターゲットであり得る。ユーザは移動ターゲットを選択し得る。移動ターゲットは認識し得る。任意選択的に、移動ターゲットはマップ上に示され得る。可動物体は、移動ターゲットに移行し、移動ターゲットの周囲をナビゲートし、及び/又は移動物体を追跡し得る。飛経路は、移動物体の周囲をナビゲートするための飛経路を計画し得る。経路は、移動物体が経路に沿って移動するにつれて変更又は更新し得る。代替的には、可動物体は、計画された経路を必要とせずに、静止物体に移行し、及び/又は静止物体の周囲をナビゲートし、及び/又は移動物体を視覚的に追跡し得る。 The moving target can be mobile within the environment. The moving target may be constantly moving or may be moving at a certain time. The moving target may move in a fairly constant direction or may change direction. Moving targets can move in the air, above ground, underground, above or underwater, and / or in outer space. The moving target is carried by a biological moving target (eg, human, animal) or a non-living moving target (eg, moving vehicle, moving machine, wind-blown or water-carried object, biological target It can be an exposed object). The moving target may include one moving object or a group of moving objects. For example, a moving target may include a single person or a group of moving people. The moving target can be a large target or a small target. The user can select a move target. The moving target can be recognized. Optionally, the moving target can be shown on the map. The moving object can move to the moving target, navigate around the moving target, and / or track the moving object. The flight path can be planned as a flight path for navigating around a moving object. The path can be changed or updated as the moving object moves along the path. Alternatively, the moving object can migrate to and / or navigate around the stationary object and / or visually track the moving object without the need for a planned path.

移動ターゲットは、空中(例えば、固定翼機、回転翼航空機、若しくは固定翼も回転翼も有さない航空機)、水中(例えば、船若しくは潜水艦)、地上(例えば、車、トラック、バス、バン、オートバイ等の動力車;スティック、釣り竿等の可動構造若しくはフレーム;若しくは列車)、地下(例えば、地下鉄)、宇宙空間中(例えば、宇宙船、衛星、若しくは宇宙探査機)、又はこれらの環境の任意の組合せ等の任意の適する環境内を移動するように構成される任意の物体であり得る。 Moving targets are air (eg, fixed-wing aircraft, rotorcraft, or aircraft without fixed-wing or rotorcraft), underwater (eg, ships or submarines), ground (eg, cars, trucks, buses, vans, etc.) Motor vehicles such as motorcycles; movable structures or frames such as sticks and fishing rods; or trains), underground (eg, subway), in outer space (eg, spacecraft, satellites, or spacecraft), or any of these environments. It can be any object configured to move within any suitable environment, such as a combination of.

移動ターゲットは、自由度6(例えば、並進で自由度3及び回転で自由度3)に関して環境内を自在に移動可能であり得る。代替的には、移動ターゲットの移動は、所定の経路、トラック、又は向き等により1つ又は複数の自由度に関して制約することができる。移動は、エンジン又はモータ等の任意の適する作動機構により作動させることができる。移動ターゲットの作動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風力エネルギー、重力エネルギー、化学エネルギー、核エネルギー、又はそれらの任意の適する組合せ等の任意の適するエネルギー源により動力提供することができる。移動ターゲットは、更に後述する等の推進システムを介する自己推進型であり得る。推進システムは任意選択的に、電気エネルギー、磁気エネルギー、太陽エネルギー、風力エネルギー、重力エネルギー、化学エネルギー、核エネルギー、又はそれらの任意の適する組合せ等のエネルギー源で動き得る。 The moving target may be freely movable in the environment with respect to 6 degrees of freedom (eg, 3 degrees of freedom for translation and 3 degrees of freedom for rotation). Alternatively, the movement of the movement target can be constrained with respect to one or more degrees of freedom, such as by a predetermined route, track, or orientation. The movement can be actuated by any suitable actuating mechanism such as an engine or motor. The operating mechanism of the mobile target can be powered by any suitable energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof. The moving target can be self-propelled via a propulsion system such as described below. The propulsion system can optionally operate on energy sources such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof.

幾つかの場合、移動ターゲットは、遠隔制御される車両等の車両であることができる。適する車両は、水上機、航空機、宇宙船、又は地上機を含み得る。例えば、航空機は、固定翼機(例えば、航空機、グライダー)、回転翼航空機(例えば、ヘリコプター、回転翼機)、固定翼及び回転翼の両方を有する航空機、又はいずれも有さない航空機(例えば、小型飛行船、熱気球)であり得る。車両は、空中、水上若しくは水中、宇宙空間中、又は地上若しくは地下での自己推進型等の自己推進型であることができる。自己推進車両は、推進システム、例えば1つ又は複数のエンジン、モータ、車輪、車軸、磁石、回転翼、プロペラ、ブレード、ノズル、又はそれらの任意の適する組合せ等を含む推進システムを利用することができる。幾つかの場合、推進システムを使用して、可動物体の表面からの離陸、表面への着陸、現在位置及び/又は向きの維持(例えば、ホバリング)、向きの変更、及び/又は位置の変更を行えるようにし得る。 In some cases, the moving target can be a vehicle, such as a remotely controlled vehicle. Suitable vehicles may include seaplanes, aircraft, spacecraft, or ground planes. For example, an aircraft may be a fixed-wing aircraft (eg, aircraft, glider), a rotorcraft (eg, helicopter, rotorcraft), an aircraft with both fixed-wing and rotorcraft, or an aircraft without none (eg,). It can be a small aircraft, a hot air balloon). The vehicle can be self-propelled, such as self-propelled in the air, on the water or underwater, in outer space, or above or below ground. Self-propelled vehicles may utilize propulsion systems, such as one or more engines, motors, wheels, axles, magnets, rotors, propellers, blades, nozzles, or any suitable combination thereof. it can. In some cases, propulsion systems are used to take off from the surface of moving objects, land on the surface, maintain current position and / or orientation (eg, hovering), reorient, and / or reposition. Can be done.

上述したようなターゲットを選択することにより、可動物体の自律飛行を行い得る。例えば、ターゲットを選択することは、例えば、通信システムを介して可動物体の飛行コントローラに送信される命令を生成し得る。飛行コントローラは、命令を受信し、可動物体の自律飛行を行う信号を更に生成し得る。自律飛行は、ターゲットに向かう自律飛行であり得る。本明細書に記載されるように、ターゲットは、ターゲット行先(例えば、位置)及び/又はターゲット物体であり得る。幾つかの場合、複数のターゲットを選択し得、可動物体は複数のターゲットに沿って飛行し得る。自律動作下(例えば、第1のユーザインタフェースで受信される入力を介して)の可動物体は、可動物体が移動する所定の飛行速度を含み得る。所定の飛行速度はデフォルト速度であり得る。幾つかの場合、所定の飛行速度はユーザ構成可能であり得る。幾つかの場合、所定の飛行速度は、約2m/s以下、約4m/s以下、約6m/s以下、約8m/s以下、約10m/s以下、約12m/s以下、約15m/s以下、約20m/s以下、又は約50m/s以下であり得る。 By selecting a target as described above, autonomous flight of a movable object can be performed. For example, selecting a target can generate, for example, an instruction to be sent to the flight controller of a moving object via a communication system. The flight controller may receive commands and further generate signals for autonomous flight of the moving object. Autonomous flight can be autonomous flight towards a target. As described herein, the target can be a target destination (eg, location) and / or a target object. In some cases, multiple targets may be selected and the moving object may fly along multiple targets. A movable object under autonomous operation (eg, via an input received in a first user interface) may include a predetermined flight speed at which the movable object moves. The given flight speed can be the default speed. In some cases, the given flight speed may be user configurable. In some cases, the predetermined flight speeds are about 2 m / s or less, about 4 m / s or less, about 6 m / s or less, about 8 m / s or less, about 10 m / s or less, about 12 m / s or less, about 15 m / s. It can be s or less, about 20 m / s or less, or about 50 m / s or less.

自律動作下(例えば、第1のユーザインタフェースで受信される入力を介して)の物体は、軌道又は飛経路を含み得る。自律飛行は、可動物体の自律飛経路を含み得る。幾つかの場合、自律飛行の飛経路205は、GUIに表示し得る。代替又は追加として、可動物体が自律的に飛行中の行先のターゲットを示す複数のポイント206、208、210をGUIに表示し得る。ターゲットは、可動物体が自律的に飛行中である行先であるターゲット物体及び/又はターゲットエリアを示し得る。幾つかの場合、飛経路は、予め設定される方向、予め設定される軌道、自律的に計画される軌道、及び/又はユーザ構成の軌道を含み得る。幾つかの場合、飛経路は予め設定し得る(例えば、特定の高度での最短ルートをとる)。幾つかの場合、飛経路は、ユーザにより選択し得る(例えば、幾つかの異なる予め構成される飛経路から)。幾つかの場合、ユーザは、実質的に上述したように、例えば、ユーザ対話デバイス又はユーザの附属器官を用いて画面上に輪郭を描くことにより、可動物体の飛経路を生成し得る。幾つかの場合、飛経路は、自律的又は半自律的に生成し得る。幾つかの場合、飛経路は、ターゲットの位置、向き、姿勢、サイズ、形状、及び/又はジオメトリを考慮することにより、ターゲットに対して生成し得る。幾つかの場合、飛経路は、可動物体のパラメータ(例えば、サイズ、重量、速度等)、法的パラメータ(例えば、法律及び規制)、又は環境パラメータ(例えば、風況、視界、障害物等)等の他のパラメータを考慮して、自律的又は半自律的に生成し得る。幾つかの場合、ユーザは、画面上(例えば、第1のユーザインタフェース上)の移動路の異なる空間ポイントを調整する(例えば、移動する)ことにより、飛経路の任意の部分を変更し得る。代替的には、ユーザは、予め存在する1組の地域から画面上で地域を選択してもよく、又は地域の境界、地域の直径を描画するか、若しくは画面の一部を任意の他の方法で指定してもよい。 Objects under autonomous operation (eg, via inputs received at the first user interface) may include orbits or flight paths. Autonomous flight may include an autonomous flight path of a moving object. In some cases, the flight path 205 for autonomous flight may be displayed on the GUI. Alternatively or additionally, the GUI may display multiple points 206, 208, 210 indicating the target of the destination in which the moving object is autonomously flying. The target may indicate a target object and / or a target area to which the movable object is autonomously flying. In some cases, the flight path may include a preset direction, a preset trajectory, an autonomously planned trajectory, and / or a user-configured trajectory. In some cases, the flight path can be preset (eg, take the shortest route at a particular altitude). In some cases, the flight path may be user-selectable (eg, from several different preconfigured flight paths). In some cases, the user may generate a flight path for a moving object, for example, by delineating on the screen using a user interaction device or a user's accessory organs, as substantially described above. In some cases, flight paths can be generated autonomously or semi-autonomously. In some cases, flight paths can be generated for the target by considering the position, orientation, attitude, size, shape, and / or geometry of the target. In some cases, the flight path is a moving object parameter (eg, size, weight, speed, etc.), legal parameters (eg, laws and regulations), or environmental parameters (eg, wind conditions, visibility, obstacles, etc.). It can be generated autonomously or semi-autonomously in consideration of other parameters such as. In some cases, the user may change any part of the flight path by adjusting (eg, moving) different spatial points of the path on the screen (eg, on the first user interface). Alternatively, the user may select a region on the screen from a pre-existing set of regions, or draw the boundaries of the region, the diameter of the region, or any other part of the screen. It may be specified by a method.

可動物体は、撤回命令が受信されるまで又は撤回状況が実現される場合、飛経路に沿って移動し得る。例えば、可動物体は、新しい経路が入力されるまで、移動路の部分が変更される場合、又は新しいターゲットが入力される場合、移動経路に沿って自律的に移行し得る。可動物体は、異なる飛経路が選択されるまで、飛経路に沿って移行し得る。幾つかの場合、ユーザは、可動物体が移動中である間、随時、可動物体の移動にわたり手動制御を行い得る。 The movable object may move along the flight path until the withdrawal command is received or if the withdrawal situation is realized. For example, a movable object may autonomously move along a travel path if a portion of the path is changed or a new target is entered until a new path is entered. The movable object can move along the flight path until a different flight path is selected. In some cases, the user may perform manual control over the movement of the moving object at any time while the moving object is in motion.

ユーザ端末は任意選択的に、第2のユーザインタフェース204を含み得る。幾つかの場合、第2のユーザインタフェースは、第1のユーザインタフェースと異なり得る。幾つかの場合、第2のユーザインタフェースは、第1のユーザインタフェースと異なるタイプのものであり得、及び/又は異なるモードのユーザ入力を受信するように構成し得る。幾つかの場合、第2のユーザインタフェースは、ユーザ入力が受信される1つ又は複数の機構212、214を含み得る。1つ又は複数の機構は、作動可能であり得る。1つ又は複数の機構は、制御スティック、物理的ボタン、又はスクロールウィール等の任意のタイプのハードウェア機構を含み得る。幾つかの場合、1つ又は複数の機構は、ソフトウェア機構、例えば、タッチスクリーン上の対話ボタンを含み得る。制御スティックが本明細書において主に記載されるが、他の機構(例えば、ボタン等)の使用も等しく適用可能であり得ることを理解されたい。 The user terminal may optionally include a second user interface 204. In some cases, the second user interface may differ from the first user interface. In some cases, the second user interface may be of a different type than the first user interface and / or may be configured to receive user input in different modes. In some cases, the second user interface may include one or more mechanisms 212, 214 for which user input is received. One or more mechanisms may be operable. One or more mechanisms may include any type of hardware mechanism such as control sticks, physical buttons, or scroll wheels. In some cases, one or more mechanisms may include a software mechanism, eg, an interactive button on a touch screen. Although control sticks are primarily described herein, it should be understood that the use of other mechanisms (eg, buttons, etc.) may be equally applicable.

制御スティックはジョイスティック(joy stick)(又はジョイスティック(joystick)と呼ばれることもある。幾つかの場合、1つ又は複数の制御スティックは、ロール軸の回りのUAVの回転に作用するように構成されるロールスティック及び/又はヨー軸の回りのUAVの回転に作用するように構成されるヨースティックを含み得る。幾つかの場合、1つ又は複数の制御スティックはピッチスティックを含み得る。ピッチスティックは、UAVの速度変更に作用するように構成し得る。幾つかの場合、1つ又は複数の制御スティックは、スロットルスティックを含み得る。スロットルスティックは、UAVの高さ(例えば、高度)変更に作用するように構成し得る。幾つかの場合、第2のユーザインタフェースは、可動物体の移動を制御するのに使用し得る。第2のユーザインタフェースを使用して、可動物体の移動を直接制御し得る。代替又は追加として、第2のユーザインタフェースを使用して、自律制御下にある可動物体の移動(例えば、飛行)を変更し得る。幾つかの場合、第2のユーザインタフェースを使用して、UAVの自律飛行を行い得る。 The control sticks are also called joysticks (or joysticks). In some cases, one or more control sticks are configured to act on the rotation of the UAV around the roll axis. A roll stick and / or a joystick configured to act on the rotation of the UAV around the yaw axis may be included. In some cases, one or more control sticks may include a pitch stick. It may be configured to act on the speed change of the UAV. In some cases, one or more control sticks may include a throttle stick. The throttle stick acts on the height (eg, altitude) change of the UAV. In some cases, the second user interface can be used to control the movement of the moving object. The second user interface can be used to directly control the movement of the moving object. Alternatively or additionally, a second user interface may be used to modify the movement (eg, flight) of a moving object under autonomous control. In some cases, a second user interface may be used. UAV autonomous flight is possible.

制御スティックは特定の名称(例えば、ピッチスティック、ヨースティック等)を用いて示し得るが、制御スティックの名称が任意であることを理解されたい。例えば、ユーザ端末(例えば、第2のユーザインタフェース)は、異なるモード下で動作することもできる。例えば、ユーザ端末は、ユーザからの所与のコマンド例えば、スイッチの作動)を用いて異なるモード下で動作し得る。異なるモード下では、制御スティック(例えば、制御スティック212又は214)は、異なるようにUAVの動作に作用するように構成し得る。幾つかの場合、一動作モードでは、作動機構は、自律飛行(例えば、所定の方向に沿った飛行又は前の進行方向に沿った飛行)を行うように構成し得、一方、別の動作モードでは、作動機構は、自律飛行下でUAVの飛行に作用するように構成し得る。 The control stick may be indicated by a specific name (eg, pitch stick, yaw stick, etc.), but it should be understood that the name of the control stick is arbitrary. For example, a user terminal (eg, a second user interface) can also operate under different modes. For example, a user terminal may operate under different modes with a given command from the user, eg, the activation of a switch. Under different modes, the control stick (eg, control stick 212 or 214) may be configured to act differently on the operation of the UAV. In some cases, in one mode of operation, the actuating mechanism may be configured to perform autonomous flight (eg, flight along a predetermined direction or flight along a previous direction of travel), while another mode of operation. Then, the actuating mechanism may be configured to act on the flight of the UAV under autonomous flight.

幾つかの場合、第1のモードでは、制御スティック212は、UAVの前方移動及び後方移動に作用するように構成し得、一方、第2のモードでは、制御スティック212は、前方に移動中のUAVの速度に作用するように構成し得る。第3の動作モードでは、制御スティック212は、UAVの高さ及び/又は1つ又は複数の軸の回りのUAVの回転に作用するように構成し得る。ユーザ端末は、1つ、2つ、3つ、4つ、5つ、又は6つ以上の動作モードを含み得る。加えて、所与の制御スティック(例えば、制御スティック212又は214)は、2つ以上の機能を含んでもよく、又は2つ以上のパラメータでUAVの飛行(例えば、自律飛行)に作用してもよい。例えば、前後に動く制御スティック212は、UAVの高さ変更に作用し得、一方、左右に動く制御スティック212は、ロール軸の回りのUAVの回転に作用し得る。 In some cases, in the first mode, the control stick 212 may be configured to act on the forward and backward movement of the UAV, while in the second mode, the control stick 212 is moving forward. It can be configured to affect the speed of the UAV. In a third mode of operation, the control stick 212 may be configured to act on the height of the UAV and / or the rotation of the UAV around one or more axes. The user terminal may include one, two, three, four, five, or six or more modes of operation. In addition, a given control stick (eg, control stick 212 or 214) may include more than one function, or may act on a UAV flight (eg, autonomous flight) with more than one parameter. Good. For example, the control stick 212 that moves back and forth can act on changing the height of the UAV, while the control stick 212 that moves left and right can act on the rotation of the UAV around the roll axis.

幾つかの場合、第2のユーザインタフェースを利用して、可動物体のリアルタイム制御を行い得る。幾つかの場合、第1のユーザインタフェース及び第2のユーザインタフェースは、一緒に協働し得る。図3は、実施形態による、協働する第1のユーザインタフェース302及び第2のユーザインタフェース304を示す。第1のユーザインタフェースは、上述したようなものであり得る。例えば、第1のユーザインタフェースは、1つ又は複数の画像を表示するように構成されたディスプレイを含み得る。例えば、ディスプレイは、マップ306の画像を表示するように構成し得る。マップは、可動物体の周囲の環境の二次元又は三次元物体であり得る。代替又は追加として、ディスプレイは、可動物体に接続された搭載物により取得される一人称視点画像308を表示するように構成し得る。例えば、図3の一人称視点画像は、可動物体が向かっている障害物310を示す。 In some cases, a second user interface may be utilized to provide real-time control of the moving object. In some cases, the first user interface and the second user interface can work together. FIG. 3 shows a first user interface 302 and a second user interface 304 that cooperate with each other according to the embodiment. The first user interface can be as described above. For example, the first user interface may include a display configured to display one or more images. For example, the display may be configured to display an image of map 306. The map can be a two-dimensional or three-dimensional object of the environment surrounding the moving object. Alternatively or additionally, the display may be configured to display a first-person view image 308 acquired by an onset connected to a movable object. For example, the first-person view image of FIG. 3 shows an obstacle 310 to which a moving object is heading.

第2のユーザインタフェースは、1つ又は複数の制御スティック314、316を含み得る。制御スティックを利用して、例えば、リアルタイムで可動物体のパラメータに作用し得る。幾つかの場合、制御スティックは、可動物体の自律動作(例えば、自律飛行)に作用及び/又は変更し得る。例えば、第1のユーザ入力は第1のユーザインタフェースにおいて受信し得る。第1のユーザ入力は、可動物体の自律飛行を行い得る。例えば、ユーザがマップ306上のターゲットをタップすることで、ターゲットに向かう自律飛行を行う可動物体の飛行コントローラに送信される命令を生成し得る。自律的に動作中の可動物体は、飛経路312を含み得る。ターゲットに向かって自律的にナビゲートされている間、第1のユーザインタフェースは、可動物体に接続される搭載物により捕捉される画像の一人称視点画像308を表示し得る。第2のユーザインタフェースにおいて受信される入力は続けて、可動物体の自律動作に作用又は変更し得る。幾つかの場合、第2のユーザインタフェースにおいて受信される入力は、可動物体の自律飛行を中断し得る。第2のユーザインタフェースを介した自律飛行の中断は、例えば、第1のユーザインタフェース(例えば、GUI)との対話が望ましくない緊急時又は予期されない状況時、自律飛行を素早く中断する効率的で容易な方法を提供し得る。幾つかの場合、第2のユーザインタフェースにおいて受信される入力は、自律動作を中断せずに、可動物体の自律飛行を変更し得る。例えば、可動物体の飛経路は、第2のユーザ入力において受信される入力に起因して変更し得るが、可動物体は、例えば、第2のユーザ入力が受信されている間及び/又は第2のユーザ入力が受信された後、指定されたターゲットに向かって引き続きナビゲートし得る。例えば、第2のユーザインタフェースへのユーザ入力にも拘わらず、可動物体がタスク(例えば、ターゲットの追跡、所望の位置に向かってのナビゲート等)達成に向けて継続するように、可動物体の自律動作又は飛行を維持し得る。例示的な実施形態では、第2のユーザ入力は、可動物体の飛経路又は軌道を変更し得る。例えば、第2のユーザインタフェースへの入力は、方向成分を可動物体の自律飛経路に追加するか、又は速度若しくは加速度成分を可動物体に追加することにより自律飛経路を変更し得る。 The second user interface may include one or more control sticks 314, 316. The control stick can be used, for example, to act on the parameters of a moving object in real time. In some cases, the control stick may act and / or alter the autonomous movement of the moving object (eg, autonomous flight). For example, the first user input may be received at the first user interface. The first user input may perform autonomous flight of a moving object. For example, a user can tap a target on map 306 to generate an instruction to be sent to the flight controller of a moving object that makes an autonomous flight towards the target. A movable object that is operating autonomously may include a flight path 312. While autonomously navigating towards the target, the first user interface may display a first-person view image 308 of the image captured by the payload connected to the moving object. The input received in the second user interface may subsequently act on or alter the autonomous movement of the moving object. In some cases, the input received at the second user interface may interrupt the autonomous flight of the moving object. Interruption of autonomous flight through the second user interface is efficient and easy, for example, in an emergency or unexpected situation where interaction with the first user interface (eg GUI) is not desirable. Method can be provided. In some cases, the input received in the second user interface may alter the autonomous flight of the moving object without interrupting the autonomous operation. For example, the flight path of a movable object may change due to the input received at the second user input, while the movable object may change, for example, while the second user input is being received and / or the second. After receiving the user input of, it may continue to navigate towards the specified target. For example, a movable object so that it continues to accomplish a task (eg, tracking a target, navigating to a desired position, etc.) despite user input to a second user interface. Can maintain autonomous movement or flight. In an exemplary embodiment, the second user input may change the flight path or trajectory of the moving object. For example, the input to the second user interface may change the autonomous flight path by adding a directional component to the autonomous flight path of the movable object, or by adding a velocity or acceleration component to the movable object.

この特徴は、可動物体の自律飛行を妨げずに、予期しない状況でユーザ入力を提供するために有利であり得る。幾つかの場合、第2のユーザインタフェースは、可動物体の全体的な自律飛行を妨げずに、自律飛行を変更する直観的で使用しやすい制御方式を提供し得るため、ユーザインタフェース(例えば、第1及び第2のユーザインタフェース)の区別が有利性を証明し得る。例えば、これは、素早いユーザ入力が必要であるが、その後の自律飛行の継続が望ましい、可動物体により説明されないか、又は検出されない緊急状況又は状態で望ましいことがある。可動物体の自律飛行と第2のユーザ入力による自律飛行の変更(例えば、リアルタイムでの)との間には、シームレスな遷移があり得る。加えて、可動物体が第2のユーザ入力を考慮するときと、可動物体が自律飛行に戻るとき(例えば、第2のユーザ入力後)との間には、シームレスな遷移があり得る。 This feature can be advantageous for providing user input in unforeseen circumstances without interfering with the autonomous flight of moving objects. In some cases, the second user interface can provide an intuitive and easy-to-use control scheme that modifies the autonomous flight without interfering with the overall autonomous flight of the moving object, thus providing a user interface (eg, a second user interface). The distinction between the first and second user interfaces) can prove an advantage. For example, this may be desirable in emergencies or conditions where quick user input is required, but subsequent autonomous flight continuation is desirable, unexplained or undetected by moving objects. There can be a seamless transition between the autonomous flight of a moving object and a change in autonomous flight by a second user input (eg, in real time). In addition, there can be a seamless transition between when the moving object considers the second user input and when the moving object returns to autonomous flight (eg, after the second user input).

例えば、自律制御下で動作中の可動物体は、障害物310に遭遇し得る。可動物体は、障害物の検出に失敗し(例えば、エラーを通して、障害物センサがないことに起因して等)、及び/又は自律的障害物回避手段を実装することに失敗し得る。そのような場合、ユーザは、自律動作中の可動物体の飛経路に障害物があることを観測し得る。第2のユーザインタフェース上の制御スティックを操作することにより、ユーザは障害物を容易に回避することが可能であり得る。障害物を回避した後、ユーザは制御スティックをリリースし得、可動物体は自律動作を継続するか、又はタスクを完了し得る。例えば、入力を第1のユーザインタフェースに提供しようとすることにより、可動物体は、障害物を素早く回避することができないことがある。第2のユーザインタフェースは、素早く直観的な制御をユーザにより作用し得る好都合なインタフェースを提供し得る。障害物を回避した後、可動物体は、自律動作を継続するか、又はタスク(例えば、ターゲットの追跡、行先に向かってのナビゲーション)を完了し得る。例示的な実施形態では、第2のユーザ入力は、可動物体の飛経路又は軌道を変更し得る。例えば、第2のユーザインタフェースでの入力は、可動物体の自律飛経路に方向成分を追加し得るか、又は速度若しくは加速度成分を可動物体に追加することにより自律飛経路を変更し得る。 For example, a moving object operating under autonomous control may encounter an obstacle 310. Movable objects may fail to detect obstacles (eg, through an error, due to the absence of obstacle sensors, etc.) and / or implement autonomous obstacle avoidance measures. In such a case, the user can observe that there is an obstacle in the flight path of the moving object during autonomous operation. By manipulating the control sticks on the second user interface, the user may be able to easily avoid obstacles. After avoiding the obstacle, the user can release the control stick and the moving object can continue autonomous movement or complete the task. For example, a moving object may not be able to quickly avoid obstacles by attempting to provide input to a first user interface. A second user interface may provide a convenient interface that allows the user to exert quick and intuitive control. After avoiding obstacles, the moving object may continue to move autonomously or complete tasks (eg, tracking the target, navigating towards the destination). In an exemplary embodiment, the second user input may change the flight path or trajectory of the moving object. For example, the input in the second user interface may add a directional component to the autonomous flight path of the movable object, or may change the autonomous flight path by adding a velocity or acceleration component to the movable object.

例えば、自律制御下で動作中の可動物体は、一人称視点画像を第1のユーザインタフェースに送信する。幾つかの場合、ユーザは、一人称視点画像において興味がある物体318に気付き得る。第2のユーザインタフェース上の制御スティックを操作することにより、ユーザは、自律動作を妨げずに、興味がある物体に向けて進行する(例えば、可動物体の軌道をわずかに変更する)ことが可能であり得る。ユーザは、満足した後、制御スティックをリリースし得、可動物体は自律動作を継続するか、又はタスクを完了し得る。可動物体は、いかなる更なる入力もなく自律動作を継続し得、自律動作とユーザ指示の移動との間にはシームレスな遷移があり得る。例示的な実施形態では、第2のユーザ入力は、可動物体の飛経路又は軌道を変更し得る。例えば、第2のユーザインタフェースでの入力は、方向成分を可動物体の自律飛経路に追加するか、又は速度若しくは加速度成分を可動物体に追加することにより自律飛経路を変更し得る。 For example, a moving object operating under autonomous control transmits a first-person view image to a first user interface. In some cases, the user may notice an object 318 of interest in the first person view image. By manipulating the control sticks on the second user interface, the user can move towards the object of interest (eg, slightly change the trajectory of the moving object) without interfering with autonomous movements. Can be. After satisfaction, the user may release the control stick and the moving object may continue to operate autonomously or complete the task. The movable object can continue its autonomous movement without any further input, and there can be a seamless transition between the autonomous movement and the user-instructed movement. In an exemplary embodiment, the second user input may change the flight path or trajectory of the moving object. For example, the input in the second user interface may change the autonomous flight path by adding a directional component to the autonomous flight path of the movable object, or by adding a velocity or acceleration component to the movable object.

図4は、実施形態による、UAVの自律飛行を変更する方法を示す。ステップ401において、UAVの自律飛行を行い得る。例えば、1つ又は複数の命令を提供して、UAVの自律飛行を行い得る。幾つかの場合、1つ又は複数の命令はユーザにより(例えば、本明細書に上述した第1のユーザインタフェースにおいて)提供し得る。例えば、ユーザは、携帯電話、タブレット、又はPDA等のハンドヘルドデバイス又はモバイルデバイスにおいて入力を提供し得る。ハンドヘルドデバイス又はモバイルデバイスは、タッチスクリーンを備え得、本明細書において上述したように、画像を表示するように構成し得る。幾つかの場合、画像は、UAVに接続されたカメラから受信される画像(例えば、一人称視点画像)及び/又はUAVの位置を示すマップ(例えば、2D又は3Dマップ)の画像を含み得る。ハンドヘルドデバイス又はモバイルデバイスに触れることにより、ユーザは、UAVの自律飛行を行う1つ又は複数の命令を提供し得る。 FIG. 4 shows a method of modifying the autonomous flight of a UAV according to an embodiment. In step 401, the UAV may fly autonomously. For example, one or more commands may be provided to perform autonomous flight of the UAV. In some cases, one or more instructions may be provided by the user (eg, in the first user interface described herein above). For example, the user may provide input on a handheld device or mobile device such as a mobile phone, tablet, or PDA. The handheld device or mobile device may include a touch screen and may be configured to display an image as described herein. In some cases, the image may include an image received from a camera connected to the UAV (eg, a first-person view image) and / or an image of a map showing the location of the UAV (eg, a 2D or 3D map). By touching a handheld device or mobile device, the user may provide one or more instructions for autonomous flight of the UAV.

1つ又は複数の命令は、UAVの飛行コントローラに送信し得る。送信された1つ又は複数の命令に応答して、飛行コントローラは、例えば、1つ又は複数のプロセッサを用いて、UAVの自律飛行を行う第1の組の信号を生成し得る。例えば、飛行コントローラは、UAVの自律飛行を行うために動作するように、UAVの1つ又は複数の推進ユニットに命令する第1の組の信号を生成し得る。 One or more instructions may be transmitted to the UAV's flight controller. In response to one or more instructions transmitted, the flight controller may use, for example, one or more processors to generate a first set of signals for autonomous flight of the UAV. For example, the flight controller may generate a first set of signals instructing one or more propulsion units of the UAV to operate to perform autonomous flight of the UAV.

自律飛行は、ユーザからの継続入力(例えば、リアルタイム入力)を必要としないUAVの任意の飛行であり得る。幾つかの場合、自律飛行は所定のタスク又は目標を有し得る。所定のタスク又は目標の例としては、ターゲット物体の追跡又は追尾、ターゲットエリア又は所望の位置への飛行、ユーザの位置又はユーザ端末へのリターンを挙げることができるが、これらに限定されない。幾つかの場合、自律飛行は、UAVが移動中の所定のターゲットを有し得る。ターゲットはターゲット物体又はターゲット行先であり得る。例えば、自律飛行は、ユーザにより示される所定の位置に向かう自律飛行であり得る。幾つかの場合、自律飛行は、所定の位置への飛行、UAVの自律リターン、1つ又は複数のウェイポイントに沿った自律ナビゲーション、対象ポイントへの自律飛行であり得る。 The autonomous flight can be any flight of the UAV that does not require continuous input (eg, real-time input) from the user. In some cases, autonomous flight may have a given task or goal. Examples of predetermined tasks or targets include, but are not limited to, tracking or tracking a target object, flying to a target area or desired position, and returning to a user's position or user terminal. In some cases, autonomous flight may have a predetermined target on which the UAV is moving. The target can be a target object or a target destination. For example, autonomous flight can be autonomous flight towards a predetermined position indicated by the user. In some cases, the autonomous flight can be a flight to a predetermined position, an autonomous return of the UAV, autonomous navigation along one or more waypoints, an autonomous flight to a target point.

幾つかの場合、自律飛行は、自律飛行軌道又は自律飛経路を含み得る。幾つかの場合、自律飛行は自律飛行方向を含み得る。軌道は、二次元座標又は三次元座標での飛行軌道であり得る。幾つかの場合、自律飛行は予め設定される軌道を有し得る。例えば、予め設定される軌道は、例えば、ターゲット(例えば、ターゲット行先若しくはターゲット障害物)に向かって飛行するに当たり又はタスクを達成するに当たり、最短飛経路をとり得る。幾つかの場合、自律飛経路は、自律的に計画された軌道を有し得る。例えば、UAVの飛行コントローラは、様々なパラメータを考慮して軌道を計算するか、又は自律的に計画し得る。パラメータは、環境状況、規制及び法律、既知の障害物、既知のイベント、及び目的を含み得るが、これらに限定されない。様々なパラメータに基づいて、飛行コントローラは、自律飛行に最もよく適する自律的に計画された軌道を設定し得る。幾つかの場合、自律飛行はユーザ構成の軌道を有し得る。例えば、自律飛行を行う前、UAVのオペレータは、自律動作中のUAVがとるべき軌道又は飛経路を手動で構成し得る。幾つかの場合、自律飛行中のUAVの軌道又は飛経路は、ユーザ端末及び/又はUAVの自律飛行を行うユーザ入力を受信するハンドヘルドデバイス又はモバイルデバイスに表示し得る。 In some cases, autonomous flight may include an autonomous flight trajectory or an autonomous flight path. In some cases, autonomous flight may include autonomous flight directions. The orbit can be a flight orbit in two-dimensional or three-dimensional coordinates. In some cases, autonomous flight may have a preset trajectory. For example, a preset trajectory may take the shortest flight path, for example, in flying towards a target (eg, a target destination or a target obstacle) or in accomplishing a task. In some cases, the autonomous flight path may have an autonomously planned trajectory. For example, a UAV flight controller may consider various parameters to calculate orbit or plan autonomously. Parameters may include, but are not limited to, environmental conditions, regulations and laws, known obstacles, known events, and objectives. Based on various parameters, the flight controller may set an autonomously planned trajectory that is best suited for autonomous flight. In some cases, autonomous flight may have a user-configured trajectory. For example, prior to autonomous flight, the UAV operator may manually configure the trajectory or flight path that the UAV in autonomous operation should take. In some cases, the trajectory or flight path of the UAV during autonomous flight may be displayed on the user terminal and / or on a handheld or mobile device receiving user input for autonomous flight of the UAV.

ステップ403において、ユーザ入力に応答して自律飛行を変更し得る。例えば、自律飛行の動作中、ユーザは、ユーザ端末において入力を提供し得る。幾つかの場合、ユーザ入力は、本明細書において上述したように、ボタン又は制御スティックを介して提供し得る。入力は、UAVの自律飛行を変更する1つ又は複数の命令を提供し得る。1つ又は複数の命令は、UAVの飛行コントローラに送信し得、飛行コントローラは、UAVの自律飛行を変更する第2の組の信号を生成し得る。例えば、飛行コントローラは、UAVの自律飛行を変更するために動作するように1つ又は複数の推進ユニットに更に命令する第2の組の信号を生成し得る。幾つかの場合、自律飛行の変更は、例えば、更なる入力まで、UAVの自律飛行を中断又は停止し得る。例えば、自律飛行が中断されたUAVは、ユーザにより手動で制御し得る。幾つかの場合、自律飛行が中断されたUAVは、更なる命令が与えられるまで、ユーザ入力が提供された位置でホバリングし得る。代替的には、自律飛行が中断されたUAVは、ユーザ若しくはユーザ端末に戻り得るか、又は着陸に進み得る。 In step 403, autonomous flight may be modified in response to user input. For example, during the operation of autonomous flight, the user may provide input at the user terminal. In some cases, user input may be provided via a button or control stick, as described herein above. The input may provide one or more instructions to change the autonomous flight of the UAV. One or more instructions may be transmitted to the UAV's flight controller, which may generate a second set of signals that alter the UAV's autonomous flight. For example, the flight controller may generate a second set of signals that further commands one or more propulsion units to operate to alter the autonomous flight of the UAV. In some cases, a change in autonomous flight may suspend or stop the autonomous flight of the UAV, for example, until further input. For example, a UAV in which autonomous flight is interrupted can be manually controlled by the user. In some cases, a UAV with interrupted autonomous flight may hover at the position provided with user input until further instructions are given. Alternatively, the UAV with interrupted autonomous flight may return to the user or user terminal or proceed to landing.

幾つかの場合、UAVの自律飛行は、自律飛行を妨げずに変更し得る。例えば、UAVは、自律飛行がユーザ入力により変更される間、タスク(例えば、ターゲット物体の追跡又はターゲット行先に向けた移動)の実行を進め得る。幾つかの場合、UAVは、飛行がユーザ入力により変更される間、飛行を進め得る。幾つかの場合、自律飛行の変更は、UAVの1つ又は複数の軸(例えば、ロール軸、ヨー軸、ピッチ軸等)の回りのUAVの回転に作用し得る。幾つかの場合、自律飛行の変更は、自律飛行を維持しながら、UAVの自律飛経路を変更し得る。上述したように、自律飛行を維持しながら、UAVの飛経路を変更する(例えば、軌道に作用する)能力は、自律飛行を妨げずに、予期しない状況(例えば、飛行コントローラにより説明されないが、ユーザが気付く)に対処するために小さな調整を行う能力を提供するため、有利であり得る。したがって、UAVの自律飛行とユーザ調整(例えば、リアルタイムでの)との間のシームレスな遷移が可能であり得る。 In some cases, the autonomous flight of the UAV can be modified without interfering with the autonomous flight. For example, the UAV may proceed with the execution of a task (eg, tracking a target object or moving towards a target destination) while autonomous flight is modified by user input. In some cases, the UAV may proceed with the flight while the flight is modified by user input. In some cases, changes in autonomous flight may affect the rotation of the UAV around one or more axes of the UAV (eg, roll axis, yaw axis, pitch axis, etc.). In some cases, a change in autonomous flight may change the autonomous flight path of the UAV while maintaining autonomous flight. As mentioned above, the ability of a UAV to change flight path (eg, act on orbit) while maintaining autonomous flight does not interfere with autonomous flight and is not explained in unexpected situations (eg, not explained by the flight controller) It can be advantageous because it provides the ability to make small adjustments to deal with (user notices). Therefore, seamless transitions between UAV autonomous flight and user coordination (eg, in real time) may be possible.

幾つかの場合、方法400は、1つ又は複数のプロセッサを用いて行われ得る。例えば、無人航空機の自律飛行を変更するシステムを提供し得る。システムは1つ又は複数のプロセッサを備え得、1つ又は複数のプロセッサは個々に又は集合的に、UAVの自律飛行を行うことであって、自律飛行は自律飛経路を含む、自律飛行を行うことと、ユーザ入力に応答して自律飛経路を変更することであって、自律飛経路は、自律飛行を維持しながら変更される、変更することとを行うように構成される。 In some cases, method 400 may be performed using one or more processors. For example, it may provide a system that modifies the autonomous flight of an unmanned aerial vehicle. The system may include one or more processors, one or more processors individually or collectively performing autonomous flight of the UAV, where autonomous flight performs autonomous flight, including autonomous flight paths. That is, the autonomous flight path is changed in response to the user input, and the autonomous flight path is configured to be changed or changed while maintaining the autonomous flight.

幾つかの場合、方法400は、コード、論理、又は命令を含む非一時的コンピュータ可読媒体を用いて行い得る。例えば、非一時的コンピュータ可読媒体は、UAVの自律飛行を行うことであって、自律飛行は自律飛経路を含む、自律飛行を行うことと、ユーザ入力に応答して自律飛経路を変更することであって、自律飛経路は、自律飛行を維持しながら変更される、変更することとを行うコード、論理、又は命令を含み得る。 In some cases, method 400 may be performed using a non-transitory computer-readable medium containing code, logic, or instructions. For example, a non-temporary computer-readable medium is to perform autonomous flight of a UAV, and autonomous flight is to perform autonomous flight including autonomous flight path and to change the autonomous flight path in response to user input. And the autonomous flight path may include code, logic, or instructions that change, change, and perform while maintaining autonomous flight.

幾つかの場合、無人航空機を使用して、方法400を行い得る。例えば、UAVは、(1)UAVの自律飛行のための第1の組の信号であって、自律飛行は自律飛経路を含む、第1の組の信号及び(2)自律飛経路を変更する第2の組の信号であって、自律飛経路は、自律飛行を維持しながら変更される、第2の組の信号を生成するように構成される飛行コントローラと、(a)第1の組の信号に応答してUAVの自律飛行を行い、(b)第2の組の信号に応答してUAVの自律飛経路を変更するように構成される1つ又は複数の推進ユニットとを備え得る。 In some cases, unmanned aerial vehicles may be used to perform method 400. For example, a UAV is (1) a first set of signals for UAV autonomous flight, which modifies the first set of signals, including an autonomous flight path, and (2) an autonomous flight path. A second set of signals, the autonomous flight path is modified while maintaining autonomous flight, with a flight controller configured to generate a second set of signals, and (a) a first set. Can be equipped with one or more propulsion units configured to make the UAV autonomously fly in response to the signal of (b) and change the autonomous flight path of the UAV in response to a second set of signals. ..

図5は、実施形態による、ユーザ入力により変更されているUAVの自律飛行を示す。幾つかの場合、UAVは自律的に動作中であり得る。例えば、UAV504は、例えば、ユーザからの命令に従ってターゲット506に向かって自律的に飛行中であり得る。自律飛行は自律飛経路508を含み得る。幾つかの場合、ユーザは、UAVの自律飛行を変更するために、入力を提供し得る(例えば、ユーザ端末において)。幾つかの場合、UAVの自律飛経路は、ユーザ入力により変更し得る。例えば、ユーザは、1つ又は複数の制御スティック510、512を備えるリモートコントローラ502において入力を提供し得る。制御スティックは、1つ又は複数の軸に回りのUAVの回転に作用するように構成し得る。例えば、1つ又は複数の制御スティックは、ロール軸の回りのUAVの回転に作用するように構成されるロールスティック及び/又はヨー軸の回りのUAVの回転に作用するように構成されるヨースティックを含み得る。幾つかの場合、1つ又は複数の制御スティックはピッチスティックを含み得る。ピッチスティックは、UAVの速度変更に作用するように構成し得る。幾つかの場合、1つ又は複数の制御スティックは、スロットルスティックを含み得る。スロットルスティックは、UAVの高さ(例えば、高度)の変更に作用するように構成し得る。 FIG. 5 shows the autonomous flight of the UAV modified by user input according to the embodiment. In some cases, the UAV may be operating autonomously. For example, the UAV 504 may be flying autonomously towards the target 506 according to, for example, a command from the user. Autonomous flight may include autonomous flight path 508. In some cases, the user may provide an input to modify the autonomous flight of the UAV (eg, at the user terminal). In some cases, the UAV's autonomous flight path can be changed by user input. For example, the user may provide input in a remote controller 502 with one or more control sticks 510, 512. The control stick may be configured to act on the rotation of the UAV around one or more axes. For example, one or more control sticks may be a roll stick configured to act on the rotation of the UAV around the roll axis and / or a yaw stick configured to act on the rotation of the UAV around the yaw axis. May include. In some cases, one or more control sticks may include pitch sticks. The pitch stick may be configured to act on the speed change of the UAV. In some cases, one or more control sticks may include a throttle stick. The throttle stick may be configured to act on changes in the height (eg, altitude) of the UAV.

入力を提供することにより、ユーザは、1つ又は複数のスティックのうちの少なくとも1つを作動させ得る。ユーザ端末において受信されるユーザ入力は、UAVの自律飛行を変更する1つ又は複数の命令を提供し得る。1つ又は複数の命令は、UAVの飛行制限器に送信し得、飛行制限器は、例えば、1つ又は複数の軸の回りのUAVの回転に作用することにより、UAVの速度変更に作用することにより、又はUAVの高さ変更に作用することにより、UAVの自律飛行を変更する1組の信号を生成し得る。例えば、飛行制限器は、例えば1つ又は複数の軸の回りにUAVの回転に作用することにより、UAVの自律飛行を変更するために動作するように、1つ又は複数の推進ユニットに更に命令する1組の信号を生成し得る。幾つかの場合、例えば、UAVの自律飛行を維持しながら、ロールスティックの作動は、ロール軸の回りのUAVの回転に作用し得、一方、ヨースティックの作動は、ヨー軸の回りのUAVの回転に作用し得る。幾つかの場合、スロットルスティックの作動はUAVの高さに作用し得、一方、ピッチスティックの作用はUAVの速度に作用し得る。 By providing input, the user may activate at least one of one or more sticks. The user input received at the user terminal may provide one or more instructions to change the autonomous flight of the UAV. One or more commands may be sent to the UAV's flight limiter, which acts on the speed change of the UAV, for example by acting on the rotation of the UAV around one or more axes. By doing so, or by acting on the height change of the UAV, it is possible to generate a set of signals that change the autonomous flight of the UAV. For example, the flight limiter further commands one or more propulsion units to act to alter the autonomous flight of the UAV, for example by acting on the rotation of the UAV around one or more axes. Can generate a set of signals. In some cases, for example, while maintaining the autonomous flight of the UAV, the actuation of the roll stick can affect the rotation of the UAV around the roll axis, while the actuation of the yaw stick is of the UAV around the yaw axis. Can act on rotation. In some cases, the action of the throttle stick can affect the height of the UAV, while the action of the pitch stick can affect the speed of the UAV.

幾つかの場合、ユーザ入力(例えば、制御スティックの作動)は、方向成分をUAVの自律飛経路508に追加し得る。例えば、ユーザ入力は、UAVが新しいターゲット516に向かって移動中であるように、特定の距離514だけ所望のターゲット506を変更し得る。幾つかの場合、UAVは、ヨー軸の回りの回転なしで新しいターゲットに向かって移動し得る。例えば、UAVは、ロール軸の回りのUAVの回転と併せて新しいターゲットに向かって移動し得る。追加される方向成分は、UAVの自律飛経路508に直交してもよく、又はしなくてもよい。幾つかの場合、追加される方向成分は、基準面に沿い得る。基準面は、本明細書で使用される場合、任意の基準面であり得る。基準面は、他の要因に依存し得る相対基準面であり得る。例えば、基準面は、UAVの位置及び/又は向き等のUAVの状態に応じて調整し得る。例えば、基準面は、UAVの向きに伴って調整し得るUAVの横断面であり得る。幾つかの場合、基準面は、ホバリング位置でのUAVの横断面であり得る。幾つかの場合、基準面は、直立位置でのUAVの横断面であり得る。幾つかの場合、基準面は、外部要因又は環境に相対し得る。基準面は、UAVの横断面又は水平面等の指定若しくは所定の基準面に相対してもよく、指定若しくは所定の基準面であってもよい。幾つかの場合、追加される方向成分は、UAVの自律飛経路に直交するとともに、基準面に沿い得る。追加される方向成分は、水平方向でのUAVの自律飛経路を変更する水平成分であり得る。幾つかの場合、追加される方向成分は、ユーザ入力の程度、例えば、ユーザ入力の持続時間又はユーザ入力の力(例えば、1つ又は複数のジョイスティックの作動の程度)に対応し得る。例えば、ユーザ入力が維持される場合、追加される方向成分は徐々に増大し得る。例えば、作動がより短いジョイスティックよりも作動がより長いジョイスティックの場合、より大きな方向成分を追加し得る。対応性は線形であってもよく、又はなくてもよい。幾つかの場合、追加される成分は、任意の数学関数、例えば、線形関数、指数関数等に従ってUAVの飛経路を変更し得る。 In some cases, user input (eg, actuation of the control stick) may add a directional component to the UAV's autonomous flight path 508. For example, user input may change the desired target 506 by a specific distance 514 so that the UAV is moving towards the new target 516. In some cases, the UAV may move towards a new target without rotation around the yaw axis. For example, the UAV may move towards a new target in conjunction with the rotation of the UAV around the roll axis. The directional component added may or may not be orthogonal to the autonomous flight path 508 of the UAV. In some cases, the directional component added may be along the reference plane. The reference plane can be any reference plane as used herein. The reference plane can be a relative reference plane that can depend on other factors. For example, the reference plane can be adjusted according to the state of the UAV, such as the position and / or orientation of the UAV. For example, the reference plane can be a cross section of the UAV that can be adjusted with the orientation of the UAV. In some cases, the reference plane can be the cross section of the UAV at the hovering position. In some cases, the reference plane can be a cross section of the UAV in an upright position. In some cases, the reference plane may be relative to external factors or the environment. The reference plane may be relative to a designated or predetermined reference plane such as a cross section or a horizontal plane of the UAV, or may be a designated or predetermined reference plane. In some cases, the directional component added may be orthogonal to the autonomous flight path of the UAV and along the reference plane. The directional component added can be a horizontal component that alters the autonomous flight path of the UAV in the horizontal direction. In some cases, the directional component added may correspond to the degree of user input, eg, the duration of user input or the force of user input (eg, the degree of activation of one or more joysticks). For example, if user input is maintained, the directional component added can gradually increase. For example, for a joystick with a longer actuation than a joystick with a shorter actuation, a larger directional component may be added. Correspondence may or may not be linear. In some cases, the added component may change the flight path of the UAV according to any mathematical function, such as a linear function, an exponential function, or the like.

幾つかの場合、ユーザ入力は、UAVの自律飛経路520を変更するに当たり、速度成分518をUAVに追加し得る。追加される速度成分は、UAVの自律飛経路に直交してもよく、又はしなくてもよい。幾つかの場合、追加される速度成分は、基準面に沿い得る。例えば、追加される速度成分は、UAVの横断面及び/又は水平面に沿い得る。幾つかの場合、追加される速度成分は、UAVの自律飛経路に直交するとともに、基準面に沿い得る。追加される速度成分は、水平方向でのUAVの自律飛経路を変更する水平成分であり得る。幾つかの場合、速度成分は、ロール軸の回りのUAVの回転と併せて追加し得る。幾つかの場合、速度成分は、ヨー軸の回りのUAVの回転に作用せずに追加し得る。幾つかの場合、追加される速度成分は、図5において時間の経過に伴って適用される複数の速度成分で示されるように、ユーザ入力が維持される間、適用し続け得る。幾つかの場合、追加される速度成分は、ユーザ入力の程度、例えば、ユーザ入力の持続時間又はユーザ入力の力(例えば、1つ又は複数のジョイスティックの作動の程度)に対応し得る。例えば、ユーザ入力が維持される場合、追加される速度成分は徐々に増大し得る。例えば、作動がより短いジョイスティックよりも作動がより長いジョイスティックの場合、より大きな速度成分を追加し得る。対応性は線形であってもよく、又はなくてもよい。幾つかの場合、追加される成分は、任意の数学関数、例えば、線形関数、指数関数等に従ってUAVの飛経路を変更し得る。 In some cases, the user input may add a velocity component 518 to the UAV in changing the autonomous flight path 520 of the UAV. The velocity component added may or may not be orthogonal to the autonomous flight path of the UAV. In some cases, the added velocity component may be along the reference plane. For example, the added velocity component may be along the cross section and / or horizontal plane of the UAV. In some cases, the added velocity component may be orthogonal to the UAV's autonomous flight path and along the reference plane. The velocity component added can be a horizontal component that alters the autonomous flight path of the UAV in the horizontal direction. In some cases, the velocity component may be added in conjunction with the rotation of the UAV around the roll axis. In some cases, the velocity component may be added without affecting the rotation of the UAV around the yaw axis. In some cases, the added velocity component may continue to be applied as long as the user input is maintained, as shown by the plurality of velocity components applied over time in FIG. In some cases, the added velocity component may correspond to the degree of user input, eg, the duration of user input or the force of user input (eg, the degree of activation of one or more joysticks). For example, if user input is maintained, the added velocity component can be gradually increased. For example, a longer-acting joystick than a shorter-acting joystick may add a larger velocity component. Correspondence may or may not be linear. In some cases, the added component may change the flight path of the UAV according to any mathematical function, such as a linear function, an exponential function, or the like.

幾つかの場合、ユーザ入力は、UAVの自律飛経路524を変更するに当たり、加速度成分522をUAVに追加し得る。追加される加速度成分は、UAVの自律飛経路に直交してもよく、又はしなくてもよい。幾つかの場合、追加される加速度成分は基準面に沿い得る。例えば、追加される加速度成分は、UAVの横断面及び/又は水平面に沿い得る。幾つかの場合、追加される加速度成分は、UAVの自律飛経路に直交するとともに、基準面に沿い得る。追加される加速度成分は、水平方向でのUAVの自律飛経路を変更する水平成分であり得る。幾つかの場合、加速度成分は、ロール軸の回りのUAVの回転と併せて追加し得る。幾つかの場合、加速度成分は、ヨー軸の回りのUAVの回転に作用せずに追加し得る。幾つかの場合、追加される加速度成分は、ユーザ入力が維持される間、適用し続け得る。幾つかの場合、追加される加速度成分は、ユーザ入力の程度、例えば、ユーザ入力の持続時間又はユーザ入力の力(例えば、1つ又は複数のジョイスティックの作動の程度)に対応し得る。例えば、ユーザ入力が維持される場合、追加される加速度成分は徐々に増大し得る。例えば、作動がより短いジョイスティックよりも作動がより長いジョイスティックの場合、より大きな加速度成分を追加し得る。対応性は線形であってもよく、又はなくてもよい。幾つかの場合、追加される加速度成分は、任意の数学関数、例えば、線形関数、指数関数等に従ってUAVの飛経路を変更し得る。 In some cases, the user input may add an acceleration component 522 to the UAV in changing the autonomous flight path 524 of the UAV. The added acceleration component may or may not be orthogonal to the autonomous flight path of the UAV. In some cases, the added acceleration component may be along the reference plane. For example, the added acceleration component may be along the cross section and / or horizontal plane of the UAV. In some cases, the added acceleration component may be orthogonal to the autonomous flight path of the UAV and along the reference plane. The added acceleration component can be a horizontal component that alters the autonomous flight path of the UAV in the horizontal direction. In some cases, the acceleration component may be added in conjunction with the rotation of the UAV around the roll axis. In some cases, the acceleration component may be added without acting on the rotation of the UAV around the yaw axis. In some cases, the added acceleration component may continue to be applied while user input is maintained. In some cases, the added acceleration component may correspond to the degree of user input, eg, the duration of user input or the force of user input (eg, the degree of activation of one or more joysticks). For example, if user input is maintained, the added acceleration component can gradually increase. For example, a longer-acting joystick than a shorter-acting joystick may add a larger acceleration component. Correspondence may or may not be linear. In some cases, the added acceleration component may change the flight path of the UAV according to any mathematical function, such as a linear function, an exponential function, or the like.

幾つかの場合、ロールスティックの作動は、本明細書において上述したように、方向成分、速度成分、及び/又は加速度成分を追加し得る。例えば、制御スティック510はロールスティックの例であり得る。代替的には、制御スティック512はロールスティックの例であり得る。ロールスティックの作動は、水平速度成分をUAVに追加し得る。幾つかの場合、追加される速度成分は、ロール軸の回りのUAVの回転に起因し得る。幾つかの場合、追加される速度成分は、ロールスティックの作動の程度に対応し得る。例えば、ロールスティックは、力がロールスティックに及ばされない静止状態と、それぞれ反対の方向での2つの完全作動状態とを含み得る。例えば、ロールスティックは、左及び右に動くように構成し得る。幾つかの場合、ロールスティックの位置は、−1(左に完全作動)と1(右に完全作動)との間にあるものとして説明し得る。例えば、左に向けて半分まで動かされたロールスティックは、−0.5の位置を含み得、一方、右に向けて1/3まで動かされたロールスティックは、0.333の位置を含み得る。幾つかの場合、ロールスティックの作動の結果としてUAVに追加される速度成分(例えば、水平速度成分)は、式により記述し得る:(1)追加される速度成分=(ロールスティック位置)×速度係数。幾つかの場合、速度係数は所定の速度値、例えば、工場設定又はユーザ決定の値であり得る。例えば、所定の速度値は、約2m/s以下、約4m/s以下、約6m/s以下、約8m/s以下、約10m/s以下、約12m/s以下、約15m/s以下、約20m/s以下、又は約50m/s以下であり得る。幾つかの場合、速度係数はUAVの前方速度に依存し得る。例えば、前方速度は、自律飛経路に沿ったUAVの速度成分を指し得る。図5では、前方速度成分は、自律飛経路508に平行する方向に沿ったUAVの速度成分を指し得る。幾つかの場合、前方速度成分は、UAVのロール軸に沿ったUAVの速度成分を指し得る。そのような場合、ロールスティックの作動の結果としてUAVに追加される速度成分は、式により記述し得る:(2)追加される速度成分=(ロールスティック位置)×(前方速度成分)×係数。幾つかの場合、係数は約0.1以下、約0.2以下、約0.4以下、約0.6以下、約0.8以下、約1以下、約2以下、又は約4以下であり得る。幾つかの場合、係数は約0.5に等しい値であり得る。 In some cases, the actuation of the roll stick may add a directional component, a velocity component, and / or an acceleration component, as described herein above. For example, the control stick 510 can be an example of a roll stick. Alternatively, the control stick 512 may be an example of a roll stick. The operation of the roll stick may add a horizontal velocity component to the UAV. In some cases, the added velocity component may be due to the rotation of the UAV around the roll axis. In some cases, the added velocity component may correspond to the degree of actuation of the roll stick. For example, the roll stick may include a stationary state in which no force is exerted on the roll stick and two fully actuated states in opposite directions. For example, the roll stick may be configured to move left and right. In some cases, the position of the roll stick can be described as being between -1 (fully actuated to the left) and 1 (fully actuated to the right). For example, a roll stick moved half way to the left can contain a position of -0.5, while a roll stick moved half way to the right can contain a position of 0.333. .. In some cases, the velocity component added to the UAV as a result of roll stick operation (eg, horizontal velocity component) can be described by an equation: (1) added velocity component = (roll stick position) x velocity. coefficient. In some cases, the speed factor can be a predetermined speed value, eg, a factory-configured or user-determined value. For example, the predetermined speed values are about 2 m / s or less, about 4 m / s or less, about 6 m / s or less, about 8 m / s or less, about 10 m / s or less, about 12 m / s or less, about 15 m / s or less, It can be about 20 m / s or less, or about 50 m / s or less. In some cases, the velocity factor may depend on the forward velocity of the UAV. For example, forward velocity can refer to the velocity component of the UAV along the autonomous flight path. In FIG. 5, the forward velocity component may refer to the velocity component of the UAV along the direction parallel to the autonomous flight path 508. In some cases, the forward velocity component can refer to the velocity component of the UAV along the roll axis of the UAV. In such a case, the velocity component added to the UAV as a result of the roll stick operation can be described by the equation: (2) added velocity component = (roll stick position) x (forward velocity component) x coefficient. In some cases, the coefficients are about 0.1 or less, about 0.2 or less, about 0.4 or less, about 0.6 or less, about 0.8 or less, about 1 or less, about 2 or less, or about 4 or less. possible. In some cases, the coefficient can be a value equal to about 0.5.

幾つかの場合、ユーザ入力は、UAVの飛経路を変更して、UAVが1つ又は複数の制御スティックの方向に向かう曲線軌道で飛行するようにし得る。図13は、実施形態による、1つ又は複数の制御スティックの作動に応答して曲線軌道で飛行しているUAVを示す。幾つかの場合、ユーザ入力は、UAVが曲線軌道で飛行するように、UAVのヨー軸の回りのUAVの回転に作用し得る。例えば、制御スティック1312はヨースティックの例であり得る。代替的には、制御スティック1313はヨースティックの例であり得る。幾つかの場合、予め設定された曲線軌道(例えば、軌道1306、1308、1310等)に沿って飛行中のUAVの速度は、ヨースティックへのユーザ入力に依存又は比例し得る。代替的には、曲線の半径又はヨー軸の回りのUAVの回転の程度は、ヨースティックへのユーザ入力に逆に依存又は反比例し得る。幾つかの場合、ヨースティックの位置は、実質的にロールスティックに関して説明したように、−1(左に完全作動)と1(右に完全作動)との間にあるものとして説明し得る。ユーザがヨースティックを左に完全に作動させる場合、UAVは、小さな曲率半径を有する軌道1308に沿って飛行し得、一方、ユーザがヨースティックを小量、左に作動させる場合、UAVは大きな曲率半径を有する軌道1306に沿って飛行し得る。同様に、ユーザがヨースティックを右に完全に作動させる場合、UAVは、小さな曲率半径を有する軌道1310に沿って飛行し得る。 In some cases, the user input may change the flight path of the UAV so that the UAV flies in a curved trajectory towards one or more control sticks. FIG. 13 shows a UAV flying in a curved orbit in response to the activation of one or more control sticks according to an embodiment. In some cases, user input may act on the rotation of the UAV around the yaw axis of the UAV so that the UAV flies in a curved orbit. For example, the control stick 1312 can be an example of a yaw stick. Alternatively, the control stick 1313 can be an example of a yaw stick. In some cases, the speed of the UAV in flight along a preset curved trajectory (eg, tracks 1306, 1308, 1310, etc.) may depend on or be proportional to user input to the yaw stick. Alternatively, the radius of the curve or the degree of rotation of the UAV around the yaw axis may be inversely dependent or inversely proportional to user input to the yaw stick. In some cases, the position of the yaw stick can be described as being substantially between -1 (fully actuated to the left) and 1 (fully actuated to the right), as described for roll sticks. If the user moves the yaw stick fully to the left, the UAV can fly along orbit 1308 with a small radius of curvature, while if the user moves the yaw stick a small amount to the left, the UAV has a large curvature It can fly along a radius of orbit 1306. Similarly, if the user fully activates the yaw stick to the right, the UAV may fly along orbit 1310 with a small radius of curvature.

図5及び図13に提供されるように、自律動作中のUAVの飛経路は直観的に変更し得る。例えば、1つ又は複数のスティック510、512の左への作動は、例えば、UAVがターゲットに向けての移動を維持するようにUAVの自律飛行を維持しながら、UAVが左に向かって移動するようにUAVの飛経路を変更し得る。例えば、1つ又は複数の制御スティックの右への作動(例えば、ユーザからの入力を介した)は、UAVが右に向かって移動するようにUAVの飛経路を変更し得る。 As provided in FIGS. 5 and 13, the flight path of the UAV during autonomous operation can be intuitively changed. For example, a left actuation of one or more sticks 510, 512 may cause the UAV to move to the left, eg, while maintaining the UAV's autonomous flight so that the UAV maintains its movement towards the target. The flight path of the UAV can be changed as described above. For example, operating one or more control sticks to the right (eg, via input from the user) may change the flight path of the UAV so that it moves to the right.

幾つかの場合、上記参照される追加される成分(例えば、方向、速度、加速度等)は、垂直成分を含み得る。図6は、実施形態による、ユーザ入力により変更される可動物体の自律飛経路の側面図を示す。幾つかの場合、UAV604は、例えば、ユーザからの命令に従って、ターゲット606に向かって自律的に飛行中であり得る。自律飛行は自律飛経路608を含み得る。幾つかの場合、ユーザは、入力を提供して(例えば、ユーザ端末において)、UAVの自律飛行を変更し得る。例えば、ユーザは、1つ又は複数の制御スティック610、612を含むリモートコントローラ602において入力を提供し得る。幾つかの場合、制御スティックは、UAVの1つ又は複数の軸の回りのUAVの回転に作用せずに、UAVの高さに作用するように構成し得る。代替的には、制御スティックは、1つ又は複数の軸の回りのUAVの回転を介してUAVの高さに作用するように構成し得る。 In some cases, the additional components referred to above (eg, direction, velocity, acceleration, etc.) may include vertical components. FIG. 6 shows a side view of an autonomous flight path of a movable object that is changed by user input according to the embodiment. In some cases, the UAV 604 may be flying autonomously towards the target 606, for example, according to a command from the user. Autonomous flight may include autonomous flight path 608. In some cases, the user may provide input (eg, at the user terminal) to change the autonomous flight of the UAV. For example, the user may provide input on a remote controller 602 that includes one or more control sticks 610, 612. In some cases, the control stick may be configured to act on the height of the UAV without acting on the rotation of the UAV around one or more axes of the UAV. Alternatively, the control stick may be configured to act on the height of the UAV via rotation of the UAV around one or more axes.

実質的に上述したように、方向成分は、UAVの自律飛経路に追加し得る。幾つかの場合、速度成分614(例えば、垂直速度成分)は、実施形態620に示されるように、UAVの自律飛経路を変更するに当たり、UAVに追加し得る。幾つかの場合、加速度成分616(例えば、垂直加速度成分)は、実施形態630に示されるように、UAVの自律飛経路を変更するに当たり、UAVに追加し得る。幾つかの場合、1つ又は複数の制御スティックの上へ(例えば、ユーザから離れる方向)の作動は、実施形態620及び630に示されるように、UAVが垂直に上に移動するように、UAVの飛経路を変更し得る。代替的には、1つ又は複数の制御スティックの下への作動は、UAVが垂直に上に移動するように、UAVの飛経路を変更し得る。幾つかの場合、1つ又は複数の制御スティックの下へ(例えば、ユーザに向かう方向)の作動は、UAVが垂直に下に移動するように、UAVの飛経路を変更し得る。代替的には、1つ又は複数の制御スティックの上への作動は、UAVが垂直に下に移動するように、UAVの飛経路を変更し得る。 Substantially as described above, the directional component can be added to the autonomous flight path of the UAV. In some cases, the velocity component 614 (eg, the vertical velocity component) may be added to the UAV in altering the autonomous flight path of the UAV, as shown in embodiment 620. In some cases, the acceleration component 616 (eg, the vertical acceleration component) may be added to the UAV in altering the autonomous flight path of the UAV, as shown in embodiment 630. In some cases, actuation on one or more control sticks (eg, away from the user) is such that the UAV moves vertically upwards, as shown in embodiments 620 and 630. The flight path of the can be changed. Alternatively, actuating under one or more control sticks may alter the flight path of the UAV so that it moves vertically upwards. In some cases, actuating under one or more control sticks (eg, towards the user) may change the flight path of the UAV so that it moves vertically down. Alternatively, actuation on one or more control sticks may change the flight path of the UAV so that the UAV moves vertically down.

幾つかの場合、UAVの高さに作用するように構成される制御スティックは、スロットルスティックであり得る。例えば、制御スティック610はスロットルスティックであり得る。代替的には、制御スティック612は、スロットルスティックの例であり得る。スロットルスティックの作動は、垂直速度成分をUAVに追加し得る。幾つかの場合、追加される速度成分は、スロットルスティックの作動の程度に対応し得る。例えば、スロットルスティックは、力がスロットルスティックに及ぼされない静止状態と、それぞれ反対の方向での2つの完全作動状態とを含み得る。例えば、スロットルスティックは、(1)方向609により示されるように上に向けて及び(2)下に向けての両方に移動可能であるように構成し得る。幾つかの場合、スロットルスティックの位置は、−1(下に完全作動)と1(上に完全作動)との間にあるものとして説明し得る。例えば、下に向けて半分まで動かされたスロットルスティックは、−0.5の位置を含み得、一方、上に向けて1/3まで動かされたロールスティックは、0.333の位置を含み得る。幾つかの場合、スロットルスティックの作動の結果としてUAVに追加される速度成分(例えば、垂直速度成分)は、式により記述し得る:(1)追加される速度成分=(スロットルスティック位置)×速度係数。負の速度はUAVが下に移動中であることを示し得、一方、正の速度成分はUAVが上に移動中であることを示し得る。幾つかの場合、速度係数は所定の速度値、例えば、工場設定又はユーザ決定の値であり得る。例えば、所定の速度値は、約2m/s以下、約4m/s以下、約6m/s以下、約8m/s以下、約10m/s以下、約12m/s以下、約15m/s以下、約20m/s以下、又は約50m/s以下であり得る。幾つかの場合、所定の速度値は約3m/sに等しい値であり得る。幾つかの場合、速度係数はUAVの前方速度に依存し得る。例えば、前方速度は、自律飛経路に沿ったUAVの速度成分を指し得る。図6では、前方速度成分は、自律飛経路608に平行する方向に沿ったUAVの速度成分を指し得る。幾つかの場合、前方速度成分は、UAVのロール軸に沿ったUAVの速度成分を指し得る。そのような場合、スロットルスティックの作動の結果としてUAVに追加される速度成分は、式により記述し得る:(2)追加される速度成分=(ロールスティック位置)×(前方速度成分)×係数。負の速度はUAVが下に移動中であることを示し得、一方、正の速度成分はUAVが上に移動中であることを示し得る。幾つかの場合、係数は約0.1以下、約0.2以下、約0.4以下、約0.6以下、約0.8以下、約1以下、約2以下、又は約4以下であり得る。幾つかの場合、係数は約0.5に等しい値であり得る。 In some cases, the control stick configured to act on the height of the UAV can be a throttle stick. For example, the control stick 610 can be a throttle stick. Alternatively, the control stick 612 can be an example of a throttle stick. The operation of the throttle stick may add a vertical velocity component to the UAV. In some cases, the added speed component may correspond to the degree of throttle stick actuation. For example, the throttle stick may include a stationary state in which no force is exerted on the throttle stick and two fully actuated states in opposite directions. For example, the throttle stick may be configured to be movable both (1) upwards and (2) downwards as indicated by direction 609. In some cases, the position of the throttle stick can be described as being between -1 (fully actuated down) and 1 (fully actuated up). For example, a throttle stick that has been moved halfway down can contain a position of -0.5, while a roll stick that has been moved up one-third can contain a position of 0.333. .. In some cases, the velocity component added to the UAV as a result of throttle stick activation (eg, vertical velocity component) can be described by an equation: (1) added velocity component = (throttle stick position) x velocity. coefficient. A negative velocity can indicate that the UAV is moving down, while a positive velocity component can indicate that the UAV is moving up. In some cases, the speed factor can be a predetermined speed value, eg, a factory-configured or user-determined value. For example, the predetermined speed values are about 2 m / s or less, about 4 m / s or less, about 6 m / s or less, about 8 m / s or less, about 10 m / s or less, about 12 m / s or less, about 15 m / s or less, It can be about 20 m / s or less, or about 50 m / s or less. In some cases, the given velocity value can be equal to about 3 m / s. In some cases, the velocity factor may depend on the forward velocity of the UAV. For example, forward velocity can refer to the velocity component of the UAV along the autonomous flight path. In FIG. 6, the forward velocity component may refer to the velocity component of the UAV along the direction parallel to the autonomous flight path 608. In some cases, the forward velocity component can refer to the velocity component of the UAV along the roll axis of the UAV. In such a case, the velocity component added to the UAV as a result of the operation of the throttle stick can be described by the equation: (2) added velocity component = (roll stick position) x (forward velocity component) x coefficient. A negative velocity can indicate that the UAV is moving down, while a positive velocity component can indicate that the UAV is moving up. In some cases, the coefficients are about 0.1 or less, about 0.2 or less, about 0.4 or less, about 0.6 or less, about 0.8 or less, about 1 or less, about 2 or less, or about 4 or less. possible. In some cases, the coefficient can be a value equal to about 0.5.

幾つかの場合、成分(例えば、速度成分、加速度成分等)は、UAVの飛経路に作用せずに追加し得る。図14は、実施形態による、自律飛経路に沿って増大又は低減した速度で移動中の無人航空機の上から下を見た図を示す。幾つかの場合、ユーザ入力は、軌道又は飛経路に作用せずに、自律飛行中のUAVの速度又は加速度を変更し得る。幾つかの場合、UAVの速度に作用するユーザ入力は、1つ又は複数の制御スティックを介して受信し得る。 In some cases, components (eg, velocity components, acceleration components, etc.) may be added without acting on the UAV's flight path. FIG. 14 shows a top-down view of an unmanned aerial vehicle moving at an increased or decreased speed along an autonomous flight path according to an embodiment. In some cases, user input may change the speed or acceleration of the UAV during autonomous flight without acting on the orbit or flight path. In some cases, user input affecting the speed of the UAV may be received via one or more control sticks.

幾つかの場合、UAVの飛経路に作用せずにUAVの速度に作用するように構成される制御スティックは、ピッチスティックであり得る。例えば、制御スティック1402は、ピッチスティックの例であり得る。代替的には、制御スティック1403は、ピッチスティックの例であり得る。ピッチスティックの作動は、例えば、UAVのロール軸に沿ったUAVの速度に作用又は変更し得る。幾つかの場合、UAVの速度は、ピッチスティックの作動の程度に従って増減し得る。例えば、ピッチスティックは、力がピッチスティックに及ぼされない静止状態と、それぞれ反対の方向での2つの完全作動状態とを含み得る。例えば、ピッチスティックは、方向1404により示されるように下に向けて及び上に向けて移動可能であるように構成し得る。幾つかの場合、ピッチスティックの位置は、−1(下に完全作動)と1(上に完全作動)との間にあるものとして説明し得る。例えば、下に向けて半分まで動かされたピッチスティックは、−0.5の位置を含み得、一方、上に向けて1/3まで動かされたロールスティックは、0.333の位置を含み得る。幾つかの場合、ピッチスティックの作動の結果としてUAVの速度成分(例えば、自律飛経路又はロール方向に沿う)は、実施形態1406に示されるように、式により記述し得る:(1)速度成分=(ピッチスティック位置)×速度係数+(基本飛行速度)。幾つかの場合、速度係数は所定の速度値、例えば、工場設定又はユーザ決定の値であり得る。例えば、所定の速度値は、約2m/s以下、約4m/s以下、約6m/s以下、約8m/s以下、約10m/s以下、約12m/s以下、約15m/s以下、約20m/s以下、又は約50m/s以下であり得る。幾つかの場合、基本飛行速度は、所定の基本飛行速度、例えば、工場設定又はユーザ決定の値であり得る。例えば、所定の基本飛行速度所定の速度値は、約2m/s以下、約4m/s以下、約6m/s以下、約8m/s以下、約10m/s以下、約12m/s以下、約15m/s以下、約20m/s以下、又は約50m/s以下であり得る。幾つかの場合、ピッチスティックの作動の結果としてUAVの速度成分(例えば、自律飛経路又はロール方向に沿う)は、実施形態1408に示されるように、式により記述し得る:(2)速度成分=(ピッチスティック位置+1)×(基本飛行速度)×係数。幾つかの場合、係数は約0.1以下、約0.2以下、約0.4以下、約0.6以下、約0.8以下、約1以下、約2以下、又は約4以下であり得る。幾つかの場合、係数は約1に等しい値であり得る。 In some cases, the control stick configured to act on the speed of the UAV without acting on the flight path of the UAV can be a pitch stick. For example, the control stick 1402 can be an example of a pitch stick. Alternatively, the control stick 1403 can be an example of a pitch stick. The operation of the pitch stick can act or alter, for example, the speed of the UAV along the roll axis of the UAV. In some cases, the speed of the UAV can increase or decrease depending on the degree of operation of the pitch stick. For example, the pitch stick may include a stationary state in which no force is exerted on the pitch stick and two fully actuated states in opposite directions. For example, the pitch stick may be configured to be movable downwards and upwards as indicated by direction 1404. In some cases, the position of the pitch stick can be described as being between -1 (fully actuated down) and 1 (fully actuated up). For example, a pitch stick that has been moved halfway down can contain a position of -0.5, while a roll stick that has been moved up one-third can contain a position of 0.333. .. In some cases, the velocity component of the UAV as a result of the operation of the pitch stick (eg, along an autonomous flight path or roll direction) can be described by an equation as shown in embodiment 1406: (1) velocity component. = (Pitch stick position) x velocity coefficient + (basic flight speed). In some cases, the speed factor can be a predetermined speed value, eg, a factory-configured or user-determined value. For example, the predetermined speed values are about 2 m / s or less, about 4 m / s or less, about 6 m / s or less, about 8 m / s or less, about 10 m / s or less, about 12 m / s or less, about 15 m / s or less, It can be about 20 m / s or less, or about 50 m / s or less. In some cases, the base flight speed can be a predetermined base flight speed, eg, a factory-configured or user-determined value. For example, the predetermined basic flight speed is about 2 m / s or less, about 4 m / s or less, about 6 m / s or less, about 8 m / s or less, about 10 m / s or less, about 12 m / s or less, about 12 m / s or less. It can be 15 m / s or less, about 20 m / s or less, or about 50 m / s or less. In some cases, the velocity component of the UAV as a result of the operation of the pitch stick (eg, along the autonomous flight path or roll direction) can be described by the equation as shown in embodiment 1408: (2) velocity component. = (Pitch stick position + 1) x (basic flight speed) x coefficient. In some cases, the coefficients are about 0.1 or less, about 0.2 or less, about 0.4 or less, about 0.6 or less, about 0.8 or less, about 1 or less, about 2 or less, or about 4 or less. possible. In some cases, the coefficient can be a value equal to about 1.

幾つかの実施形態では、異なる制御スティックは、可動物体の飛経路を異なるように変更し得る。例えば、ロールスティックの作動は、ロール軸の回りのUAVの回転に作用し得、これは、水平速度成分をUAVに追加して、UAVの自律飛経路を変更し得、一方、ヨースティックの作動は、ヨー軸の回りのUAVの回転に作用し得、これは、加速度(例えば、向心加速度)成分をUAVに追加して、UAVの自律飛経路を変更し得る。例えば、スロットルスティックの作動は、垂直速度成分をUAVに追加して、UAVの自律飛経路を変更し得、一方、ピッチスティックの作動は、ロール軸の回りのUAVの速度に作用し得る。 In some embodiments, different control sticks can change the flight path of the moving object differently. For example, the actuation of the roll stick can affect the rotation of the UAV around the roll axis, which can add a horizontal velocity component to the UAV to alter the autonomous flight path of the UAV, while actuating the yaw stick. Can act on the rotation of the UAV around the yaw axis, which can add an acceleration (eg, centripetal acceleration) component to the UAV to alter the autonomous flight path of the UAV. For example, the actuation of the throttle stick can change the autonomous flight path of the UAV by adding a vertical velocity component to the UAV, while the actuation of the pitch stick can affect the velocity of the UAV around the roll axis.

幾つかの場合、ユーザ入力の程度は、UAVの自律飛行が変更される量に対応し得る。ユーザ入力の程度は、ユーザ入力の持続時間に対応し得る。例えば、ユーザからの連続入力(例えば、1つ又は複数の制御スティックの連続作動)に応答して、UAVの軸のうちの1つ又は複数の回りのUAVの回転を増大し得る。例えば、1つ又は複数の制御スティックが作動した時間量に応じて、追加される方向成分、速度成分、及び/又は加速度成分を引き続き増大させ得る。幾つかの場合、ユーザ入力の程度は、ユーザ入力の力に対応し得る。図7は、実施形態による、ユーザ入力の力が可動物体の自律飛行を比例して変更することを示す。幾つかの場合、ユーザ入力の程度は、ユーザ入力を提供する際にユーザにより及ぼされる力の量に対応し得る。幾つかの場合、ユーザ入力の程度は、入力デバイス(例えば、1つ又は複数の制御スティック)がどれくらい作動したかに対応し得る。第1の時間期間701中、ユーザ入力の程度は第1のレベル703であり得る。したがって、UAV706の自律飛経路704は、変更飛経路705により示されるように、第1の程度だけ変更し得る。第2の時間期間707中、ユーザ入力の程度は第2のレベル709であり得る。例えば、ユーザは、より大きな力を制御スティックに及ぼしてもよく、又は制御スティックを更に作動させてもよい。したがって、UAVの自律飛経路は、第2の変更飛経路711により示されるように、第2の程度だけ変更し得る。幾つかの場合、対応性は線形であり得る。例えば、ユーザが2倍の量の力を及ぼす場合、又は制御スティックを2倍遠くに作動させる場合、UAVに追加される速度成分は、前と比較して2倍になり得、UAVの飛経路は、2倍量で変更され得る。代替的には、対応性は線形でなくてもよい。幾つかの場合、1つ又は複数の制御スティックの作動とUAVの挙動との関係は、例えば、ロールスティック、ピッチスティック、及びヨースティックに関して本明細書において上述したようなものであり得る。 In some cases, the degree of user input may correspond to the amount by which the autonomous flight of the UAV is modified. The degree of user input may correspond to the duration of user input. For example, the rotation of the UAV around one or more of the axes of the UAV may be increased in response to continuous input from the user (eg, continuous operation of one or more control sticks). For example, the added directional component, velocity component, and / or acceleration component may continue to increase depending on the amount of time the one or more control sticks have been activated. In some cases, the degree of user input may correspond to the power of user input. FIG. 7 shows that, according to the embodiment, the force input by the user proportionally changes the autonomous flight of the movable object. In some cases, the degree of user input may correspond to the amount of force exerted by the user in providing the user input. In some cases, the degree of user input may correspond to how much the input device (eg, one or more control sticks) has been activated. During the first time period 701, the degree of user input may be the first level 703. Therefore, the autonomous flight path 704 of the UAV 706 can be modified by a first degree, as indicated by the modified flight path 705. During the second time period 707, the degree of user input may be the second level 709. For example, the user may exert a greater force on the control stick, or may further activate the control stick. Therefore, the autonomous flight path of the UAV can be modified by a second degree, as indicated by the second modified flight path 711. In some cases, the correspondence can be linear. For example, if the user exerts twice the amount of force, or operates the control stick twice as far away, the velocity component added to the UAV can be doubled compared to before, and the UAV's flight path. Can be changed by a double amount. Alternatively, the correspondence does not have to be linear. In some cases, the relationship between the operation of one or more control sticks and the behavior of the UAV can be as described herein with respect to, for example, roll sticks, pitch sticks, and yaw sticks.

幾つかの場合、UAVの自律飛行は、様々な他の要因を考慮して(例えば、ユーザ入力に加えて)変更し得る。幾つかの場合、様々な他の要因は環境要因を含み得る。環境要因は、UAVに搭載された1つ又は複数のセンサに基づいて特定し得る。例えば、UAVの自律飛経路は、近接性センサ又は障害物センサからのデータを考慮して、ユーザ入力による所望の変更が(例えば、検出された障害物に衝突する危険にUAVを曝すことにより)UAV又は他を危険に曝さないことを保証するように変更し得る。例えば、UAVの自律飛経路は、UAVが不安定になるか、又は制御不可能になるようユーザ入力による所望の変更がUAVのバランスを崩さないことを保証するように、他のセンサからのデータを考慮して変更し得る。したがって、信号が生成され、命令が1つ又は複数の推進機構に送信されて、自律飛経路を変更する前、例えば、安定性及び安全性を保証するために、ユーザ入力はUAVに搭載される飛行コントローラにより処理され解釈し得る。 In some cases, the autonomous flight of the UAV can be modified in consideration of various other factors (eg, in addition to user input). In some cases, various other factors may include environmental factors. Environmental factors can be identified based on one or more sensors mounted on the UAV. For example, the UAV's autonomous flight path takes into account data from proximity sensors or obstacle sensors and allows the desired change by user input (eg, by exposing the UAV to the risk of colliding with a detected obstacle). It may be modified to ensure that the UAV or others are not at risk. For example, the autonomous flight path of the UAV is data from other sensors to ensure that the desired change by user input does not upset the balance of the UAV so that the UAV becomes unstable or out of control. Can be changed in consideration of. Therefore, the user input is mounted on the UAV before a signal is generated and a command is transmitted to one or more propulsion mechanisms to change the autonomous flight path, eg, to ensure stability and safety. It can be processed and interpreted by the flight controller.

幾つかの場合、様々な要因は上記を参照し得、閾値を含み得る。閾値は、閾値時間及び/又は閾値距離であり得る。閾値時間及び/又は閾値距離は予め決定し得る。幾つかの場合、閾値時間及び/又は閾値距離は、ユーザによりUAVの動作前及び/又は動作中に構成し得る。図8は、実施形態による、閾値に達した場合のUAVの挙動を示す。幾つかの場合、閾値は閾値距離であり得る。例えば、UAVの飛経路が、ユーザ入力の結果として閾値距離を超えて元の自律飛経路から逸脱する場合、ユーザ入力にも拘わらず、自律飛経路の更なる変更を阻止し得る。幾つかの場合、閾値は閾値時間であり得る。例えば、UAVの飛経路が、ユーザ入力の結果として閾値時間を超えて元の自律飛経路から逸脱する場合、ユーザ入力にも拘わらず、更なる逸脱を阻止し得る。 In some cases, various factors may refer to the above and may include thresholds. The threshold can be a threshold time and / or a threshold distance. The threshold time and / or the threshold distance can be predetermined. In some cases, the threshold time and / or threshold distance may be configured by the user before and / or during operation of the UAV. FIG. 8 shows the behavior of the UAV when the threshold is reached, according to the embodiment. In some cases, the threshold can be the threshold distance. For example, if the UAV flight path deviates from the original autonomous flight path beyond the threshold distance as a result of user input, further changes to the autonomous flight path can be prevented despite the user input. In some cases, the threshold can be the threshold time. For example, if the UAV flight path deviates from the original autonomous flight path beyond the threshold time as a result of user input, further deviation can be prevented despite the user input.

例えば、UAV812の自律飛行を行い得る。自律飛行は、ターゲット816に向かう自律飛経路814を含み得る。UAVがターゲットに向かって自律的に飛行している間、ユーザ(例えば、UAVのオペレータ)は、例えば、1つ又は複数の制御スティックを作動させることにより、自律飛行を変更し得る。UAVは、ユーザ入力の結果として、変更飛経路818を辿り得る。幾つかの場合、UAVが、元の自律飛経路から離れた閾値距離819にくると、ユーザ入力はもはや、自律飛経路814から逸脱するようにUAVに命令しない。例えば、ユーザ入力が続けられる場合であっても、UAVは、実施形態810に示されるように、自律飛経路814から閾値距離819を維持することしかできない。例えば、UAVがユーザ入力の結果として閾値距離に達すると、UAVは、実施形態820に示されるように、ターゲット826に向けての移動を開始し得る。幾つかの場合、UAVがユーザ入力の結果として閾値距離に達すると、UAVは、ターゲットに向けて移動する前、元の自律飛経路824に向けての移動を開始し得る。幾つかの場合、UAVがユーザ入力の結果として閾値距離に達すると、UAVの自律飛行は、実施形態830に示されるように中断し得る。UAVは、その後、位置832においてホバリングしてもよく、又は距離閾値に達した位置若しくはその近傍に着陸し得る。幾つかの場合、ユーザは、UAVが自律飛経路から離れた閾値距離に達した後、UAVを手動で制御するように求められ得る。 For example, the UAV812 can fly autonomously. Autonomous flight may include an autonomous flight path 814 towards target 816. While the UAV is flying autonomously towards the target, the user (eg, the operator of the UAV) may modify the autonomous flight, for example by activating one or more control sticks. The UAV can follow the modified flight path 818 as a result of user input. In some cases, when the UAV reaches a threshold distance of 819 away from the original autonomous flight path, the user input no longer commands the UAV to deviate from the autonomous flight path 814. For example, the UAV can only maintain a threshold distance of 819 from the autonomous flight path 814, as shown in embodiment 810, even when user input continues. For example, when the UAV reaches a threshold distance as a result of user input, the UAV may begin moving towards the target 826, as shown in embodiment 820. In some cases, when the UAV reaches a threshold distance as a result of user input, the UAV may begin moving towards the original autonomous flight path 824 before moving towards the target. In some cases, when the UAV reaches a threshold distance as a result of user input, autonomous flight of the UAV may be interrupted as shown in embodiment 830. The UAV may then hover at position 832, or may land at or near a position where the distance threshold has been reached. In some cases, the user may be required to manually control the UAV after the UAV has reached a threshold distance away from the autonomous flight path.

幾つかの場合、閾値距離に達したとき、アラートをユーザに送信し得る。アラートは、視覚的アラート、可聴的アラート、及び/又は触覚的アラートであり得る。幾つかの場合、アラートはユーザ端末に送信し得る。アラートは、ユーザが閾値距離にいることをユーザに通知し得る。幾つかの場合、アラートは、ユーザ入力の継続及び/又は元の自律飛経路からの逸脱が自律飛行の終了に繋がることをユーザに通知し得る。幾つかの場合、アラートは、閾値距離に達したとき、送信し得るが、UAVの自律飛行は、ユーザ入力により引き続き変更し得る。幾つかの場合、アラートは、閾値距離に達したとき、送信し得、飛経路の更なる変更は、実施形態810、820、又は830において上述したように阻止し得る。幾つかの場合、UAVの挙動は、2つ以上の閾値に依存し得る。例えば、ユーザ入力のリリース後のUAVの挙動は、閾値時間及び閾値距離の両方に依存し得る。例えば、ユーザ入力中のUAVの挙動は、第1の閾値距離(又は時間)及び第2の閾値距離(又は時間)により作用し得る。幾つかの場合、UAVは、第1の閾値距離だけ自律飛経路から逸脱する際、ユーザにアラートを送信し得、第1の閾値距離よりも大きな第2の閾値距離に達したとき、更なる逸脱を阻止し得る。 In some cases, an alert may be sent to the user when the threshold distance is reached. The alert can be a visual alert, an audible alert, and / or a tactile alert. In some cases, alerts can be sent to the user terminal. The alert may notify the user that the user is at a threshold distance. In some cases, the alert may notify the user that continuation of user input and / or deviation from the original autonomous flight path leads to the end of autonomous flight. In some cases, alerts may be sent when the threshold distance is reached, but the autonomous flight of the UAV may continue to be modified by user input. In some cases, alerts may be sent when the threshold distance is reached, and further changes in flight path may be blocked as described above in embodiments 810, 820, or 830. In some cases, the behavior of the UAV may depend on more than one threshold. For example, the behavior of the UAV after the release of user input may depend on both the threshold time and the threshold distance. For example, the behavior of the UAV during user input can act on a first threshold distance (or time) and a second threshold distance (or time). In some cases, the UAV may alert the user when deviating from the autonomous flight path by a first threshold distance, further when a second threshold distance greater than the first threshold distance is reached. It can prevent deviation.

閾値距離について本明細書において主に考察したが、上記考察が閾値時間についても等しく該当し得ることを理解されたい。例えば、UAVが、閾値時間よりも長い持続時間にわたり自律飛経路から逸脱する場合、UAVを元の自律飛経路に強制的に戻し得、それから、逸脱を再度許可する。幾つかの場合、UAVの飛経路が、閾値時間よりも長い持続時間にわたり自律飛経路から逸脱する場合、上述したように、アラートをユーザに送信し得る。 Although the threshold distance has been discussed primarily herein, it should be understood that the above considerations may apply equally to the threshold time. For example, if the UAV deviates from the autonomous flight path for a duration longer than the threshold time, the UAV can be forced back into the original autonomous flight path and then allowed to deviate again. In some cases, if the UAV's flight path deviates from the autonomous flight path for a duration longer than the threshold time, an alert may be sent to the user, as described above.

自律飛経路の変更は、ユーザ入力が維持される時間期間のみ、維持し得る。代替的には、自律飛経路の変更は、ユーザ入力後、維持し得る。図9は、実施形態による、可動物体の自律飛行を変更するユーザ入力がリリースされた後のUAVの挙動を示す。構成910、920、930、940、及び950のそれぞれで、自律飛経路を変更するユーザ入力を時間期間T1にわたり受信し得る。ユーザ入力は、その時間期間後、リリースし得る。リリース後、可動物体は自律的に動作して、実施形態910及び920により示されるように、ターゲット(例えば、ターゲット物体及び/又はターゲット行先)に向かって飛行し得る。幾つかの場合、UAVは、UAVとターゲットとの間の最短飛経路を計算(例えば、自律的に計算)し、ターゲットに向かって移動するに当たりとるべき新しい自律飛経路912を生成し得る。幾つかの場合、UAVは、元の自律飛経路922に戻り、ターゲットに向かう自律飛行を続け得る。代替的には、リリース後、UAVは、変更飛経路932で飛行を続け得る。例えば、ヨースティックの作動及びその後のリリース後、UAVは、新しいロール方向に沿って飛行し得る。幾つかの場合、リリース後、UAVは、更なる入力まで、ユーザ入力がリリースされた位置942に留まり得る。例えば、UAVは、ユーザ入力がリリースされた位置でホバリングするか、又はユーザ入力がリリースされた位置若しくはその近傍に着陸し得る。幾つかの場合、リリース後、UAVは新しい自律飛経路952をとり得る。新しい自律飛経路は、元の自律飛経路に平行し得る。代替的には、新しい自律飛経路は、元の自律飛経路に関して任意の角度であり得る。 The change of the autonomous flight path can be maintained only for a period of time during which the user input is maintained. Alternatively, the change in autonomous flight path can be maintained after user input. FIG. 9 shows the behavior of the UAV after the user input for changing the autonomous flight of a moving object according to the embodiment is released. In each of the configurations 910, 920, 930, 940, and 950, user input for changing the autonomous flight path can be received over a time period of T1. User input may be released after that time period. After release, the movable object can move autonomously and fly towards the target (eg, the target object and / or the target destination) as shown by embodiments 910 and 920. In some cases, the UAV may calculate the shortest flight path between the UAV and the target (eg, autonomously) and generate a new autonomous flight path 912 to be taken in moving towards the target. In some cases, the UAV may return to its original autonomous flight path 922 and continue autonomous flight towards the target. Alternatively, after release, the UAV may continue to fly on modified flight path 932. For example, after the yaw stick is activated and subsequently released, the UAV may fly along the new roll direction. In some cases, after release, the UAV may remain at position 942 where the user input was released until further input. For example, the UAV may hover at the position where the user input was released, or land at or near the position where the user input was released. In some cases, after release, the UAV may take a new autonomous flight path 952. The new autonomous flight path can be parallel to the original autonomous flight path. Alternatively, the new autonomous flight path can be at any angle with respect to the original autonomous flight path.

幾つかの場合、ユーザ入力(例えば、自律飛経路を変更する)のリリース後のUAVの挙動は、閾値に依存し得る。閾値は、閾値時間及び/又は閾値距離であり得る。例えば、ユーザ入力が閾値時間よりも長い持続時間にわたり提供される場合、ユーザ入力のリリース後、UAVは、構成930に示されるように、変更自律飛経路を継続し得る。しかし、ユーザ入力が閾値時間未満の持続時間にわたり提供される場合、UAVは、構成910又は920に示されるように、ターゲットに向けて自律的に動作し得る。幾つかの場合、ユーザ入力が、閾値時間未満の持続時間にわたり提供される場合、UAVは、構成940に示されるように、更なる命令が与えられるまで、ユーザ入力がリリースされた位置に留まり得る。閾値距離及び/又は閾値時間は、予め決定し得る。幾つかの場合、閾値距離及び/又は閾値時間は、UAVの動作前及び/又は動作中にユーザ構成し得る。 In some cases, the behavior of the UAV after the release of user input (eg, changing the autonomous flight path) may depend on the threshold. The threshold can be a threshold time and / or a threshold distance. For example, if the user input is provided for a duration longer than the threshold time, the UAV may continue the modified autonomous flight path after the release of the user input, as shown in configuration 930. However, if the user input is provided for a duration less than the threshold time, the UAV may act autonomously towards the target, as shown in configuration 910 or 920. In some cases, if the user input is provided for a duration less than the threshold time, the UAV may remain in the released position until further instructions are given, as shown in configuration 940. .. The threshold distance and / or the threshold time can be determined in advance. In some cases, the threshold distance and / or threshold time may be user-configured before and / or during the operation of the UAV.

閾値時間が主に考察されたが、上記考察が閾値距離に関しても等しく該当し得ることを理解されたい。例えば、UAVが閾値距離を超えて元の自律飛経路から逸脱するようなユーザ入力が提供される場合、ユーザ入力のリリース後、UAVは、構成930に示されるように、変更自律飛経路を継続し得る。しかし、UAVが閾値距離未満、元の自律飛経路から逸脱するようなユーザ入力が提供される場合、UAVは、構成910若しくは920に示されるようにターゲットに向けて自律的に動作し得るか、又は構成940に示されるように、ユーザ入力がリリースされた位置に留まり得る。 Although the threshold time was mainly considered, it should be understood that the above considerations can be equally applicable with respect to the threshold distance. For example, if a user input is provided such that the UAV exceeds the threshold distance and deviates from the original autonomous flight path, then after the release of the user input, the UAV continues the modified autonomous flight path, as shown in configuration 930. Can be. However, if a user input is provided such that the UAV is less than a threshold distance and deviates from the original autonomous flight path, can the UAV act autonomously towards the target as shown in configuration 910 or 920? Alternatively, as shown in configuration 940, the user input may remain in the released position.

本明細書に提供される様々な構成の任意の組合せが可能であり得る。例えば、ユーザ入力が閾値時間未満の持続時間にわたり提供される場合、UAVは、構成930に示されるように、変更自律飛経路を継続し得、一方、ユーザ入力が閾値時間よりも長い持続時間にわたり維持される場合、UAVは、構成910又は920に示されるように、元のターゲットに向けて自律的に動作し得る。加えて、UAVの挙動は2つ以上の閾値に依存し得る。例えば、ユーザ入力のリリース後のUAVの挙動は、閾値時間及び閾値距離の両方に依存し得る。例えば、ユーザ入力のリリース後のUAVの挙動は、ユーザ入力が第1の閾値時間(又は距離)よりも長い持続時間にわたり維持されるか、それとも第2の閾値時間(又は距離)よりも長い持続時間にわたり維持されるかに依存し得る。 Any combination of the various configurations provided herein may be possible. For example, if the user input is provided for a duration less than the threshold time, the UAV may continue the modified autonomous flight path, as shown in configuration 930, while the user input lasts longer than the threshold time. If maintained, the UAV may act autonomously towards the original target, as shown in configuration 910 or 920. In addition, the behavior of the UAV can depend on more than one threshold. For example, the behavior of the UAV after the release of user input may depend on both the threshold time and the threshold distance. For example, the behavior of the UAV after the release of the user input is that the user input is maintained for a duration longer than the first threshold time (or distance) or longer than the second threshold time (or distance). It can depend on whether it is maintained over time.

UAVが新しい自律飛経路の追従を開始すると、自律飛行中の後続のユーザ入力は、新しい自律飛経路を変更し得る。代替的には、自律飛行中の後続のユーザ入力は、元の自律飛経路に関してUAVを変更し得る。図10は、実施形態による、ユーザ入力により変更されたUAVの新しい自律飛経路を示す。実質的に本明細書に記載されるように、UAV1002の自律飛行を行い得る。UAVの自律飛行は、元の自律飛経路1004を含み得る。時間期間T1中、ユーザ入力は、UAVの自律飛経路を変更し得る。ユーザ入力のリリース後、UAVは自律飛行を続け得る。幾つかの場合、UAVは、新しい自律飛経路1006を用いての自律飛行を続け得る。時間期間T2中、新しいユーザ入力は、UAVの新しい自律飛経路を変更し得る。幾つかの場合、変更1008は、実施形態1010に示されるように、新しい自律飛経路に関しての変更であり得る。例えば、方向成分を新しい自律飛経路に追加し得る。方向成分は、新しい自律飛経路に直交し得る。幾つかの場合、方向成分は、UAVの横断面等の基準面又は水平面に沿って追加し得る。代替又は追加として、UAVの新しい自律飛経路を変更するに当たり、速度成分をUAVに追加し得る。速度成分は、UAVの新しい自律飛経路に直交し得る。幾つかの場合、速度成分は、UAVの横断面等の基準面又は水平面に沿って追加し得る。代替又は追加として、UAVの新しい自律飛経路を変更するに当たり、加速度成分をUAVに追加し得る。加速度成分は、UAVの新しい自律飛経路に直交し得る。幾つかの場合、加速度成分は、UAVの横断面等の基準面又は水平面に沿って追加し得る。 When the UAV begins to follow the new autonomous flight path, subsequent user input during autonomous flight may change the new autonomous flight path. Alternatively, subsequent user input during autonomous flight may modify the UAV with respect to the original autonomous flight path. FIG. 10 shows a new autonomous flight path of the UAV modified by user input according to the embodiment. Substantially, the UAV1002 can be autonomously flown as described herein. The UAV's autonomous flight may include the original autonomous flight path 1004. During the time period T1, the user input may change the autonomous flight path of the UAV. After the release of user input, the UAV may continue to fly autonomously. In some cases, the UAV may continue autonomous flight using the new autonomous flight path 1006. During the time period T2, a new user input may change the new autonomous flight path of the UAV. In some cases, the change 1008 may be a change with respect to the new autonomous flight path, as shown in embodiment 1010. For example, a directional component can be added to a new autonomous flight path. The directional component can be orthogonal to the new autonomous flight path. In some cases, directional components may be added along a reference plane or horizontal plane, such as the cross section of the UAV. As an alternative or addition, a velocity component may be added to the UAV as it modifies the new autonomous flight path of the UAV. The velocity component can be orthogonal to the new autonomous flight path of the UAV. In some cases, the velocity component may be added along a reference plane or horizontal plane, such as the cross section of the UAV. As an alternative or addition, an acceleration component may be added to the UAV in changing the new autonomous flight path of the UAV. The acceleration component can be orthogonal to the new autonomous flight path of the UAV. In some cases, the acceleration component may be added along a reference plane or horizontal plane, such as the cross section of the UAV.

幾つかの場合、変更1022は、実施形態1020に示されるように、元の自律飛経路1024に関しての変更であり得る。例えば、方向成分を元の自律飛経路に追加し得る。方向成分は、元の自律飛経路に直交し得る。幾つかの場合、方向成分は、UAVの横断面等の基準面又は水平面に沿って追加し得る。代替又は追加として、UAVの新しい自律飛経路を変更するに当たり、速度成分をUAVに追加し得る。速度成分は、UAVの元の自律飛経路に直交し得る。幾つかの場合、速度成分は、UAVの横断面等の基準面又は水平面に沿って追加し得る。代替又は追加として、UAVの新しい自律飛経路を変更するに当たり、加速度成分をUAVに追加し得る。加速度成分は、UAVの元の自律飛経路に直交し得る。幾つかの場合、加速度成分は、UAVの横断面等の基準面又は水平面に沿って追加し得る。 In some cases, change 1022 may be a change with respect to the original autonomous flight path 1024, as shown in embodiment 1020. For example, a directional component can be added to the original autonomous flight path. The directional component can be orthogonal to the original autonomous flight path. In some cases, directional components may be added along a reference plane or horizontal plane, such as the cross section of the UAV. As an alternative or addition, a velocity component may be added to the UAV as it modifies the new autonomous flight path of the UAV. The velocity component can be orthogonal to the original autonomous flight path of the UAV. In some cases, the velocity component may be added along a reference plane or horizontal plane, such as the cross section of the UAV. As an alternative or addition, an acceleration component may be added to the UAV in changing the new autonomous flight path of the UAV. The acceleration component can be orthogonal to the original autonomous flight path of the UAV. In some cases, the acceleration component may be added along a reference plane or horizontal plane, such as the cross section of the UAV.

幾つかの場合、全体を通して記載される1つ又は複数の制御スティックは、UAVの動作への作用と併せて使用し得る。例えば、1つ又は複数の制御スティックは、同時に又は順次使用し得る。幾つかの場合、1つ又は複数の制御スティックを一緒に使用して、UAVの自律飛行を調整し得る。幾つかの場合、ヨースティックは、ロールスティック、ピッチスティック、及び/又はスロットルスティックと一緒に使用し得る。幾つかの場合、ロールスティックは、ピッチスティック、スロットルスティック、及び/又はヨースティックと一緒に使用し得る。幾つかの場合、ピッチスティックは、スロットルスティック、ヨースティック、及び/又はロールスティックと一緒に使用し得る。幾つかの場合、スロットルスティックは、ヨースティック、ロールスティック、及び/又はピッチスティックと一緒に使用し得る。幾つかの場合、ユーザにより2つの入力手段(例えば、2つの制御スティック)を動作させて、自律飛行中、UAVの挙動に作用又は変更し得る。幾つかの場合、ユーザにより3つ、4つ、5つ、6つ、7つ、8つ、9つ、10、又は11以上の入力手段を動作させて、UAVの自律飛行中、UAVの挙動に作用又は変更し得る。入力手段は、実質的に他の箇所に記載されるように、制御スティック、ボタン、加速度計、音声入力デバイス等を含み得るが、これらに限定されない。UAVの自律飛行が行われている間、ユーザ端末上で(例えば、制御スティックに)提供されるユーザ入力の組合せは、UAVの自律飛行を新規の方法で更に変更し得る。 In some cases, one or more control sticks described throughout may be used in conjunction with the action of the UAV. For example, one or more control sticks may be used simultaneously or sequentially. In some cases, one or more control sticks may be used together to coordinate the autonomous flight of the UAV. In some cases, yaw sticks can be used with roll sticks, pitch sticks, and / or throttle sticks. In some cases, roll sticks can be used with pitch sticks, throttle sticks, and / or yaw sticks. In some cases, pitch sticks can be used with throttle sticks, yaw sticks, and / or roll sticks. In some cases, throttle sticks can be used with yaw sticks, roll sticks, and / or pitch sticks. In some cases, the user may operate two input means (eg, two control sticks) to affect or alter the behavior of the UAV during autonomous flight. In some cases, the user may operate three, four, five, six, seven, eight, nine, ten, or eleven or more input means to behave during the autonomous flight of the UAV. Can act or change. Input means may include, but are not limited to, control sticks, buttons, accelerometers, voice input devices, etc., as described elsewhere in substance. While the UAV's autonomous flight is taking place, the combination of user inputs provided on the user terminal (eg, on the control stick) can further modify the UAV's autonomous flight in new ways.

例えば、UAVが自律飛行下にあり、特定の方向で飛行中である間(例えば、タップツーゴー動作下)、UAVのユーザは、ヨー軸の回りのUAVの回転に作用する制御スティック(例えば、ヨースティック)及びUAVの高さに作用する制御スティック(例えば、スロットルスティック)を動作させ得る。そのような場合、UAVは、円形に上昇又は下降し得る。ユーザの入力が各制御スティックで維持される場合、UAVは螺旋状に上昇又は下降し得る。例えば、UAVが自律飛行下(例えば、タップツーゴー動作下)である間、UAVのユーザは、ヨー軸の回りのUAVの回転に作用する制御スティック(例えば、ヨースティック)及びUAVの速度に作用する制御スティック(例えば、ピッチスティック)を動作させ得る。そのような場合、UAVのターンを精密に制御し得る。例えば、自律飛行下である間、ヨースティックを完全に作動させ得(例えば、左に)、一方、ピッチスティックを下に完全に作動させて、UAVの速度を低減し得る。曲率半径は、ヨースティックが作動する場合よりも更に低減し得る。 For example, while the UAV is in autonomous flight and in flight in a particular direction (eg, under tap-to-go operation), the user of the UAV has a control stick (eg, yaw stick) that acts on the rotation of the UAV around the yaw axis. ) And a control stick (eg, a throttle stick) that acts on the height of the UAV can be operated. In such cases, the UAV can rise or fall in a circular shape. The UAV can spiral up or down if the user's input is maintained on each control stick. For example, while the UAV is in autonomous flight (eg, tap-to-go operation), the user of the UAV has a control stick (eg, yaw stick) that acts on the rotation of the UAV around the yaw axis and controls that act on the speed of the UAV. A stick (eg, a pitch stick) can be operated. In such cases, the UAV's turn can be precisely controlled. For example, the yaw stick may be fully actuated (eg, to the left) while under autonomous flight, while the pitch stick may be fully actuated downward to reduce the speed of the UAV. The radius of curvature can be further reduced than if the yaw stick were activated.

本明細書に提供されるシステムは、UAVが目的の達成又はターゲットに向かう飛行を継続することができるような全体自律制御(例えば、飛行コントローラによる)を維持しながら、UAVの軌道をユーザが素早く変更できるようにし得る。所望時又は有利時のユーザによるある程度の制御をなお可能にしながら、ユーザへの航空機を手動操縦することの負担を大幅に低減することができるような、自律飛行と自律飛行の変更との間のシームレスな遷移が可能であり得る。代替又は追加として、異なるユーザインタフェースは、ユーザが緊急状況又は予期されない状況に迅速且つ直観的に対応できるようにし得る(例えば、自律飛行を中断するか、又は自律飛行を変更することにより)。 The system provided herein allows the user to quickly traverse the UAV while maintaining total autonomy control (eg, by a flight controller) that allows the UAV to achieve its objectives or continue to fly towards the target. May be changeable. Between autonomous flight and autonomous flight changes so that the burden of manually maneuvering the aircraft to the user can be significantly reduced while still allowing some control by the user at the desired or advantageous time. Seamless transitions are possible. Alternatively or additionally, different user interfaces may allow the user to respond quickly and intuitively to an emergency or unexpected situation (eg, by interrupting or changing autonomous flight).

本明細書に記載されるシステム、デバイス、及び方法は、多種多様な可動物体に適用することができる。先に述べたように、本明細書での航空車両の任意の記載は、任意の可動物体に適用し得、任意の可動物体に使用し得る。本発明の可動物体は、空中(例えば、固定翼機、回転翼航空機、又は固定翼も回転翼も有さない航空機)、水中(例えば、船舶若しくは潜水艦)、地上(例えば、車、トラック、バス、バン、自動二輪車等の自動車両、スティック、釣り竿等の可動構造若しくはフレーム、若しくは列車)、地下(例えば、地下鉄)、宇宙空間(例えば、宇宙飛行機、衛星、若しくは宇宙探査機)、又はこれらの環境の任意の組合せ等の任意の適する環境内で移動するように構成することができる。可動物体は、本明細書の他の箇所に記載される車両等の車両であることができる。幾つかの実施形態では、可動物体は、人間又は動物等の生体に搭載することができる。適する動物には、鳥類、アビン(avines)、ネコ、ウマ、ウシ、ヒツジ、ブタ、デルフィン(delphines)、げっ歯類、または昆虫が含まれ得る。 The systems, devices, and methods described herein can be applied to a wide variety of moving objects. As mentioned earlier, any description of an aviation vehicle herein may apply to any moving object and may be used for any moving object. Movable objects of the invention are in the air (eg, fixed-wing aircraft, rotorcraft, or aircraft without fixed-wing or rotorcraft), underwater (eg, ships or submarines), and on the ground (eg, cars, trucks, buses). , Vans, motor vehicles such as motorcycles, movable structures or frames such as sticks, fishing rods, or trains), underground (eg, subway), space (eg, spacecraft, satellites, or space probes), or these It can be configured to move within any suitable environment, such as any combination of environments. The movable object can be a vehicle, such as a vehicle described elsewhere herein. In some embodiments, the movable object can be mounted on a living body such as a human or an animal. Suitable animals can include birds, avines, cats, horses, cows, ovis aries, pigs, delphines, rodents, or insects.

可動物体は、自由度6(例えば、並進に自由度3及び回転に自由度3)に関して環境内を自在に移動可能であり得る。代替的には、可動物体の移動は、所定の経路、経路、又は向きによる等の1つ又は複数の自由度に関して制約することができる。移動は、エンジン又はモータ等の任意の適する作動機構により作動することができる。可動物体の作動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風力エネルギー、重力エネルギー、化学エネルギー、核エネルギー、又は任意の適するそれらの組合わせ等の任意の適するエネルギー源により電力供給することができる。可動物体は、本明細書の他の箇所に記載されるように、推進システムを介して自己推進し得る。推進システムは、任意選択的に、電気エネルギー、磁気エネルギー、太陽エネルギー、風力カエネルギー、重力エネルギー、化学エネルギー、核エネルギー、又はそれらの任意の適する組合わせ等のエネルギー源で駆動し得る。代替的には、可動物体は生体により携帯し得る。 The movable object may be freely movable in the environment with respect to 6 degrees of freedom (eg, 3 degrees of freedom for translation and 3 degrees of freedom for rotation). Alternatively, the movement of a movable object can be constrained with respect to one or more degrees of freedom, such as by a predetermined path, path, or orientation. The movement can be actuated by any suitable actuating mechanism such as an engine or motor. The working mechanism of a moving object can be powered by any suitable energy source such as electrical energy, magnetic energy, solar energy, wind energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof. .. Movable objects can be self-propelled through a propulsion system, as described elsewhere herein. The propulsion system can optionally be driven by an energy source such as electrical energy, magnetic energy, solar energy, wind power energy, gravity energy, chemical energy, nuclear energy, or any suitable combination thereof. Alternatively, the movable object can be carried by the living body.

幾つかの例では、可動物体は航空機であることができる。適する車両としては、水上車両、航空車両、宇宙車両、又は地上車両を挙げることができる。例えば、航空機は、固定翼航空機(例えば、飛行機、グライダー)、回転翼航空機(例えば、ヘリコプタ、回転翼機)、固定翼と回転翼の両方を有する航空機、又はいずれも有さない航空機(例えば、飛行船、熱気球)であり得る。車両は、空中、水上、水中、宇宙空間、地上、又は地下で自己推進されるような自己推進型であることができる。自己推進型車両は、1つ又は複数のエンジン、モータ、車輪、車軸、磁石、回転翼、プロペラ、翼、ノズル、又は任意の適するそれらの組合わせを含む推進システム等の推進システムを利用することができる。幾つかの場合では、推進システムを使用して、可動物体を表面から離陸させ、表面に着陸させ、現在の位置及び/又は向きを維持させ(例えば、ホバリングさせ)、向きを変更させ、及び/又は位置を変更させることができる。 In some examples, the moving object can be an aircraft. Suitable vehicles may include surface vehicles, aviation vehicles, space vehicles, or ground vehicles. For example, an aircraft may be a fixed-wing aircraft (eg, an airplane, a glider), a rotary-wing aircraft (eg, a helicopter, a rotorcraft), an aircraft with both fixed and rotary wings, or an aircraft without none (eg, It can be an aircraft, a hot air balloon). The vehicle can be self-propelled, such as self-propelled in the air, on the water, underwater, in outer space, above ground, or underground. Self-propelled vehicles utilize propulsion systems such as propulsion systems that include one or more engines, motors, wheels, axles, magnets, rotors, propellers, wings, nozzles, or any suitable combination thereof. Can be done. In some cases, propulsion systems are used to take off moving objects from the surface, land on the surface, maintain their current position and / or orientation (eg, hover), reorient, and / Or the position can be changed.

可動物体は、ユーザにより遠隔制御することもでき、又は可動物体内若しくは可動物体上の搭乗者によりローカルに制御することもできる。幾つかの実施形態では、可動物体は、UAV等の無人可動物体である。UAV等の無人可動物体は、可動物体に搭載された搭乗者を有さなくてよい。可動物体は、人間により、自律制御システム(例えば、コンピュータ制御システム)により、又は任意の適するそれらの組合わせにより制御することができる。可動物体は、人工知能が構成されたロボット等の自律的又は半自律的ロボットであることができる。 The movable object can be controlled remotely by the user, or can be controlled locally by the passenger in or on the movable object. In some embodiments, the movable object is an unmanned movable object such as a UAV. An unmanned movable object such as a UAV does not have to have a passenger mounted on the movable object. Movable objects can be controlled by humans, by autonomous control systems (eg, computer control systems), or by any suitable combination thereof. The movable object can be an autonomous or semi-autonomous robot such as a robot having artificial intelligence.

可動物体は、任意の適するサイズ及び/又は寸法を有することができる。幾つかの実施形態では、車両内又は車両上に人間の搭乗者を有するようなサイズ及び/又は寸法のものであり得る。代替的には、可動物体は、車両内又は車両上に人間の搭乗者を有することが可能なサイズ及び/又は寸法よりも小さなものであり得る。可動物体は、人間により持ち上げられるか、又は携帯されるのに適するサイズ及び/又は寸法であり得る。代替的には、可動物体は、人間により持ち上げられるか、又は携帯されるのに適するサイズ及び/又は寸法よりも大きくてよい。幾つかの場合、可動物体は、約2cm、約5cm、約10cm、約50cm、約1m、約2m、約5m、又は約10m以下の最大寸法(例えば、長さ、幅、高さ、直径、対角線)を有し得る。最大寸法は、約2cm、約5cm、約10cm、約50cm、約1m、約2m、約5m、又は約10m以上であり得る。例えば、可動物体の対向する回転翼のシャフト間の距離は、約2cm、約5cm、約10cm、約50cm、約1m、約2m、約5m、又は約10m以下であり得る。代替的には、対向する回転翼のシャフト間の距離は、約2cm、約5cm、約10cm、約50cm、約1m、約2m、約5m、又は約10m以上であり得る。 Movable objects can have any suitable size and / or dimensions. In some embodiments, it may be of a size and / or size such that it has a human occupant in or on the vehicle. Alternatively, the movable object may be smaller in size and / or size capable of having a human occupant in or on the vehicle. Movable objects can be of a size and / or size suitable for being lifted or carried by humans. Alternatively, the movable object may be larger than the size and / or size suitable for being lifted or carried by a human. In some cases, the movable object has a maximum dimension of about 2 cm, about 5 cm, about 10 cm, about 50 cm, about 1 m, about 2 m, about 5 m, or about 10 m or less (eg, length, width, height, diameter, etc. Diagonal) can have. The maximum dimensions can be about 2 cm, about 5 cm, about 10 cm, about 50 cm, about 1 m, about 2 m, about 5 m, or about 10 m or more. For example, the distance between the shafts of the opposing rotors of a movable object can be about 2 cm, about 5 cm, about 10 cm, about 50 cm, about 1 m, about 2 m, about 5 m, or about 10 m or less. Alternatively, the distance between the shafts of the opposing rotors can be about 2 cm, about 5 cm, about 10 cm, about 50 cm, about 1 m, about 2 m, about 5 m, or about 10 m or more.

幾つかの実施形態では、可動物体は、100cm×100cm×100cm未満、50cm×50cm×30cm未満、又は5cm×5cm×3cm未満の体積を有し得る。可動物体の総体積は、約1cm以下、約2cm以下、約5cm以下、約10cm以下、約20cm以下、約30cm以下、約40cm以下、約50cm以下、約60cm以下、約70cm以下、約80cm以下、約90cm以下、約100cm以下、約150cm以下、約200cm以下、約300cm以下、約500cm以下、約750cm以下、約1000cm以下、約5000cm以下、約10,000cm以下、約100,000cm以下、約1m以下、又は約10m以下であり得る。逆に、可動物体の総体積は、約1cm以上、約2cm以上、約5cm以上、約10cm以上、約20cm以上、約30cm以上、約40cm以上、約50cm以上、約60cm以上、約70cm以上、約80cm以上、約90cm以上、約100cm以上、約150cm以上、約200cm以上、約300cm以上、約500cm以上、約750cm以上、約1000cm以上、約5000cm以上、約10,000cm以上、約100,000cm以上、約1m以上、又は約10m以上であり得る。 In some embodiments, the movable object may have a volume of less than 100 cm x 100 cm x 100 cm, less than 50 cm x 50 cm x 30 cm, or less than 5 cm x 5 cm x 3 cm. The total volume of movable objects is about 1 cm 3 or less, about 2 cm 3 or less, about 5 cm 3 or less, about 10 cm 3 or less, about 20 cm 3 or less, about 30 cm 3 or less, about 40 cm 3 or less, about 50 cm 3 or less, about 60 cm 3 or less, about 70cm 3 or less, about 80cm 3 or less, about 90cm 3 or less, about 100cm 3 or less, about 150cm 3 or less, about 200cm 3 or less, about 300cm 3 or less, about 500cm 3 or less, about 750cm 3 or less, about 1000cm 3 or less, about 5000 cm 3 or less, about 10,000 cm 3 or less, about 100,000 3 below, it may be about 1 m 3 or less, or about 10 m 3 or less. On the contrary, the total volume of movable objects is about 1 cm 3 or more, about 2 cm 3 or more, about 5 cm 3 or more, about 10 cm 3 or more, about 20 cm 3 or more, about 30 cm 3 or more, about 40 cm 3 or more, about 50 cm 3 or more, about 60cm 3 or more, about 70cm 3 or more, about 80 cm 3 or more, about 90cm 3 or more, about 100 cm 3 or more, about 150 cm 3 or more, about 200 cm 3 or more, about 300 cm 3 or more, about 500 cm 3 or more, about 750 cm 3 or more, about 1000 cm 3 or more, about 5000 cm 3 or more, about 10,000 cm 3 or more, about 100,000 3 or more, about 1 m 3 or more, or about 10 m 3 or more.

幾つかの実施形態では、可動物体は、約32,000cm以下、約20,000cm以下、約10,000cm以下、約1,000cm以下、約500cm以下、約100cm以下、約50cm以下、約10cm以下、又は約5cm以下の設置面積(可動物体により包含される横方向の断面積と呼び得る)を有し得る。逆に、設置面積は、約32,000cm以上、約20,000cm以上、約10,000cm以上、約1,000cm以上、約500cm以上、約100cm以上、約50cm以上、約10cm以上、又は約5cm以上であり得る。 In some embodiments, the movable object is about 32,000Cm 2 or less, about 20,000 cm 2 or less, about 10,000 cm 2 or less, about 1,000 cm 2 or less, about 500 cm 2 or less, about 100 cm 2 or less, about It can have an installation area of 50 cm 2 or less, about 10 cm 2 or less, or about 5 cm 2 or less (which can be referred to as the lateral cross-sectional area included by the movable object). Conversely, footprint, of about 32,000Cm 2 or more, about 20,000 cm 2 or more, about 10,000 cm 2 or more, about 1,000 cm 2 or more, about 500 cm 2 or more, about 100 cm 2 or more, about 50 cm 2 or more, It can be about 10 cm 2 or more, or about 5 cm 2 or more.

幾つかの場合では、可動物体は1000kg以下の重量であり得る。可動物体の重量は、約1000kg以下、約750kg以下、約500kg以下、約200kg以下、約150kg以下、約100kg以下、約80kg以下、約70kg以下、約60kg以下、約50kg以下、約45kg以下、約40kg以下、約35kg以下、約30kg以下、約25kg以下、約20kg以下、約15kg以下、約12kg以下、約10kg以下、約9kg以下、約8kg以下、約7kg以下、約6kg以下、約5kg以下、約4kg以下、約3kg以下、約2kg以下、約1kg以下、約0.5kg以下、約0.1kg以下、約0.05kg以下、又は約0.01kg以下であり得る。逆に、重量は、約1000kg以上、約750kg以上、約500kg以上、約200kg以上、約150kg以上、約100kg以上、約80kg以上、約70kg以上、約60kg以上、約50kg以上、約45kg以上、約40kg以上、約35kg以上、約30kg以上、約25kg以上、約20kg以上、約15kg以上、約12kg以上、約10kg以上、約9kg以上、約8kg以上、約7kg以上、約6kg以上、約5kg以上、約4kg以上、約3kg以上、約2kg以上、約1kg以上、約0.5kg以上、約0.1kg以上、約0.05kg以上、又は約0.01kg以上であり得る。 In some cases, the movable object can weigh less than 1000 kg. The weight of the movable object is about 1000 kg or less, about 750 kg or less, about 500 kg or less, about 200 kg or less, about 150 kg or less, about 100 kg or less, about 80 kg or less, about 70 kg or less, about 60 kg or less, about 50 kg or less, about 45 kg or less, About 40 kg or less, about 35 kg or less, about 30 kg or less, about 25 kg or less, about 20 kg or less, about 15 kg or less, about 12 kg or less, about 10 kg or less, about 9 kg or less, about 8 kg or less, about 7 kg or less, about 6 kg or less, about 5 kg Hereinafter, it may be about 4 kg or less, about 3 kg or less, about 2 kg or less, about 1 kg or less, about 0.5 kg or less, about 0.1 kg or less, about 0.05 kg or less, or about 0.01 kg or less. On the contrary, the weight is about 1000 kg or more, about 750 kg or more, about 500 kg or more, about 200 kg or more, about 150 kg or more, about 100 kg or more, about 80 kg or more, about 70 kg or more, about 60 kg or more, about 50 kg or more, about 45 kg or more. About 40 kg or more, about 35 kg or more, about 30 kg or more, about 25 kg or more, about 20 kg or more, about 15 kg or more, about 12 kg or more, about 10 kg or more, about 9 kg or more, about 8 kg or more, about 7 kg or more, about 6 kg or more, about 5 kg As mentioned above, it may be about 4 kg or more, about 3 kg or more, about 2 kg or more, about 1 kg or more, about 0.5 kg or more, about 0.1 kg or more, about 0.05 kg or more, or about 0.01 kg or more.

幾つかの実施形態では、可動物体は、可動物体により運ばれる積載物に相対して小さくてよい。積載物は、更に詳細に後述するように、搭載物及び/又は支持機構を含み得る。幾つかの例では、積載物の重量に対する可動物体の重量の比は、約1:1よりも大きい、小さい、又は等しくてもよい。幾つかの場合では、積載物の重量に対する可動物体の重量の比は、約1:1よりも大きい、小さい、又は等しくてもよい。任意選択的に、積載物の重量に対する支持機構の重量の比は、約1:1よりも大きい、小さい、又は等しくてもよい。所望の場合、積載物の重量に対する可動物体の重量の比は、1:2以下、1:3以下、1:4以下、1:5以下、1:10以下、又はそれよりも小さな比であり得る。逆に、積載物の重量に対する可動物体の重量の比は、2:1以上、3:1以上、4:1以上、5:1以上、10:1以上、又はそれよりも大きな比であることもできる。 In some embodiments, the movable object may be smaller relative to the load carried by the movable object. The load may include a load and / or a support mechanism, as described in more detail below. In some examples, the ratio of the weight of the moving object to the weight of the load may be greater than, less than, or equal to about 1: 1. In some cases, the ratio of the weight of the moving object to the weight of the load may be greater than, less than, or equal to about 1: 1. Optionally, the ratio of the weight of the support mechanism to the weight of the load may be greater than, less than, or equal to about 1: 1. If desired, the ratio of the weight of the moving object to the weight of the load is 1: 2 or less, 1: 3 or less, 1: 4 or less, 1: 5 or less, 1:10 or less, or less. obtain. On the contrary, the ratio of the weight of the movable object to the weight of the load shall be 2: 1 or more, 3: 1 or more, 4: 1 or more, 5: 1 or more, 10: 1 or more, or a larger ratio. You can also.

幾つかの実施形態では、可動物体は低エネルギー消費量を有し得る。例えば、可動物体は、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満、又はそれよりも小さな値を使用し得る。幾つかの場合では、可動物体の支持機構は低エネルギー消費量を有し得る。例えば、支持機構は、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満、又はそれよりも小さな値を使用し得る。任意選択的に、可動物体の搭載物は、約5W/h未満、約4W/h未満、約3W/h未満、約2W/h未満、約1W/h未満、又はそれよりも小さな値等の低エネルギー消費量を有し得る。 In some embodiments, the moving object may have low energy consumption. For example, the movable object may use values less than about 5 W / h, less than about 4 W / h, less than about 3 W / h, less than about 2 W / h, less than about 1 W / h, or less. In some cases, the moving object support mechanism may have low energy consumption. For example, the support mechanism may use values less than about 5 W / h, less than about 4 W / h, less than about 3 W / h, less than about 2 W / h, less than about 1 W / h, or less. Optionally, the payload of the movable object is less than about 5 W / h, less than about 4 W / h, less than about 3 W / h, less than about 2 W / h, less than about 1 W / h, or less. Can have low energy consumption.

図11は、実施形態による無人航空機(UAV)1100を示す。UAVは、本明細書に記載されるように、電池組立体を放電する方法及び装置を適用し得る可動物体の例であり得る。UAV1100は、4つの回転翼1102、1104、1106、及び1108を有する推進システムを含むことができる。任意の数の回転翼を提供し得る(例えば、1つ、2つ、3つ、4つ、5つ、6つ、又は7つ以上)。無人航空機の回転翼、回転翼組立体、又は他の推進システムは、無人航空機がホバリング/位置の維持、向きの変更、及び/又は位置の変更を行えるようにし得る。対向する回転翼のシャフト間の距離は、任意の適する長さ1110であることができる。例えば、長さ1110は、2m以下又は5m以下であることができる。幾つかの実施形態では、長さ1110は、40cm〜1m、10cm〜2m、又は5cm〜5mの範囲内であることができる。UAVの本明細書での任意の説明は、異なるタイプの可動物体等の可動物体に適用し得、この逆も同様である。UAVは、本明細書に記載されるような補助付き離陸システム又は方法を使用し得る。 FIG. 11 shows an unmanned aerial vehicle (UAV) 1100 according to an embodiment. The UAV may be an example of a moving object to which a method and device for discharging a battery assembly can be applied, as described herein. The UAV1100 can include a propulsion system with four rotors 1102, 1104, 1106, and 1108. Any number of rotors may be provided (eg, one, two, three, four, five, six, or seven or more). Rotorcraft, rotorcraft assemblies, or other propulsion systems for unmanned aerial vehicles may allow unmanned aerial vehicles to hover / maintain position, reorient, and / or reposition. The distance between the shafts of the opposing rotors can be any suitable length 1110. For example, the length 1110 can be 2 m or less or 5 m or less. In some embodiments, the length 1110 can be in the range of 40 cm to 1 m, 10 cm to 2 m, or 5 cm to 5 m. Any description of the UAV herein may apply to moving objects such as different types of moving objects and vice versa. UAVs may use assisted takeoff systems or methods as described herein.

図12は、実施形態による、可動物体を制御するシステム1200のブロック図による概略図である。システム1200は、本明細書に開示されるシステム、デバイス、及び方法の任意の適する実施形態と組み合わせて使用することができる。システム1200は、感知モジュール1202、処理ユニット1204、非一時的コンピュータ可読媒体1206、制御モジュール1208、及び通信モジュール1210を含むことができる。 FIG. 12 is a schematic block diagram of a system 1200 for controlling a movable object according to an embodiment. The system 1200 can be used in combination with any suitable embodiment of the systems, devices, and methods disclosed herein. The system 1200 can include a sensing module 1202, a processing unit 1204, a non-temporary computer readable medium 1206, a control module 1208, and a communication module 1210.

感知モジュール1202は、異なる方法で可動物体に関連する情報を収集する異なるタイプのセンサを利用することができる。異なるタイプのセンサは、異なるタイプの信号又は異なるソースからの信号を感知し得る。例えば、センサは、慣性センサ、GPSセンサ、近接センサ(例えばライダー)、又はビジョン/画像センサ(例えば、カメラ)を含むことができる。感知モジュール1202は、複数のプロセッサを有する処理ユニット1204に動作可能に接続することができる。幾つかの実施形態では、感知モジュールは、適する外部デバイス又はシステムに感知データを直接送信するように構成された送信モジュール1212(例えば、Wi−Fi画像送信モジュール)に動作可能に接続することができる。例えば、送信モジュール1212を使用して、感知モジュール1202のカメラにより捕捉された画像をリモート端末に送信することができる。 Sensing module 1202 can utilize different types of sensors that collect information related to moving objects in different ways. Different types of sensors may sense signals of different types or signals from different sources. For example, the sensor can include an inertial sensor, a GPS sensor, a proximity sensor (eg, a rider), or a vision / image sensor (eg, a camera). The sensing module 1202 can be operably connected to a processing unit 1204 having a plurality of processors. In some embodiments, the sensing module can be operably connected to a transmitting module 1212 (eg, a Wi-Fi image transmitting module) configured to transmit the sensing data directly to a suitable external device or system. .. For example, the transmission module 1212 can be used to transmit the image captured by the camera of the sensing module 1202 to the remote terminal.

処理ユニット1204は、プログラマブルプロセッサ(例えば、中央処理装置(CPU))等の1つ又は複数のプロセッサを有することができる。処理ユニット1204は、非一時的コンピュータ可読媒体1206に動作可能に接続することができる。非一時的コンピュータ可読媒体1206は、1つ又は複数のステップを実行するために処理ユニット1204により実行可能な論理、コード、及び/又はプログラム命令を記憶することができる。非一時的コンピュータ可読媒体は、1つ又は複数のメモリユニット(例えば、SDカード又はランダムアクセスメモリ(RAM)等のリムーバブルメディア又は外部ストレージ)を含むことができる。幾つかの実施形態では、感知モジュール1202からのデータは、非一時的コンピュータ可読媒体1206のメモリユニットに直接伝達され、そこに記憶することができる。非一時的コンピュータ可読媒体1206のメモリユニットは、処理ユニット1204により実行可能であり、本明細書に記載された方法による任意の適する実施形態を実行する論理、コード、及び/又はプログラム命令を記憶することができる。例えば、処理ユニット1204は、処理ユニット1204の1つ又は複数のプロセッサに、感知モジュールにより生成された感知データを解析させる命令を実行するように構成することができる。メモリユニットは、処理ユニット1204により処理された感知モジュールからの感知データを記憶することができる。幾つかの実施形態では、非一時的コンピュータ可読媒体1206のメモリユニットを使用して、処理ユニット1204により生成された処理結果を記憶することができる。 The processing unit 1204 can have one or more processors such as a programmable processor (eg, central processing unit (CPU)). The processing unit 1204 can be operably connected to a non-transitory computer-readable medium 1206. The non-transient computer-readable medium 1206 can store logic, code, and / or program instructions that can be executed by processing unit 1204 to perform one or more steps. Non-temporary computer-readable media can include one or more memory units (eg, removable media such as SD cards or random access memory (RAM) or external storage). In some embodiments, the data from the sensing module 1202 is transmitted directly to and stored in the memory unit of the non-transitory computer-readable medium 1206. The memory unit of the non-transient computer-readable medium 1206 is executable by processing unit 1204 and stores logic, code, and / or program instructions that execute any suitable embodiment according to the methods described herein. be able to. For example, the processing unit 1204 can be configured to cause one or more processors of the processing unit 1204 to execute an instruction to analyze the sensing data generated by the sensing module. The memory unit can store the sensing data from the sensing module processed by the processing unit 1204. In some embodiments, the memory unit of the non-transitory computer-readable medium 1206 can be used to store the processing results generated by the processing unit 1204.

幾つかの実施形態では、処理ユニット1204は、可動物体の状態を制御するように構成された制御モジュール1208に動作可能に接続することができる。例えば、制御モジュール1208は、可動物体の空間的配置、速度、及び/又は加速度を自由度6に関して調整するよう、可動物体の推進機構を制御するように構成することができる。代替的には、又は組み合わせて、制御モジュール1208は、支持機構、搭載物、又は感知モジュールの状態のうちの1つ又は複数を制御することができる。 In some embodiments, the processing unit 1204 can be operably connected to a control module 1208 configured to control the state of a moving object. For example, control module 1208 can be configured to control the propulsion mechanism of a movable object so as to adjust the spatial arrangement, velocity, and / or acceleration of the movable object with respect to six degrees of freedom. Alternatively, or in combination, control module 1208 can control one or more of the states of the support mechanism, payload, or sensing module.

処理ユニット1204は、1つ又は複数の外部デバイス(例えば、端末、ディスプレイデバイス、又は他のリモートコントローラ)からデータを送信及び/又は受信するように構成された通信モジュール1210に動作可能に接続することができる。有線通信又は無線通信等の任意の適する通信手段を使用し得る。例えば、通信モジュール1210は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、赤外線、無線、Wi−Fi、ポイントツーポイント(P2P)ネットワーク、電気通信網、クラウド通信等のうちの1つ又は複数を利用することができる。任意選択的に、電波塔、衛星、又は移動局等の中継局を使用することができる。無線通信は、近接度依存型であってもよく、又は近接度独立型であってもよい。幾つかの実施形態では、通信にLOF(line−of−sight)が必要なこともあれば、又は必要ないこともある。通信モジュール1210は、感知モジュール1202からの感知データ、処理ユニット1204により生成された処理結果、所定の制御データ、端末又はリモートコントローラからのユーザコマンド等のうちの1つ又は複数を送信及び/又は受信することができる。 The processing unit 1204 is operably connected to a communication module 1210 configured to transmit and / or receive data from one or more external devices (eg, a terminal, display device, or other remote controller). Can be done. Any suitable communication means such as wired communication or wireless communication may be used. For example, the communication module 1210 may be one or more of a local area network (LAN), wide area network (WAN), infrared, wireless, Wi-Fi, point-to-point (P2P) network, telecommunications network, cloud communication, and the like. Can be used. Optionally, a relay station such as a radio tower, satellite, or mobile station can be used. The wireless communication may be proximity-dependent or proximity-independent. In some embodiments, LOF (line-of-sight) may or may not be required for communication. The communication module 1210 transmits and / or receives one or more of the sensing data from the sensing module 1202, the processing result generated by the processing unit 1204, the predetermined control data, the user command from the terminal or the remote controller, and the like. can do.

システム1200の構成要素は、任意の適する構成で配置することができる。例えば、システム1200の構成要素のうちの1つ又は複数は、可動物体、支持機構、搭載物、端末、感知システム、又は上記のうち1つ又は複数と通信する追加の外部デバイスに配置することができる。さらに、図12は1つの処理ユニット1204及び1つの非一時的コンピュータ可読媒体1206を示すが、これは限定を意図せず、システム1200が複数の処理ユニット及び/又は非一時的コンピュータ可読媒体を含むことができることを当業者は理解する。幾つかの実施形態では、複数の処理ユニット及び/又は非一時的コンピュータ可読媒体のうちの1つ又は複数は、異なる場所、例えば可動物体、支持機構、搭載物、端末、感知モジュール、上記のうち1つ又は複数と通信する追加の外部デバイス、又はこれらの適する組合わせに配置することができ、それにより、システム1200により実行される処理及び/又はメモリ機能の任意の適する態様は、上記場所のうちの1つ又は複数で行うことができる。 The components of the system 1200 can be arranged in any suitable configuration. For example, one or more of the components of the system 1200 may be located on a moving object, support mechanism, on-board device, terminal, sensing system, or additional external device that communicates with one or more of the above. it can. Further, FIG. 12 shows one processing unit 1204 and one non-transient computer-readable medium 1206, which is not intended to be limiting and the system 1200 includes a plurality of processing units and / or non-transitory computer-readable media. Those skilled in the art understand that they can. In some embodiments, one or more of the plurality of processing units and / or non-transitory computer-readable media are in different locations, such as movable objects, support mechanisms, payloads, terminals, sensing modules, among the above. Any suitable embodiment of the processing and / or memory function performed by the system 1200 can be placed on an additional external device that communicates with one or more, or a suitable combination thereof, at the location described above. It can be done with one or more of them.

本明細書で使用される場合、A及び/又はBは、A又はB、及びA及びB等のそれらの組合せのうちの1つ又は複数を包含する。「第1」、「第2」、「第3」等の用語が、本明細書では、様々な要素、構成要素、領域、及び/又はセクションを記述するために使用されることがあり、これらの要素、構成要素、領域、及び/又はセクションが、これらの用語により限定されるべきではないことが理解される。これらの用語は単に、ある要素、構成要素、領域、又はセクションを別の要素、構成要素、領域、又はセクションから区別するためだけに使用されている。したがって、後述する第1の要素、構成要素、領域、又はセクションは、本発明の教示から逸脱せずに、第2の要素、構成要素、領域、又はセクションと呼ぶことができる。 As used herein, A and / or B includes one or more of A or B and combinations thereof such as A and B. Terms such as "first," "second," and "third" may be used herein to describe various elements, components, areas, and / or sections. It is understood that the elements, components, areas, and / or sections of are not limited by these terms. These terms are used solely to distinguish one element, component, area, or section from another element, component, area, or section. Therefore, the first element, component, area, or section described later can be referred to as a second element, component, area, or section without departing from the teachings of the present invention.

本明細書で使用される用語は、特定に実施形態を説明することのみを目的とし、本発明の限定を意図しない。本明細書で使用される場合、単数形「a」、「an」、及び「the」は、文脈により別段のことが明らかに示される場合を除き、複数形も同様に包含することが意図される。用語「備える」及び/又は「備えている」又は「含む」及び/又は「含んでいる」が、本明細書で使用される場合、述べられた特徴、領域、完全体、ステップ、動作、要素、及び/又は構成要素を指定するが、1つ又は複数の他の特徴、領域、完全体、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解される。 The terms used herein are solely for the purpose of specifically describing embodiments and are not intended to limit the invention. As used herein, the singular forms "a," "an," and "the" are intended to include the plural forms as well, unless the context clearly indicates otherwise. To. When the terms "equipped" and / or "equipped" or "contains" and / or "contains" are used herein, the features, areas, perfections, steps, actions, elements mentioned. , And / or specifying components, but not excluding the existence or addition of one or more other features, areas, perfections, steps, actions, elements, components, and / or groups thereof. Understood.

さらに、「下」又は「下部」及び「上」又は「上部」等の相対的な用語は、本明細書では、図に示されるようなある要素の、他の要素に対する関係を記述するために使用し得る。相対的な用語が、図に示される向きに加えて、要素の様々な向きの包含を意図することが理解される。例えば、図の1つでの要素が反転する場合、他の要素の「下」側にあるものとして説明された要素は、他の要素の「上」側に向けられる。したがって、例示的な用語である「下」は、図の特定の向きに応じて「下」及び「上」の向きの両方を包含することができる。同様に、図の1つでの要素が反転した場合、他の要素の「下」又は「真下」にあるものとして説明された要素は、他の要素の「上」に向けられる。したがって、例示的な用語「下」又は「真下」は、上及び下の向きの両方を包含することができる。 In addition, relative terms such as "bottom" or "bottom" and "top" or "top" are used herein to describe the relationship of one element to another, as shown in the figures. Can be used. It is understood that the relative terminology is intended to include the various orientations of the element in addition to the orientations shown in the figure. For example, if one element in the figure is inverted, the element described as being on the "bottom" side of the other element is directed to the "up" side of the other element. Thus, the exemplary term "down" can include both "down" and "up" orientations, depending on the particular orientation of the figure. Similarly, if one element in the figure is inverted, the element described as being "below" or "directly below" the other element is directed "above" the other element. Thus, the exemplary term "down" or "directly below" can include both up and down orientations.

本願発明の好ましい実施形態が本明細書に示され、説明されたが、そのような実施形態は、単に例として提供されたことが当業者には明らかである。多くの修正、変更、及び置換が、本発明から逸脱することなく、当業者に想起されるであろう。本明細書に記載された本発明の実施形態に対する様々な代替が、本発明を実行する際に利用可能であることが理解されるべきである。本明細書に記載された実施形態の多くの異なる組合せが可能であり、そのような組合せは、本開示の一部と見なされる。加えて、本明細書において任意の一実施形態に関連して考察された全ての特徴は、本明細書における他の実施形態で使用されるように容易に適合することができる。以下の特許請求の範囲が本発明の範囲を規定し、これらの特許請求の範囲及びそれらの均等物内の方法及び構造がそれにより包含されることが意図される。 Although preferred embodiments of the present invention have been shown and described herein, it will be apparent to those skilled in the art that such embodiments are provided merely by way of example. Many modifications, changes, and substitutions will be recalled to those skilled in the art without departing from the present invention. It should be understood that various alternatives to the embodiments of the invention described herein are available in carrying out the invention. Many different combinations of embodiments described herein are possible and such combinations are considered part of this disclosure. In addition, all features discussed in connection with any one embodiment herein can be readily adapted for use in other embodiments herein. It is intended that the following claims define the scope of the invention, thereby including the scope of these claims and the methods and structures within their equivalents.

Claims (578)

無人航空機(UAV)の自律飛行を変更するシステムであって、
第1のユーザ入力を受信するように構成される第1のユーザインタフェースであって、前記第1のユーザ入力は、前記UAVの自律飛行を行う1つ又は複数の命令を提供する、第1のユーザインタフェースと、
第2のユーザ入力を受信するように構成される第2のユーザインタフェースであって、前記第2のユーザ入力は、前記UAVの前記自律飛行を変更する1つ又は複数の命令を提供する、第2のユーザインタフェースと
を備える、システム。
A system that modifies the autonomous flight of unmanned aerial vehicles (UAVs)
A first user interface configured to receive a first user input, the first user input providing one or more instructions for autonomous flight of the UAV. User interface and
A second user interface configured to receive a second user input, wherein the second user input provides one or more instructions to modify the autonomous flight of the UAV. A system with two user interfaces.
前記自律飛行はターゲットに向かう飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is a flight toward a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項2に記載のシステム。 The system according to claim 2, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項1に記載のシステム。 The system of claim 1, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項1に記載のシステム。 The system of claim 1, wherein the autonomous flight tracks a target object. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項1に記載のシステム。 The system of claim 1, wherein the first user interface is located in a first device and the second user interface is located in a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項13に記載のシステム。 13. The system of claim 13, wherein the first device or the second device is a handheld device or mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項14に記載のシステム。 14. The system of claim 14, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項13に記載のシステム。 13. The system of claim 13, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項13に記載のシステム。 13. The system of claim 13, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項17に記載のシステム。 The system according to claim 17, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項17に記載のシステム。 The system according to claim 17, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項1に記載のシステム。 The system according to claim 1, wherein the first user interface and the second user interface are arranged in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項1に記載のシステム。 The system according to claim 1, wherein the first user interface includes a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項21に記載のシステム。 21. The system of claim 21, wherein the first user input is received via a user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を表示する、請求項1に記載のシステム。 The system according to claim 1, wherein the first user interface displays the position of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項1に記載のシステム。 The system of claim 1, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項1に記載のシステム。 The system of claim 1, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項25に記載のシステム。 25. The system of claim 25, wherein the one or more mechanisms include one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項26に記載のシステム。 26. The system of claim 26, wherein the one or more control sticks include roll sticks configured to act on the rotation of the UAV around a roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項26に記載のシステム。 26. The system of claim 26, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項28に記載のシステム。 28. The system of claim 28, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項26に記載のシステム。 26. The system of claim 26, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項30に記載のシステム。 30. The system of claim 30, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項26に記載のシステム。 26. The system of claim 26, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項32に記載のシステム。 The system according to claim 32, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項26に記載のシステム。 26. The system of claim 26, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項26に記載のシステム。 26. The system of claim 26, wherein the actuation of the one or more control sticks is configured to add centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項35に記載のシステム。 35. The system of claim 35, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項26に記載のシステム。 26. The system of claim 26, wherein the one or more control sticks are used to stop the autonomous flight. 前記第1のユーザインタフェースは、前記UAVの自律飛経路を表示する、請求項1に記載のシステム。 The system according to claim 1, wherein the first user interface displays an autonomous flight path of the UAV. 前記第1のユーザインタフェースは、前記UAVの変更飛経路を表示する、請求項38に記載のシステム。 38. The system of claim 38, wherein the first user interface displays the modified flight path of the UAV. 前記第2のユーザ入力は、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項1に記載のシステム。 The system of claim 1, wherein the second user input modifies the autonomous flight of the UAV over the duration of the second user input. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項1に記載のシステム。 The system according to claim 1, wherein the second user input changes the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項1に記載のシステム。 The system according to claim 1, wherein the second user input changes the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項1に記載のシステム。 The system according to claim 1, wherein the second user input changes the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項1に記載のシステム。 The system according to claim 1, wherein the second user input changes the acceleration of the UAV. 前記UAVの前記自律飛行は、前記第2のユーザ入力に呼応して環境要因を更に考慮して変更される、請求項1に記載のシステム。 The system according to claim 1, wherein the autonomous flight of the UAV is modified in response to the second user input in consideration of further environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項45に記載のシステム。 The system of claim 45, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項46に記載のシステム。 46. The system of claim 46, wherein the one or more sensors includes a camera. 前記UAVの前記自律飛行は、前記第2のユーザ入力を考慮に入れる飛行コントローラにより変更される、請求項1に記載のシステム。 The system of claim 1, wherein the autonomous flight of the UAV is modified by a flight controller that takes into account the second user input. 前記第2のユーザ入力を受信し、リリースした後、前記UAVは、前記UAVの前記自律飛行を変更する前記1つ又は複数の命令を受信する前に飛行していた飛経路に沿って飛行するように構成される、請求項1に記載のシステム。 After receiving and releasing the second user input, the UAV flies along the flight path it was flying before receiving the one or more commands that modify the autonomous flight of the UAV. The system according to claim 1, wherein the system is configured as follows. 前記第2のユーザ入力を受信し、リリースした後、前記UAVは、前記UAVの前記自律飛行を変更する前記1つ又は複数の命令を受信する前に飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように構成される、請求項1に記載のシステム。 After receiving and releasing the second user input, the UAV has a new flight path that is different from the flight path it was flying before receiving the one or more commands that modify the autonomous flight of the UAV. The system of claim 1, wherein the system is configured to fly along a path. 無人航空機(UAV)の自律飛行を変更する方法であって、
第1のユーザ入力を第1のユーザインタフェースにおいて受信することであって、前記第1のユーザ入力は、前記UAVの自律飛行を行う1つ又は複数の命令を提供する、第1のユーザ入力を受信することと、
第2のユーザ入力を第2のユーザインタフェースにおいて受信することであって、前記第2のユーザ入力は、前記UAVの前記自律飛行を変更する1つ又は複数の命令を提供する、第2のユーザ入力を受信することと
を含む、方法。
A way to change the autonomous flight of an unmanned aerial vehicle (UAV)
The first user input is to be received in the first user interface, the first user input providing one or more instructions for autonomous flight of the UAV. To receive and
The second user input is to receive the second user input in the second user interface, the second user input providing one or more instructions to modify the autonomous flight of the UAV. Methods, including receiving input.
前記自律飛行はターゲットに向かう飛行である、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is a flight towards a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項52に記載の方法。 52. The method of claim 52, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項51に記載の方法。 The method according to claim 51, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is an autonomously planned flight along an orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項51に記載の方法。 The method according to claim 51, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight tracks a target object. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項51に記載の方法。 51. The method of claim 51, wherein the first user interface is located in a first device and the second user interface is located in a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項63に記載の方法。 63. The method of claim 63, wherein the first device or the second device is a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項64に記載の方法。 64. The method of claim 64, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項63に記載の方法。 The method of claim 63, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項63に記載の方法。 63. The method of claim 63, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項67に記載の方法。 67. The method of claim 67, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項67に記載の方法。 67. The method of claim 67, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項51に記載の方法。 51. The method of claim 51, wherein the first user interface and the second user interface are located in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項51に記載の方法。 51. The method of claim 51, wherein the first user interface comprises a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項71に記載の方法。 The method of claim 71, wherein the first user input is received via the user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を示すように構成される、請求項51に記載の方法。 51. The method of claim 51, wherein the first user interface is configured to indicate the location of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項51に記載の方法。 51. The method of claim 51, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項51に記載の方法。 51. The method of claim 51, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項75に記載の方法。 The method of claim 75, wherein the one or more mechanisms comprises one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項76に記載の方法。 76. The method of claim 76, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around the roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項76に記載の方法。 The method of claim 76, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項78に記載の方法。 The method of claim 78, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項76に記載の方法。 The method of claim 76, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項80に記載の方法。 The method of claim 80, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項76に記載の方法。 76. The method of claim 76, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項82に記載の方法。 The method of claim 82, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項76に記載の方法。 76. The method of claim 76, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項76に記載の方法。 76. The method of claim 76, wherein the actuation of the one or more control sticks is configured to add an centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項85に記載の方法。 85. The method of claim 85, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項76に記載の方法。 The method of claim 76, wherein the one or more control sticks are used to stop the autonomous flight. 前記UAVの自律飛経路を前記第1のユーザインタフェースに表示することを更に含む、請求項51に記載の方法。 51. The method of claim 51, further comprising displaying the autonomous flight path of the UAV on the first user interface. 前記UAVの変更飛経路を前記第1のユーザインタフェースに表示することを更に含む、請求項88に記載の方法。 88. The method of claim 88, further comprising displaying the modified flight path of the UAV on the first user interface. 前記第2のユーザ入力は、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項51に記載の方法。 51. The method of claim 51, wherein the second user input modifies the autonomous flight of the UAV over the duration of the second user input. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項51に記載の方法。 51. The method of claim 51, wherein the second user input changes the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項51に記載の方法。 51. The method of claim 51, wherein the second user input changes the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項51に記載の方法。 51. The method of claim 51, wherein the second user input changes the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項51に記載の方法。 51. The method of claim 51, wherein the second user input changes the acceleration of the UAV. 前記UAVの前記自律飛行は、前記第2のユーザ入力に呼応して環境要因を更に考慮して変更される、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight of the UAV is modified in response to the second user input with further consideration of environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項95に記載の方法。 The method of claim 95, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項96に記載の方法。 The method of claim 96, wherein the one or more sensors comprises a camera. 前記UAVの前記自律飛行は、前記第2のユーザ入力を考慮に入れる飛行コントローラにより変更される、請求項51に記載の方法。 51. The method of claim 51, wherein the autonomous flight of the UAV is modified by a flight controller that takes into account the second user input. 前記1つ又は複数の命令が前記UAVの前記自律飛行を変更した後、前記UAVは、前記UAVの前記自律飛行を変更する前記1つ又は複数の命令を受信する前に飛行していた飛経路に沿って飛行するように構成される、請求項51に記載の方法。 After the one or more commands change the autonomous flight of the UAV, the UAV was flying before receiving the one or more commands to change the autonomous flight of the UAV. 51. The method of claim 51, which is configured to fly along. 前記1つ又は複数の命令が前記UAVの前記自律飛行を変更した後、前記UAVは、前記UAVの前記自律飛行を変更する前記1つ又は複数の命令を受信する前に飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように構成される、請求項51に記載の方法。 After the one or more commands change the autonomous flight of the UAV, the UAV was flying before receiving the one or more commands to change the autonomous flight of the UAV. 51. The method of claim 51, which is configured to fly along a new flight path different from that of. 無人航空機(UAV)の自律飛行を変更する非一時的コンピュータ可読媒体であって、
第1のユーザ入力を第1のユーザインタフェースにおいて受信することであって、前記第1のユーザ入力は、前記UAVの自律飛行を行う1つ又は複数の命令を提供する、第1のユーザ入力を受信することと、
第2のユーザ入力を第2のユーザインタフェースにおいて受信することであって、前記第2のユーザ入力は、前記UAVの前記自律飛行を変更する1つ又は複数の命令を提供する、第2のユーザ入力を受信することと
を行うコード、論理、又は命令を含む、非一時的コンピュータ可読媒体。
A non-temporary computer-readable medium that modifies the autonomous flight of unmanned aerial vehicles (UAVs).
The first user input is to be received in the first user interface, the first user input providing one or more instructions for autonomous flight of the UAV. To receive and
The second user input is to receive the second user input on the second user interface, the second user input providing one or more instructions to modify the autonomous flight of the UAV. A non-transitory computer-readable medium containing code, logic, or instructions that receive and do input.
前記自律飛行はターゲットに向かう飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the autonomous flight is a flight towards a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項102に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 102, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is an autonomously planned flight along an orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the autonomous flight tracks a target object. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the first user interface is located on a first device and the second user interface is located on a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項113に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 113, wherein the first device or the second device is a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項114に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 114, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項113に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 113, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項113に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 113, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項117に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 117, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項117に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 117, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the first user interface and the second user interface are arranged in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the first user interface includes a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項121に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 121, wherein the first user input is received via a user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を示すように構成される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the first user interface is configured to indicate the location of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項125に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 125, wherein the one or more mechanisms comprises one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項126に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 126, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around the roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項126に記載の非一時的コンピュータ可読媒体。 The non-temporary according to claim 126, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. Computer-readable medium. 前記作動の程度は、前記方向成分の大きさに対応する、請求項128に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 128, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項126に記載の非一時的コンピュータ可読媒体。 The non-temporary operation of the one or more control sticks according to claim 126, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. Computer-readable medium. 前記作動の程度は、前記速度成分の大きさに対応する、請求項130に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 130, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項126に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 126, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項132に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 132, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項126に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 126, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項126に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 126, wherein the actuation of the one or more control sticks is configured to add centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項135に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 135, wherein the degree of activation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項126に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 126, wherein the one or more control sticks are used to stop the autonomous flight. 前記第1のユーザインタフェースは、前記UAVの自律飛経路又は前記UAVの変更飛経路を表示するように構成される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the first user interface is configured to display the autonomous flight path of the UAV or the modified flight path of the UAV. 前記第2のユーザ入力は、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the second user input modifies the autonomous flight of the UAV over the duration of the second user input. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the second user input modifies the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the second user input modifies the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the second user input modifies the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the second user input modifies the acceleration of the UAV. 前記UAVの前記自律飛行は、前記第2のユーザ入力に呼応して環境要因を更に考慮して変更される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 101, wherein the autonomous flight of the UAV is modified in response to the second user input with further consideration of environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項144に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 144, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項145に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 145, wherein the one or more sensors comprises a camera. 前記UAVの前記自律飛行は、前記第2のユーザ入力を考慮に入れる飛行コントローラにより変更される、請求項101に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 101, wherein the autonomous flight of the UAV is modified by a flight controller that takes into account the second user input. 前記第2のユーザ入力を受信し、リリースした後、前記UAVは、前記UAVの前記自律飛行を変更する前記1つ又は複数の命令を受信する前に飛行していた飛経路に沿って飛行するように構成される、請求項101に記載の非一時的コンピュータ可読媒体。 After receiving and releasing the second user input, the UAV flies along the flight path it was flying before receiving the one or more commands that modify the autonomous flight of the UAV. The non-transitory computer-readable medium of claim 101. 前記第2のユーザ入力を受信し、リリースした後、前記UAVは、前記UAVの前記自律飛行を変更する前記1つ又は複数の命令を受信する前に飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように構成される、請求項101に記載の非一時的コンピュータ可読媒体。 After receiving and releasing the second user input, the UAV is a new flight different from the flight path it was flying before receiving the one or more commands that modify the autonomous flight of the UAV. The non-transitory computer-readable medium of claim 101, configured to fly along a path. 無人航空機(UAV)の自律飛行を変更するシステムであって、
(1)第1のユーザインタフェースにおいて受信される第1のユーザ入力に応答して、前記UAVの自律飛行を行う第1の組の信号を生成し、(2)第2のユーザインタフェースにおいて受信される第2のユーザ入力に応答して、前記UAVの前記自律飛行を変更する第2の組の命令を生成するように構成される飛行コントローラ
を備える、システム。
A system that modifies the autonomous flight of unmanned aerial vehicles (UAVs)
(1) In response to the first user input received in the first user interface, a first set of signals for autonomous flight of the UAV is generated, and (2) received in the second user interface. A system comprising a flight controller configured to generate a second set of commands that alter said autonomous flight of the UAV in response to a second user input.
前記自律飛行はターゲットに向かう飛行である、請求項150に記載のシステム。 The system of claim 150, wherein the autonomous flight is a flight towards a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項151に記載のシステム。 The system of claim 151, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項150に記載のシステム。 The system according to claim 150, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項150に記載のシステム。 The system of claim 150, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項150に記載のシステム。 The system of claim 150, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項150に記載のシステム。 The system according to claim 150, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項150に記載のシステム。 The system according to claim 150, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項150に記載のシステム。 The system according to claim 150, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項150に記載のシステム。 The system according to claim 150, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項150に記載のシステム。 The system of claim 150, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項150に記載のシステム。 The system of claim 150, wherein the autonomous flight tracks a target object. 前記飛行コントローラは、前記UAVに搭載して配置され、前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、前記UAVのオフボードに配置される、請求項150に記載のシステム。 The system of claim 150, wherein the flight controller is mounted on the UAV and the first user interface and the second user interface are located offboard the UAV. 前記飛行コントローラは、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項150に記載のシステム。 The system of claim 150, wherein the flight controller modifies the autonomous flight of the UAV over a duration of the second user input. 前記飛行コントローラは、前記第2のユーザ入力の程度に比例して、前記UAVの前記自律飛行を変更する、請求項150に記載のシステム。 The system of claim 150, wherein the flight controller modifies the autonomous flight of the UAV in proportion to the degree of the second user input. 前記飛行コントローラは、前記第2のユーザ入力を処理して解釈し、前記UAVの前記自律飛行を変更する、請求項150に記載のシステム。 The system of claim 150, wherein the flight controller processes and interprets the second user input to modify the autonomous flight of the UAV. 前記飛行コントローラは、閾値を超える前記自律飛行の更なる変更を阻止する、請求項150に記載のシステム。 The system of claim 150, wherein the flight controller prevents further alteration of the autonomous flight beyond a threshold. 前記飛行コントローラは、前記第2のユーザ入力に呼応して環境要因を考慮して、前記UAVの前記自律飛行を更に変更する、請求項150に記載のシステム。 The system of claim 150, wherein the flight controller further modifies the autonomous flight of the UAV in response to the second user input, taking into account environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項167に記載のシステム。 167. The system of claim 167, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項168に記載のシステム。 168. The system of claim 168, wherein the one or more sensors includes a camera. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項150に記載のシステム。 The system of claim 150, wherein the first user interface is located in a first device and the second user interface is located in a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項170に記載のシステム。 The system according to claim 170, wherein the first device or the second device is a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項171に記載のシステム。 171. The system of claim 171, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項170に記載のシステム。 The system of claim 170, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項170に記載のシステム。 The system according to claim 170, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項174に記載のシステム。 174. The system of claim 174, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項174に記載のシステム。 174. The system of claim 174, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項150に記載のシステム。 The system according to claim 150, wherein the first user interface and the second user interface are arranged in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項150に記載のシステム。 The system of claim 150, wherein the first user interface includes a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項178に記載のシステム。 178. The system of claim 178, wherein the first user input is received via a user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を示すように構成される、請求項150に記載のシステム。 The system of claim 150, wherein the first user interface is configured to indicate the location of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項150に記載のシステム。 The system of claim 150, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項150に記載のシステム。 The system of claim 150, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項182に記載のシステム。 182. The system of claim 182, wherein the one or more mechanisms include one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項183に記載のシステム。 183. The system of claim 183, wherein the one or more control sticks include roll sticks configured to act on the rotation of the UAV around the roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項183に記載のシステム。 183. The system of claim 183, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項185に記載のシステム。 The system of claim 185, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項183に記載のシステム。 183. The system of claim 183, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項187に記載のシステム。 The system of claim 187, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項183に記載のシステム。 183. The system of claim 183, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項189に記載のシステム。 The system according to claim 189, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項183に記載のシステム。 183. The system of claim 183, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項183に記載のシステム。 183. The system of claim 183, wherein the actuation of the one or more control sticks is configured to add centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項192に記載のシステム。 192. The system of claim 192, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項183に記載のシステム。 183. The system of claim 183, wherein the one or more control sticks are used to stop the autonomous flight. 前記第1のユーザインタフェースは、前記UAVの自律飛経路を表示するように構成される、請求項150に記載のシステム。 The system according to claim 150, wherein the first user interface is configured to display the autonomous flight path of the UAV. 前記第1のユーザインタフェースは、前記UAVの変更飛経路を前記第1のユーザインタフェースに表示するように構成される、請求項195に記載のシステム。 The system according to claim 195, wherein the first user interface is configured to display the modified flight path of the UAV on the first user interface. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項150に記載のシステム。 The system of claim 150, wherein the second user input changes the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項150に記載のシステム。 The system according to claim 150, wherein the second user input changes the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項150に記載のシステム。 The system of claim 150, wherein the second user input changes the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項150に記載のシステム。 The system of claim 150, wherein the second user input modifies the acceleration of the UAV. 前記飛行コントローラは、前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を生成するように更に構成される、請求項150に記載のシステム。 The flight controller is to generate a third set of signals that commands the UAV to fly along the flight path that the UAV was flying along before generating the second set of signals. The system according to claim 150, further comprising. 前記飛行コントローラは、前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を生成するように更に構成される、請求項150に記載のシステム。 The flight controller commands the UAV to fly along a new flight path that is different from the flight path that the UAV was flying along before generating the second set of signals. 150. The system of claim 150, further configured to generate the signal of. 無人航空機(UAV)の自律飛行を変更する方法であって、
第1のユーザインタフェースにおいて受信される第1のユーザ入力に応答して、飛行コントローラを用いて、前記UAVの自律飛行を行う第1の組の信号を生成することと、
第2のユーザインタフェースにおいて受信される第2のユーザ入力に応答して、前記飛行コントローラを用いて、前記UAVの前記自律飛行を変更する第2の組の信号を生成することと
を含む、方法。
A way to change the autonomous flight of an unmanned aerial vehicle (UAV)
In response to the first user input received in the first user interface, the flight controller is used to generate a first set of signals for autonomous flight of the UAV.
A method comprising using the flight controller to generate a second set of signals altering the autonomous flight of the UAV in response to a second user input received in the second user interface. ..
前記自律飛行はターゲットに向かう飛行である、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is a flight towards a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項204に記載の方法。 The method of claim 204, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項203に記載の方法。 The method according to claim 203, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項203に記載の方法。 The method according to claim 203, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項203に記載の方法。 The method of claim 203, wherein the autonomous flight tracks a target object. 前記飛行コントローラは、前記UAVに搭載して配置され、前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、前記UAVのオフボードに配置される、請求項203に記載の方法。 The method of claim 203, wherein the flight controller is mounted on the UAV and the first user interface and the second user interface are located offboard the UAV. 前記飛行コントローラは、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項203に記載の方法。 The method of claim 203, wherein the flight controller modifies the autonomous flight of the UAV over the duration of the second user input. 前記飛行コントローラは、前記第2のユーザ入力の程度に比例して、前記UAVの前記自律飛行を変更する、請求項203に記載の方法。 The method of claim 203, wherein the flight controller modifies the autonomous flight of the UAV in proportion to the degree of the second user input. 前記飛行コントローラは、前記第2のユーザ入力を処理して解釈し、前記UAVの前記自律飛行を変更する、請求項203に記載の方法。 The method of claim 203, wherein the flight controller processes and interprets the second user input to modify the autonomous flight of the UAV. 前記飛行コントローラは、閾値を超える前記自律飛行の更なる変更を阻止する、請求項203に記載の方法。 The method of claim 203, wherein the flight controller prevents further modification of the autonomous flight beyond a threshold. 前記飛行コントローラは、前記第2のユーザ入力に呼応して環境要因を考慮して、前記UAVの前記自律飛行を更に変更する、請求項203に記載の方法。 The method of claim 203, wherein the flight controller further modifies the autonomous flight of the UAV in response to the second user input, taking into account environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項220に記載の方法。 The method of claim 220, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項221に記載の方法。 221. The method of claim 221 wherein the one or more sensors comprises a camera. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項203に記載の方法。 The method of claim 203, wherein the first user interface is located in a first device and the second user interface is located in a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項223に記載の方法。 223. The method of claim 223, wherein the first device or the second device is a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項224に記載の方法。 224. The method of claim 224, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項223に記載の方法。 223. The method of claim 223, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項223に記載の方法。 223. The method of claim 223, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項227に記載の方法。 227. The method of claim 227, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項227に記載の方法。 227. The method of claim 227, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項203に記載の方法。 The method of claim 203, wherein the first user interface and the second user interface are located in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項203に記載の方法。 The method of claim 203, wherein the first user interface comprises a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項231に記載の方法。 231. The method of claim 231, wherein the first user input is received via the user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を示すように構成される、請求項203に記載の方法。 The method of claim 203, wherein the first user interface is configured to indicate the location of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項203に記載の方法。 The method of claim 203, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項203に記載の方法。 The method of claim 203, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項235に記載の方法。 235. The method of claim 235, wherein the one or more mechanisms comprises one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項236に記載の方法。 236. The method of claim 236, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around the roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項236に記載の方法。 236. The method of claim 236, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項238に記載の方法。 238. The method of claim 238, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項236に記載の方法。 236. The method of claim 236, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項240に記載の方法。 The method of claim 240, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項236に記載の方法。 236. The method of claim 236, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項242に記載の方法。 242. The method of claim 242, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項236に記載の方法。 236. The method of claim 236, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項236に記載の方法。 236. The method of claim 236, wherein the actuation of the one or more control sticks is configured to add an centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項245に記載の方法。 245. The method of claim 245, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項236に記載の方法。 236. The method of claim 236, wherein the one or more control sticks are used to stop the autonomous flight. 前記UAVの自律飛経路を前記第1のユーザインタフェースに表示することを更に含む、請求項203に記載の方法。 The method of claim 203, further comprising displaying the autonomous flight path of the UAV on the first user interface. 前記UAVの変更飛経路を前記第1のユーザインタフェースに表示することを更に含む、請求項248に記載の方法。 248. The method of claim 248, further comprising displaying the modified flight path of the UAV on the first user interface. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項203に記載の方法。 The method of claim 203, wherein the second user input changes the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項203に記載の方法。 The method of claim 203, wherein the second user input changes the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項203に記載の方法。 The method of claim 203, wherein the second user input changes the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項203に記載の方法。 The method of claim 203, wherein the second user input changes the acceleration of the UAV. 前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を生成することを更に含む、請求項203に記載の方法。 A claim that further comprises generating a third set of signals that commands the UAV to fly along the flight path that the UAV was flying along before generating the second set of signals. Item 203. 前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を生成することを更に含む、請求項203に記載の方法。 Prior to generating the second set of signals, it generates a third set of signals that commands the UAV to fly along a new flight path that is different from the flight path the UAV was flying along. The method of claim 203, further comprising: 無人航空機(UAV)の自律飛行を変更する非一時的コンピュータ可読媒体であって、
第1のユーザインタフェースにおいて受信される第1のユーザ入力に応答して、飛行コントローラを用いて、前記UAVの自律飛行を行う第1の組の信号を生成することと、
第2のユーザインタフェースにおいて受信される第2のユーザ入力に応答して、前記飛行コントローラを用いて、前記UAVの前記自律飛行を変更する第2の組の信号を生成することと
を行うコード、論理、又は命令を含む、非一時的コンピュータ可読媒体。
A non-temporary computer-readable medium that modifies the autonomous flight of unmanned aerial vehicles (UAVs).
In response to the first user input received in the first user interface, the flight controller is used to generate a first set of signals for autonomous flight of the UAV.
A code that uses the flight controller to generate a second set of signals that alter the autonomous flight of the UAV in response to a second user input received on the second user interface. A non-transitory computer-readable medium containing logic or instructions.
前記自律飛行はターゲットに向かう飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight is a flight towards a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項257に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 257, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 256, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 256, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight is an autonomously planned flight along an orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 256, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the autonomous flight tracks a target object. 前記飛行コントローラは、前記UAVに搭載して配置され、前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、前記UAVのオフボードに配置される、請求項256に記載の非一時的コンピュータ可読媒体。 25. The non-transitory computer readable according to claim 256, wherein the flight controller is mounted on the UAV and the first user interface and the second user interface are mounted offboard the UAV. Medium. 前記飛行コントローラは、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the flight controller modifies the autonomous flight of the UAV over a duration of the second user input. 前記飛行コントローラは、前記第2のユーザ入力の程度に比例して、前記UAVの前記自律飛行を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the flight controller modifies the autonomous flight of the UAV in proportion to the degree of the second user input. 前記飛行コントローラは、前記第2のユーザ入力を処理して解釈し、前記UAVの前記自律飛行を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the flight controller processes and interprets the second user input to modify the autonomous flight of the UAV. 前記飛行コントローラは、閾値を超える前記自律飛行の更なる変更を阻止する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the flight controller prevents further alteration of the autonomous flight beyond a threshold. 前記飛行コントローラは、前記第2のユーザ入力に呼応して環境要因を考慮して、前記UAVの前記自律飛行を更に変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the flight controller further modifies the autonomous flight of the UAV in response to environmental factors in response to the second user input. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項273に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 273, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項274に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 274, wherein the one or more sensors comprises a camera. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the first user interface is located on a first device and the second user interface is located on a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項276に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 276, wherein the first device or the second device is a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項277に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 277, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項276に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 276, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項276に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 276, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項280に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 280, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項280に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 280, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 256, wherein the first user interface and the second user interface are arranged in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the first user interface includes a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項284に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 284, wherein the first user input is received via the user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を示すように構成される、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the first user interface is configured to indicate the location of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項288に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 288, wherein the one or more mechanisms comprises one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項289に記載の非一時的コンピュータ可読媒体。 289. The non-transitory computer-readable medium of claim 289, wherein the one or more control sticks include roll sticks configured to act on the rotation of the UAV around a roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項289に記載の非一時的コンピュータ可読媒体。 The non-temporary according to claim 289, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. Computer-readable medium. 前記作動の程度は、前記方向成分の大きさに対応する、請求項291に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 291. The degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項289に記載の非一時的コンピュータ可読媒体。 The non-temporary according to claim 289, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. Computer-readable medium. 前記作動の程度は、前記速度成分の大きさに対応する、請求項293に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 293, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項289に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 289, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項295に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 295, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項289に記載の非一時的コンピュータ可読媒体。 289. The non-transitory computer-readable medium of claim 289, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項289に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 289, wherein the actuation of the one or more control sticks is configured to add centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項298に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 298, wherein the degree of activation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項289に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 289, wherein the one or more control sticks are used to stop the autonomous flight. 前記第1のユーザインタフェースは、前記UAVの自律飛経路を表示するように構成される、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 256, wherein the first user interface is configured to display the autonomous flight path of the UAV. 前記第1のユーザインタフェースは、前記UAVの変更飛経路を表示するように構成される、請求項301に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 301, wherein the first user interface is configured to display the modified flight path of the UAV. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the second user input modifies the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the second user input modifies the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the second user input modifies the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項256に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 256, wherein the second user input modifies the acceleration of the UAV. 前記飛行コントローラは、前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を更に生成するように構成される、請求項256に記載の非一時的コンピュータ可読媒体。 The flight controller further generates a third set of signals that commands the UAV to fly along the flight path that the UAV was flying along before generating the second set of signals. The non-transitory computer-readable medium of claim 256, configured as such. 前記飛行コントローラは、前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を更に生成するように構成される、請求項256に記載の非一時的コンピュータ可読媒体。 The flight controller commands the UAV to fly along a new flight path that is different from the flight path that the UAV was flying along before generating the second set of signals. The non-transitory computer-readable medium of claim 256, which is configured to further generate the signal of. 無人航空機(UAV)であって、
前記UAVの自律飛行を命令する第1の組の信号であって、前記第1の組の信号は、第1のユーザインタフェースにおいて受信される第1のユーザ入力に基づいて生成される、第1の組の信号、及び(2)前記UAVの前記自律飛行の変更を命令する第2の組の信号であって、前記第2の組の信号は、第2のユーザインタフェースにおいて受信される第2のユーザ入力に基づいて生成される、第2の組の信号を生成するように構成される飛行コントローラと、
(a)前記第1の組の信号に応答して、前記UAVの前記自律飛行を行い、(b)前記第2の組の信号に応答して、前記UAVの前記自律飛行を変更するように構成される1つ又は複数の推進ユニットと
を備える、UAV。
Unmanned aerial vehicle (UAV)
A first set of signals that commands the autonomous flight of the UAV, the first set of signals being generated based on a first user input received in a first user interface. And (2) a second set of signals instructing the change of the autonomous flight of the UAV, the second set of signals being received in a second user interface. A flight controller configured to generate a second set of signals, generated based on the user input of
(A) The autonomous flight of the UAV is performed in response to the first set of signals, and (b) the autonomous flight of the UAV is modified in response to the second set of signals. A UAV with one or more propulsion units configured.
前記自律飛行はターゲットに向かう飛行である、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight is a flight towards a target. 前記ターゲットはターゲット物体又はターゲット行先である、請求項310に記載のUAV。 The UAV of claim 310, wherein the target is a target object or a target destination. 前記自律飛行は所定の位置への飛行である、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項309に記載のUAV。 The UAV according to claim 309, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項309に記載のUAV。 The UAV according to claim 309, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記自律飛行はターゲット物体を追跡する、請求項309に記載のUAV。 The UAV of claim 309, wherein the autonomous flight tracks a target object. 前記飛行コントローラは、前記UAVに搭載して配置され、前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、前記UAVのオフボードに配置される、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the flight controller is mounted on the UAV and the first user interface and the second user interface are located offboard the UAV. 前記飛行コントローラは、前記第2のユーザ入力の持続時間にわたり、前記UAVの前記自律飛行を変更する、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the flight controller modifies the autonomous flight of the UAV over the duration of the second user input. 前記飛行コントローラは、前記第2のユーザ入力の程度に比例して、前記UAVの前記自律飛行を変更する、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the flight controller modifies the autonomous flight of the UAV in proportion to the degree of the second user input. 前記飛行コントローラは、前記第2のユーザ入力を処理して解釈し、前記UAVの前記自律飛行を変更する、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the flight controller processes and interprets the second user input to modify the autonomous flight of the UAV. 前記飛行コントローラは、閾値を超える前記自律飛行の更なる変更を阻止する、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the flight controller prevents further alterations of the autonomous flight beyond a threshold. 前記飛行コントローラは、前記第2のユーザ入力に呼応して環境要因を考慮して、前記UAVの前記自律飛行を更に変更する、請求項309に記載のUAV。 30. The UAV of claim 309, wherein the flight controller further modifies the autonomous flight of the UAV in response to the second user input, taking into account environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項326に記載のUAV。 The UAV of claim 326, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項327に記載のUAV。 327. The UAV of claim 327, wherein the one or more sensors includes a camera. 前記第1のユーザインタフェースは第1のデバイスに配置され、前記第2のユーザインタフェースは第2のデバイスに配置される、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the first user interface is located on a first device and the second user interface is located on a second device. 前記第1のデバイス又は前記第2のデバイスは、ハンドヘルドデバイス又はモバイルデバイスである、請求項329に記載のUAV。 329. The UAV of claim 329, wherein the first device or the second device is a handheld device or mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項330に記載のUAV。 The UAV of claim 330, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記第2のデバイスはリモートコントローラである、請求項329に記載のUAV。 The UAV of claim 329, wherein the second device is a remote controller. 前記第1のデバイス及び前記第2のデバイスは、互いに動作可能に接続される、請求項329に記載のUAV。 329. The UAV of claim 329, wherein the first device and the second device are operably connected to each other. 前記第1のデバイス及び前記第2のデバイスは、無線接続を介して接続される、請求項333に記載のUAV。 333. The UAV of claim 333, wherein the first device and the second device are connected via a wireless connection. 前記第1のデバイス及び前記第2のデバイスは、有線接続を介して接続される、請求項333に記載のUAV。 333. The UAV of claim 333, wherein the first device and the second device are connected via a wired connection. 前記第1のユーザインタフェース及び前記第2のユーザインタフェースは、1つのデバイスに配置される、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the first user interface and the second user interface are located in one device. 前記第1のユーザインタフェースはタッチスクリーンを含む、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the first user interface includes a touch screen. 前記第1のユーザ入力は、前記タッチスクリーンのユーザタップを介して受信される、請求項337に記載のUAV。 337. The UAV of claim 337, wherein the first user input is received via the user tap on the touch screen. 前記第1のユーザインタフェースは、二次元マップ上で前記UAVの位置を示すように構成される、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the first user interface is configured to indicate the location of the UAV on a two-dimensional map. 前記第1のユーザインタフェースは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項309に記載のUAV。 309. The UAV of claim 309, wherein the first user interface is configured to display an image received from a camera connected to the UAV. 前記第2のユーザインタフェースは、1つ又は複数の作動可能な機構を含む、請求項340に記載のUAV。 The UAV of claim 340, wherein the second user interface comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項341に記載のUAV。 341. The UAV of claim 341, wherein the one or more mechanisms include one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around a roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項344に記載のUAV。 The UAV of claim 344, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項346に記載のUAV。 The UAV of claim 346, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項348に記載のUAV。 The UAV according to claim 348, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the actuation of the one or more control sticks is configured to add an centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項351に記載のUAV。 351. The UAV of claim 351 whose degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記1つ又は複数の制御スティックは、前記自律飛行の停止に使用される、請求項342に記載のUAV。 342. The UAV of claim 342, wherein the one or more control sticks are used to stop the autonomous flight. 前記第1のユーザインタフェースは、前記UAVの自律飛経路を前記第1のユーザインタフェースに表示するように構成される、請求項309に記載のUAV。 The UAV according to claim 309, wherein the first user interface is configured to display the autonomous flight path of the UAV on the first user interface. 前記第1のユーザインタフェースは、前記UAVの変更飛経路を前記第1のユーザインタフェースに表示するように構成される、請求項354に記載のUAV。 The UAV according to claim 354, wherein the first user interface is configured to display the modified flight path of the UAV on the first user interface. 前記第2のユーザ入力は、前記UAVの高度を変更する、請求項309に記載のUAV。 The UAV of claim 309, wherein the second user input changes the altitude of the UAV. 前記第2のユーザ入力は、前記UAVの軌道を変更する、請求項309に記載のUAV。 The UAV of claim 309, wherein the second user input modifies the trajectory of the UAV. 前記第2のユーザ入力は、前記UAVの速度を変更する、請求項309に記載のUAV。 The UAV of claim 309, wherein the second user input changes the speed of the UAV. 前記第2のユーザ入力は、前記UAVの加速度を変更する、請求項309に記載のUAV。 The UAV of claim 309, wherein the second user input modifies the acceleration of the UAV. 前記飛行コントローラは、前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を生成するように更に構成される、請求項309に記載のUAV。 The flight controller is to generate a third set of signals that commands the UAV to fly along the flight path that the UAV was flying along before generating the second set of signals. 309. The UAV of claim 309, further comprising. 前記飛行コントローラは、前記第2の組の信号を生成する前、前記UAVが沿って飛行していた飛経路とは異なる新しい飛経路に沿って飛行するように前記UAVに命令する第3の組の信号を生成するように更に構成される、請求項309に記載のUAV。 The flight controller commands the UAV to fly along a new flight path that is different from the flight path that the UAV was flying along before generating the second set of signals. 309. The UAV of claim 309, further configured to generate the signal of. 無人航空機(UAV)の飛行を制御するシステムであって、
1つ又は複数のプロセッサ
を備え、
前記1つ又は複数のプロセッサは、個々に又は集合的に、
前記UAVの自律飛行を行うことであって、前記自律飛行は自律飛経路を含む、自律飛行を行うことと、
ユーザ入力に応答して前記自律飛経路を変更することであって、前記自律飛経路は、自律飛行を維持しながら変更される、変更することと
を行うように構成される、システム。
A system that controls the flight of unmanned aerial vehicles (UAVs)
Equipped with one or more processors
The one or more processors, individually or collectively,
The autonomous flight of the UAV, the autonomous flight including the autonomous flight path, and the autonomous flight.
A system configured to change the autonomous flight path in response to user input, the autonomous flight path being changed or changed while maintaining autonomous flight.
前記ユーザ入力は、方向成分を前記UAVの前記自律飛経路に追加するように構成される、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input is configured to add a directional component to the autonomous flight path of the UAV. 前記方向成分は前記自律飛経路に直交し、前記追加される方向成分は水平面に沿う、請求項363に記載のシステム。 363. The system of claim 363, wherein the directional component is orthogonal to the autonomous flight path and the additional directional component is along a horizontal plane. 前記ユーザ入力は、速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input is configured to add a velocity component to the autonomous flight path of the UAV. 前記速度成分は前記自律飛経路に直交し、前記追加される速度成分は水平面に沿う、請求項365に記載のシステム。 The system of claim 365, wherein the velocity component is orthogonal to the autonomous flight path and the added velocity component is along a horizontal plane. 前記ユーザ入力は、加速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input is configured to add an acceleration component to the autonomous flight path of the UAV. 前記加速度成分は前記自律飛経路に直交し、前記追加される加速度成分は水平面に沿う、請求項367に記載のシステム。 The system of claim 367, wherein the acceleration component is orthogonal to the autonomous flight path and the additional acceleration component is along a horizontal plane. ユーザ入力の程度は、前記自律飛経路の変更の程度に対応する、請求項362に記載のシステム。 The system according to claim 362, wherein the degree of user input corresponds to the degree of change in the autonomous flight path. 前記ユーザ入力の程度は、ユーザ入力の持続時間又はユーザ入力の力に対応する、請求項369に記載のシステム。 369. The system of claim 369, wherein the degree of user input corresponds to the duration of user input or the force of user input. 前記自律飛経路の変更は、前記ユーザ入力が維持される持続時間にわたってのみ、維持される、請求項362に記載のシステム。 362. The system of claim 362, wherein the change in autonomous flight path is maintained only for a duration during which the user input is maintained. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に戻すように構成される、請求項371に記載のシステム。 371. The system of claim 371, wherein the user-input release is configured to return the UAV to its original flight path. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に平行する飛経路に戻すように構成される、請求項371に記載のシステム。 371. The system of claim 371, wherein the user-input release is configured to return the UAV to a flight path parallel to the original flight path. 前記自律飛経路の変更は、1つのユーザ入力後、維持される、請求項362に記載のシステム。 362. The system according to claim 362, wherein the change of the autonomous flight path is maintained after one user input. 前記自律飛経路の変更は、新しい自律飛経路を含む、請求項374に記載のシステム。 374. The system of claim 374, wherein the modification of the autonomous flight path includes a new autonomous flight path. 前記新しい自律飛経路は、前記自律飛経路とは異なる軌道を有する、請求項375に記載のシステム。 The system according to claim 375, wherein the new autonomous flight path has a trajectory different from that of the autonomous flight path. 前記ユーザ入力は、所定の閾値を超えて前記自律飛経路を変更しない、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input does not change the autonomous flight path beyond a predetermined threshold. 前記所定の閾値は、前記自律飛経路からの前記UAVの所定の距離である、請求項377に記載のシステム。 The system according to claim 377, wherein the predetermined threshold value is a predetermined distance of the UAV from the autonomous flight path. 前記所定の閾値は所定の時間である、請求項377に記載のシステム。 The system of claim 377, wherein the predetermined threshold is a predetermined time. 前記ユーザ入力は、飛行コントローラにより処理され解釈されて、前記UAVの前記自律飛経路を変更する、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input is processed and interpreted by the flight controller to alter the autonomous flight path of the UAV. 前記UAVの前記自律飛行及び前記自律飛経路の変更は、前記UAVに搭載される飛行コントローラにより行われる、請求項362に記載のシステム。 362. The system according to claim 362, wherein the autonomous flight of the UAV and the change of the autonomous flight path are performed by a flight controller mounted on the UAV. 前記UAVの自律飛行は、ハンドヘルドデバイス又はモバイルデバイスを介して行われる、請求項362に記載のシステム。 362. The system of claim 362, wherein the UAV's autonomous flight is performed via a handheld device or mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項382に記載のシステム。 382. The system of claim 382, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、タッチスクリーンを備える、請求項382に記載のシステム。 382. The system of claim 382, wherein the handheld device or mobile device comprises a touch screen. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、二次元マップ上で前記UAVの位置を示すように構成される、請求項382に記載のシステム。 382. The system of claim 382, wherein the handheld device or mobile device is configured to indicate the location of the UAV on a two-dimensional map. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項382に記載のシステム。 382. The system of claim 382, wherein the handheld device or mobile device is configured to display an image received from a camera connected to the UAV. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVの前記自律飛経路を表示するように構成される、請求項382に記載のシステム。 382. The system of claim 382, wherein the handheld device or mobile device is configured to display the autonomous flight path of the UAV. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVの前記変更飛経路を表示するように構成される、請求項382に記載のシステム。 382. The system of claim 382, wherein the handheld device or mobile device is configured to display the modified flight path of the UAV. 前記ユーザ入力は、リモートコントローラで受信される、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input is received by a remote controller. 前記リモートコントローラは、1つ又は複数の作動可能な機構を含む、請求項389に記載のシステム。 389. The system of claim 389, wherein the remote controller comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項390に記載のシステム。 390. The system of claim 390, wherein the one or more mechanisms include one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項391に記載のシステム。 391. The system of claim 391, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around the roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項391に記載のシステム。 391. The system of claim 391, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項393に記載のシステム。 The system of claim 393, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項391に記載のシステム。 391. The system of claim 391, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項395に記載のシステム。 The system of claim 395, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項391に記載のシステム。 391. The system of claim 391, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項397に記載のシステム。 The system according to claim 397, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項391に記載のシステム。 391. The system of claim 391, wherein the one or more control sticks comprises a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項391に記載のシステム。 391. The system of claim 391, wherein the operation of the one or more control sticks is configured to add an centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項400に記載のシステム。 The system of claim 400, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記ユーザ入力は、前記UAVの高度を変更する、請求項362に記載のシステム。 362. The system of claim 362, wherein the user input changes the altitude of the UAV. 前記UAVの前記自律飛経路は、前記ユーザ入力に呼応して環境要因を更に考慮して、前記UAVの前記自律飛行を変更する、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight path of the UAV modifies the autonomous flight of the UAV in response to the user input, further considering environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項403に記載のシステム。 The system of claim 403, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項404に記載のシステム。 404. The system of claim 404, wherein the one or more sensors includes a camera. 前記UAVの前記自律飛経路は、前記ユーザ入力を考慮する飛行コントローラにより変更される、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight path of the UAV is modified by a flight controller that takes into account the user input. 前記自律飛行は所定の位置への飛行である、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項362に記載のシステム。 The system according to claim 362, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項362に記載のシステム。 The system according to claim 362, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項362に記載のシステム。 362. The system of claim 362, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記ユーザ入力に応答して前記自律飛経路を変更した後、前記UAVは前記自律飛経路に沿って飛行するように構成される、請求項362に記載のシステム。 362. The system of claim 362, wherein the UAV is configured to fly along the autonomous flight path after changing the autonomous flight path in response to the user input. 前記ユーザ入力に応答して前記自律飛経路を変更した後、前記UAVは、前記自律飛経路とは異なる新しい自律飛経路に沿って飛行するように構成される、請求項362に記載のシステム。 362. The system of claim 362, wherein after changing the autonomous flight path in response to the user input, the UAV is configured to fly along a new autonomous flight path different from the autonomous flight path. 無人航空機(UAV)の飛行を制御する方法であって、
前記UAVの自律飛行を行うことであって、前記自律飛行は自律飛経路を含む、自律飛行を行うことと、
ユーザ入力に応答して前記自律飛経路を変更することであって、前記自律飛経路は、自律飛行を維持しながら変更される、変更することと
を含む、方法。
A way to control the flight of an unmanned aerial vehicle (UAV)
The autonomous flight of the UAV, the autonomous flight including the autonomous flight path, and the autonomous flight.
A method of changing the autonomous flight path in response to user input, comprising changing or changing the autonomous flight path while maintaining autonomous flight.
前記ユーザ入力は、方向成分を前記UAVの前記自律飛経路に追加するように構成される、請求項417に記載の方法。 417. The method of claim 417, wherein the user input is configured to add a directional component to the autonomous flight path of the UAV. 前記方向成分は前記自律飛経路に直交し、前記追加される方向成分は水平面に沿う、請求項418に記載の方法。 418. The method of claim 418, wherein the directional component is orthogonal to the autonomous flight path and the additional directional component is along a horizontal plane. 前記ユーザ入力は、速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項417に記載の方法。 417. The method of claim 417, wherein the user input is configured to add a velocity component to the autonomous flight path of the UAV. 前記速度成分は前記自律飛経路に直交し、前記追加される速度成分は水平面に沿う、請求項420に記載の方法。 The method of claim 420, wherein the velocity component is orthogonal to the autonomous flight path and the added velocity component is along a horizontal plane. 前記ユーザ入力は、加速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項417に記載の方法。 417. The method of claim 417, wherein the user input is configured to add an acceleration component to the autonomous flight path of the UAV. 前記加速度成分は前記自律飛経路に直交し、前記追加される加速度成分は水平面に沿う、請求項422に記載の方法。 422. The method of claim 422, wherein the acceleration component is orthogonal to the autonomous flight path and the additional acceleration component is along a horizontal plane. ユーザ入力の程度は、前記自律飛経路の変更の程度に対応する、請求項417に記載の方法。 The method according to claim 417, wherein the degree of user input corresponds to the degree of change in the autonomous flight path. 前記ユーザ入力の程度は、ユーザ入力の持続時間又はユーザ入力の力に対応する、請求項424に記載の方法。 424. The method of claim 424, wherein the degree of user input corresponds to the duration of user input or the force of user input. 前記自律飛経路の変更は、前記ユーザ入力が維持される持続時間にわたってのみ、維持される、請求項417に記載の方法。 417. The method of claim 417, wherein the change in autonomous flight path is maintained only for a duration during which the user input is maintained. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に戻すように構成される、請求項426に記載の方法。 426. The method of claim 426, wherein the user-input release is configured to return the UAV to its original flight path. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に平行する飛経路に戻すように構成される、請求項426に記載の方法。 426. The method of claim 426, wherein the user-input release is configured to return the UAV to a flight path parallel to the original flight path. 前記自律飛経路の変更は、1つのユーザ入力後、維持される、請求項417に記載の方法。 The method according to claim 417, wherein the change of the autonomous flight path is maintained after one user input. 前記自律飛経路の変更は、新しい自律飛経路を含む、請求項429に記載の方法。 The method of claim 429, wherein the modification of the autonomous flight path includes a new autonomous flight path. 前記新しい自律飛経路は、前記自律飛経路とは異なる軌道を有する、請求項430に記載の方法。 430. The method of claim 430, wherein the new autonomous flight path has a different trajectory than the autonomous flight path. 前記ユーザ入力は、所定の閾値を超えて前記自律飛経路を変更しない、請求項417に記載の方法。 417. The method of claim 417, wherein the user input does not change the autonomous flight path beyond a predetermined threshold. 前記所定の閾値は、前記自律飛経路からの前記UAVの所定の距離である、請求項432に記載の方法。 432. The method of claim 432, wherein the predetermined threshold is a predetermined distance of the UAV from the autonomous flight path. 前記所定の閾値は所定の時間である、請求項432に記載の方法。 432. The method of claim 432, wherein the predetermined threshold is a predetermined time. 前記ユーザ入力は、飛行コントローラにより処理され解釈されて、前記UAVの前記自律飛経路を変更する、請求項417に記載の方法。 417. The method of claim 417, wherein the user input is processed and interpreted by the flight controller to alter the autonomous flight path of the UAV. 前記UAVの前記自律飛行及び前記自律飛経路の変更は、前記UAVに搭載される飛行コントローラにより行われる、請求項417に記載の方法。 The method according to claim 417, wherein the autonomous flight of the UAV and the change of the autonomous flight path are performed by a flight controller mounted on the UAV. 前記UAVの自律飛行は、ハンドヘルドデバイス又はモバイルデバイスを介して行われる、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight of the UAV is performed via a handheld device or mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項437に記載の方法。 437. The method of claim 437, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、タッチスクリーンを備える、請求項437に記載の方法。 437. The method of claim 437, wherein the handheld device or mobile device comprises a touch screen. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、二次元マップ上で前記UAVの位置を示すように構成される、請求項437に記載の方法。 437. The method of claim 437, wherein the handheld device or mobile device is configured to indicate the location of the UAV on a two-dimensional map. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項437に記載の方法。 437. The method of claim 437, wherein the handheld device or mobile device is configured to display an image received from a camera connected to the UAV. 前記UAVの前記自律飛経路を前記ハンドヘルドデバイス又は前記モバイルデバイスに表示することを更に含む、請求項437に記載の方法。 437. The method of claim 437, further comprising displaying the autonomous flight path of the UAV on the handheld device or mobile device. 前記UAVの前記変更飛経路を前記ハンドヘルドデバイス又は前記モバイルデバイスに表示することを更に含む、請求項437に記載の方法。 437. The method of claim 437, further comprising displaying the modified flight path of the UAV on the handheld device or mobile device. 前記ユーザ入力は、リモートコントローラで受信される、請求項417に記載の方法。 417. The method of claim 417, wherein the user input is received by the remote controller. 前記リモートコントローラは、1つ又は複数の作動可能な機構を含む、請求項444に記載の方法。 444. The method of claim 444, wherein the remote controller comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項445に記載の方法。 445. The method of claim 445, wherein the one or more mechanisms comprises one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項446に記載の方法。 446. The method of claim 446, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around the roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項446に記載の方法。 446. The method of claim 446, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項448に記載の方法。 The method of claim 448, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項446に記載の方法。 446. The method of claim 446, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項450に記載の方法。 The method of claim 450, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項446に記載の方法。 446. The method of claim 446, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項452に記載の方法。 452. The method of claim 452, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項446に記載の方法。 446. The method of claim 446, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項446に記載の方法。 446. The method of claim 446, wherein the operation of the one or more control sticks is configured to add an centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項455に記載の方法。 The method of claim 455, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記ユーザ入力は、前記UAVの高度を変更する、請求項417に記載の方法。 417. The method of claim 417, wherein the user input changes the altitude of the UAV. 前記UAVの前記自律飛経路は、前記ユーザ入力に呼応して環境要因を更に考慮して、前記UAVの前記自律飛行を変更する、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight path of the UAV changes the autonomous flight of the UAV in response to the user input, further considering environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項458に記載の方法。 458. The method of claim 458, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項459に記載の方法。 459. The method of claim 459, wherein the one or more sensors comprises a camera. 前記UAVの前記自律飛経路は、前記ユーザ入力を考慮する飛行コントローラにより変更される、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight path of the UAV is modified by a flight controller that takes into account the user input. 前記自律飛行は所定の位置への飛行である、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項417に記載の方法。 The method according to claim 417, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項417に記載の方法。 The method of claim 417, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項417に記載の方法。 417. The method of claim 417, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記ユーザ入力に応答して前記自律飛経路を変更した後、前記UAVは前記自律飛経路に沿って飛行するように構成される、請求項417に記載の方法。 417. The method of claim 417, wherein the UAV is configured to fly along the autonomous flight path after changing the autonomous flight path in response to the user input. 前記ユーザ入力に応答して前記自律飛経路を変更した後、前記UAVは、前記自律飛経路とは異なる新しい自律飛経路に沿って飛行するように構成される、請求項417に記載の方法。 417. The method of claim 417, wherein after changing the autonomous flight path in response to the user input, the UAV is configured to fly along a new autonomous flight path different from the autonomous flight path. 無人航空機(UAV)の飛行を制御する非一時的コンピュータ可読媒体であって、
前記UAVの自律飛行を行うことであって、前記自律飛行は自律飛経路を含む、自律飛行を行うことと、
ユーザ入力に応答して前記自律飛経路を変更することであって、前記自律飛経路は、自律飛行を維持しながら変更される、変更することと
を行うコード、論理、又は命令を含む、非一時的コンピュータ可読媒体。
A non-transient computer-readable medium that controls the flight of unmanned aerial vehicles (UAVs).
The autonomous flight of the UAV, the autonomous flight including the autonomous flight path, and the autonomous flight.
Changing the autonomous flight path in response to user input, said autonomous flight path, comprising code, logic, or instructions that change, change, and maintain autonomous flight. Temporary computer-readable medium.
前記ユーザ入力は、方向成分を前記UAVの前記自律飛経路に追加するように構成される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the user input is configured to add a directional component to the autonomous flight path of the UAV. 前記方向成分は前記自律飛経路に直交し、前記追加される方向成分は水平面に沿う、請求項473に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 473, wherein the directional component is orthogonal to the autonomous flight path and the additional directional component is along a horizontal plane. 前記ユーザ入力は、速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the user input is configured to add a velocity component to the autonomous flight path of the UAV. 前記速度成分は前記自律飛経路に直交し、前記追加される速度成分は水平面に沿う、請求項475に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 475, wherein the velocity component is orthogonal to the autonomous flight path and the added velocity component is along a horizontal plane. 前記ユーザ入力は、加速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the user input is configured to add an acceleration component to the autonomous flight path of the UAV. 前記加速度成分は前記自律飛経路に直交し、前記追加される加速度成分は水平面に沿う、請求項477に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 477, wherein the acceleration component is orthogonal to the autonomous flight path and the additional acceleration component is along a horizontal plane. ユーザ入力の程度は、前記自律飛経路の変更の程度に対応する、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the degree of user input corresponds to the degree of change in the autonomous flight path. 前記ユーザ入力の程度は、ユーザ入力の持続時間又はユーザ入力の力に対応する、請求項479に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 479, wherein the degree of user input corresponds to the duration of user input or the force of user input. 前記自律飛経路の変更は、前記ユーザ入力が維持される持続時間にわたってのみ、維持される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the change in autonomous flight path is maintained only for a duration in which the user input is maintained. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に戻すように構成される、請求項481に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 481, wherein the user-input release is configured to return the UAV to its original flight path. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に平行する飛経路に戻すように構成される、請求項481に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 481, wherein the user-input release is configured to return the UAV to a flight path parallel to the original flight path. 前記自律飛経路の変更は、1つのユーザ入力後、維持される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the change of the autonomous flight path is maintained after one user input. 前記自律飛経路の変更は、新しい自律飛経路を含む、請求項484に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 484, wherein the modification of the autonomous flight path includes a new autonomous flight path. 前記新しい自律飛経路は、前記自律飛経路とは異なる軌道を有する、請求項485に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 485, wherein the new autonomous flight path has a trajectory different from that of the autonomous flight path. 前記ユーザ入力は、所定の閾値を超えて前記自律飛経路を変更しない、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the user input does not change the autonomous flight path beyond a predetermined threshold. 前記所定の閾値は、前記自律飛経路からの前記UAVの所定の距離である、請求項487に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 487, wherein the predetermined threshold value is a predetermined distance of the UAV from the autonomous flight path. 前記所定の閾値は所定の時間である、請求項487に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 487, wherein the predetermined threshold is a predetermined time. 前記ユーザ入力は、飛行コントローラにより処理され解釈されて、前記UAVの前記自律飛経路を変更する、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the user input is processed and interpreted by the flight controller to alter the autonomous flight path of the UAV. 前記UAVの前記自律飛行及び前記自律飛経路の変更は、前記UAVに搭載される飛行コントローラにより行われる、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight of the UAV and the change of the autonomous flight path are performed by a flight controller mounted on the UAV. 前記UAVの自律飛行は、ハンドヘルドデバイス又はモバイルデバイスを介して行われる、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight of the UAV is performed via a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項492に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 492, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、タッチスクリーンを備える、請求項492に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 492, wherein the handheld device or mobile device comprises a touch screen. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、二次元マップ上で前記UAVの位置を示すように構成される、請求項492に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 492, wherein the handheld device or mobile device is configured to indicate the location of the UAV on a two-dimensional map. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項492に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 492, wherein the handheld device or mobile device is configured to display an image received from a camera connected to the UAV. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVの前記自律飛経路を表示するように構成される、請求項492に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 492, wherein the handheld device or mobile device is configured to display the autonomous flight path of the UAV. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVの前記変更飛経路を表示するように構成される、請求項492に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 492, wherein the handheld device or mobile device is configured to display the modified flight path of the UAV. 前記ユーザ入力は、リモートコントローラで受信される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the user input is received by the remote controller. 前記リモートコントローラは、1つ又は複数の作動可能な機構を含む、請求項499に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 499, wherein the remote controller comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項500に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 500, wherein the one or more mechanisms comprises one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項501に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 501, wherein the one or more control sticks include roll sticks configured to act on the rotation of the UAV around a roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項501に記載の非一時的コンピュータ可読媒体。 The non-temporary operation of the one or more control sticks according to claim 501, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. Computer-readable medium. 前記作動の程度は、前記方向成分の大きさに対応する、請求項503に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 503, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項501に記載の非一時的コンピュータ可読媒体。 The non-temporary operation of the one or more control sticks according to claim 501, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. Computer-readable medium. 前記作動の程度は、前記速度成分の大きさに対応する、請求項505に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 505, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項501に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 501, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項507に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 507, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項501に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 501, wherein the one or more control sticks include yaw sticks configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項501に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 501, wherein the operation of the one or more control sticks is configured to add centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項510に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 510, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記ユーザ入力は、前記UAVの高度を変更する、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the user input changes the altitude of the UAV. 前記UAVの前記自律飛経路は、前記ユーザ入力に呼応して環境要因を更に考慮して、前記UAVの前記自律飛行を変更する、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight path of the UAV modifies the autonomous flight of the UAV in response to the user input, further considering environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項513に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 513, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項514に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 514, wherein the one or more sensors comprises a camera. 前記UAVの前記自律飛経路は、前記ユーザ入力を考慮する飛行コントローラにより変更される、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the autonomous flight path of the UAV is modified by a flight controller that takes into account the user input. 前記自律飛行は所定の位置への飛行である、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight is an autonomously planned flight along an orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to claim 472, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項472に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 472, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記ユーザ入力に応答して前記自律飛経路を変更した後、前記UAVを前記自律飛経路に沿って飛行させるコード、論理、又は命令を更に含む、請求項472に記載の非一時的コンピュータ可読媒体。 472. The non-transitory computer-readable medium of claim 472, further comprising code, logic, or instructions that cause the UAV to fly along the autonomous flight path after changing the autonomous flight path in response to the user input. .. 前記ユーザ入力に応答して前記自律飛経路を変更した後、前記UAVを前記自律飛経路とは異なる新しい自律飛経路に沿って飛行させるコード、論理、又は命令を更に含む、請求項472に記載の非一時的コンピュータ可読媒体。 472. Claim 472 further comprises a code, logic, or instruction to cause the UAV to fly along a new autonomous flight path different from the autonomous flight path after changing the autonomous flight path in response to the user input. Non-temporary computer-readable medium. 無人航空機(UAV)であって、
(1)前記UAVの自律飛行の第1の組の信号であって、前記自律飛行は自律飛経路を含む、第1の組の信号及び(2)前記自律飛経路を変更する第2の組の信号であって、前記自律飛経路は、前記自律飛行を維持しながら変更される、第2の組の信号を生成するように構成される飛行コントローラと、
1つ又は複数の推進ユニットであって、(a)前記第1の組の信号に応答して前記UAVの前記自律飛行を行い、(b)前記第2の組の信号に応答して前記UAVの前記自律飛経路を変更するように構成される、1つ又は複数の推進ユニットと
を備える、UAV。
Unmanned aerial vehicle (UAV)
(1) A first set of signals for the autonomous flight of the UAV, the autonomous flight includes a first set of signals including an autonomous flight path, and (2) a second set for changing the autonomous flight path. A flight controller configured to generate a second set of signals, wherein the autonomous flight path is modified while maintaining said autonomous flight.
One or more propulsion units that (a) perform the autonomous flight of the UAV in response to the first set of signals and (b) the UAV in response to the second set of signals. A UAV comprising one or more propulsion units configured to alter said autonomous flight path.
前記第2の組の信号は、方向成分を前記UAVの前記自律飛経路に追加するように構成される、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the second set of signals is configured to add a directional component to the autonomous flight path of the UAV. 前記方向成分は前記自律飛経路に直交し、前記追加される方向成分は水平面に沿う、請求項528に記載のUAV。 528. The UAV of claim 528, wherein the directional component is orthogonal to the autonomous flight path and the additional directional component is along a horizontal plane. 前記第2の組の信号は、速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the second set of signals is configured to add a velocity component to the autonomous flight path of the UAV. 前記速度成分は前記自律飛経路に直交し、前記追加される速度成分は水平面に沿う、請求項530に記載のUAV。 530. The UAV of claim 530, wherein the velocity component is orthogonal to the autonomous flight path and the added velocity component is along a horizontal plane. 前記第2の組の信号は、加速度成分を前記UAVの前記自律飛経路に追加するように構成される、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the second set of signals is configured to add an acceleration component to the autonomous flight path of the UAV. 前記加速度成分は前記自律飛経路に直交し、前記追加される加速度成分は水平面に沿う、請求項532に記載のUAV。 The UAV of claim 532, wherein the acceleration component is orthogonal to the autonomous flight path and the additional acceleration component is along a horizontal plane. 前記第2の組の信号の程度は、前記自律飛経路の変更の程度に対応する、請求項527に記載のUAV。 The UAV of claim 527, wherein the degree of the second set of signals corresponds to the degree of change in the autonomous flight path. 前記第2の組の信号の程度は、ユーザ入力の持続時間又はユーザ入力の力に対応する、請求項534に記載のUAV。 The UAV of claim 534, wherein the degree of the second set of signals corresponds to the duration of the user input or the force of the user input. 前記自律飛経路の変更は、前記ユーザ入力が維持される持続時間にわたってのみ、維持される、請求項527に記載のUAV。 The UAV of claim 527, wherein the autonomous flight path change is maintained only for a duration in which the user input is maintained. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に戻すように構成される、請求項536に記載のUAV。 536. The UAV of claim 536, wherein the user-input release is configured to return the UAV to its original flight path. 前記ユーザ入力のリリースは、前記UAVを元の飛経路に平行する飛経路に戻すように構成される、請求項536に記載のUAV。 536. The UAV of claim 536, wherein the user-input release is configured to return the UAV to a flight path parallel to the original flight path. 前記自律飛経路の変更は、1つのユーザ入力後、維持される、請求項527に記載のUAV。 The UAV according to claim 527, wherein the change in the autonomous flight path is maintained after one user input. 前記自律飛経路の変更は、新しい自律飛経路を含む、請求項539に記載のUAV。 The UAV of claim 539, wherein the modification of the autonomous flight path includes a new autonomous flight path. 前記新しい自律飛経路は、前記自律飛経路とは異なる軌道を有する、請求項540に記載のUAV。 The UAV of claim 540, wherein the new autonomous flight path has a different trajectory than the autonomous flight path. 前記第2の組の信号は、所定の閾値を超えて前記自律飛経路を変更しない、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the second set of signals does not change the autonomous flight path beyond a predetermined threshold. 前記所定の閾値は、前記自律飛経路からの前記UAVの所定の距離である、請求項542に記載のUAV。 The UAV according to claim 542, wherein the predetermined threshold value is a predetermined distance of the UAV from the autonomous flight path. 前記所定の閾値は所定の時間である、請求項542に記載のUAV。 542. The UAV of claim 542, wherein the predetermined threshold is a predetermined time. 前記UAVの自律飛行は、ハンドヘルドデバイス又はモバイルデバイスを介して行われる、請求項527に記載のUAV。 The UAV according to claim 527, wherein the autonomous flight of the UAV is performed via a handheld device or a mobile device. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、携帯電話、タブレット、又はPDAを含む、請求項545に記載のUAV。 The UAV of claim 545, wherein the handheld device or mobile device comprises a mobile phone, tablet, or PDA. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、タッチスクリーンを備える、請求項545に記載のUAV。 The UAV of claim 545, wherein the handheld device or mobile device comprises a touch screen. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、二次元マップ上で前記UAVの位置を示すように構成される、請求項545に記載のUAV。 The UAV of claim 545, wherein the handheld device or mobile device is configured to indicate the location of the UAV on a two-dimensional map. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVに接続されるカメラから受信される画像を表示するように構成される、請求項545に記載のUAV。 545. The UAV of claim 545, wherein the handheld device or mobile device is configured to display an image received from a camera connected to the UAV. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVの前記自律飛経路を表示するように構成される、請求項545に記載のUAV。 545. The UAV of claim 545, wherein the handheld device or mobile device is configured to display the autonomous flight path of the UAV. 前記ハンドヘルドデバイス又は前記モバイルデバイスは、前記UAVの前記変更飛経路を表示するように構成される、請求項545に記載のUAV。 545. The UAV of claim 545, wherein the handheld device or mobile device is configured to display the modified flight path of the UAV. 前記第2の組の信号は、ユーザ入力がリモートコントローラで受信されるに応答して生成される、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the second set of signals is generated in response to a user input being received by the remote controller. 前記リモートコントローラは、1つ又は複数の作動可能な機構を含む、請求項552に記載のUAV。 552. The UAV of claim 552, wherein the remote controller comprises one or more operable mechanisms. 前記1つ又は複数の機構は、1つ又は複数の制御スティックを含む、請求項553に記載のUAV。 The UAV of claim 553, wherein the one or more mechanisms include one or more control sticks. 前記1つ又は複数の制御スティックは、ロール軸の回りの前記UAVの回転に作用するように構成されるロールスティックを含む、請求項554に記載のUAV。 554. The UAV of claim 554, wherein the one or more control sticks include a roll stick configured to act on the rotation of the UAV around a roll axis. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する方向成分を追加するように構成され、前記追加される方向成分は水平面に沿う、請求項554に記載のUAV。 The UAV of claim 554, wherein the operation of the one or more control sticks is configured to add a directional component orthogonal to the autonomous flight path of the UAV, the added directional component being along a horizontal plane. 前記作動の程度は、前記方向成分の大きさに対応する、請求項556に記載のUAV。 The UAV according to claim 556, wherein the degree of operation corresponds to the magnitude of the directional component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に直交する速度成分を追加するように構成され、前記追加される速度成分は水平面に沿う、請求項554に記載のUAV。 The UAV of claim 554, wherein the operation of the one or more control sticks is configured to add a velocity component orthogonal to the autonomous flight path of the UAV, the added velocity component being along a horizontal plane. 前記作動の程度は、前記速度成分の大きさに対応する、請求項558に記載のUAV。 The UAV of claim 558, wherein the degree of operation corresponds to the magnitude of the velocity component. 前記1つ又は複数の制御スティックの作動は、前記UAVの自律飛経路に加速度成分を追加するように構成される、請求項554に記載のUAV。 554. The UAV of claim 554, wherein the operation of the one or more control sticks is configured to add an acceleration component to the autonomous flight path of the UAV. 前記作動の程度は、前記加速度成分の大きさに対応する、請求項560に記載のUAV。 The UAV according to claim 560, wherein the degree of operation corresponds to the magnitude of the acceleration component. 前記1つ又は複数の制御スティックは、ヨー軸の回りの前記UAVの回転に作用するように構成されるヨースティックを含む、請求項554に記載のUAV。 554. The UAV of claim 554, wherein the one or more control sticks include a yaw stick configured to act on the rotation of the UAV around the yaw axis. 前記1つ又は複数の制御スティックの作動は、前記UAVに向心加速度を追加するように構成される、請求項554に記載のUAV。 554. The UAV of claim 554, wherein the actuation of the one or more control sticks is configured to add centripetal acceleration to the UAV. 前記作動の程度は、前記UAVの軌道弧の半径のサイズに逆に対応する、請求項563に記載のUAV。 563. The UAV of claim 563, wherein the degree of actuation corresponds inversely to the size of the radius of the orbital arc of the UAV. 前記第2の組の信号は、前記UAVの高度を変更する、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the second set of signals alters the altitude of the UAV. 前記UAVの前記自律飛経路は、環境要因を更に考慮して変更される、請求項527に記載のUAV。 The UAV according to claim 527, wherein the autonomous flight path of the UAV is modified in consideration of further environmental factors. 前記環境要因は、前記UAVに搭載される1つ又は複数のセンサに基づいて特定される、請求項566に記載のUAV。 The UAV of claim 566, wherein the environmental factor is identified based on one or more sensors mounted on the UAV. 前記1つ又は複数のセンサはカメラを含む、請求項567に記載のUAV。 567. The UAV of claim 567, wherein the one or more sensors includes a camera. 前記自律飛行は所定の位置への飛行である、請求項527に記載のUAV。 The UAV of claim 527, wherein the autonomous flight is a flight to a predetermined position. 前記自律飛行は前記UAVの自律リターンである、請求項527に記載のUAV。 The UAV of claim 527, wherein the autonomous flight is an autonomous return of the UAV. 前記自律飛行は、1つ又は複数のウェイポイントに沿った自律ナビゲーションである、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the autonomous flight is autonomous navigation along one or more waypoints. 前記自律飛行は、対象ポイントへの自律飛行である、請求項527に記載のUAV。 The UAV according to claim 527, wherein the autonomous flight is an autonomous flight to a target point. 前記自律飛行は、予め設定される軌道又は予め設定される方向に沿った飛行である、請求項527に記載のUAV。 The UAV of claim 527, wherein the autonomous flight is a flight along a preset trajectory or a preset direction. 前記自律飛行は、自律的に計画された軌道に沿った飛行である、請求項527に記載のUAV。 The UAV of claim 527, wherein the autonomous flight is a flight along an autonomously planned orbit. 前記自律飛行は、ユーザ構成の軌道に沿った飛行である、請求項527に記載のUAV。 The UAV according to claim 527, wherein the autonomous flight is a flight along a user-configured orbit. 前記自律飛行は、前記第1のユーザインタフェースのマップでタップされた位置への飛行である、請求項527に記載のUAV。 The UAV of claim 527, wherein the autonomous flight is a flight to a position tapped on the map of the first user interface. 前記第2の組の信号に応答して前記自律飛経路を変更した後、前記UAVは前記自律飛経路に沿って飛行するように構成される、請求項527に記載のUAV。 527. The UAV of claim 527, wherein the UAV is configured to fly along the autonomous flight path after changing the autonomous flight path in response to the second set of signals. 前記第2の組の信号に応答して前記自律飛経路を変更した後、前記UAVは、前記自律飛経路とは異なる新しい自律飛経路に沿って飛行するように構成される、請求項527に記載のUAV。 527. The UAV is configured to fly along a new autonomous flight path different from the autonomous flight path after changing the autonomous flight path in response to the second set of signals. The described UAV.
JP2020186786A 2020-11-09 2020-11-09 System and method for adjusting uav locus Pending JP2021036452A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020186786A JP2021036452A (en) 2020-11-09 2020-11-09 System and method for adjusting uav locus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020186786A JP2021036452A (en) 2020-11-09 2020-11-09 System and method for adjusting uav locus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018542204A Division JP6816156B2 (en) 2016-02-26 2016-02-26 Systems and methods for adjusting UAV orbits

Publications (1)

Publication Number Publication Date
JP2021036452A true JP2021036452A (en) 2021-03-04

Family

ID=74716801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020186786A Pending JP2021036452A (en) 2020-11-09 2020-11-09 System and method for adjusting uav locus

Country Status (1)

Country Link
JP (1) JP2021036452A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519854A (en) * 1991-07-12 1993-01-29 Pioneer Electron Corp Controller and monitor device for movement of moving body
JP2003127994A (en) * 2001-10-24 2003-05-08 Kansai Electric Power Co Inc:The Control system for unmanned flying object
JP2004017743A (en) * 2002-06-14 2004-01-22 Kumamoto Technology & Industry Foundation Autonomous flight kite plane system and kite plane controlling device
JP2007237873A (en) * 2006-03-08 2007-09-20 Mitsubishi Electric Corp Control device and control method for flying machine and program
CN101192064A (en) * 2006-11-24 2008-06-04 中国科学院沈阳自动化研究所 Small-sized depopulated helicopter independent flight control system
WO2011155020A1 (en) * 2010-06-07 2011-12-15 トヨタ自動車株式会社 Flight control support device
JP2014019431A (en) * 2012-07-12 2014-02-03 General Electric Co <Ge> Systems and methods for flight management
WO2015157883A1 (en) * 2014-04-17 2015-10-22 SZ DJI Technology Co., Ltd. Flight control for flight-restricted regions
JP5831893B1 (en) * 2015-05-07 2015-12-09 立 寺坂 Aircraft remote control system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519854A (en) * 1991-07-12 1993-01-29 Pioneer Electron Corp Controller and monitor device for movement of moving body
JP2003127994A (en) * 2001-10-24 2003-05-08 Kansai Electric Power Co Inc:The Control system for unmanned flying object
JP2004017743A (en) * 2002-06-14 2004-01-22 Kumamoto Technology & Industry Foundation Autonomous flight kite plane system and kite plane controlling device
JP2007237873A (en) * 2006-03-08 2007-09-20 Mitsubishi Electric Corp Control device and control method for flying machine and program
CN101192064A (en) * 2006-11-24 2008-06-04 中国科学院沈阳自动化研究所 Small-sized depopulated helicopter independent flight control system
WO2011155020A1 (en) * 2010-06-07 2011-12-15 トヨタ自動車株式会社 Flight control support device
JP2014019431A (en) * 2012-07-12 2014-02-03 General Electric Co <Ge> Systems and methods for flight management
WO2015157883A1 (en) * 2014-04-17 2015-10-22 SZ DJI Technology Co., Ltd. Flight control for flight-restricted regions
JP5831893B1 (en) * 2015-05-07 2015-12-09 立 寺坂 Aircraft remote control system

Similar Documents

Publication Publication Date Title
JP6816156B2 (en) Systems and methods for adjusting UAV orbits
US20210116944A1 (en) Systems and methods for uav path planning and control
US20210072745A1 (en) Systems and methods for uav flight control
JP6735821B2 (en) System and method for planning and controlling UAV paths
JP6835392B2 (en) Systems and methods for controlling images acquired by imaging devices
US20200007746A1 (en) Systems, methods, and devices for setting camera parameters
CN106444795B (en) Method and system for assisting take-off of movable object
JP2021073796A (en) Control device, and method for obtaining image
JP2021036452A (en) System and method for adjusting uav locus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230411

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230418

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230425

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230512