JP2019059314A - Flight control device, method and program - Google Patents

Flight control device, method and program Download PDF

Info

Publication number
JP2019059314A
JP2019059314A JP2017184716A JP2017184716A JP2019059314A JP 2019059314 A JP2019059314 A JP 2019059314A JP 2017184716 A JP2017184716 A JP 2017184716A JP 2017184716 A JP2017184716 A JP 2017184716A JP 2019059314 A JP2019059314 A JP 2019059314A
Authority
JP
Japan
Prior art keywords
uav
markers
dimensional coordinates
calculated
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017184716A
Other languages
Japanese (ja)
Other versions
JP6758271B2 (en
Inventor
宮川 勲
Isao Miyagawa
勲 宮川
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017184716A priority Critical patent/JP6758271B2/en
Publication of JP2019059314A publication Critical patent/JP2019059314A/en
Application granted granted Critical
Publication of JP6758271B2 publication Critical patent/JP6758271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a flight control device capable of freely controlling an unmanned aircraft.SOLUTION: A position attitude calculation part calculates a difference between targeted three-dimensional coordinates and three-dimensional coordinates of a UAV 14 on the basis of three-dimensional coordinates of a reference object 12, a calculated azimuth angle, and a relative position relation between three-dimensional coordinates of the reference object and a marker of the UAV, and calculates a rotation angle on the basis of three-dimensional coordinates obtained by adding the difference to the three-dimensional coordinates of the UAV, and targeted three-dimensional coordinates of the UAV. A motion control part calculates a rotation angle around an X-axis, a rotation angle around a Y-axis, a speed along a Z-axis, and a rotation speed around the Z-axis in the UAV as flight command data on the basis of the calculated difference and rotation angle, and controls the motion of the UAV on the basis of the calculated flight command data.SELECTED DRAWING: Figure 1

Description

本発明は、飛行制御装置、方法、及びプログラムに係り、特に、無人飛行機を制御する飛行制御装置、方法、及びプログラムに関する。   The present invention relates to a flight control apparatus, method, and program, and more particularly to a flight control apparatus, method, and program for controlling an unmanned aerial vehicle.

クアッドロータ型UAV(Unmanned Aerial Vehicle)は4つのプロペラを持ち、それぞれのプロペラに与える揚力を制御することにより飛行操縦する無人飛行機である。ドローンと呼ばれる無人飛行機の多くは、クアッドロータ型UAVの一種である。以降で扱う無人飛行機をUAVと略称する。   The Quadrotor UAV (Unmanned Aerial Vehicle) is an unmanned airplane that has four propellers and is controlled by controlling the lift applied to each propeller. Many of the unmanned airplanes called drone are a kind of quadrotor type UAV. The unmanned aircraft handled in the following is abbreviated as UAV.

一般的に、UAVの姿勢を計測するために、図14に示すように機体にローカル座標系が設定される。UAVの前進方向をX軸、X軸と垂直な方向をY軸、重力とは逆方向をZ軸とする。   Generally, in order to measure the attitude of the UAV, a local coordinate system is set on the machine as shown in FIG. The forward direction of the UAV is taken as the X axis, the direction perpendicular to the X axis as the Y axis, and the direction opposite to the gravity as the Z axis.

また、UAVの三次元位置を計測するため、図15に示すように、ある基準となるグローバル座標系を設定する。GPSでは世界座標系とした三次元座標となり、モーションキャプチャシステムではその計測座標系がグローバル座標系となる。UAVの重心すなわちUAVの位置(ローカル座標系の原点)はグローバル座標系の点P=(X,Y,Z)として表現する。また、UAVの姿勢はグローバル座標系に対するローカル座標系の回転角で表現し、X軸周りの回転はロール回転(回転角φ)、Y軸周りの回転はピッチ回転(回転角ω)、Z軸周りの回転はヨー回転(回転角θ)と呼ばれる。UAVの飛行運動は、4つのプロペラに与える揚力を変化させることにより、X軸周りの回転、Y軸周りの回転、Z軸周りの回転を発生させる。Y軸周りの回転はX軸方向の並進運動を生み出し、X軸周りの回転はY軸方向の並進運動を生み出す。Z軸周りの回転は方位の回転を生み出し、同じ揚力が同時に4つのプロペラに与えられたとき、その強弱によってZ軸方向の並進運動(高度の昇降)を生み出す。   Also, in order to measure the three-dimensional position of the UAV, as shown in FIG. 15, a global coordinate system as a reference is set. In GPS, it is a three-dimensional coordinate in the world coordinate system, and in a motion capture system, its measurement coordinate system is a global coordinate system. The center of gravity of the UAV, that is, the position of the UAV (the origin of the local coordinate system) is expressed as a point P = (X, Y, Z) of the global coordinate system. Also, the attitude of the UAV is expressed by the rotation angle of the local coordinate system with respect to the global coordinate system, rotation around the X axis is roll rotation (rotation angle φ), rotation around the Y axis is pitch rotation (rotation angle ω), Z axis The rotation around it is called yaw rotation (rotation angle θ). The flight motion of the UAV generates rotation around the X axis, rotation around the Y axis, and rotation around the Z axis by changing the lift applied to the four propellers. Rotation about the Y axis produces translational motion in the X axis direction, and rotation about the X axis produces translational motion in the Y axis direction. The rotation around the Z-axis produces an azimuthal rotation, and when the same lift is simultaneously applied to the four propellers, the strength produces a translational motion (high elevation) in the Z-axis direction.

グローバル座標系において所定の座標値(X,Y,Z)と方位θが与えられたとき、UAVの現在位置P=(X,Y,Z)と現在方位φから、その所定の座標値の位置へ飛行して所定方位に機体を向けるためには、UAVの姿勢と高度を制御する必要がある。非特許文献1には、UAVの運動方程式と角運動方程式に基づいたバックステッピング制御が公開されている。非特許文献2では、AR Drone 2.0(市販の低価格なUAV)に関する飛行運動制御法が公開されている。従来技術の多くは、グローバル座標系における飛行の軌跡として離散的な所定位置と所定方位が与えられ、UAVが各点と各方位を追跡するようにその運動が制御される。 Given a predetermined coordinate value (X d , Y d , Z d ) and an orientation θ d in the global coordinate system, the current position P of the UAV P = (X, Y, Z) and the current orientation φ It is necessary to control the attitude and altitude of the UAV in order to fly to the position of the coordinate value and to turn the airframe to a predetermined direction. Non-Patent Document 1 discloses backstepping control based on UAV equations of motion and angular equations of motion. Non-Patent Document 2 discloses a flight motion control method for AR Drone 2.0 (commercially available low-priced UAV). In many of the prior art, discrete predetermined positions and orientations are given as flight trajectories in the global coordinate system, and their motion is controlled so that the UAV tracks each point and each orientation.

一方、UAVには空間中を自由自在に飛行する能力があるため、人の代わりとなるロボットとして活躍することができる。非特許文献3では、UAVは人と協調作業するための道具として使われており、非特許文献4には、複数のUAVを使って空間中に網を張り、人とUAVがボールをやり取りする動作として複数のUAVの運動を制御する方法が公開されている。   On the other hand, UAV has the ability to fly freely in space, so it can play an active role as a robot to replace human beings. In Non-Patent Document 3, UAVs are used as a tool for collaborating with people, and in Non-Patent Document 4, a plurality of UAVs are used to construct a network in space, and the people and UAVs exchange balls. A method of controlling the motion of a plurality of UAVs as an operation is disclosed.

T. Madani and A. Benallegue: "Backstepping Control for a Quadrotor Helicopter", IEEE Conference on Intelligent Robots and Systems, 2006.T. Madani and A. Benallegue: "Backstepping Control for a Quadrotor Helicopter", IEEE Conference on Intelligent Robots and Systems, 2006. L. V. Santana, A. S. Brandao, M. S-Filho, and R. Carelli: "A Trajectory Tracking and 3D Positioning Controller for the AR.Drone Quadrotor", International Conference on Unmanned Aircraft Systems (ICUAS) May 27-30, 2014.L. V. Santana, A. S. Brandao, M. S-Filho, and R. Carelli: "A Trajectory Tracking and 3D Positioning Controller for the AR. Drone Quadrotor", International Conference on Unmanned Aircraft Systems (ICUAS) May 27-30, 2014. W. S. Ng and E. Sharlin: "Collocated Interaction with Flying Robots", IEEE International Symposium on Robot and Human Interactive Communication, 2011.W. S. Ng and E. Sharlin: "Collocated Interaction with Flying Robots", IEEE International Symposium on Robots and Human Interactive Communication, 2011. R. Ritz, M. W. Muller, M. Hehn, and R. D'Andrea: "Cooperative Quadrocopter Ball Throwing and Catching", IEEE/RSJ International Conference on Intelligent Robots and Systems, 2012.R. Ritz, M. W. Muller, M. Hehn, and R. D'Andrea: "Cooperative Quadrocopter Ball Throwing and Catching", IEEE / RSJ International Conference on Intelligent Robots and Systems, 2012.

UAVの飛行を自由自在に制御する課題は、大まかに3つに大別でき、ホバリング(hovering)、軌跡追跡(trajectory tracking)、パスフォロー(path following)と呼ばれる。ホバリングは、与えられた位置と方位に留まるよう飛行を維持する。軌跡追跡では、与えられた経路(空間中の離散的な三次元位置と方位)に沿ってリアルタイムに追跡するよう制御する。これに対して、パスフォローは、リアルタイム性は問わないが、与えられた空間中の三次元位置と方位において、何らかの空間中の拘束条件を与えて飛行を制御する。非特許文献1と非特許文献2によれば、軌跡追跡の課題に対して、所定の経路に従って飛行するように、UAVの飛行運動を適切に制御することができる。しかしながら、これらの技術は所定の経路に沿ってUAVが飛行するように制御することが目的であるため、障害物、人あるいは他のUAVとの衝突を回避することは容易ではない。   The task that freely controls the UAV flight can be roughly divided into three groups, which are called hovering, trajectory tracking, and path following. Hover maintains flight to stay at a given position and orientation. Trajectory tracking is controlled to track in real time along a given path (discrete three-dimensional position and orientation in space). On the other hand, path follow controls flight by giving some constraint condition in space at given three-dimensional position and orientation in space, regardless of real time property. According to Non-Patent Document 1 and Non-Patent Document 2, it is possible to appropriately control the flight motion of the UAV so as to fly according to a predetermined route for the task of trajectory tracking. However, since these techniques aim to control the UAV to fly along a predetermined path, it is not easy to avoid collision with an obstacle, a person or another UAV.

これに対して、パスフォローは障害物あるいは人との衝突を避けるため、特定の場所を飛行しないように空間中に拘束条件を設定することができる。また、飛行運動中のトラブルを回避するため、UAVには多様なセンサやカメラが取り付けられている場合がある。例えば、超音波センサは地面あるいは床からの高度を計測し、ジャイロセンサと加速度センサによって機体の速度と姿勢を計測することができる。また、カメラを使えば、移動物体を検出し、空間中の飛行を安定化することに利用できる。これらの機体から計測した空間情報や画像情報を使うことも考えられるが、大半のUAVに内蔵されているセンサの精度はミリ単位での正確な精度で計測できることを保証しておらず、障害物との衝突を避けるためには、別の手段を使って機体の正確な位置と方位を計測する必要がある。   On the other hand, path following can set constraints in the space so as not to fly in a specific place in order to avoid collision with an obstacle or a person. In addition, various sensors and cameras may be attached to the UAV to avoid problems during flight movements. For example, an ultrasonic sensor can measure the altitude from the ground or floor, and can measure the velocity and attitude of the vehicle with a gyro sensor and an acceleration sensor. Cameras can also be used to detect moving objects and stabilize flight in space. Although it is conceivable to use spatial information and image information measured from these aircraft, the accuracy of the sensors built in most UAVs does not guarantee that they can be measured with an accuracy in millimeters, and obstacles In order to avoid collisions with other vehicles, it is necessary to measure the exact position and orientation of the vehicle using other means.

本発明は、上記問題点を解決するために成されたものであり、無人飛行機を自由自在に制御できる飛行制御装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and it is an object of the present invention to provide a flight control device, method, and program that can freely control an unmanned airplane.

上記目的を達成するために、本発明に係る飛行制御装置は、UAV(Unmanned Aerial Vehicle)の飛行を制御するための参照物体に付与され、かつ、マーカ間の距離が既知の複数のマーカと、前記UAVに付与され、かつ、マーカ間の距離が既知の複数のマーカとの各々の三次元座標を計測する位置計測センサと、前記位置計測センサによって計測された前記マーカの各々の三次元座標に基づいて、グローバル座標系における基準方向に対する前記参照物体の方位角を算出する方位検出部と、前記参照物体の前記複数のマーカの各々の三次元座標と、前記算出された方位角と、予め定められた前記参照物体の前記複数のマーカの各々の三次元座標及び前記UAVの前記複数のマーカの各々の三次元座標の相対位置関係とに基づいて、前記UAVの前記複数のマーカの各々の目標となる三次元座標を算出し、算出された前記目標となる三次元座標と前記UAVの前記複数のマーカの各々の三次元座標との差分を算出し、前記UAVの前記複数のマーカの各々の三次元座標に前記差分を加算して得られる三次元座標と、前記UAVの前記複数のマーカの各々の前記目標となる三次元座標とに基づいて回転角を算出する位置姿勢算出部と、算出された前記差分と、前記回転角とに基づいて、前記UAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した前記飛行指令データに基づいて前記UAVの運動を制御する運動制御部と、を含んで構成されている。   In order to achieve the above object, a flight control device according to the present invention is provided with a reference object for controlling the flight of a UAV (Unmanned Aerial Vehicle), and a plurality of markers whose distances between markers are known, In the three-dimensional coordinates of each of the markers measured by the position measurement sensor, the position measurement sensor measuring the three-dimensional coordinates of each of the plurality of markers given to the UAV and whose distances between the markers are known An azimuth detecting unit which calculates an azimuth angle of the reference object with respect to a reference direction in a global coordinate system, three-dimensional coordinates of each of the plurality of markers of the reference object, the calculated azimuth angle, and In front of the UAV based on the three-dimensional coordinates of each of the plurality of markers of the reference object and the relative positional relationship of the three-dimensional coordinates of each of the plurality of markers of the UAV The target three-dimensional coordinates of each of the plurality of markers are calculated, and the difference between the calculated target three-dimensional coordinates and each of the plurality of markers of the plurality of markers of the UAV is calculated. The rotation angle is calculated based on three-dimensional coordinates obtained by adding the difference to three-dimensional coordinates of each of the plurality of markers, and the target three-dimensional coordinates of each of the plurality of markers of the UAV. A rotation angle around the X axis, a rotation angle around the Y axis, a velocity along the Z axis, and a rotation around the Z axis in the UAV based on the position and orientation calculation unit, the calculated difference, and the rotation angle. And a motion control unit for controlling the motion of the UAV based on the calculated flight command data.

また、本発明に係る飛行制御方法は、位置計測センサが、UAV(Unmanned Aerial Vehicle)の飛行を制御するための参照物体に付与され、かつ、マーカ間の距離が既知の複数のマーカと、前記UAVに付与され、かつ、マーカ間の距離が既知の複数のマーカとの各々の三次元座標を計測するステップと、方位検出部が、前記位置計測センサによって計測された前記マーカの各々の三次元座標に基づいて、グローバル座標系における基準方向に対する前記参照物体の方位角を算出するステップと、位置姿勢算出部が、前記参照物体の前記複数のマーカの各々の三次元座標と、前記算出された方位角と、予め定められた前記参照物体の前記複数のマーカの各々の三次元座標及び前記UAVの前記複数のマーカの各々の三次元座標の相対位置関係とに基づいて、前記UAVの前記複数のマーカの各々の目標となる三次元座標を算出し、算出された前記目標となる三次元座標と前記UAVの前記複数のマーカの各々の三次元座標との差分を算出し、前記UAVの前記複数のマーカの各々の三次元座標に前記差分を加算して得られる三次元座標と、前記UAVの前記複数のマーカの各々の前記目標となる三次元座標とに基づいて回転角を算出するステップと、運動制御部が、算出された前記差分と、前記回転角とに基づいて、前記UAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した前記飛行指令データに基づいて前記UAVの運動を制御するステップと、を含んで実行することを特徴とする。   Further, in the flight control method according to the present invention, the position measurement sensor is attached to a reference object for controlling the flight of a UAV (Unmanned Aerial Vehicle), and a plurality of markers with known distances between markers; Measuring three-dimensional coordinates of each of a plurality of markers given to the UAV and having a known distance between the markers; and an orientation detection unit measuring the three-dimensional coordinates of each of the markers measured by the position measurement sensor. Calculating an azimuth angle of the reference object with respect to a reference direction in a global coordinate system based on coordinates; and a position and orientation calculation unit calculating three-dimensional coordinates of each of the plurality of markers of the reference object; Based on an azimuth angle, relative positional relationship between predetermined three-dimensional coordinates of each of the plurality of markers of the reference object, and three-dimensional coordinates of each of the plurality of markers of the UAV. Calculating the target three-dimensional coordinates of each of the plurality of markers of the UAV, and calculating the difference between the calculated three-dimensional coordinates of the target and the respective three-dimensional coordinates of the plurality of markers of the UAV Based on the calculated and obtained three-dimensional coordinates obtained by adding the difference to the three-dimensional coordinates of each of the plurality of markers of the UAV, and the target three-dimensional coordinates of each of the plurality of markers of the UAV Calculating the rotation angle, the motion control unit using the calculated difference and the rotation angle, the rotation angle around the X axis, the rotation angle around the Y axis, and the Z axis in the UAV. Calculating the speed along the axis and the rotational speed around the Z axis as flight command data, and controlling the movement of the UAV based on the calculated flight command data.

本発明に係るプログラムは、コンピュータを、本発明に係る飛行制御装置の各部として機能させるためのプログラムである。   A program according to the present invention is a program for causing a computer to function as each part of the flight control device according to the present invention.

本発明の飛行制御装置、方法、及びプログラムによれば、参照物体の方位角を算出し、参照物体の三次元座標と、算出された方位角と、参照物体及びUAVのマーカの三次元座標の相対位置関係とに基づいて、目標となる三次元座標とUAVの三次元座標との差分を算出し、UAVの三次元座標に差分を加算して得られる三次元座標と、UAVの目標となる三次元座標とに基づいて回転角を算出し、算出された差分と、回転角とに基づいて、UAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した飛行指令データに基づいてUAVの運動を制御することにより、無人飛行機を自由自在に制御できる、という効果が得られる。   According to the flight control apparatus, method, and program of the present invention, the azimuth angle of the reference object is calculated, and the three-dimensional coordinates of the reference object, the calculated azimuth angle, and the three-dimensional coordinates of the markers of the reference object and the UAV The difference between the target three-dimensional coordinates and the three-dimensional coordinates of the UAV is calculated based on the relative positional relationship, and the three-dimensional coordinates obtained by adding the differences to the three-dimensional coordinates of the UAV are the target of the UAV The rotation angle is calculated based on the three-dimensional coordinates, and the rotation angle around the X axis, the rotation angle around the Y axis, the velocity along the Z axis, in the UAV based on the calculated difference and the rotation angle The rotation speed around Z and Z axes is calculated as flight command data, and the movement of the UAV is controlled based on the calculated flight command data, so that the unmanned airplane can be controlled freely.

本発明の実施の形態に係る飛行制御装置の構成を示すブロック図である。It is a block diagram showing composition of a flight control device concerning an embodiment of the invention. 参照物体を使ってUAVの飛行を制御する状況の一例を示す図である。It is a figure which shows an example of the condition which controls a flight of UAV using a reference object. 本発明の実施の形態に係る飛行制御装置における飛行制御処理ルーチンを示すフローチャートである。It is a flow chart which shows flight control processing routine in a flight control device concerning an embodiment of the invention. 飛行制御装置における方向検出部の処理のフローチャートである。It is a flowchart of a process of the direction detection part in a flight control apparatus. グローバル座標系において計測された4点の一例を示す図である。It is a figure which shows an example of four points measured in the global coordinate system. グローバル座標系において点Aを原点に平行移動した空間中の各点の配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of each point in the space which moved the point A in parallel with the origin in a global coordinate system. 飛行制御装置における位置姿勢算出部の処理のフローチャートである。It is a flowchart of a process of the position and orientation calculation unit in the flight control device. 点Aと点Bと正方形を形成する点Cと点Dの空間配置の一例を示す図である。It is a figure which shows an example of the space arrangement | positioning of point C t and point D t which form a square with point A s and point B s . 中点Gを中点Gへ平行移動した空間配置の一例を示す図である。It is a figure which shows an example of the space arrangement | positioning which translated the midpoint G s to the midpoint G t in parallel. 飛行制御装置における運動制御部の処理のフローチャートである。It is a flowchart of a process of the movement control part in a flight control device. グローバル座標系において計測された4点の一例を示す図である。It is a figure which shows an example of four points measured in the global coordinate system. 点Aと点Bと等脚台形を形成する点Cと点Dの空間配置の一例を示す図である。Is a diagram illustrating an example of a spatial arrangement of the points A s and the point B s and isosceles C t points forming a trapezoidal and the point D t. 複数のUAVの空間配置の一例を示す図である。It is a figure which shows an example of space arrangement | positioning of several UAV. UAVの概観とUAV固定のローカル座標系の一例を示す図である。It is a figure which shows the outline of UAV, and an example of a local coordinate system fixed to UAV. グローバル座標系とUAV固定のローカル座標系の関係の一例を示す図である。It is a figure which shows an example of the relationship of a global coordinate system and the local coordinate system of UAV fixation.

以下、図面を参照して本発明の実施形態を詳細に説明する。本発明の実施の形態に係る手法は、ユーザが参照物体を移動させることによってUAVの飛行を自由自在に操作し、かつ、対象とする物体との衝突を回避する、という課題を解決しようとするものである。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The method according to the embodiment of the present invention tries to solve the problem that the user freely manipulates the flight of the UAV by moving the reference object and avoids the collision with the target object. It is a thing.

<本発明の第1の実施形態に係る飛行制御装置の構成> <Configuration of Flight Control Device According to First Embodiment of the Present Invention>

本発明の第1の実施形態に係るクアッドロータ型UAVの飛行制御装置の構成について説明する。本実施形態は1台のUAVの飛行を参照物体で操縦する形態である。図1に示すように、本発明の第1の実施形態に係る飛行制御装置100は、CPUと、RAMと、後述する飛行制御処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この飛行制御装置100は、機能的には図1に示すように位置計測センサ10と、演算部20と、通信部50とを備えている。この構成において、位置計測センサ10は必ずしも構成要素として接続している必要はなく、処理に必要なデータを取得すればよく、演算部20における方位検出部30、位置姿勢算出部32、及び運動制御部34からそれぞれの矢印へのデータの流れは、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。   The configuration of a flight control apparatus of a quad rotor type UAV according to a first embodiment of the present invention will be described. In the present embodiment, the flight of one UAV is steered with a reference object. As shown in FIG. 1, the flight control apparatus 100 according to the first embodiment of the present invention includes a CPU, a RAM, and a ROM storing a program for executing a flight control processing routine described later and various data. Can be configured with a computer including The flight control device 100 functionally includes a position measurement sensor 10, an arithmetic unit 20, and a communication unit 50 as shown in FIG. In this configuration, the position measurement sensor 10 does not necessarily have to be connected as a component, and data necessary for processing may be acquired, and the azimuth detection unit 30, the position and orientation calculation unit 32, and the motion control in the arithmetic unit 20 The flow of data from the unit 34 to each arrow may be in the form of using a recording medium such as a hard disk, a RAID device, or a CD-ROM, or using a remote data resource via a network.

位置計測センサ10は、UAV14の飛行を制御するための参照物体12に付与され、かつ、マーカ間の距離が既知の複数のマーカ(点A、及び点Bとする)と、UAV14に付与され、かつ、マーカ間の距離が既知の複数のマーカ(点C、及び点Dとする)との各々の三次元座標を計測データとして計測する。本実施形態では、図2に示す状況において、参照物体12を使ってUAV14の飛行を制御する。参照物体12は、障害物との衝突を回避できる移動が可能な物体であればよく、本実施形態では持ち運び可能なT字棒を例に説明する。一般的に、モーションキャプチャ装置は、所定のマーカの三次元座標をリアルタイムで高精度に計測することが知られている。本実施形態では、位置計測センサ10の例として、モーションキャプチャ装置を利用する。図2に示すように、参照物体12には点Aと点Bの位置にマーカが取り付けられており、UAV14には点Cと点Dの位置にマーカが取り付けられている。位置計測センサ10はグローバル座標系において三次元座標を計測するようにセットアップされており、各マーカはその座標系の三次元座標としてある一定間隔で逐次計測される。なお、本実施形態では、点Aと点B間の距離はLであり、点Cと点D間の距離はLとする。   The position measurement sensor 10 is applied to the reference object 12 for controlling the flight of the UAV 14, and is applied to the UAV 14 as a plurality of markers (referred to as points A and B) with known distances between markers. In addition, three-dimensional coordinates of each of a plurality of markers (referred to as points C and D) whose distances between markers are known are measured as measurement data. In the present embodiment, in the situation shown in FIG. 2, the reference object 12 is used to control the flight of the UAV 14. The reference object 12 may be any movable object that can avoid collision with an obstacle, and in the present embodiment, a portable T-shaped bar will be described as an example. Generally, a motion capture device is known to measure three-dimensional coordinates of a predetermined marker with high accuracy in real time. In the present embodiment, a motion capture device is used as an example of the position measurement sensor 10. As shown in FIG. 2, markers are attached to the reference object 12 at the positions of point A and point B, and markers are attached to the position of point C and point D on the UAV 14. The position measurement sensor 10 is set up to measure three-dimensional coordinates in the global coordinate system, and each marker is sequentially measured at certain intervals as three-dimensional coordinates of the coordinate system. In the present embodiment, the distance between the point A and the point B is L, and the distance between the point C and the point D is L.

本実施形態は、参照物体12の点Aと点Bの三次元位置に応じて、点A、点B、点C、及び点Dが正方形を形成する相対位置関係となるようにUAV14の飛行運動を制御するものであるが、長方形などの他の幾何形状にも同様に応用することができる。なお、本実施形態では、マーカの数は2つとしたが、これに限定されるものではなく、3つ以上として、物体間の相対的な位置関係を求めるようにしてもよい。   In this embodiment, the flying motion of the UAV 14 is made such that the points A, B, C, and D have a relative positional relationship to form a square according to the three-dimensional position of the point A and the point B of the reference object 12 , But can be applied to other geometric shapes such as rectangles as well. Although the number of markers is two in the present embodiment, the number of markers is not limited to two, and three or more markers may be used to determine the relative positional relationship between objects.

演算部20は、位置計測センサ10で計測した三次元座標から方位を算出する方位検出部30と、グローバル座標系におけるUAV14の位置及び姿勢を算出する位置姿勢算出部32と、位置と姿勢を用いて、所定の位置と方位を満たすようにUAV14の飛行を制御するための飛行指令データを算出する運動制御部34と、UAV14に飛行指令データを送信する通信部50とを含んで構成される。なお、方位検出部30、位置姿勢算出部32、及び運動制御部34の具体的な処理内容は後述の作用の説明において説明する。   The operation unit 20 uses an orientation detection unit 30 that calculates an orientation from three-dimensional coordinates measured by the position measurement sensor 10, a position and orientation calculation unit 32 that calculates the position and orientation of the UAV 14 in the global coordinate system, and the position and orientation. The motion control unit 34 calculates flight command data for controlling the flight of the UAV 14 so as to satisfy predetermined positions and orientations, and the communication unit 50 transmits flight command data to the UAV 14. The specific processing contents of the azimuth detection unit 30, the position and orientation calculation unit 32, and the motion control unit 34 will be described in the description of the operation described later.

方位検出部30は、位置計測センサ10によって計測されたマーカの各々の三次元座標に基づいて、グローバル座標系における基準方向に対する参照物体12の方位角Φを算出する。   The azimuth detection unit 30 calculates the azimuth angle Φ of the reference object 12 with respect to the reference direction in the global coordinate system, based on the three-dimensional coordinates of each of the markers measured by the position measurement sensor 10.

位置姿勢算出部32は、参照物体12のマーカの貼付位置である点A、及び点Bの三次元座標と、算出された方位角Φと、予め定められた参照物体12のマーカ点A、及び点Bの三次元座標及びUAV14のマーカ点C、及び点Dの三次元座標の相対位置関係(例えば、正方形を形成する相対位置関係)とに基づいて、UAV14のマーカ点C、及び点Dの目標となる三次元座標を算出し、算出された目標となる三次元座標とUAV14のマーカ点C、及び点Dの三次元座標との差分Tを算出する。また、位置姿勢算出部32は、UAV14のマーカ点C、及び点Dの三次元座標に差分を加算して得られる三次元座標と、UAV14のマーカ点C、及び点Dの目標となる三次元座標とに基づいて回転角θを算出する。   The position and orientation calculation unit 32 calculates three-dimensional coordinates of points A and B, which are the marker attachment positions of the reference object 12, the calculated azimuth angle と, the marker point A of the reference object 12 determined in advance, Based on the relative positional relationship of the three-dimensional coordinates of the point B and the marker point C of the UAV 14 and the three-dimensional coordinates of the point D (for example, the relative positional relationship forming a square) The target three-dimensional coordinates are calculated, and the difference T between the calculated target three-dimensional coordinates and the three-dimensional coordinates of the marker point C and the point D of the UAV 14 is calculated. Further, the position and orientation calculation unit 32 calculates three-dimensional coordinates obtained by adding differences to the three-dimensional coordinates of the marker point C and the point D of the UAV 14, and the three-dimensional target of the marker point C and the point D of the UAV 14. The rotation angle θ is calculated based on the coordinates.

運動制御部34は、算出された差分Tと、回転角θとに基づいて、UAV14における、X軸周りの回転角φ、Y軸周りの回転角ω、Z軸に沿った速度V、及びZ軸周りの回転速度Vθを飛行指令データとして算出し、算出した飛行指令データを通信部50を介してUAV14に送信することで、飛行指令データに基づいてUAV14の運動を制御する。 The motion control unit 34, based on the calculated difference T and the rotation angle θ, the rotation angle φ around the X axis, the rotation angle ω around the Y axis, the velocity V z along the Z axis, and the UAV 14 The rotation speed V θ around the Z axis is calculated as flight command data, and the calculated flight command data is transmitted to the UAV 14 via the communication unit 50 to control the motion of the UAV 14 based on the flight command data.

<本発明の第1の実施の形態に係る飛行制御装置の作用> <Operation of Flight Control Device According to First Embodiment of the Present Invention>

次に、本発明の第1の実施の形態に係る飛行制御装置100の作用について説明する。位置計測センサ10によりUAV14の飛行を制御するための参照物体12に付与され、かつ、マーカ間の距離が既知のマーカ点A、及び点Bと、UAV14に付与され、かつ、マーカ間の距離が既知のマーカ点C、及び点Dとの各々の三次元座標の計測を開始し、操作者が参照物体12を持ってUAV14の制御を開始すると、飛行制御装置100は、図3に示す飛行制御処理ルーチンを実行する。   Next, the operation of the flight control device 100 according to the first embodiment of the present invention will be described. The position measuring sensor 10 applies to the reference object 12 for controlling the flight of the UAV 14, and the distance between the markers is given to the marker points A and B and to the UAV 14, and the distance between the markers is When measurement of three-dimensional coordinates of each of the known marker points C and D is started, and the operator starts control of the UAV 14 with the reference object 12, the flight control device 100 controls the flight control shown in FIG. Execute processing routine.

まず、ステップS100では、方位検出部30が、位置計測センサ10によって計測されたマーカの各々の三次元座標に基づいて、グローバル座標系における基準方向に対する参照物体12の方位角Φを算出する。   First, in step S100, based on the three-dimensional coordinates of each of the markers measured by the position measurement sensor 10, the azimuth detection unit 30 calculates the azimuth angle Φ of the reference object 12 with respect to the reference direction in the global coordinate system.

次に、ステップS102では、位置姿勢算出部32が、参照物体12のマーカの点A、及び点Bの三次元座標と、算出された方位角Φと、予め定められた参照物体12のマーカの点A、及び点Bの三次元座標及びUAV14のマーカ点C、及び点Dの三次元座標の相対位置関係とに基づいて、UAV14のマーカ点C、及び点Dの目標となる三次元座標を算出し、算出された目標となる三次元座標とUAV14のマーカ点C、及び点Dの三次元座標との差分Tを算出する。また、UAV14のマーカ点C、及び点Dの三次元座標に差分を加算して得られる三次元座標と、UAV14のマーカ点C、及び点Dの目標となる三次元座標とに基づいて回転角θを算出する。   Next, in step S102, the position and orientation calculation unit 32 calculates the three-dimensional coordinates of the points A and B of the marker of the reference object 12, the calculated azimuth angle と, and the markers of the reference object 12 determined in advance. Based on the relative positional relationship between the point A and the three-dimensional coordinates of the point B and the marker point C of the UAV 14 and the three-dimensional coordinates of the point D, the target three-dimensional coordinates of the marker point C and the point D of the UAV 14 are The difference T between the calculated target three-dimensional coordinates and the three-dimensional coordinates of the marker point C and the point D of the UAV 14 is calculated. In addition, the rotation angle is based on the three-dimensional coordinates obtained by adding the difference to the three-dimensional coordinates of the marker point C and the point D of the UAV 14 and the target three-dimensional coordinates of the marker point C and the point D of the UAV 14 Calculate θ.

ステップS104では、運動制御部34が、算出された差分Tと、回転角θとに基づいて、UAV14における、X軸周りの回転角φ、Y軸周りの回転角ω、Z軸に沿った速度V、及びZ軸周りの回転速度Vθを飛行指令データとして算出し、算出した飛行指令データをUAV14に送信して、飛行指令データに基づいてUAV14の運動を制御する。ここで、後述する予め定められた条件を満たすまで、ステップS102における差分T及び回転角θの算出、及びステップS104における飛行指令データに基づくUAV14の運動の制御を繰り返す。これにより、操作者が参照物体12を持って移動することにより、UAV14の運動が制御される。 In step S104, the motion control unit 34 determines the rotation angle φ around the X axis, the rotation angle ω around the Y axis, and the velocity along the Z axis in the UAV 14 based on the calculated difference T and the rotation angle θ. V z, and calculates the rotational speed V theta around the Z axis as the flight command data, and transmits the calculated flight command data to UAV14, to control the movement of UAV14 based on flight command data. Here, the calculation of the difference T and the rotation angle θ in step S102 and the control of the motion of the UAV 14 based on the flight command data in step S104 are repeated until a predetermined condition described later is satisfied. Thereby, the movement of the UAV 14 is controlled by the operator moving with the reference object 12.

ステップS100の方位検出部30の処理の詳細について説明する。   Details of the processing of the direction detection unit 30 in step S100 will be described.

図4は方位検出部30の処理のフロー図である。方位検出部30は処理を開始すると、ステップS1000で、位置計測センサ10で取得された参照物体12の点A、及び点Bの三次元座標値と、UAV14の点C、及び点Dの三次元座標値とを取得する。点Aの三次元座標値をA=(X,Y,Z)、点Bの三次元座標値をB=(X,Y,Z)、点Cの三次元座標値をC=(X,Y,Z)、点Dの三次元座標値をD=(X,Y,Z)とする。説明の簡単のため、本実施形態では、4点の高さは同じものとして、Z軸の座標値をZとする。各点の高さが異なる場合については、第2実施形態で説明する。グローバル座標系のX面において、計測された4点を図5に示す。図5では、点Aと点C間の距離はL(≠L)、点Bと点D間の距離はL(≠L)とする。 FIG. 4 is a flowchart of processing of the direction detection unit 30. When the direction detection unit 30 starts processing, in step S1000, the three-dimensional coordinate values of the point A and point B of the reference object 12 acquired by the position measurement sensor 10, the point C of the UAV 14, and three dimensional of the point D Get coordinate values. The three-dimensional coordinate values A = the point A (X a, Y a, Z h), = three-dimensional coordinates of the point B B (X b, Y b , Z h), the 3D coordinates of the point C C = (X c , Y c , Z h ), and let three-dimensional coordinate values of the point D be D = (X d , Y d , Z h ). For simplicity of explanation, in the present embodiment, the height of the four points as the same, the coordinate value of Z w axis and Z h. The case where the heights of the points are different will be described in the second embodiment. The four measured points are shown in FIG. 5 in the X w Y w plane of the global coordinate system. In FIG. 5, the distance between the point A and the point C is L a (≠ L), and the distance between the point B and the point D is L b (≠ L).

ステップS1002では、重心位置の移動が必要かを判定し、必要な場合にはステップS1004へ移行し、必要ない場合にはステップS1008へ移行する。   In step S1002, it is determined whether it is necessary to move the position of the center of gravity. If it is necessary, the process proceeds to step S1004, and if it is not necessary, the process proceeds to step S1008.

ステップS1004では、座標値を平行移動変換する。方位検出部30での座標値の平行移動変換では、点Aを原点に平行移動させる。平行移動先の三次元座標値として、以下(1)〜(3)式により、点A以外の全ての座標から点Aの三次元座標値A=(X,Y,Z)を差し引いて、B、C、及びDを算出する。 In step S1004, the coordinate values are translated and converted. In parallel conversion conversion of coordinate values in the direction detection unit 30, the point A is moved parallel to the origin. Subtract three-dimensional coordinate value A = (X a , Y a , Z h ) of point A from all coordinates except point A as the three-dimensional coordinate values of parallel movement destination by the following equations (1) to (3) Then, calculate B s , C s , and D s .


・・・(1)

・・・(2)

・・・(3)

... (1)

... (2)

... (3)

点Aを原点に平行移動した空間中の各点の配置を図6に示す。   The arrangement of each point in the space in which the point A is moved parallel to the origin is shown in FIG.

次に、ステップS1006では、参照物体12の点Aと点Bの方位角を算出するため、点Bbsから、以下(4)式の計算により、方位角Φを算出する。 Next, in step S1006, in order to calculate the azimuth angles of the point A and the point B of the reference object 12, the azimuth angle Φ is calculated from the point B bs by calculation of the following equation (4).


・・・(4)

... (4)

ステップS1008では、方向検出の処理を停止するかを判定し、処理を停止する場合には方位検出部30の処理を終了し、終了しない場合にはステップS1000に戻って処理を繰り返す。なお、処理を停止する場合とは、ここでは操作者がUAV14の飛行制御を終了する場合とする。   In step S1008, it is determined whether or not the direction detection process is to be stopped. If the process is to be stopped, the process of the azimuth detecting unit 30 is ended. If it is not ended, the process is repeated by returning to step S1000. In the case where the process is stopped, it is assumed here that the operator ends the flight control of the UAV 14.

方位検出部30では、以上の処理により、参照物体12の点Aと点Bの三次元位置に応じて、方位角Φを算出する。   The azimuth detecting unit 30 calculates the azimuth angle Φ in accordance with the three-dimensional positions of the point A and the point B of the reference object 12 by the above processing.

次に、ステップS102の位置姿勢算出部32の処理の詳細について説明する。   Next, details of the processing of the position and orientation calculation unit 32 in step S102 will be described.

図7は位置姿勢算出部32の処理のフロー図である。ステップS1100では、参照物体12の点Aと点Bの三次元位置に応じて点A、点B、点C、及び点Dが正方形を形成するように、点Cと点Dの目標となる三次元座標である目標座標を算出する。目標座標とは、点Aと点Bを正方形の頂点とした場合の残り2点の頂点座標を指す。方位検出部30にて、点Aは原点Oに、点Bは点Bへ平行移動されているという前提で、点Aと点Bの三次元位置に応じた方位角Φが算出された後、点C、点Dに対応する目標座標を算出する。図8に、点C、点Dに対応する目標座標の点Cと点Dを示す。目標座標の点Cと点Dは、以下(5)式、及び(6)式により算出する。 FIG. 7 is a flowchart of processing of the position and orientation calculation unit 32. In step S1100, a third-order target of points C and D such that points A, B, C and D form a square according to the three-dimensional position of points A and B of reference object 12 Calculate target coordinates that are original coordinates. The target coordinates indicate the vertex coordinates of the remaining two points when the point A and the point B are the vertices of a square. After the azimuth angle Φ is calculated according to the three-dimensional positions of the point A and the point B on the assumption that the point A is moved in parallel to the origin O and the point B to the point B s in the azimuth detecting unit 30 The target coordinates corresponding to point C and point D are calculated. FIG. 8 shows points C t and D t of target coordinates corresponding to the point C and the point D. The point C t and the point D t of the target coordinates are calculated by the following equations (5) and (6).


・・・(5)

・・・(6)

... (5)

... (6)

次に、ステップS1102では、平行移動した点Cと点Dとの中点の座標G、及び目標座標における点Cと点Dとの中点の座標Gを算出する。先に平行移動した点Cと点Dから以下(7)式により中点の座標Gを算出する。 Next, in step S1102, calculates coordinates G s, and the coordinates G t of the midpoint between the point C t and the point D t in the target coordinates of the midpoint of the C s and the point D s point translated. From the point C s and the point D s moved in parallel in advance, the coordinates G s of the middle point are calculated by the following equation (7).


・・・(7)

... (7)

同様に、目標座標の点Cと点Dからも、以下(8)式により中点の座標Gを算出する。 Similarly, the coordinates G t of the middle point are calculated by the following equation (8) also from the point C t and the point D t of the target coordinates.


・・・(8)

... (8)

次に、ステップS1104では、位置計測センサ10で得た現在のUAV14の位置と目標座標間の距離の差分Tを算出する。差分Tは、中点の座標GとG間のずれから以下(9)式の計算により検出する。 Next, in step S1104, the difference T between the current position of the UAV 14 obtained by the position measurement sensor 10 and the target coordinates is calculated. The difference T is detected from the deviation between the coordinates G s and G t of the middle point by calculation of the following equation (9).


・・・(9)

... (9)

差分Tの大きさは、以下(10)式で得られる。   The magnitude of the difference T is obtained by the following equation (10).


・・・(10)

... (10)

ステップS1106では、ΔTの値が許容範囲(例えば、10センチメール)を超えているかを判定する。許容範囲を超えていない場合には、UAV14の現在位置が所定位置であると判断してステップS1110へ移行する。許容範囲を超えている場合には、UAV14の現在位置が所定位置ではないと判断してステップS1108へ移行する。ステップS1108では、先に平行移動した点Cと点Dに加算して、以下(11)式、及び(12)式により目標座標の点Cと点Dを求める。 In step S1106, it is determined whether the value of ΔT exceeds an allowable range (for example, 10 cm mail). If the allowable range is not exceeded, it is determined that the current position of the UAV 14 is the predetermined position, and the process proceeds to step S1110. If it exceeds the allowable range, it is determined that the current position of the UAV 14 is not the predetermined position, and the process proceeds to step S1108. In step S1108, points C r and D r of the target coordinates are determined by the following equations (11) and (12) by adding points C s and D s that have been translated in advance.


・・・(11)

・・・(12)

... (11)

... (12)

このとき、UAV14の方位が参照物体12の点Aと点Bの方位と一致していない場合、点Cと点Dは目標座標の点Cと点Dに一致していない。図9に、点Cと点Dと目標座標の点Cと点Dの配置を示す。それぞれが一致していない場合を想定して、点Cから点DへのベクトルEと、点Cから点DへのベクトルEとを以下(13)式、及び(14)式により求める。 At this time, if the orientation of the UAV 14 does not match the orientations of the points A and B of the reference object 12, the points C r and D r do not match the points C t and D t of the target coordinates. FIG. 9 shows the arrangement of the point C r and the point D r and the point C t and the point D t of the target coordinates. Assuming that they do not match each other, the vector E r from the point C r to the point D r and the vector E t from the point C t to the point D t can be expressed by the following equations (13) and (14) Calculated by a formula.


・・・(13)

・・・(14)

... (13)

... (14)

ステップS1110では、ベクトルの内積の関係を利用して、回転角θを以下(15)式により算出する。   In step S1110, the rotation angle θ is calculated by the following equation (15) using the relationship of the inner product of the vectors.


・・・(15)

... (15)

ただし、E・EはベクトルEとベクトルEの内積を表し、||E||と||E||はベクトルEとベクトルEのノルム(大きさ)を表す。 Here, E r · E t represents the inner product of the vector E r and the vector E t , and || E r || and || E t || represent the norm (magnitude) of the vector E r and the vector E t .

位置姿勢算出部32では、以上の処理により、UAV14の位置と方位が所定位置と方位となるための平行移動ベクトルTと回転角θを算出する。 The position and orientation calculation unit 32 calculates the parallel movement vector T and the rotation angle θ r so that the position and orientation of the UAV 14 become the predetermined position and orientation by the above processing.

次に、ステップS104の運動制御部34の処理の詳細について説明する。   Next, details of the processing of the motion control unit 34 in step S104 will be described.

図10は運動制御部34の処理のフロー図である。運動制御部34の処理により、位置姿勢算出部32で得た平行移動ベクトルTと回転角θを使って、UAV14の飛行運動を制御する。使用するUAV14によって、UAV14への制御データは様々なデータ形式が存在する。本実施形態では、市販製品のAR Drone 2.0を例にした場合を示すが、それ以外のUAV14の飛行を制御する場合にも、本実施形態を利用できる。 FIG. 10 is a flowchart of processing of the motion control unit 34. The process of the motion control unit 34, by using the rotation angle theta r and translation vector T obtained by the position and orientation calculation unit 32, controls the flight movement of UAV14. Depending on the UAV 14 used, there are various data formats for control data to the UAV 14. In the present embodiment, the case of using the commercially available product AR Drone 2.0 is taken as an example, but the present embodiment can also be used when controlling the flight of the UAV 14 other than that.

上記図2では、参照物体12とUAV14が対面の関係にあることを想定している。UAV14への飛行指令データは、機体に設定されたX軸周りの回転角φ、Y軸周りの回転角ω、Z軸に沿った速度V、及びZ軸周りの回転速度Vになる。運動制御部34の処理を開始すると、ステップS1200では、制御データの読み込みにおいて、平行移動ベクトルTと回転角θを取り出す。 In FIG. 2 above, it is assumed that the reference object 12 and the UAV 14 are in face-to-face relationship. The flight command data to the UAV 14 are the rotation angle φ around the X axis, the rotation angle ω around the Y axis, the velocity V z along the Z axis, and the rotation velocity V around the Z axis set for the airframe. When the process of the motion control unit 34 is started, in step S1200, the parallel movement vector T and the rotation angle θ are taken out in reading control data.

次に、ステップS1202では、平行移動ベクトルTと回転角θを、UAV14へ送信するための飛行指令データへ変換する。参照物体12とUAV14が対面の関係にあることを考慮すると、現在のUAV14の位置はT’=(Tx’,Ty’,Tz’)=(−Tx,−Ty,Tz)と与えられ、参照物体12に対する回転角はθ′=−θと与えられる。 Next, in step S 1202, the translation vector T and the rotation angle θ r are converted into flight command data for transmission to the UAV 14. Considering that the reference object 12 and the UAV 14 are in a face-to-face relationship, the current position of the UAV 14 is given by T '= (Tx', Ty ', Tz') = (-Tx, -Ty, Tz) The rotation angle for the object 12 is given by θ ′ r = −θ r .

UAV14では、ロール回転φがY軸の並進運動を生み出し、ピッチ回転ωがX軸の並進運動を生み出するため、本処理では、UAV14に与える飛行指令データを以下(16)〜(19)式により変換する。   In UAV14, roll rotation φ produces Y-axis translational motion and pitch rotation ω produces X-axis translational motion. In this processing, the flight command data given to UAV 14 is given by the following equations (16) to (19) Convert.


・・・(16)

・・・(17)

・・・(18)

・・・(19)

... (16)

... (17)

... (18)

... (19)

係数α、α、α、αはフィードバック制御におけるゲインの役割を担うため、パラメータとしてユーザが決めてよく、例えば、α=α=α=α=0.1と与える。 The coefficients α x , α y , α z and α r take on the role of gain in feedback control and may be determined by the user as parameters, for example, given as α x = α y = α z = α r = 0.1 .

ステップS1204では、通信部50を介してWiFi経由で(16)〜(19)式で算出した飛行指令データをUAV14へ送信する。   In step S 1204, flight command data calculated by the equations (16) to (19) is transmitted to the UAV 14 via WiFi via the communication unit 50.

ゲイン係数α、α、α、αの設定によっては、1回の飛行指令で所定の位置と方位に到達しない場合がある。 Depending on the settings of the gain coefficients α x , α y , α z and α r , a given flight command may not reach a predetermined position and orientation.

そのため、ステップS1206では、飛行指令データの送信後に、予め定められた条件を満たすかを判定する。予め定められた条件は、例えば、上記(10)式で算出される距離ΔTが許容範囲以内であることとする。条件を満たさない場合には、上記図7の位置姿勢算出部32の処理フローのステップS1102の中点の座標の算出に戻り、上記(9)式に従って中点Gと中点Gの差分を得る。ステップS1204でUAV14へ飛行指令データが送られると、飛行指令データに基づいてUAV14が運動し、先の三次元座標とは異なる三次元座標に変化する。このように、上記(10)式で算出される距離の差分Tの大きさΔTが許容範囲以内になるまで、位置姿勢算出部32により平行移動ベクトルTと回転角θを算出し、運動制御部34により(16)〜(19)式で算出した飛行指令データを送信し続ける。条件を満たす場合には、運動制御処理を終了する。 Therefore, in step S1206, after transmission of the flight command data, it is determined whether a predetermined condition is satisfied. The predetermined condition is, for example, that the distance ΔT calculated by the above equation (10) is within the allowable range. If the condition is not satisfied, the process returns to the calculation of the coordinates of the middle point in step S1102 of the processing flow of the position and orientation calculation unit 32 of FIG. 7 and the difference between the middle point G s and the middle point G t according to the equation (9). Get When flight command data is sent to the UAV 14 in step S1204, the UAV 14 moves based on the flight command data, and changes to a three-dimensional coordinate different from the previous three-dimensional coordinate. Thus, until the magnitude ΔT of the difference T of the distance calculated by the above equation (10) falls within the allowable range, the translation control vector T and the rotation angle θ r are calculated by the position and orientation calculation unit 32, and the motion control is performed. The unit 34 continues to transmit flight command data calculated by the equations (16) to (19). If the condition is satisfied, the motion control process is ended.

以上により、本実施形態は、参照物体12の配置に従いUAV14の位置と方位を算出し、点A、点B、点C、及び点Dが正方形を形成するように、UAV14の飛行運動を制御することができる。また、ユーザが参照物体12を移動させる(点Aと点Bが移動する)たびに、本実施形態は、点C、及び点Dが参照物体12の点A、及び点Bと正方形を形成するようにUAV14の飛行を適宜制御することができる。操作者が参照物体12を連続的に動かすことにより、UAV14の飛行ナビゲーションを実現することができる。   As described above, the present embodiment calculates the position and orientation of the UAV 14 according to the arrangement of the reference object 12, and controls the flight motion of the UAV 14 such that the points A, B, C, and D form a square. be able to. Also, each time the user moves the reference object 12 (the point A and the point B move), in the present embodiment, the point C and the point D form a square with the point A and the point B of the reference object 12 As such, the flight of the UAV 14 can be controlled accordingly. The flight navigation of the UAV 14 can be realized by the operator moving the reference object 12 continuously.

以上説明したように、第1の発明の実施形態に係る飛行制御装置によれば、参照物体の方位角を算出し、参照物体の三次元座標と、算出された方位角と、参照物体12及びUAV14のマーカの三次元座標の相対位置関係とに基づいて、目標となる三次元座標とUAV14の三次元座標との差分を算出し、UAVの三次元座標に差分を加算して得られる三次元座標と、UAV14の目標となる三次元座標とに基づいて回転角を算出し、算出された差分と、回転角とに基づいて、UAV14における、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した飛行指令データに基づいてUAV14の運動を制御することにより、無人飛行機を自由自在に制御できる。   As described above, according to the flight control device according to the embodiment of the first invention, the azimuth angle of the reference object is calculated, and the three-dimensional coordinates of the reference object, the calculated azimuth angle, the reference object 12 and The difference between the target three-dimensional coordinates and the three-dimensional coordinates of the UAV 14 is calculated based on the relative positional relationship between the three-dimensional coordinates of the markers of the UAV 14, and the difference is added to the three-dimensional coordinates of the UAV. The rotation angle is calculated based on the coordinates and the target three-dimensional coordinates of the UAV 14, and the rotation angle around the X axis and the rotation angle around the Y axis in the UAV 14 based on the calculated difference and the rotation angle By calculating the velocity along the Z axis and the rotation velocity around the Z axis as flight command data and controlling the motion of the UAV 14 based on the calculated flight command data, the unmanned airplane can be freely controlled.

<本発明の第2の実施の形態に係る飛行制御装置の構成及び作用> <Configuration and Operation of Flight Control Device According to Second Embodiment of the Present Invention>

本発明の第2の実施形態は、上記図2においてUAV14に取り付けた点Cと点D間の距離がM(≠L)の場合の例である。図11に、同じ高さZの4点(点A、点B、点C、及び点D)の配置図を示す。本実施形態では、点Aと点C間の距離はL(≠L)、点Bと点D間の距離はL(≠L)とする。 The second embodiment of the present invention is an example in the case where the distance between the point C and the point D attached to the UAV 14 in FIG. 2 is M (≠ L). Figure 11 shows four points of the same height Z h (Point A, Point B, Point C, and Point D) the layout of. In this embodiment, the distance between the point A and the point C is L a (≠ L), and the distance between the point B and the point D is L b (≠ L).

本実施形態は第1の実施形態と同様の構成及び作用において、図4の方位検出部30の処理フロー、図7の位置姿勢算出部32の処理フロー、及び図10の運動制御部34の処理フローにより、UAV14の飛行運動を制御する。本実施形態は、点Cと点D間の距離が点Aと点B間の距離と異なるため、図12に示すように、点A、点B、点C、及び点Dが等脚台形を形成する。   The present embodiment is the same as the first embodiment in configuration and operation, except that the processing flow of the orientation detection unit 30 in FIG. 4, the processing flow of the position and orientation calculation unit 32 in FIG. 7 and the processing of the motion control unit 34 in FIG. The flow controls the flight motion of the UAV 14. In the present embodiment, since the distance between the point C and the point D is different from the distance between the point A and the point B, the points A, B, C, and D have an isosceles trapezoidal shape as shown in FIG. Form.

<本発明の第3の実施の形態に係る飛行制御装置の構成及び作用> <Configuration and Operation of Flight Control Device According to Third Embodiment of the Present Invention>

本発明の第3の実施形態は、上記図2において、高さZをもつ点A、及び点Bと、高さZをもつ点C、及び点Dの場合の例である。点Cと点D間の距離は点Aと点B間の距離Lと同じ、あるいはM(≠L)とする。 The third embodiment of the present invention is an example in the case of point A and point B having height Z h and point C and point D having height Z l in FIG. 2 described above. The distance between the point C and the point D is the same as the distance L between the point A and the point B, or M (≠ L).

第3の実施形態では、点C、及び点Dの高さをZ+Nに変更して、4点(点A、点B、点C、及び点D)がX面において正方形あるいは等脚台形を形成する場合について説明する。本実施形態は第1の実施形態と同様の構成及び作用において、図7の位置姿勢算出部32の処理フロー、及び図10の運動制御部34の処理フローにより、UAV14の飛行運動を制御する。以下では、第1の実施形態、第2の実施形態と異なる点のみを記載する。 In the third embodiment, the heights of point C and point D are changed to Z h + N, and four points (point A, point B, point C, and point D) are square or in the X w Y w plane. The case of forming an isosceles trapezoid will be described. The present embodiment controls the flight motion of the UAV 14 by the processing flow of the position and orientation calculation unit 32 of FIG. 7 and the processing flow of the motion control unit 34 of FIG. 10 with the same configuration and operation as the first embodiment. Hereinafter, only points different from the first embodiment and the second embodiment will be described.

本実施形態の方位検出部30では、位置計測センサ10で取得された点A、点B、点C、及び点Dの三次元座標データを取り出し、平行移動先の三次元座標値として、以下(20)〜(22)式により、点A以外の全ての座標から点A三次元座標値をA=(X,Y,Z)を差し引いて、B、C、及びDを算出する。 In the azimuth detecting unit 30 of this embodiment, the three-dimensional coordinate data of the point A, the point B, the point C, and the point D acquired by the position measurement sensor 10 is taken out and used as the three-dimensional coordinate value of the parallel movement destination. by 20) - (22), all the three-dimensional coordinates point a from the coordinates a = (X a other than point a, Y a, by subtracting the Z h), B s, C s, and D s calculate.


・・・(20)

・・・(21)

・・・(22)

... (20)

... (21)

... (22)

第1の実施形態、及び第2の実施形態と異なる点は、点Cと点DのZ座標がZ≠0となる点である。一方、点Aを原点に平行移動した空間中の点の配置において、参照物体12の点Aと点Bの方位角は、第1の実施形態と同様に(4)式の計算で求められる。 A difference from the first embodiment and the second embodiment is that the Z coordinates of the point C s and the point D s are such that Z m ≠ 0. On the other hand, in the arrangement of points in the space in which the point A is moved in parallel to the origin, the azimuth angles of the points A and B of the reference object 12 can be obtained by calculation of equation (4) as in the first embodiment.

位置姿勢算出部32では、目標座標の点Cと点Dについて、以下(23)式、及び(24)式の計算により算出する。 The position and orientation calculation unit 32 calculates the point C t and the point D t of the target coordinates by the following equations (23) and (24).


・・・(23)

・・・(24)

... (23)

... (24)

また、平行移動した点Cと点Dとの中点の座標Gを以下(25)式により算出する。 Further, coordinates G s of the middle point between the parallel moved point C s and the point D s are calculated by the following equation (25).


・・・(25)

... (25)

同様に、目標座標の点Cと点Dからも、以下(26)式により中点の座標Gを算出する。 Similarly, the coordinates G t of the middle point are calculated from the points C t and D t of the target coordinates by the following equation (26).


・・・(26)

... (26)

中点が得られると、上記(9)式により、平行移動ベクトルTを算出する。一方、回転角θはX面において算出するため、上記(13)式、及び(14)式において、ベクトルEとベクトルEの算出には、Z値の成分を0と与える。これにより、回転角θを上記(15)式において算出する。 When the middle point is obtained, the translation vector T is calculated by the above equation (9). On the other hand, since the rotation angle θ r is calculated in the X w Y w plane, the component of the Z value is given as 0 in the calculation of the vectors E r and E t in the above equations (13) and (14). . Thus, the rotation angle θ r is calculated in the above equation (15).

運動制御部34では、位置姿勢算出部32で得た平行移動ベクトルTと回転角θを使って、第1の実施形態または第2の実施形態と同様にUAV14の飛行運動を制御する。これにより、点C、及び点Dの高さがZ+N、点A、及びと点Bの高さがZとなり、4点(点A、点B、点C、及び点D)がX面において正方形あるいは等脚台形を形成する。なお、N=0と設定した場合は、第1の実施形態あるいは第2の実施形態になる。 The motion control unit 34, with the translation vector T obtained by the position and orientation calculation unit 32 a rotation angle theta r, controls the flight movement similarly UAV14 the first or second embodiment. As a result, the heights of the points C and D become Z h + N, and the heights of the points A and B become Z h , and four points (point A, point B, point C, and point D) are X w Y w Form a square or isosceles trapezoid in the plane. In addition, when it sets to N = 0, it becomes 1st Embodiment or 2nd Embodiment.

<本発明の第4の実施の形態に係る飛行制御装置の構成及び作用> <Configuration and Operation of Flight Control Device According to Fourth Embodiment of the Present Invention>

本発明の第4の実施形態は、N台のUAV14の飛行を同時に制御する例である。図13に、UAV14#1を先頭にしてN台のUAV14が編成を組んで飛行する状況を示す。それぞれのUAV14には位置計測センサ10で検出可能な2つのマーカが設置されている。UAV14#1の点Aと点Bが第1の実施形態の点Aと点Bに対応するものとし、UAV14#2の点Aと点Bが第1の実施形態の点Cと点Dに対応するものとする。この割り当てにより、第1の実施形態と同様に、UAV14#1の点Aと点Bの位置と方位に従って、UAV14#2の点Aと点Bが水平面において正方形を形成するようにUAV14#2の飛行運動が制御される。同様にして、UAV14#Nの点Aと点Bを第1の実施形態の点Cと点Dに対応させ、点Aと点Bを1つ前を飛行するUAV14#N−1の点AN−1と点BN−1とすることにより、4つの点AN−1、点BN−1、A、及び点Bが水平面において正方形を形成するように飛行することができる。 The fourth embodiment of the present invention is an example of simultaneously controlling the flight of N UAVs 14. FIG. 13 shows a situation in which N UAVs 14 form and fly with UAV 14 # 1 at the top. Each UAV 14 is provided with two markers that can be detected by the position measurement sensor 10. UAV14 # point A 1 and the point B 1 of 1 is assumed to correspond to the points A and B of the first embodiment, UAV14 # point A 2 and point B 2 of 2 and a point C of the first embodiment It corresponds to point D. This assignment, as in the first embodiment, UAV14 according to the position and orientation of the A 1 and the point B 1 point # 1, as UAV14 # point A 2 and point B 2 of 2 to form a square in the horizontal plane The flight motion of UAV 14 # 2 is controlled. Similarly, UAV14 # points A N and the point B N the N to correspond to C and the point D from that of the first embodiment, UAV14 # point N-1 to fly before one points A and B By setting A N-1 and B N -1 , four points A N -1 , B N -1 , A N , and B N can fly so as to form a square in the horizontal plane. .

このようにN−1台目のUAV14をN台目のUAV14に対する参照物体12として飛行制御を行う。本実施形態は第1の実施形態と同様の構成及び作用において、N台のUAV14を、第1の実施形態と同様に図7の位置姿勢算出部32の処理フロー、及び図10の運動制御部34の処理フローにより、UAV14の飛行運動を制御する。このとき、1台目のUAV14については、第1の実施形態と同様に、操作者が持ち運ぶ参照物体12に追従するように制御し、2台目以降のUAV14については、以下のように、N−1番のUAV14にN番目のUAV14が順番に追従するように制御する。   Thus, flight control is performed with the (N-1) th UAV 14 as the reference object 12 for the Nth UAV 14. This embodiment has the same configuration and operation as the first embodiment, and the N UAVs 14 are processed in the same manner as in the first embodiment, with the process flow of the position and orientation calculation unit 32 of FIG. 7 and the motion control unit of FIG. The process flow of 34 controls the flight motion of the UAV 14. At this time, the first UAV 14 is controlled to follow the reference object 12 carried by the operator, as in the first embodiment, and the second and subsequent UAVs 14 are N, as described below. Control is performed so that the Nth UAV 14 follows the UAV 14 of No. -1 in order.

本実施形態の方位検出部30は、参照物体12について、第1の実施形態と同様に、グローバル座標系における基準方向に対する方位角Φを算出する。   The azimuth detecting unit 30 of the present embodiment calculates, for the reference object 12, an azimuth angle に 対 す る with respect to the reference direction in the global coordinate system, as in the first embodiment.

また、方位検出部30は、2台目以降のN台目のUAV14の各々に対し、当該N台目のUAV14の参照物体12としてのN−1台目のUAV14について、グローバル座標系における基準方向に対する方位角Φを算出する。   Further, for each of the second and subsequent N-th UAVs 14, the direction detection unit 30 determines the reference direction in the global coordinate system for the N−1-th UAV 14 as the reference object 12 of the N-th UAV 14. Calculate the azimuth angle に 対 す る for.

位置姿勢算出部32は、第1の実施形態と同様に、参照物体12のマーカの点A、及び点Bの三次元座標と、算出された方位角Φと、相対位置関係とに基づいて、1台目のUAV14のマーカ点C、及び点Dの目標となる三次元座標を算出し、算出された目標となる三次元座標と1台目のUAV14のマーカ点C、及び点Dの三次元座標との差分Tを算出し、回転角θを算出する。   As in the first embodiment, the position and orientation calculation unit 32 is based on the three-dimensional coordinates of the points A and B of the marker of the reference object 12, the calculated azimuth angle Φ, and the relative positional relationship. The target three-dimensional coordinates of the marker point C and point D of the first UAV 14 are calculated, and the calculated target three-dimensional coordinates and the marker point C of the first UAV 14 and three-dimensional of the point D The difference T with the coordinates is calculated, and the rotation angle θ is calculated.

また、位置姿勢算出部32は、2台目以降のN台目のUAV14の各々に対し、N−1台目のUAV14のマーカの点A、及び点Bの三次元座標と、算出された方位角Φと、予め定められたN−1台目のUAV14のマーカの点A、及び点Bの三次元座標及びN台目のUAV14のマーカ点C、及び点Dの三次元座標の相対位置関係とに基づいて、N台目のUAV14のマーカ点C、及び点Dの目標となる三次元座標を算出し、算出された目標となる三次元座標とN台目のUAV14のマーカ点C、及び点Dの三次元座標との差分Tを算出する。また、位置姿勢算出部32は、N台目のUAV14のマーカ点C、及び点Dの三次元座標に差分を加算して得られる三次元座標と、N台目のUAV14のマーカ点C、及び点Dの目標となる三次元座標とに基づいて回転角θを算出する。   In addition, the position and orientation calculation unit 32 calculates the three-dimensional coordinates of the point A and the point B of the marker of the N-1st UAV 14 and the calculated azimuth with respect to each of the 2nd and subsequent N UAVs 14. Relative positional relationship between angle Φ, three-dimensional coordinates of marker point A of N-1 first UAV 14 predetermined, and point B of marker point C and N-th UAV 14 and three-dimensional coordinates of point D To calculate the target three-dimensional coordinates of the marker point C of the Nth UAV 14 and the point D, and the calculated three-dimensional coordinates of the target and the marker point C of the Nth UAV 14, and The difference T with the three-dimensional coordinates of the point D is calculated. Further, the position and orientation calculation unit 32 calculates three-dimensional coordinates obtained by adding differences to the three-dimensional coordinates of the marker point C and the point D of the Nth UAV 14, the marker point C of the Nth UAV 14, and The rotation angle θ is calculated based on the target three-dimensional coordinates of the point D.

運動制御部34は、1台目のUAV14における、X軸周りの回転角φ、Y軸周りの回転角ω、Z軸に沿った速度V、及びZ軸周りの回転速度Vθを飛行指令データとして算出し、算出した飛行指令データを通信部50を介して1台目のUAV14に送信することで、飛行指令データに基づいて1台目のUAV14の運動を制御する。 The motion control unit 34 instructs the first UAV 14 to fly about the rotation angle φ around the X axis, the rotation angle ω around the Y axis, the velocity V z along the Z axis, and the rotation velocity V θ around the Z axis By calculating as data and transmitting the calculated flight command data to the first UAV 14 via the communication unit 50, the motion of the first UAV 14 is controlled based on the flight command data.

また、運動制御部34は、2台目以降のN台目のUAV14の各々に対し、算出された差分Tと、回転角θとに基づいて、N台目のUAV14における、X軸周りの回転角φ、Y軸周りの回転角ω、Z軸に沿った速度V、及びZ軸周りの回転速度Vθを飛行指令データとして算出し、算出した飛行指令データに基づいてN台目のUAV14の運動を制御する。N台目のUAV14の処理が終了したらN=N+1として同様に制御を行う。 In addition, the motion control unit 34 rotates the X U-axis in the Nth UAV 14 based on the calculated difference T and the rotation angle θ with respect to each of the second UAV 14 and subsequent N UAVs 14. The Nth UAV 14 is calculated based on the calculated flight command data by calculating the angle φ, the rotation angle ω around the Y axis, the velocity V z along the Z axis, and the rotation velocity V θ around the Z axis as flight command data. Control the movement of When the processing of the Nth UAV 14 is completed, control is similarly performed with N = N + 1.

また、本実施形態において、2点間の距離が異なる場合は第2の実施形態、点の高さが異なる場合は第3の実施形態に従って、複数のUAVの飛行を同時に制御することができる。本実施形態では、UAV#1を先頭にしてN台のUAVの編成飛行を可能とする。   Further, in the present embodiment, the flight of a plurality of UAVs can be simultaneously controlled according to the second embodiment when the distance between the two points is different, and according to the third embodiment when the heights of the points are different. In the present embodiment, formation of N UAVs is enabled, with UAV # 1 at the top.

以上の各実施形態の手法によれば、ユーザがUAVに対して三次元位置と方位を示す飛行指令を出すことにより、UAVの飛行を自由自在に操作することを可能とする。複数のUAVに対しても、ユーザがUAVに対して三次元位置と方位を示す飛行指令を出すことにより、複数のUAV同士を衝突させることなく、空間中を自由自在に操作することを可能とする。さらに、ユーザの意図でUAVを制御することにより、人を取り巻く実環境において、人の単独行動では実現不可能な作業をUAVが支援する、あるいは協調作業することを可能とする。   According to the method of each of the above embodiments, the user can freely operate the flight of the UAV by issuing a flight command indicating the three-dimensional position and orientation to the UAV. Even for multiple UAVs, it is possible for the user to freely operate in the space without causing the multiple UAVs to collide with each other by issuing a flight command indicating the three-dimensional position and orientation to the UAVs. Do. Furthermore, by controlling the UAV with the user's intention, the UAV can support or cooperate with work that can not be realized by a single person action in a real environment surrounding the person.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the scope of the present invention.

10 位置計測センサ
12 参照物体
14 UAV
20 演算部
30 方位検出部
32 位置姿勢算出部
34 運動制御部
50 出力部
100 飛行制御装置
10 Position measurement sensor 12 Reference object 14 UAV
Reference Signs List 20 operation unit 30 azimuth detection unit 32 position and attitude calculation unit 34 motion control unit 50 output unit 100 flight control device

Claims (7)

UAV(Unmanned Aerial Vehicle)の飛行を制御するための参照物体に付与され、かつ、マーカ間の距離が既知の複数のマーカと、前記UAVに付与され、かつ、マーカ間の距離が既知の複数のマーカとの各々の三次元座標を計測する位置計測センサと、
前記位置計測センサによって計測された前記マーカの各々の三次元座標に基づいて、グローバル座標系における基準方向に対する前記参照物体の方位角を算出する方位検出部と、
前記参照物体の前記複数のマーカの各々の三次元座標と、前記算出された方位角と、予め定められた前記参照物体の前記複数のマーカの各々の三次元座標及び前記UAVの前記複数のマーカの各々の三次元座標の相対位置関係とに基づいて、前記UAVの前記複数のマーカの各々の目標となる三次元座標を算出し、算出された前記目標となる三次元座標と前記UAVの前記複数のマーカの各々の三次元座標との差分を算出し、前記UAVの前記複数のマーカの各々の三次元座標に前記差分を加算して得られる三次元座標と、前記UAVの前記複数のマーカの各々の前記目標となる三次元座標とに基づいて回転角を算出する位置姿勢算出部と、
算出された前記差分と、前記回転角とに基づいて、前記UAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した前記飛行指令データに基づいて前記UAVの運動を制御する運動制御部と、
を含む飛行制御装置。
A plurality of markers attached to a reference object for controlling UAV (Unmanned Aerial Vehicle) flight and having a known distance between markers, and a plurality of markers applied to the UAV and a known distance between markers A position measurement sensor that measures three-dimensional coordinates of each of the markers and
An azimuth detection unit that calculates an azimuth angle of the reference object with respect to a reference direction in a global coordinate system based on three-dimensional coordinates of each of the markers measured by the position measurement sensor;
The three-dimensional coordinates of each of the plurality of markers of the reference object, the calculated azimuth angle, the three-dimensional coordinates of each of the plurality of markers of the reference object determined in advance, and the plurality of markers of the UAV Calculating a target three-dimensional coordinate of each of the plurality of markers of the UAV based on the relative positional relationship between each of the three-dimensional coordinates, and the calculated target three-dimensional coordinates and the target of the UAV Three-dimensional coordinates obtained by calculating differences with three-dimensional coordinates of each of a plurality of markers, adding the differences to three-dimensional coordinates of each of the plurality of markers of the UAV, and the plurality of markers of the UAV A position and orientation calculation unit that calculates a rotation angle based on the target three-dimensional coordinates of each of
Based on the calculated difference and the rotation angle, the rotation angle around the X axis, the rotation angle around the Y axis, the velocity along the Z axis, and the rotation velocity around the Z axis in the UAV are commanded to fly A motion control unit that calculates the data as the data and controls the motion of the UAV based on the calculated flight command data;
Flight control equipment.
前記UAVに付与された前記複数のマーカは、2つのマーカであり、
前記位置姿勢算出部で算出する前記差分は、前記UAVの2つのマーカの三次元座標の中点の座標と、算出された前記UAVの2つのマーカの目標となる三次元座標の中点の座標との差分とする請求項1に記載の飛行制御装置。
The plurality of markers attached to the UAV are two markers,
The difference calculated by the position and orientation calculation unit is the coordinates of the midpoint of the three-dimensional coordinates of the two markers of the UAV and the coordinates of the midpoint of the three-dimensional coordinates of the two markers of the UAV calculated. The flight control device according to claim 1, wherein the difference is
前記UAVをN台のUAVとし、N−1台目のUAVをN台目のUAVに対する前記参照物体とし、
前記方位検出部は、前記参照物体としての前記N−1台目のUAVについて、方位角を算出し、
前記位置姿勢算出部は、前記N−1台目のUAVの前記複数のマーカの各々の三次元座標と、前記算出された方位角と、予め定められた前記N−1台目のUAVの前記複数のマーカの各々の三次元座標及び前記N台目のUAVの前記複数のマーカの各々の三次元座標の相対位置関係とに基づいて、前記N台目のUAVの前記複数のマーカの各々の目標となる三次元座標を算出し、算出された前記目標となる三次元座標と前記N台目のUAVの前記複数のマーカの各々の三次元座標との差分を算出し、前記N台目のUAVの前記複数のマーカの各々の三次元座標に前記差分を加算して得られる三次元座標と、前記N台目のUAVの前記複数のマーカの各々の前記目標となる三次元座標とに基づいて回転角を算出し、
前記運動制御部は、算出された前記差分と、前記回転角とに基づいて、前記N台目のUAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した前記飛行指令データに基づいて前記N台目のUAVの運動を制御する請求項1又は請求項2に記載の飛行制御装置。
Let the UAV be N UAVs, let the N-1 UAV be the reference object for the N UAV,
The azimuth detection unit calculates an azimuth angle of the N-1 first UAV as the reference object,
The position and orientation calculation unit may calculate three-dimensional coordinates of each of the plurality of markers of the N-1st UAV, the calculated azimuth angle, and the predetermined value of the N-1th UAV. Each of the plurality of markers of the Nth UAV is based on the three-dimensional coordinates of each of the plurality of markers and the relative positional relationship of the three-dimensional coordinates of each of the plurality of markers of the Nth UAV The target three-dimensional coordinates are calculated, and the difference between the calculated target three-dimensional coordinates and the respective three-dimensional coordinates of the plurality of markers of the Nth UAV is calculated, and the Nth Based on the three-dimensional coordinates obtained by adding the difference to the three-dimensional coordinates of each of the plurality of markers of the UAV, and the target three-dimensional coordinates of each of the plurality of markers of the Nth UAV Calculate the rotation angle,
The motion control unit is configured to calculate a rotation angle around the X axis, a rotation angle around the Y axis, a velocity along the Z axis, in the Nth UAV based on the calculated difference and the rotation angle. The flight control device according to claim 1 or 2, wherein the rotation speed around Z and Z axes is calculated as flight command data, and movement of the Nth UAV is controlled based on the calculated flight command data.
位置計測センサが、UAV(Unmanned Aerial Vehicle)の飛行を制御するための参照物体に付与され、かつ、マーカ間の距離が既知の複数のマーカと、前記UAVに付与され、かつ、マーカ間の距離が既知の複数のマーカとの各々の三次元座標を計測するステップと、
方位検出部が、前記位置計測センサによって計測された前記マーカの各々の三次元座標に基づいて、グローバル座標系における基準方向に対する前記参照物体の方位角を算出するステップと、
位置姿勢算出部が、前記参照物体の前記複数のマーカの各々の三次元座標と、前記算出された方位角と、予め定められた前記参照物体の前記複数のマーカの各々の三次元座標及び前記UAVの前記複数のマーカの各々の三次元座標の相対位置関係とに基づいて、前記UAVの前記複数のマーカの各々の目標となる三次元座標を算出し、算出された前記目標となる三次元座標と前記UAVの前記複数のマーカの各々の三次元座標との差分を算出し、前記UAVの前記複数のマーカの各々の三次元座標に前記差分を加算して得られる三次元座標と、前記UAVの前記複数のマーカの各々の前記目標となる三次元座標とに基づいて回転角を算出するステップと、
運動制御部が、算出された前記差分と、前記回転角とに基づいて、前記UAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した前記飛行指令データに基づいて前記UAVの運動を制御するステップと、
を含む飛行制御方法。
A position measurement sensor is attached to a reference object for controlling the flight of a UAV (Unmanned Aerial Vehicle), and a plurality of markers with known distances between markers, and the UAV applied, and a distance between markers Measuring the three-dimensional coordinates of each of a plurality of markers known by
An azimuth detecting unit calculating an azimuth angle of the reference object with respect to a reference direction in a global coordinate system based on three-dimensional coordinates of each of the markers measured by the position measurement sensor;
The position and orientation calculation unit determines three-dimensional coordinates of each of the plurality of markers of the reference object, the calculated azimuth angle, and three-dimensional coordinates of each of the plurality of markers of the reference object determined in advance. The target three-dimensional coordinates of each of the plurality of markers of the UAV are calculated based on the relative positional relationship of the three-dimensional coordinates of each of the plurality of markers of the UAV, and the calculated three-dimensional targets are calculated. Three-dimensional coordinates obtained by calculating a difference between coordinates and three-dimensional coordinates of each of the plurality of markers of the UAV, and adding the difference to three-dimensional coordinates of each of the plurality of markers of the UAV; Calculating a rotation angle based on the target three-dimensional coordinates of each of the plurality of markers of the UAV;
A motion control unit generates a rotation angle around the X axis, a rotation angle around the Y axis, a velocity along the Z axis, and a rotation around the Z axis in the UAV based on the calculated difference and the rotation angle. Calculating the rotational speed as flight command data, and controlling the motion of the UAV based on the calculated flight command data;
Flight control method including:
前記UAVに付与された前記複数のマーカは、2つのマーカであり、
前記位置姿勢算出部が算出するステップにおいて、前記差分は、前記UAVの2つのマーカの三次元座標の中点の座標と、算出された前記UAVの2つのマーカの目標となる三次元座標の中点の座標との差分とする請求項4に記載の飛行制御方法。
The plurality of markers attached to the UAV are two markers,
In the step calculated by the position and orientation calculation unit, the difference is a coordinate of a middle point of three-dimensional coordinates of two markers of the UAV and a three-dimensional coordinate which is a target of the two markers of the calculated UAV. The flight control method according to claim 4, wherein the difference is a difference from the coordinates of a point.
前記UAVをN台のUAVとし、N−1台目のUAVをN台目のUAVに対する前記参照物体とし、
前記方位検出部が算出するステップは、前記参照物体としての前記N−1台目のUAVについて、方位角を算出し、
前記位置姿勢算出部が算出するステップは、前記N−1台目のUAVの前記複数のマーカの各々の三次元座標と、前記算出された方位角と、予め定められた前記N−1台目のUAVの前記複数のマーカの各々の三次元座標及び前記N台目のUAVの前記複数のマーカの各々の三次元座標の相対位置関係とに基づいて、前記N台目のUAVの前記複数のマーカの各々の目標となる三次元座標を算出し、算出された前記目標となる三次元座標と前記N台目のUAVの前記複数のマーカの各々の三次元座標との差分を算出し、前記N台目のUAVの前記複数のマーカの各々の三次元座標に前記差分を加算して得られる三次元座標と、前記N台目のUAVの前記複数のマーカの各々の前記目標となる三次元座標とに基づいて回転角を算出し、
前記運動制御部が制御するステップは、算出された前記差分と、前記回転角とに基づいて、前記N台目のUAVにおける、X軸周りの回転角、Y軸周りの回転角、Z軸に沿った速度、及びZ軸周りの回転速度を飛行指令データとして算出し、算出した前記飛行指令データに基づいて前記N台目のUAVの運動を制御する請求項4又は請求項5に記載の飛行制御方法。
Let the UAV be N UAVs, let the N-1 UAV be the reference object for the N UAV,
The step of calculation by the azimuth detection unit calculates an azimuth angle for the N-1 first UAV as the reference object,
The step of calculation by the position and orientation calculation unit includes three-dimensional coordinates of each of the plurality of markers of the N-1th UAV, the calculated azimuth angle, and the N-1th predetermined antenna. The plurality of markers of the Nth UAV based on the three-dimensional coordinates of each of the plurality of markers of the UAV and the relative positional relationship of the three-dimensional coordinates of each of the plurality of markers of the Nth UAV; The target three-dimensional coordinates of each marker are calculated, and the difference between the calculated target three-dimensional coordinates and the three-dimensional coordinates of each of the plurality of markers of the Nth UAV is calculated. Three-dimensional coordinates obtained by adding the difference to the three-dimensional coordinates of each of the plurality of markers of the Nth UAV, and the three-dimensional target of each of the plurality of markers of the Nth UAV Calculate the rotation angle based on the coordinates,
In the step of controlling by the motion control unit, a rotation angle around the X axis, a rotation angle around the Y axis, and a Z axis in the Nth UAV based on the calculated difference and the rotation angle. The flight according to claim 4 or 5, wherein the velocity along the axis and the rotational velocity around the Z axis are calculated as flight command data, and the motion of the Nth UAV is controlled based on the calculated flight command data. Control method.
コンピュータを、請求項1〜請求項3のいずれか1項に記載の飛行制御装置の各部として機能させるためのプログラム。   The program for functioning a computer as each part of the flight control apparatus of any one of Claims 1-3.
JP2017184716A 2017-09-26 2017-09-26 Flight controls, methods, and programs Active JP6758271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017184716A JP6758271B2 (en) 2017-09-26 2017-09-26 Flight controls, methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017184716A JP6758271B2 (en) 2017-09-26 2017-09-26 Flight controls, methods, and programs

Publications (2)

Publication Number Publication Date
JP2019059314A true JP2019059314A (en) 2019-04-18
JP6758271B2 JP6758271B2 (en) 2020-09-23

Family

ID=66177923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017184716A Active JP6758271B2 (en) 2017-09-26 2017-09-26 Flight controls, methods, and programs

Country Status (1)

Country Link
JP (1) JP6758271B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019142290A (en) * 2018-02-16 2019-08-29 大豊精機株式会社 Remote control device
WO2019203166A1 (en) * 2018-04-16 2019-10-24 日本電信電話株式会社 Flight control device, method, and program
CN113190040A (en) * 2021-04-29 2021-07-30 集展通航(北京)科技有限公司 Method and system for line inspection based on unmanned aerial vehicle video and railway BIM
CN114234982A (en) * 2021-12-20 2022-03-25 中南大学 Three-dimensional trajectory planning method, system, device and medium based on azimuth positioning
CN114236585A (en) * 2021-12-09 2022-03-25 国网思极神往位置服务(北京)有限公司 Target motion monitoring method based on Beidou navigation satellite system and storage medium
WO2022107760A1 (en) * 2020-11-20 2022-05-27 ファナック株式会社 Numerical control device, and storage medium
KR20220072801A (en) * 2020-11-25 2022-06-02 아이원랩 주식회사 An artificial intelligence drone equipped with a system that detects defects based on real-time sensor data, and method for detecting defects in artificial intelligence drones using a system that detects defects based on real-time sensor data
JP7509914B2 (en) 2020-11-20 2024-07-02 ファナック株式会社 Numerical control device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0276009A (en) * 1988-09-12 1990-03-15 Toyota Autom Loom Works Ltd Unmanned vehicle operating system
JPH1139036A (en) * 1997-07-23 1999-02-12 Kubota Corp Travel controller for work vehicle
JP2004085369A (en) * 2002-08-27 2004-03-18 Toyota Motor Corp Relative position relation recognition device for two independent moving objects
JP2011150443A (en) * 2010-01-20 2011-08-04 Hitachi Plant Technologies Ltd Robot and robot system
JP2015191254A (en) * 2014-03-27 2015-11-02 日本電気株式会社 Unmanned aircraft, control method of unmanned aircraft and control system thereof
CN106020223A (en) * 2016-07-19 2016-10-12 零度智控(北京)智能科技有限公司 Flying control method, apparatus and system for aircraft
WO2017022058A1 (en) * 2015-08-03 2017-02-09 Necソリューションイノベータ株式会社 Location management device, location management method, and computer readable recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0276009A (en) * 1988-09-12 1990-03-15 Toyota Autom Loom Works Ltd Unmanned vehicle operating system
JPH1139036A (en) * 1997-07-23 1999-02-12 Kubota Corp Travel controller for work vehicle
JP2004085369A (en) * 2002-08-27 2004-03-18 Toyota Motor Corp Relative position relation recognition device for two independent moving objects
JP2011150443A (en) * 2010-01-20 2011-08-04 Hitachi Plant Technologies Ltd Robot and robot system
JP2015191254A (en) * 2014-03-27 2015-11-02 日本電気株式会社 Unmanned aircraft, control method of unmanned aircraft and control system thereof
WO2017022058A1 (en) * 2015-08-03 2017-02-09 Necソリューションイノベータ株式会社 Location management device, location management method, and computer readable recording medium
CN106020223A (en) * 2016-07-19 2016-10-12 零度智控(北京)智能科技有限公司 Flying control method, apparatus and system for aircraft

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019142290A (en) * 2018-02-16 2019-08-29 大豊精機株式会社 Remote control device
WO2019203166A1 (en) * 2018-04-16 2019-10-24 日本電信電話株式会社 Flight control device, method, and program
WO2022107760A1 (en) * 2020-11-20 2022-05-27 ファナック株式会社 Numerical control device, and storage medium
JP7509914B2 (en) 2020-11-20 2024-07-02 ファナック株式会社 Numerical control device and storage medium
KR102457691B1 (en) 2020-11-25 2022-10-21 아이원랩 주식회사 An artificial intelligence drone equipped with a system that detects defects based on real-time sensor data, and method for detecting defects in artificial intelligence drones using a system that detects defects based on real-time sensor data
KR20220072801A (en) * 2020-11-25 2022-06-02 아이원랩 주식회사 An artificial intelligence drone equipped with a system that detects defects based on real-time sensor data, and method for detecting defects in artificial intelligence drones using a system that detects defects based on real-time sensor data
KR20220130629A (en) * 2020-11-25 2022-09-27 아이원랩 주식회사 An artificial intelligence drone equipped with a system that detects defects based on real-time sensor data, and method for detecting defects in artificial intelligence drones using a system that detects defects based on real-time sensor data
KR102578922B1 (en) 2020-11-25 2023-09-15 아이원랩 주식회사 An artificial intelligence drone equipped with a system that detects defects based on real-time sensor data, and method for detecting defects in artificial intelligence drones using a system that detects defects based on real-time sensor data
CN113190040B (en) * 2021-04-29 2021-10-08 集展通航(北京)科技有限公司 Method and system for line inspection based on unmanned aerial vehicle video and railway BIM
CN113190040A (en) * 2021-04-29 2021-07-30 集展通航(北京)科技有限公司 Method and system for line inspection based on unmanned aerial vehicle video and railway BIM
CN114236585A (en) * 2021-12-09 2022-03-25 国网思极神往位置服务(北京)有限公司 Target motion monitoring method based on Beidou navigation satellite system and storage medium
CN114236585B (en) * 2021-12-09 2023-04-14 国网思极位置服务有限公司 Target motion monitoring method based on Beidou navigation satellite system and storage medium
CN114234982A (en) * 2021-12-20 2022-03-25 中南大学 Three-dimensional trajectory planning method, system, device and medium based on azimuth positioning
CN114234982B (en) * 2021-12-20 2024-04-16 中南大学 Three-dimensional track planning method, system, equipment and medium based on azimuth positioning

Also Published As

Publication number Publication date
JP6758271B2 (en) 2020-09-23

Similar Documents

Publication Publication Date Title
JP6758271B2 (en) Flight controls, methods, and programs
Thomas et al. Toward image based visual servoing for aerial grasping and perching
Saska et al. Motion planning and control of formations of micro aerial vehicles
Blösch et al. Vision based MAV navigation in unknown and unstructured environments
US8214098B2 (en) System and method for controlling swarm of remote unmanned vehicles through human gestures
CN110192122B (en) System and method for radar control on unmanned mobile platforms
Araar et al. Visual servoing of a quadrotor uav for autonomous power lines inspection
JP6419986B2 (en) Aircraft control method and apparatus
CN110231828B (en) Four-rotor unmanned aerial vehicle visual servo control method based on nonsingular rapid terminal sliding mode
Bhargavapuri et al. Vision-based autonomous tracking and landing of a fully-actuated rotorcraft
WO2019203166A1 (en) Flight control device, method, and program
US10386857B2 (en) Sensor-centric path planning and control for robotic vehicles
JP2020023283A (en) Flight control device, method, and program
Chowdhary et al. Self-contained autonomous indoor flight with ranging sensor navigation
Acuna et al. Vision-based UAV landing on a moving platform in GPS denied environments using motion prediction
Liu et al. An autonomous quadrotor avoiding a helicopter in low-altitude flights
Watanabe et al. Image-based visual PID control of a micro helicopter using a stationary camera
Kim et al. Vision-based collaborative lifting using quadrotor UAVs
WO2019172335A1 (en) Flight control device, method, program, and storage medium
Asadi et al. An integrated aerial and ground vehicle (UAV-UGV) system for automated data collection for indoor construction sites
Danko et al. Evaluation of visual servoing control of aerial manipulators using test gantry emulation
Douthwaite et al. An interval approach to multiple unmanned aerial vehicle collision avoidance
Zhang et al. Hardware-in-the-loop simulation platform for unmanned aerial vehicle swarm system: Architecture and application
Kim et al. Single 2D lidar based follow-me of mobile robot on hilly terrains
Gürcüoglu et al. Hierarchical control of a team of quadrotors for cooperative active target tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200901

R150 Certificate of patent or registration of utility model

Ref document number: 6758271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150