JP7288947B1 - Flight control system, flight control method, and unmanned air vehicle - Google Patents

Flight control system, flight control method, and unmanned air vehicle Download PDF

Info

Publication number
JP7288947B1
JP7288947B1 JP2021204544A JP2021204544A JP7288947B1 JP 7288947 B1 JP7288947 B1 JP 7288947B1 JP 2021204544 A JP2021204544 A JP 2021204544A JP 2021204544 A JP2021204544 A JP 2021204544A JP 7288947 B1 JP7288947 B1 JP 7288947B1
Authority
JP
Japan
Prior art keywords
flying object
camera
unmanned flying
unmanned
air vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021204544A
Other languages
Japanese (ja)
Other versions
JP2023089805A (en
Inventor
満 中澤
順 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2021204544A priority Critical patent/JP7288947B1/en
Application granted granted Critical
Publication of JP7288947B1 publication Critical patent/JP7288947B1/en
Publication of JP2023089805A publication Critical patent/JP2023089805A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】単純な構造で無人飛行体にカメラを向けるようにする。【解決手段】目標角度取得部(160)は、第1の無人飛行体(20A)のカメラ(25)の方向である所与のカメラ方向に基づいて、第1の無人飛行体のピッチ軸(Axa)に沿った軸線(Ax1)を中心とする回転方向での角度である第1の目標角度(θ1)と、第1の無人飛行体のヨー軸(Axb)に沿った軸線(Ax2)を中心とする回転方向の角度である第2の目標角度(θ2)とを取得する。駆動制御部(170)は、第1の無人飛行体のピッチ軸に沿った軸線を中心とする回転方向において、第1の目標角度の方向へカメラが向くように、カメラを支持する支持構造を駆動させる。飛行制御部(130)は、第1の無人飛行体のヨー軸に沿った軸線を中心とする回転方向において、第2の目標角度の方向へカメラが向くように、第1の無人飛行体を旋回させる。【選択図】図10An object of the present invention is to direct a camera to an unmanned flying object with a simple structure. A target angle acquisition unit (160) obtains a pitch axis ( Axa) and the axis (Ax2) along the yaw axis (Axb) of the first unmanned air vehicle. A second target angle (θ2), which is the angle in the direction of rotation about the center, is obtained. A drive control unit (170) controls a support structure for supporting the camera so that the camera faces in the direction of the first target angle in the rotation direction about the axis along the pitch axis of the first unmanned air vehicle. drive. A flight control unit (130) controls the first unmanned air vehicle so that the camera faces the direction of the second target angle in the direction of rotation about the axis along the yaw axis of the first unmanned air vehicle. swirl. [Selection drawing] Fig. 10

Description

本開示は飛行制御システム、飛行制御方法、及び無人飛行体に関する。 The present disclosure relates to flight control systems, flight control methods, and unmanned air vehicles.

下記特許文献1には、橋梁の表面調査などの実務を行う無人飛行体を監視用の別の無人飛行機のカメラで撮影し、撮影した映像を操縦端末に送信してモニターに映すことが記載されている。 Patent Literature 1 below describes that an unmanned flying object that conducts practical work such as surveying the surface of a bridge is photographed by a camera of another unmanned airplane for monitoring, and the photographed image is transmitted to a control terminal and displayed on a monitor. ing.

特開第2017-87916号公報Japanese Unexamined Patent Publication No. 2017-87916

特許文献1には、どのような方法でカメラを無人飛行機に向けているかについては記載されていない。カメラの向きを制御する方法として、例えば、無人飛行体とカメラとを接続するカメラの支持構造により、無人飛行体のピッチ軸に沿った方向(上下方向)及びヨー軸に沿った方向(左右方向)でカメラを動かすことが考えられる。しかし、2つの方向でのカメラの動きを実現する支持構造は、一般的に構造が複雑であり、そのような支持構造を採用することで、無人飛行機の重量化や高価格化に繋がる可能性がある。 Patent Document 1 does not describe how the camera is aimed at the unmanned airplane. As a method of controlling the orientation of the camera, for example, the direction along the pitch axis of the unmanned air vehicle (vertical direction) and the direction along the yaw axis ) to move the camera. However, the support structure that realizes the movement of the camera in two directions is generally complicated in structure, and adopting such a support structure may lead to the weight and cost of the unmanned aircraft. There is

本開示の目的は、単純な構造で無人飛行体にカメラを向けるようにすることである。 An object of the present disclosure is to aim a camera at an unmanned air vehicle with a simple structure.

本開示に係る飛行制御システムは、第1の無人飛行体と、所定の飛行ルートを飛行する第2の無人飛行体とを含む飛行制御システムであって、前記第1の無人飛行体は、前記第2の無人飛行体に先行又は追尾して前記第1の無人飛行体に前記所定の飛行ルートを飛行させる飛行制御手段と、前記第1の無人飛行体の位置から前記第2の無人飛行体を撮影するカメラと、前記第1の無人飛行体に取り付けられて前記カメラを支持した状態で、前記第1の無人飛行体に対して前記第1の無人飛行体のピッチ軸に沿った軸線を中心とする回転方向で前記カメラの方向を動かすことができる支持構造と、前記カメラの方向である所与のカメラ方向に基づいて、前記ピッチ軸に沿った軸線を中心とする回転方向での角度である第1の目標角度と、前記第1の無人飛行体のヨー軸に沿った軸線を中心とする回転方向の角度である第2の目標角度とを取得する目標角度取得手段と、前記ピッチ軸に沿った軸線を中心とする回転方向において、前記第1の目標角度の方向へ前記カメラが向くように前記支持構造を駆動させる駆動制御手段と、を含み、前記飛行制御手段は、前記ヨー軸に沿った軸線を中心とする回転方向において、前記第2の目標角度の方向へ前記カメラが向くように、前記第1の無人飛行体を旋回させる。これによれば、単純な構造で無人飛行体にカメラを向けることができるようになる。 A flight control system according to the present disclosure is a flight control system including a first unmanned flying object and a second unmanned flying object that flies a predetermined flight route, wherein the first unmanned flying object flight control means for causing said first unmanned flying object to fly said predetermined flight route preceding or following said second unmanned flying object; and said second unmanned flying object from said first unmanned flying object position. and an axis line along the pitch axis of the first unmanned flying object with respect to the first unmanned flying object in a state in which the camera is attached to the first unmanned flying object and supports the camera. A support structure capable of moving the orientation of the camera in a direction of rotation about its center and an angle in the direction of rotation about an axis along the pitch axis based on a given camera direction that is the orientation of the camera. and a second target angle that is an angle in a rotational direction about an axis along the yaw axis of the first unmanned air vehicle; the pitch drive control means for driving the support structure to point the camera toward the first target angle in a rotational direction about an axis along the axis, wherein the flight control means is adapted to control the yaw Rotate the first unmanned air vehicle so that the camera points toward the second target angle in a rotational direction about the axis along the axis. According to this, it becomes possible to point the camera at the unmanned flying object with a simple structure.

また、本開示に係る飛行制御方法は、第1の無人飛行体の飛行と、所定の飛行ルートを飛行する第2の無人飛行体の飛行とを制御する飛行制御方法であって、前記第1の無人飛行体が、前記第2の無人飛行体に先行又は追尾して前記第1の無人飛行体に前記所定の飛行ルートを飛行し、カメラを用いて前記第1の無人飛行体の位置から前記第2の無人飛行体を撮影し、前記カメラの方向である所与のカメラ方向に基づいて、前記第1の無人飛行体のピッチ軸に沿った軸線を中心とする回転方向での角度である第1の目標角度と、前記第1の無人飛行体のヨー軸に沿った軸線を中心とする回転方向の角度である第2の目標角度とを取得し、前記ピッチ軸に沿った軸線を中心とする回転方向において、前記第1の目標角度の方向へ前記カメラが向くように、前記第1の無人飛行体に取り付けられて前記カメラを支持している支持構造を駆動させ、前記ヨー軸に沿った軸線を中心とする回転方向において、前記第2の目標角度の方向へ前記カメラが向くように旋回する飛行制御方法である。これによれば、単純な構造で無人飛行体にカメラを向けることができるようになる。 Further, a flight control method according to the present disclosure is a flight control method for controlling a flight of a first unmanned air vehicle and a flight of a second unmanned air vehicle that flies along a predetermined flight route, of the unmanned flying object precedes or follows the second unmanned flying object and flies along the predetermined flight route to the first unmanned flying object, and uses a camera to move from the position of the first unmanned flying object photographing the second unmanned air vehicle, based on a given camera orientation that is the orientation of the camera, at an angle in a rotational direction about an axis along the pitch axis of the first unmanned air vehicle; obtaining a certain first target angle and a second target angle, which is an angle in the direction of rotation about the axis along the yaw axis of the first unmanned air vehicle; actuating a support structure attached to the first unmanned air vehicle and supporting the camera such that the camera is oriented toward the first target angle in a rotational direction about the center, and driving the yaw axis; in a rotational direction about an axis along which the camera turns to point in the direction of the second target angle. According to this, it becomes possible to point the camera at the unmanned flying object with a simple structure.

また、本開示に係る無人飛行体は、所定の飛行ルートを飛行する無人飛行体であって、前記飛行ルートを飛行する他の無人飛行体に先行又は追尾して前記無人飛行体に前記所定の飛行ルートを飛行させる飛行制御手段と、前記無人飛行体の位置から前記他の無人飛行体を撮影するカメラと、前記無人飛行体に取り付けられて前記カメラを支持した状態で、前記無人飛行体に対して前記無人飛行体のピッチ軸に沿った軸線を中心とする回転方向で前記カメラの方向を動かすことができる支持構造と、前記カメラの方向である所与のカメラ方向に基づいて、前記ピッチ軸に沿った軸線を中心とする回転方向での角度である第1の目標角度と、前記無人飛行体のヨー軸に沿った軸線を中心とする回転方向の角度である第2の目標角度とを取得する目標角度取得手段と、前記ピッチ軸に沿った軸線を中心とする回転方向において、前記第1の目標角度の方向へ前記カメラが向くように前記支持構造を駆動させる駆動制御手段と、を含み、前記飛行制御手段は、前記ヨー軸に沿った軸線を中心とする回転方向において、前記第2の目標角度の方向へ前記カメラが向くように、前記無人飛行体を旋回させる。これによれば、単純な構造で他の無人飛行体にカメラを向けることができるようになる。 Further, an unmanned flying object according to the present disclosure is an unmanned flying object that flies on a predetermined flight route, and the unmanned flying object follows or follows another unmanned flying object that flies on the flight route. a flight control means for flying a flight route; a camera for photographing the other unmanned flying object from the position of the unmanned flying object; a support structure capable of moving the orientation of the camera in a rotational direction about an axis along the pitch axis of the unmanned air vehicle; A first target angle that is an angle in the direction of rotation about the axis along the axis, and a second target angle that is the angle in the direction of rotation about the axis along the yaw axis of the unmanned air vehicle. and drive control means for driving the support structure so that the camera faces the direction of the first target angle in a rotational direction about an axis along the pitch axis; wherein the flight control means turns the unmanned air vehicle so that the camera faces the direction of the second target angle in a rotational direction about an axis along the yaw axis. According to this, it becomes possible to point the camera at another unmanned flying object with a simple structure.

本開示の実施形態の一例である飛行制御システムの構成を示す図である。1 is a diagram showing the configuration of a flight control system that is an example of an embodiment of the present disclosure; FIG. 飛行中の無人飛行体の一例を示す図である。1 is a diagram showing an example of an unmanned air vehicle in flight; FIG. 無人飛行体に取り付けられるカメラの一例を示す図である。It is a figure which shows an example of the camera attached to an unmanned air vehicle. 飛行制御システムで行う飛行制御の一例を示す図である。FIG. 4 is a diagram showing an example of flight control performed by the flight control system; 無人飛行体のカメラが撮影する画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image captured by a camera of an unmanned air vehicle; 画像における判定領域の中心位置を設定する方法の一例を示す図である。FIG. 10 is a diagram showing an example of a method for setting the center position of a determination region in an image; 無人飛行体のカメラが撮影する画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image captured by a camera of an unmanned air vehicle; 画像から無人飛行体の位置を算出する方法の一例を示す。An example of a method for calculating the position of an unmanned air vehicle from an image will be shown. 画像からカメラの目標角度を算出する方法の一例を示す。An example of a method of calculating a target angle of a camera from an image is shown. 無人飛行体の機能の一例を示す機能ブロック図である。1 is a functional block diagram showing an example of functions of an unmanned air vehicle; FIG. 飛行制御処理の流れの一例を示す図である。FIG. 5 is a diagram showing an example of the flow of flight control processing; カメラ方向制御処理の流れの一例を示す図である。FIG. 7 is a diagram showing an example of the flow of camera direction control processing;

以下、本開示の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

[1.システム構成]
図1は、本開示の実施形態の一例である飛行制御システムの構成を示す図である。図1に示すように、飛行制御システム1は、管制装置10と、無人飛行体20A(第1の無人飛行体)と、無人飛行体20B(第2の無人飛行体)とを含み、これらはネットワークNに接続されている。なお、飛行制御システム1は、2台の無人飛行体20A,20Bとは異なる図示しない無人飛行体や、ネットワークNに接続されているユーザ端末などの他の装置を含んでもよい。以下の説明では、各無人飛行体20A,20Bを、単に無人飛行体20と称することもある。
[1. System configuration]
FIG. 1 is a diagram showing the configuration of a flight control system that is an example of an embodiment of the present disclosure. As shown in FIG. 1, the flight control system 1 includes a control device 10, an unmanned flying object 20A (first unmanned flying object), and an unmanned flying object 20B (second unmanned flying object). It is connected to network N. Note that the flight control system 1 may include an unmanned air vehicle (not shown) different from the two unmanned air vehicles 20A and 20B, and other devices such as user terminals connected to the network N. In the following description, each unmanned air vehicle 20A, 20B may be simply referred to as an unmanned air vehicle 20.

管制装置10は、無人飛行体20の飛行を管理するサーバ装置などのコンピュータであり、図1に示すように、プロセッサ11、記憶部12、及び通信部13を含んでいる。プロセッサ11は、例えばコンピュータである管制装置10にインストールされたプログラムに従って動作するCPU(Central Processing Unit)などのプログラム制御デバイスである。記憶部12は、例えばROM(Read Only Memory)やRAM(Random Access Memory)などの記憶素子や、ハードディスクドライブなどである。記憶部12にはプロセッサ11によって実行されるプログラムなどのデータが記憶される。通信部13は、ネットワークボードなどの通信インタフェースである。通信部13は、ルータなどの図示しない中継器を介してネットワークNに接続してよい。ネットワークNは、例えば、スマートフォンや携帯電話用の無線の通信網であり、LTE(Long Term Evolution)などの所定の通信規格(通信速度及び周波数帯の規格)に従って実現される。 The control device 10 is a computer such as a server device that manages the flight of the unmanned air vehicle 20, and includes a processor 11, a storage unit 12, and a communication unit 13, as shown in FIG. The processor 11 is a program control device such as a CPU (Central Processing Unit) that operates according to a program installed in the control device 10, which is a computer, for example. The storage unit 12 is, for example, a storage element such as a ROM (Read Only Memory) or a RAM (Random Access Memory), a hard disk drive, or the like. Data such as a program executed by the processor 11 is stored in the storage unit 12 . The communication unit 13 is a communication interface such as a network board. The communication unit 13 may be connected to the network N via a repeater (not shown) such as a router. The network N is, for example, a wireless communication network for smart phones and mobile phones, and is implemented according to a predetermined communication standard (communication speed and frequency band standard) such as LTE (Long Term Evolution).

本実施形態において、管制装置10の記憶部12は、無人飛行体20が飛行する飛行ルートの情報などのデータを記憶する。また、管制装置10の通信部13は、ネットワークNを介して無人飛行体20とのデータの送受を行う。通信部13は、例えば、無人飛行体20が飛行する飛行ルートの情報や、飛行制御に関する指示情報(例えば、停止指示や帰還指示、着陸指示などの情報)を、当該無人飛行体20に送信する。 In the present embodiment, the storage unit 12 of the control device 10 stores data such as flight route information for the unmanned air vehicle 20 to fly. Also, the communication unit 13 of the control device 10 transmits and receives data to and from the unmanned flying object 20 via the network N. FIG. The communication unit 13 transmits, for example, information on the flight route along which the unmanned flying object 20 flies and instruction information on flight control (for example, information such as a stop instruction, a return instruction, and a landing instruction) to the unmanned flying object 20. .

[2.無人飛行体の構成]
無人飛行体20は、パイロットなどの人が搭乗しない航空機であり、例えば、バッテリーで駆動する航空機(いわゆるドローン)である。無人飛行体20は、エンジンで駆動する航空機などであってもよい。2台の無人飛行体20A,20Bの各々は、図1に示すように、プロセッサ21、記憶部22、通信部23、測位センサ24、カメラ25a(第1のカメラ)、及びカメラ25b(第2のカメラ)を含む。プロセッサ21は、CPUなどのプログラム制御デバイスである。記憶部22は、例えばROMやRAMなどの記憶素子や、ハードディスクドライブなどである。記憶部22にはプロセッサ21によって実行されるプログラムなどのデータが記憶され、プロセッサ21は記憶部22に記憶されたプログラムに従って動作する。通信部23は、アンテナなどの通信インタフェースであり、無線によってネットワークNに接続されている。
[2. Configuration of unmanned air vehicle]
The unmanned flying object 20 is an aircraft that does not have a pilot or other person on board, and is, for example, a battery-driven aircraft (so-called drone). The unmanned air vehicle 20 may be an engine-driven aircraft or the like. Each of the two unmanned air vehicles 20A and 20B includes a processor 21, a storage unit 22, a communication unit 23, a positioning sensor 24, a camera 25a (first camera), and a camera 25b (second camera). Processor 21 is a program-controlled device such as a CPU. The storage unit 22 is, for example, a storage element such as ROM or RAM, or a hard disk drive. The storage unit 22 stores data such as programs to be executed by the processor 21 , and the processor 21 operates according to the programs stored in the storage unit 22 . The communication unit 23 is a communication interface such as an antenna, and is connected to the network N wirelessly.

本実施形態において、無人飛行体20の通信部23は、現在の位置や速度、バッテリー残量などといった当該無人飛行体20の情報であるテレメトリー情報を、管制装置10に送信する。また、各無人飛行体20A,20Bの通信部23は、ネットワークN、又は、Wi-Fi(登録商標)やBluetooth(登録商標)、赤外線などの他の通信経路を介して、互いにデータの送受が可能である。例えば、無人飛行体20Aの通信部23は、当該無人飛行体20Aのテレメトリー情報を無人飛行体20Bに送信する。これと同様に、無人飛行体20Bの通信部23は、当該無人飛行体20Bのテレメトリー情報を無人飛行体20Aに送信する。 In this embodiment, the communication unit 23 of the unmanned flying object 20 transmits telemetry information, which is information about the unmanned flying object 20 such as current position, speed, remaining battery power, etc., to the control device 10 . Further, the communication units 23 of the unmanned air vehicles 20A and 20B can exchange data with each other via the network N or other communication paths such as Wi-Fi (registered trademark), Bluetooth (registered trademark), and infrared rays. It is possible. For example, the communication unit 23 of the unmanned flying object 20A transmits telemetry information of the unmanned flying object 20A to the unmanned flying object 20B. Similarly, the communication unit 23 of the unmanned flying object 20B transmits telemetry information of the unmanned flying object 20B to the unmanned flying object 20A.

無人飛行体20に搭載される測位センサ24は、当該無人飛行体20の現実世界における位置(例えば、緯度、経度、及び高度)を検出するセンサである。無人飛行体20Aの測位センサ24は無人飛行体20Aの位置を検出し、無人飛行体20Bの測位センサ24は無人飛行体20Bの位置を検出する。また、測位センサ24は、1以上のセンサを含んでよく、例えば、自機の緯度及び経度を検出するGPS(Global Positioning System, Global Positioning Satellite)センサと、自機の高度を検出する高度センサとを含んでよい。また、測位センサ24は、出発地点からの相対的な位置を検出するものであってもよく、速度センサ又は加速度センサと、ジャイロセンサとを含んでもよい。 A positioning sensor 24 mounted on the unmanned flying object 20 is a sensor that detects the position (eg, latitude, longitude, and altitude) of the unmanned flying object 20 in the real world. The positioning sensor 24 of the unmanned flying object 20A detects the position of the unmanned flying object 20A, and the positioning sensor 24 of the unmanned flying object 20B detects the position of the unmanned flying object 20B. In addition, the positioning sensor 24 may include one or more sensors, for example, a GPS (Global Positioning System, Global Positioning Satellite) sensor that detects the latitude and longitude of the aircraft, and an altitude sensor that detects the altitude of the aircraft. may contain Also, the positioning sensor 24 may detect a relative position from the starting point, and may include a speed sensor or an acceleration sensor and a gyro sensor.

図2は、飛行中の無人飛行体20の一例を示す図である。無人飛行体20は、上述したプロセッサ21や記憶部22、バッテリーなどを収容する筐体27、モータ28、及びプロペラ29を含む。無人飛行体20は複数(図2に示す例では4つ)のモータ28を含み、これと同数のプロペラ29がこれらに接続されている。各モータ28及びプロペラ29は、無人飛行体20のヨー軸Axbに沿った軸線を中心とする方向で回転する。プロセッサ21が各モータ28の回転速度、すなわち、各プロペラ29の回転速度を制御することにより、無人飛行体20は空中での姿勢制御、すなわち、飛行制御を行うことが可能である。 FIG. 2 is a diagram showing an example of an unmanned air vehicle 20 in flight. The unmanned air vehicle 20 includes the above-described processor 21 , storage unit 22 , housing 27 housing a battery and the like, motor 28 , and propeller 29 . The unmanned air vehicle 20 includes a plurality (four in the example shown in FIG. 2) of motors 28 and the same number of propellers 29 connected thereto. Each motor 28 and propeller 29 rotate in a direction centered on an axis along the yaw axis Axb of the unmanned air vehicle 20 . The processor 21 controls the rotation speed of each motor 28, that is, the rotation speed of each propeller 29, so that the unmanned air vehicle 20 can perform attitude control in the air, that is, flight control.

本実施形態では、無人飛行体20は、平面視において時計回りの方向に回転するモータ28及びプロペラ29と、反時計回りに回転するモータ28及びプロペラ29とを有している。無人飛行体20において、時計回りに回転するモータ28の数(プロペラ29の数)は、反時計回りに回転するモータ28の数(プロペラ29の数)と同数(図2に示す例では2つ)である。また、図2に示す例では、筐体27を挟んで配置されるモータ28及びプロペラ29が、同じ方向に回転する。例えば、筐体27の左前方、及び右後方に配置されるモータ28及びプロペラ29が時計回りに回転し、筐体27の右前方、左後方に配置されるモータ28及びプロペラ29が反時計回りに回転する。 In this embodiment, the unmanned flying object 20 has a motor 28 and a propeller 29 that rotate clockwise and a motor 28 and a propeller 29 that rotate counterclockwise in plan view. In the unmanned air vehicle 20, the number of motors 28 rotating clockwise (the number of propellers 29) is the same as the number of motors 28 rotating counterclockwise (the number of propellers 29) (two in the example shown in FIG. 2). ). Further, in the example shown in FIG. 2, the motor 28 and the propeller 29 arranged with the housing 27 interposed therebetween rotate in the same direction. For example, the motor 28 and propeller 29 arranged on the left front and right rear of the housing 27 rotate clockwise, and the motor 28 and propeller 29 arranged on the right front and left rear of the housing 27 rotate counterclockwise. rotate to

無人飛行体20に取り付けられる2つのカメラ25a,25bは、当該無人飛行体20の位置から所定の方向(上下方向、左右方向、又はこれらの斜め方向)を撮影するものであり、当該無人飛行体20の外面に設けられる。図2に示す例では、無人飛行体20の筐体27の前面及び後面に、カメラ25a,25bがそれぞれ取り付けられている。これに限らず、筐体27の下面にカメラ25a,25bが取り付けられてもよい。 The two cameras 25a and 25b attached to the unmanned flying object 20 take pictures in a predetermined direction (vertical direction, horizontal direction, or oblique directions thereof) from the position of the unmanned flying object 20. 20 on the outer surface. In the example shown in FIG. 2, cameras 25a and 25b are attached to the front and rear surfaces of a housing 27 of the unmanned air vehicle 20, respectively. The cameras 25 a and 25 b may be attached to the lower surface of the housing 27 without being limited to this.

2つのカメラ25a,25bは、互いに異なる方向に向いている。無人飛行体20の筐体27の前面に取り付けられたカメラ25aは、無人飛行体20の前方に向いており、筐体27の後面に取り付けられたカメラ25bは、無人飛行体20の後方に向いている。以下の説明では、カメラ25a,25bを、単にカメラ25と呼ぶこともある。なお、無人飛行体20の筐体27に取付らえるカメラ25の数は、1つであってもよいし、2以上の複数であってもよい。例えば、筐体27の前面、後面、右側面、及び左側面に、4つのカメラ25が取り付けられてもよい。 The two cameras 25a and 25b face different directions. A camera 25 a attached to the front surface of a housing 27 of the unmanned flying object 20 faces forward of the unmanned flying object 20 , and a camera 25 b attached to the rear surface of the housing 27 faces rearward of the unmanned flying object 20 . ing. In the following description, the cameras 25a and 25b may be simply referred to as cameras 25 in some cases. The number of cameras 25 attached to the housing 27 of the unmanned flying object 20 may be one, or two or more. For example, four cameras 25 may be attached to the front, rear, right and left sides of the housing 27 .

また、カメラ25は、ステレオカメラであってもよい。この場合、カメラ25は、各画素に被撮影物の距離情報を含むステレオ画像を撮影する。 Also, the camera 25 may be a stereo camera. In this case, the camera 25 takes a stereo image including distance information of the object to be shot in each pixel.

図3は、無人飛行体20に取り付けられるカメラ25及び支持構造26の一例を示す図である。図3に示すように、カメラ25は、レンズ251を含む。また、支持構造26は、無人飛行体20に取り付けられてカメラ25を支持するものであり、無人飛行体20の筐体27に取り付けられる基部261と、アクチュエータ262とを含む。アクチュエータ262が無人飛行体20のピッチ軸Axa(図2を参照)に沿った軸線Ax1を中心に回転することにより、支持構造26は、カメラ25を支持した状態で、無人飛行体20に対して軸線Ax1を中心とする回転方向でカメラ25の方向を動かすことができる。以下の説明では、筐体27の前面に取り付けられてカメラ25aを支持する支持構造26を、支持構造26aとも称する。また、筐体27の後面に取り付けられてカメラ25bを支持する支持構造26を、支持構造26bとも称する。 FIG. 3 is a diagram showing an example of the camera 25 and the support structure 26 attached to the unmanned air vehicle 20. As shown in FIG. As shown in FIG. 3, camera 25 includes lens 251 . The support structure 26 is attached to the unmanned air vehicle 20 to support the camera 25 and includes a base 261 attached to the housing 27 of the unmanned air vehicle 20 and an actuator 262 . Rotation of the actuator 262 about the axis Ax1 along the pitch axis Axa (see FIG. 2) of the unmanned air vehicle 20 causes the support structure 26 to rotate relative to the unmanned air vehicle 20 while supporting the camera 25. The direction of the camera 25 can be moved in the direction of rotation about the axis Ax1. In the following description, the support structure 26 attached to the front surface of the housing 27 and supporting the camera 25a is also referred to as the support structure 26a. Further, the support structure 26 that is attached to the rear surface of the housing 27 and supports the camera 25b is also referred to as a support structure 26b.

なお、支持構造26において、基部261と、アクチュエータ262と間にはダンパーが設けられてもよい。このようにすることで、無人飛行体20の揺動に応じてカメラ250が揺動することを抑制できる。また、アクチュエータ262は、軸線Ax1を中心とする方向において、カメラ25が水平方向(地表と平行な方向)に対して所定の方向を向くようにカメラ25を動かすものであってもよい。換言すると、支持構造26は、1軸のジンバルとして機能するものであってもよい。また、支持構造26に含まれるアクチュエータの数は、2つであってもよいし、3つであってもよい。この場合、各アクチュエータの軸線(回転中心線)は、互いに垂直に交差する方向であってよく、支持構造26は、2又は3軸のジンバルとして機能するものであってもよい。 A damper may be provided between the base 261 and the actuator 262 in the support structure 26 . By doing so, it is possible to suppress the rocking of the camera 250 in response to the rocking of the unmanned flying object 20 . Further, the actuator 262 may move the camera 25 so that the camera 25 faces a predetermined direction with respect to the horizontal direction (direction parallel to the ground surface) in the direction centered on the axis Ax1. In other words, the support structure 26 may function as a single-axis gimbal. Also, the number of actuators included in the support structure 26 may be two or three. In this case, the axes (rotational centerlines) of the respective actuators may be perpendicular to each other, and the support structure 26 may function as a 2- or 3-axis gimbal.

[3.飛行制御の概要]
[3-1.飛行ルートにおける飛行]
図4は、飛行制御システムで行う飛行制御の一例を示す図である。図4に示すように、飛行制御システム1では、2台の無人飛行体20A,20Bが所定の飛行ルート5を飛行する。飛行ルート5は、無人飛行体20A,20Bの出発地点と到着地点を結ぶ幅と高さを持った連続的な空間である。図4に示す例では、飛行ルート5は、出発地点から到着地点までの複数のポイントで、当該ポイントを中心とした幅ΔW及び高さΔHの領域を有している。なお、飛行ルート5に含まれる領域の幅と高さは、図4に示すように複数のポイントで同じであってもよいし、異なっていてもよい。
[3. Overview of Flight Control]
[3-1. flight on the flight route]
FIG. 4 is a diagram showing an example of flight control performed by the flight control system. As shown in FIG. 4, in the flight control system 1, two unmanned air vehicles 20A and 20B fly a predetermined flight route 5. The flight route 5 is a continuous space having width and height connecting the departure points and arrival points of the unmanned air vehicles 20A and 20B. In the example shown in FIG. 4, the flight route 5 has a plurality of points from the departure point to the arrival point, and has a region of width ΔW and height ΔH centering on the points. The width and height of the area included in the flight route 5 may be the same or different at a plurality of points as shown in FIG.

飛行制御システム1では、2台の無人飛行体20A,20Bが飛行ルート5の進行方向に所定の距離を空けて、当該飛行ルート5内を飛行する。無人飛行体20Bは、無人飛行体20Aに先行して飛行ルート5内を飛行し、無人飛行体20Aは、先行する無人飛行体20Bを追尾して飛行ルート5内を飛行する。無人飛行体20Aは、無人飛行体20Bとの間で所定の距離を維持しつつ、無人飛行体20Aの位置が飛行ルート5から外れないようにして、飛行ルート5内を飛行する。これと同様に、無人飛行体20Bは、無人飛行体20Aとの間で所定の距離を維持しつつ、無人飛行体20Bの位置が飛行ルート5から外れないようにして、飛行ルート5内を飛行する。図4に示す例は、先行する無人飛行体20Bが、ポイントO2を中心とする幅ΔW及び高さΔHの領域内を飛行しており、これを追尾する無人飛行体20Aが、ポイントO2よりも後方(飛行ルート5の進行方向とは逆方向)のポイントO1を中心とする幅ΔW及び高さΔHの領域内を飛行している状態を示している。 In the flight control system 1, two unmanned air vehicles 20A and 20B fly within the flight route 5 with a predetermined distance in the traveling direction of the flight route 5. The unmanned flying object 20B flies on the flight route 5 ahead of the unmanned flying object 20A, and the unmanned flying object 20A flies on the flight route 5 while tracking the preceding unmanned flying object 20B. The unmanned flying object 20A flies within the flight route 5 while maintaining a predetermined distance from the unmanned flying object 20B so that the position of the unmanned flying object 20A does not deviate from the flight route 5.例文帳に追加Similarly, the unmanned flying object 20B flies within the flight route 5 while maintaining a predetermined distance from the unmanned flying object 20A so that the position of the unmanned flying object 20B does not deviate from the flight route 5. do. In the example shown in FIG. 4, a preceding unmanned flying object 20B is flying within a region of width ΔW and height ΔH centered at point O2, and unmanned flying object 20A tracking this is flying at a distance higher than point O2. It shows a state of flying in a region of width ΔW and height ΔH centered on point O1 in the rear (in the direction opposite to the traveling direction of flight route 5).

[3-2.飛行ルートから外れたことの検出]
無人飛行体20A,20Bが飛行ルート5から外れているか否かを検出するために、各無人飛行体20A,20Bのカメラ25は、飛行ルート5の飛行中に所定の方向を撮影する。無人飛行体20Aのカメラ25は、飛行ルート5を飛行中の無人飛行体20Aの位置から無人飛行体20Bを撮影する。これと同様に、無人飛行体20Bのカメラ25は、無人飛行体20Aを撮影する。本実施形態において、無人飛行体20Aのカメラ25(筐体27の前面に取り付けられたカメラ25a)は、基本的には無人飛行体20Aの前方(すなわち、飛行ルート5の進行方向)を撮影する。また、先行する無人飛行体20Bのカメラ25(筐体27の後面に取り付けられたカメラ25b)は、基本的には無人飛行体20Bの後方を撮影する。
[3-2. Departure from Flight Route Detection]
In order to detect whether or not the unmanned air vehicles 20A and 20B have deviated from the flight route 5, the cameras 25 of the respective unmanned air vehicles 20A and 20B photograph predetermined directions during flight along the flight route 5. The camera 25 of the unmanned flying object 20A photographs the unmanned flying object 20B from the position of the unmanned flying object 20A flying on the flight route 5. - 特許庁Similarly, the camera 25 of the unmanned flying object 20B photographs the unmanned flying object 20A. In this embodiment, the camera 25 of the unmanned flying object 20A (the camera 25a attached to the front surface of the housing 27) basically captures the front of the unmanned flying object 20A (that is, the traveling direction of the flight route 5). . Also, the camera 25 of the preceding unmanned flying object 20B (the camera 25b attached to the rear surface of the housing 27) basically captures the rear of the unmanned flying object 20B.

図5及び図7は、無人飛行体20のカメラ25が撮影する画像の一例を示す図である。図5及び図7は、無人飛行体20Aのカメラ25aが無人飛行体20Aの前方を撮影した画像6を示している。画像6には、飛行ルート5内を飛行する無人飛行体20Bが映っている。無人飛行体20Aは、この画像6に基づいて、無人飛行体20Bが飛行ルート5から外れたか否かを検出する。これと同様に、無人飛行体20Bは、無人飛行体20Bが撮影した画像に基づいて、無人飛行体20Aが飛行ルート5から外れたか否かを検出する。 5 and 7 are diagrams showing examples of images captured by the camera 25 of the unmanned flying object 20. FIG. 5 and 7 show an image 6 taken in front of the unmanned flying object 20A by the camera 25a of the unmanned flying object 20A. Image 6 shows an unmanned air vehicle 20B flying in flight route 5 . Based on this image 6, the unmanned flying object 20A detects whether the unmanned flying object 20B has deviated from the flight route 5 or not. Similarly, the unmanned flying object 20B detects whether the unmanned flying object 20A has deviated from the flight route 5 based on the image captured by the unmanned flying object 20B.

例えば、無人飛行体20Aは、画像6に、無人飛行体20Bが飛行ルート5を外れたか否かを判定するための判定領域61を設定する。判定領域61は、無人飛行体20Bが飛行しているポイントO2における飛行ルート5の内外を区画する仮想的な領域として設定される。この場合、無人飛行体20Aは、画像6において無人飛行体20Bが判定領域61内に映っているか否かに基づいて、無人飛行体20Bが飛行ルート5から外れたか否かを判定する。無人飛行体20Aは、例えば、無人飛行体20Bが判定領域61内に映っている場合に、無人飛行体20Bは飛行ルート5から外れていないと判定し、無人飛行体20Bが判定領域61外に映っているか、画像6に無人飛行体20Bが映っていない場合に、無人飛行体20Bが飛行ルート5から外れたと判定する。 For example, the unmanned flying object 20A sets a determination region 61 in the image 6 for determining whether the unmanned flying object 20B has deviated from the flight route 5 or not. The determination area 61 is set as a virtual area that divides the inside and outside of the flight route 5 at the point O2 where the unmanned air vehicle 20B is flying. In this case, the unmanned flying object 20A determines whether the unmanned flying object 20B has deviated from the flight route 5 based on whether the unmanned flying object 20B appears within the determination area 61 in the image 6. For example, when the unmanned flying object 20B appears within the determination area 61, the unmanned flying object 20A determines that the unmanned flying object 20B does not deviate from the flight route 5. If the image 6 shows the unmanned flying object 20B or if the unmanned flying object 20B is not shown in the image 6, it is determined that the unmanned flying object 20B has deviated from the flight route 5.例文帳に追加

判定領域61として、例えば、画像6におけるポイントO2の位置を中心とする領域が設定される。画像6におけるポイントO2の位置は、無人飛行体20Aのカメラ25が向いている方向に基づいて設定することができる。 As the determination area 61, for example, an area centered on the position of the point O2 in the image 6 is set. The position of the point O2 in the image 6 can be set based on the direction in which the camera 25 of the unmanned air vehicle 20A is facing.

図6は、画像6における判定領域61の中心位置であるポイントO2の位置を設定する方法の一例を示す図である。図6に示すように、例えば無人飛行体20Aは、画像6の解像度と画像6に映る無人飛行体20Bのサイズに基づいて、現実世界における無人飛行体20Aから無人飛行体20Bまでの距離ΔLを算出してよい。この他にも、無人飛行体20Aは、ステレオカメラであるカメラ25で画像6を撮影し、ステレオ画像である画像6に映る無人飛行体20Bの位置における距離情報に基づいて、現実世界における無人飛行体20Aから無人飛行体20Bまでの距離ΔLを算出してもよい。このように、ステレオカメラを用いることにより、無人飛行体20Aから無人飛行体20Bまでの距離ΔLの算出精度を向上できる。 FIG. 6 is a diagram showing an example of a method of setting the position of the point O2, which is the center position of the determination area 61 in the image 6. As shown in FIG. As shown in FIG. 6, for example, the unmanned flying object 20A calculates the distance ΔL from the unmanned flying object 20A to the unmanned flying object 20B in the real world based on the resolution of the image 6 and the size of the unmanned flying object 20B shown in the image 6. can be calculated. In addition, the unmanned flying object 20A captures an image 6 with a camera 25, which is a stereo camera, and based on the distance information at the position of the unmanned flying object 20B shown in the image 6, which is a stereo image, the unmanned flying object in the real world. A distance ΔL from the body 20A to the unmanned air vehicle 20B may be calculated. By using the stereo camera in this way, it is possible to improve the calculation accuracy of the distance ΔL from the unmanned flying object 20A to the unmanned flying object 20B.

次いで、無人飛行体20Aの測位センサ24から取得した現実世界における無人飛行体20Aの位置(Xa,Ya,Za)と、算出した距離ΔLとに基づいて、無人飛行体20Aの位置から距離ΔLだけ飛行ルート5を進んだ現実世界におけるポイントO2の位置(X2,Y2,Z2)を算出する。次いで、無人飛行体20Aの位置(Xa,Ya,Za)と、ポイントO2の位置(X2,Y2,Z2)とに基づいて、無人飛行体20Aの位置からポイントO2への方向を算出し、その方向に対する無人飛行体20Aのカメラ25が向いている方向を特定する。次いで、ポイントO2を含む幅ΔWと高さΔHを有する領域と、カメラ25が向いている方向との交点(すなわち、画像6の中心位置)Oa´からポイントO2までの距離ΔDを算出し、距離ΔD、無人飛行体20Aから無人飛行体20Bまでの距離ΔL、及び画像6の解像度に基づいて、画像6における中心位置Oa´からのオフセット量Δd(図5を参照)を算出する。そして、無人飛行体20Aは、画像6の中心位置Oa´からのオフセット量Δdだけオフセットさせた位置にポイントO2の位置を設定し、このポイントO2の位置を中心とした判定領域61を設定する。画像6における判定領域61のサイズは、無人飛行体20Aから無人飛行体20Bまでの距離ΔLと画像6の解像度に基づいて設定する。 Next, based on the position (Xa, Ya, Za) of the unmanned flying object 20A in the real world obtained from the positioning sensor 24 of the unmanned flying object 20A and the calculated distance ΔL, the distance ΔL from the position of the unmanned flying object 20A is calculated. The position (X2, Y2, Z2) of the point O2 in the real world following the flight route 5 is calculated. Then, based on the position (Xa, Ya, Za) of the unmanned flying object 20A and the position (X2, Y2, Z2) of the point O2, the direction from the position of the unmanned flying object 20A to the point O2 is calculated, The direction in which the camera 25 of the unmanned air vehicle 20A is facing is specified. Next, the distance ΔD from the point Oa′ (ie, the center position of the image 6) to the point O2 is calculated, and the distance ΔD is calculated. Based on ΔD, the distance ΔL from the unmanned flying object 20A to the unmanned flying object 20B, and the resolution of the image 6, the offset amount Δd (see FIG. 5) from the center position Oa′ in the image 6 is calculated. Then, the unmanned flying object 20A sets the position of the point O2 at a position offset by the offset amount Δd from the center position Oa′ of the image 6, and sets the determination region 61 centering on the position of the point O2. The size of the determination area 61 in the image 6 is set based on the distance ΔL from the unmanned flying object 20A to the unmanned flying object 20B and the resolution of the image 6. FIG.

この他にも、カメラ25が飛行ルート5の中心を向くように制御される場合(すなわち、画像6の中心にポイントO2が映るようにカメラ25の向きが制御される場合)、無人飛行体20Aは、画像6の中心位置Oa´を中心とした判定領域61を設定してもよい。 In addition, when the camera 25 is controlled to face the center of the flight route 5 (that is, when the direction of the camera 25 is controlled so that the point O2 appears in the center of the image 6), the unmanned flying object 20A may set a determination region 61 centered on the central position Oa′ of the image 6 .

また、例えば、無人飛行体20Aは、画像6に映る無人飛行体20Bに基づいて、現実世界における無人飛行体20Bの位置を算出する。この無人飛行体20Bの位置が飛行ルート5から外れる場合に、無人飛行体20Bが飛行ルート5から外れたと判定する。 Also, for example, the unmanned flying object 20A calculates the position of the unmanned flying object 20B in the real world based on the unmanned flying object 20B shown in the image 6. FIG. When the position of the unmanned flying object 20B deviates from the flight route 5, it is determined that the unmanned flying object 20B has deviated from the flight route 5. - 特許庁

図8は、画像6から現実世界における無人飛行体20Bの位置を算出する方法の一例を示す図である。無人飛行体20Aは、図7及び図8に示すように、例えば、現実世界における基準方向(例えば、無人飛行体20Aから北極点や南極点に向かう方向や、飛行ルート5の進行方向)に対する無人飛行体20Aのカメラ25が向いている方向を特定し、特定した方向と画像6における無人飛行体20Bの位置に基づいて、無人飛行体20Aの位置に対する無人飛行体20Bの相対的な位置(ΔXb,ΔYb,ΔZb)を算出する。そして、この算出した位置(ΔXb,ΔYb,ΔZb)と、無人飛行体20Aの測位センサ24から取得した現実世界における無人飛行体20Aの位置(Xa,Ya,Za)とに基づいて、現実世界における無人飛行体20Bの位置(Xb,Yb,Zb)を算出する。無人飛行体20Aは、このように算出した無人飛行体20Bの位置(Xb,Yb,Zb)の緯度、経度、及び高度のうちの少なくとも1つが、飛行ルート5として設定された空間内に含まれない場合に、無人飛行体20Bが飛行ルート5から外れたと判定する。 FIG. 8 is a diagram showing an example of a method of calculating the position of the unmanned flying object 20B in the real world from the image 6. FIG. As shown in FIGS. 7 and 8, the unmanned flying object 20A is, for example, a reference direction in the real world (for example, the direction from the unmanned flying object 20A to the North Pole or the South Pole, or the traveling direction of the flight route 5). The direction in which the camera 25 of the flying object 20A is facing is identified, and the relative position (ΔXb , ΔYb, ΔZb) are calculated. Then, based on the calculated position (ΔXb, ΔYb, ΔZb) and the position (Xa, Ya, Za) of the unmanned flying object 20A in the real world acquired from the positioning sensor 24 of the unmanned flying object 20A, The position (Xb, Yb, Zb) of the unmanned air vehicle 20B is calculated. At least one of the latitude, longitude, and altitude of the position (Xb, Yb, Zb) of the unmanned flying object 20A thus calculated is included in the space set as the flight route 5. If not, it is determined that the unmanned air vehicle 20B has deviated from the flight route 5.

なお、無人飛行体20Aの通信部23は、無人飛行体20Bのテレメトリー情報として、無人飛行体20Bの測位センサ24が計測した位置情報を受信しているが、以上のように無人飛行体20Aのカメラ25で撮影した画像6を用いて無人飛行体20Bが飛行ルート5から外れたか否かを判定することにより、無人飛行体20Bから当該無人飛行体20Bの位置情報を受信せずに、無人飛行体20Bが飛行ルート5から外れたことを検出できる。すなわち、無人飛行体20Bが突風などにより制御不能な状況になったり、無人飛行体20Bに搭載される通信部23や測位センサ24などの機器の動作が不安定になったりした場合でも、無人飛行体20Aを用いて無人飛行体20Bが飛行ルート5から外れたことを検出できるようになる。 The communication unit 23 of the unmanned flying object 20A receives the position information measured by the positioning sensor 24 of the unmanned flying object 20B as the telemetry information of the unmanned flying object 20B. By determining whether or not the unmanned flying object 20B has deviated from the flight route 5 using the image 6 captured by the camera 25, the unmanned flight can be performed without receiving the position information of the unmanned flying object 20B from the unmanned flying object 20B. Departure of the body 20B from the flight route 5 can be detected. In other words, even if the unmanned flying object 20B becomes uncontrollable due to gusts or the like, or if the operation of devices such as the communication unit 23 and the positioning sensor 24 mounted on the unmanned flying object 20B becomes unstable, the unmanned flight can continue. It becomes possible to detect that the unmanned air vehicle 20B has deviated from the flight route 5 using the body 20A.

また、無人飛行体20Bも、無人飛行体20Bのカメラ25で撮影した画像6を用いて無人飛行体20Aが飛行ルート5から外れたか否かを検出する。このようにすることで、無人飛行体20Aから当該無人飛行体20Aの位置情報を受信せずに、無人飛行体20Bを用いて無人飛行体20Aが飛行ルート5から外れたことを検出できるようになる。 The unmanned flying object 20B also detects whether the unmanned flying object 20A has deviated from the flight route 5 using the image 6 captured by the camera 25 of the unmanned flying object 20B. By doing so, it is possible to detect that the unmanned flying object 20A has deviated from the flight route 5 using the unmanned flying object 20B without receiving the position information of the unmanned flying object 20A from the unmanned flying object 20A. Become.

無人飛行体20Bが飛行ルート5から外れたことを無人飛行体20Aが検出した場合、無人飛行体20Aは、所定の異常を識別する情報を管制装置10に送信し、飛行ルート5の飛行を中断する。ここで、無人飛行体20Aは、画像6を用いて算出した無人飛行体20Bの位置を管制装置10に送信してもよい。また、無人飛行体20Bが飛行ルート5から外れたことを無人飛行体20Aが検出した場合、無人飛行体20Aは飛行ルート5の飛行を中断してその場でホバリングしたり、所定の場所に着陸したりする。また、無人飛行体20Aは、無人飛行体20Bを追尾して飛行ルート5から外れて飛行してもよい。この場合、無人飛行体20Aは、飛行ルート5から外れることによって当該飛行ルート5での飛行を中断した無人飛行体20Bの位置を特定し、その位置を管制装置10に送信した後に、その場でホバリングしたり着陸したりする。 When the unmanned flying object 20A detects that the unmanned flying object 20B has deviated from the flight route 5, the unmanned flying object 20A transmits information identifying a predetermined abnormality to the control device 10, and suspends the flight on the flight route 5. do. Here, the unmanned flying object 20A may transmit the position of the unmanned flying object 20B calculated using the image 6 to the control device 10. FIG. Further, when the unmanned flying object 20A detects that the unmanned flying object 20B has deviated from the flight route 5, the unmanned flying object 20A suspends the flight of the flight route 5 and hovers on the spot or lands at a predetermined place. or Also, the unmanned flying object 20A may fly off the flight route 5 by tracking the unmanned flying object 20B. In this case, the unmanned flying object 20A specifies the position of the unmanned flying object 20B that has interrupted the flight on the flight route 5 by deviating from the flight route 5, and after transmitting the position to the control device 10, Hover or land.

また、無人飛行体20Bも、無人飛行体20Bのカメラ25で撮影した画像6を用いて無人飛行体20Aが飛行ルート5から外れたか否かを検出する。このようにすることで、無人飛行体20Aが制御不能な状況になったり、無人飛行体20Bに搭載される機器の動作が不安定になったりした場合でも、無人飛行体20Bを用いて無人飛行体20Aが飛行ルート5から外れたことを検出できる。 The unmanned flying object 20B also detects whether the unmanned flying object 20A has deviated from the flight route 5 using the image 6 captured by the camera 25 of the unmanned flying object 20B. By doing so, even when the unmanned flying object 20A becomes uncontrollable or the operation of equipment mounted on the unmanned flying object 20B becomes unstable, the unmanned flying object 20B can still be used for unmanned flight. Departure of the body 20A from the flight route 5 can be detected.

無人飛行体20Aが飛行ルート5から外れたことを無人飛行体20Bが検出した場合も、無人飛行体20Bは、所定の異常を識別する情報を管制装置10に送信し、飛行ルート5の飛行を中断する。この場合、無人飛行体20Bは、その場でホバリングしたり、着陸したりする。また、無人飛行体20Bは、飛行ルート5から外れた無人飛行体20Aを追尾して当該無人飛行体20Aの位置を特定した後に、その場でホバリングしたり、着陸したりしてもよい。 Even when the unmanned flying object 20B detects that the unmanned flying object 20A has deviated from the flight route 5, the unmanned flying object 20B transmits information identifying a predetermined abnormality to the control device 10, and resumes the flight on the flight route 5. interrupt. In this case, the unmanned flying object 20B hovers or lands on the spot. Further, the unmanned flying object 20B may hover or land on the spot after tracking the unmanned flying object 20A that has deviated from the flight route 5 and specifying the position of the unmanned flying object 20A.

[3-3.カメラの制御]
無人飛行体20は、当該無人飛行体20からカメラ25が向く方向(より詳細にはレンズ251が向く方向)を制御している。本実施形態では、無人飛行体20Aのカメラ25は、無人飛行体20Bに向くように制御されている。これと同様に、無人飛行体20Bのカメラ25は、無人飛行体20Aに向くように制御されている。
[3-3. camera control]
The unmanned flying object 20 controls the direction in which the camera 25 faces from the unmanned flying object 20 (more specifically, the direction in which the lens 251 faces). In this embodiment, the camera 25 of the unmanned flying object 20A is controlled to face the unmanned flying object 20B. Similarly, the camera 25 of the unmanned flying object 20B is controlled to face the unmanned flying object 20A.

例えば、無人飛行体20Aは、図5に示すように、無人飛行体20Aのカメラ25が撮影した画像6の中央に所定のサイズの中央領域62を設定する。そして、この中央領域62外に無人飛行体20Bが映る場合に、中央領域62内に無人飛行体20Bが映るように、カメラ25が向く方向を変える。このようにすることで、無人飛行体20Aのカメラ25が撮影する画像6に無人飛行体20Bが映らなくなること(すなわち、無人飛行体20Aのカメラ25が無人飛行体20Bを見失うこと)を抑制でき、無人飛行体20Bが飛行ルート5から外れたか否かの検出を継続することができる。 For example, as shown in FIG. 5, the unmanned flying object 20A sets a central area 62 of a predetermined size in the center of the image 6 captured by the camera 25 of the unmanned flying object 20A. Then, when the unmanned flying object 20B is displayed outside the central region 62, the direction in which the camera 25 faces is changed so that the unmanned flying object 20B is displayed within the central region 62.例文帳に追加By doing so, it is possible to prevent the unmanned flying object 20B from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20A (that is, the camera 25 of the unmanned flying object 20A losing sight of the unmanned flying object 20B). , the detection of whether the unmanned air vehicle 20B has deviated from the flight route 5 can be continued.

無人飛行体20Aは、無人飛行体20Aのピッチ軸Axa(図3を参照)に沿った軸線Ax1を中心とする回転方向において、無人飛行体20Bが位置する方向へカメラ25が向くように、支持構造26(より具体的には、アクチュエータ262)を駆動させる。また、無人飛行体20Aは、無人飛行体20Aのヨー軸Axbに沿った軸線Ax2を中心とする回転方向において、無人飛行体20Bが位置する方向へカメラ25が向くように旋回する。このようにすることで、アクチュエータ262の数が1つである単純な支持構造26で、無人飛行体20Aのカメラ25を無人飛行体20Bに向けることが可能である。なお、本実施形態では、無人飛行体20Aのヨー軸Axbと軸線Ax2は一致しているが、軸線Ax2は無人飛行体20Aのヨー軸Axbと異なる位置に設けられてもよい。 The unmanned flying object 20A is supported so that the camera 25 faces the direction in which the unmanned flying object 20B is positioned in the direction of rotation about the axis Ax1 along the pitch axis Axa (see FIG. 3) of the unmanned flying object 20A. The structure 26 (more specifically the actuator 262) is actuated. Further, the unmanned flying object 20A turns in the direction of rotation about the axis Ax2 along the yaw axis Axb of the unmanned flying object 20A so that the camera 25 faces the direction in which the unmanned flying object 20B is positioned. By doing so, it is possible to direct the camera 25 of the unmanned flying object 20A to the unmanned flying object 20B with a simple support structure 26 having one actuator 262 . In this embodiment, the yaw axis Axb of the unmanned air vehicle 20A and the axis Ax2 are aligned, but the axis Ax2 may be provided at a position different from the yaw axis Axb of the unmanned air vehicle 20A.

無人飛行体20Aは、無人飛行体20Aに取り付けられたカメラ25の方向である所与のカメラ方向に基づいて、無人飛行体20Aのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向での角度である第1の目標角度θ1と、無人飛行体20Aのヨー軸Axbに沿った軸線Axbを中心とする回転方向の角度である第2の目標角度θ2とを取得する。そして、無人飛行体20Aは、軸線Ax1を中心とする回転方向において、第1の目標角度θ1の方向へ無人飛行体20Aのカメラ25が向くように支持構造26のアクチュエータ262を駆動させるとともに、軸線Ax2を中心とする回転方向において、第2の目標角度θ2の方向へ無人飛行体20Aのカメラ25が向くように、無人飛行体25Aを旋回させる。 Unmanned air vehicle 20A rotates about axis Ax1 along pitch axis Axa of unmanned air vehicle 20A based on a given camera direction, which is the direction of camera 25 attached to unmanned air vehicle 20A. A first target angle θ1, which is an angle, and a second target angle θ2, which is an angle in the direction of rotation about the axis Axb along the yaw axis Axb of the unmanned air vehicle 20A, are acquired. Then, the unmanned flying object 20A drives the actuator 262 of the support structure 26 so that the camera 25 of the unmanned flying object 20A faces the direction of the first target angle θ1 in the direction of rotation about the axis Ax1, and In the direction of rotation about Ax2, the unmanned flying object 25A is turned so that the camera 25 of the unmanned flying object 20A faces the direction of the second target angle θ2.

第1及び第2の目標角度θ1,θ2の取得(算出)は、無人飛行体20Aのカメラ25が無人飛行体20Bに向いた場合のカメラ方向に基づいて行われる。第1及び第2の目標角度θ1,θ2の算出は、例えば、無人飛行体20Aのカメラ25が撮影した画像6に基づいて行われる。 Acquisition (calculation) of the first and second target angles θ1 and θ2 is performed based on the camera direction when the camera 25 of the unmanned flying object 20A faces the unmanned flying object 20B. The calculation of the first and second target angles θ1 and θ2 is performed, for example, based on the image 6 captured by the camera 25 of the unmanned flying object 20A.

図9は、画像6から第1及び第2の目標角度θ1,θ2を算出する方法の一例を示す。無人飛行体20Aは、図9に示すように、画像6における無人飛行体20Bの位置に基づいて、無人飛行体20Aのカメラ25が無人飛行体20Bに向いた場合のカメラ方向を特定し、その方向に基づいて、第1及び第2の目標角度θ1,θ2を算出する。例えば、画像6における無人飛行体20Bの位置と、画像6の解像度、又は距離情報を含むステレオ画像である画像6に基づいて算出された無人飛行体20Aから無人飛行体20Bまでの距離ΔLとに基づいて、現実世界における無人飛行体20Aの位置に対する無人飛行体20Bの相対的な位置(ΔWb,ΔZb)を算出する。ここで、ΔWbは、カメラ25の左右方向における距離を示し、ΔZbは、カメラ25の上下方向における距離を示す。カメラ25の上下方向における距離ΔZbに基づいて、この方向に対応する無人飛行体20Aのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向での角度である第1の目標角度θ1を算出することができる。また、カメラ25の左右方向における距離ΔWbに基づいて、この方向に対応する無人飛行体20Aのヨー軸Axbに沿った軸線Ax2を中心とする回転方向での角度である第2の目標角度θ2を算出することができる。 FIG. 9 shows an example of a method of calculating the first and second target angles θ1 and θ2 from the image 6. FIG. As shown in FIG. 9, the unmanned flying object 20A identifies the camera direction when the camera 25 of the unmanned flying object 20A faces the unmanned flying object 20B based on the position of the unmanned flying object 20B in the image 6, and Based on the direction, the first and second target angles θ1 and θ2 are calculated. For example, the position of the unmanned flying object 20B in the image 6 and the resolution of the image 6 or the distance ΔL from the unmanned flying object 20A to the unmanned flying object 20B calculated based on the image 6, which is a stereo image including distance information, Based on this, the relative position (ΔWb, ΔZb) of the unmanned flying object 20B with respect to the position of the unmanned flying object 20A in the real world is calculated. Here, ΔWb indicates the distance in the horizontal direction of the camera 25 and ΔZb indicates the distance in the vertical direction of the camera 25 . Based on the distance ΔZb in the vertical direction of the camera 25, a first target angle θ1, which is the angle in the rotational direction around the axis Ax1 along the pitch axis Axa of the unmanned flying object 20A corresponding to this direction, is calculated. be able to. Also, based on the distance ΔWb in the horizontal direction of the camera 25, the second target angle θ2, which is the angle in the direction of rotation about the axis Ax2 along the yaw axis Axb of the unmanned flying object 20A corresponding to this direction, is determined. can be calculated.

また、本実施形態では、無人飛行体20Aのカメラ25a,25bのうちの一方が、無人飛行体20Bに向くように制御されている。これと同様に、無人飛行体20Bのカメラ25a,25bのうちの一方が、無人飛行体20Aに向くように制御されている。例えば、無人飛行体20Aのカメラ25aに無人飛行体20Bが映っている場合(無人飛行体20Bを追尾している無人飛行体20Aが飛行ルート5の前方を向いている場合)には、無人飛行体20Aのカメラ25aが無人飛行体20Bに向くように制御され、無人飛行体20Aのカメラ25bに無人飛行体20Bが映っている場合(無人飛行体20Bを追尾している無人飛行体20Aが飛行ルート5の後方を向いている場合)には、無人飛行体20Aのカメラ25bが無人飛行体20Bに向くように制御される。 Further, in this embodiment, one of the cameras 25a and 25b of the unmanned flying object 20A is controlled to face the unmanned flying object 20B. Similarly, one of the cameras 25a and 25b of the unmanned flying object 20B is controlled to face the unmanned flying object 20A. For example, when the unmanned flying object 20B is captured by the camera 25a of the unmanned flying object 20A (when the unmanned flying object 20A tracking the unmanned flying object 20B is facing forward on the flight route 5), the unmanned flight When the camera 25a of the body 20A is controlled to face the unmanned flying object 20B, and the camera 25b of the unmanned flying object 20A shows the unmanned flying object 20B (when the unmanned flying object 20A tracking the unmanned flying object 20B is flying) 5), the camera 25b of the unmanned flying object 20A is controlled to face the unmanned flying object 20B.

このように、無人飛行体20Aの2つのカメラ25a,25bのうちの一方が無人飛行体20Bに向くように制御することで、例えば、無人飛行体20Aが飛行ルート5の後方を向いている場合でも、無人飛行体20Aの筐体27の後面に取り付けられたカメラ25bで無人飛行体20Bを撮影でき、無人飛行体20Aのカメラ25が無人飛行体20Bを見失うことを抑制できる。また、例えば、無人飛行体20Aの筐体27の後面に取り付けられたカメラ25bで無人飛行体20Bを撮影することにより、無人飛行体20Aの筐体27の前面に取り付けられたカメラ25aで無人飛行体20Bを撮影するために無人飛行体20Aが旋回する角度を低減でき、無人飛行体20Aの旋回が完了する時間を短縮できる。 In this way, by controlling one of the two cameras 25a and 25b of the unmanned flying object 20A to face the unmanned flying object 20B, for example, when the unmanned flying object 20A faces the rear of the flight route 5 However, the unmanned flying object 20B can be photographed by the camera 25b attached to the rear surface of the housing 27 of the unmanned flying object 20A, and the camera 25 of the unmanned flying object 20A can be prevented from losing sight of the unmanned flying object 20B. Further, for example, by photographing the unmanned flying object 20B with the camera 25b attached to the rear surface of the housing 27 of the unmanned flying object 20A, the camera 25a attached to the front surface of the housing 27 of the unmanned flying object 20A can perform unmanned flight. The angle at which the unmanned flying object 20A turns to photograph the body 20B can be reduced, and the time for completing the turning of the unmanned flying object 20A can be shortened.

また、中央領域62外に無人飛行体20Bが映る場合、無人飛行体20Aは、カメラ25の画角を、現在の画角よりも広角にしてもよい。このようにしても、無人飛行体20Aのカメラ25が撮影する画像6に無人飛行体20Bが映らなくなることを抑制できる。 Also, when the unmanned flying object 20B is projected outside the central region 62, the unmanned flying object 20A may widen the angle of view of the camera 25 from the current angle of view. Even in this way, it is possible to prevent the unmanned flying object 20B from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20A.

また、無人飛行体20Bも、中央領域62を無人飛行体20Bのカメラ25が撮影した画像に設定し、この中央領域62外に無人飛行体20Aが映る場合に、中央領域62内に無人飛行体20Aが映るようにカメラ25が向く方向を変える。例えば、無人飛行体20Aに先行して飛行する無人飛行体20Bが飛行ルート5の前方を向いている場合には、無人飛行体20Aの筐体27の後面に取り付けられているカメラ25bが無人飛行体20Aに向くように制御され、無人飛行体20Bが飛行ルート5の後方を向いている場合には、筐体27の前面に取り付けられているカメラ25bが無人飛行体20Aに向くように制御される。これにより、無人飛行体20Bのカメラ25が撮影する画像6に、無人飛行体20Aが映らなくなること(すなわち、無人飛行体20Bが無人飛行体20Aを見失うこと)を抑制できる。 Also, for the unmanned flying object 20B, the central region 62 is set to the image captured by the camera 25 of the unmanned flying object 20B. The direction in which the camera 25 faces is changed so that 20A can be seen. For example, if the unmanned flying object 20B, which flies ahead of the unmanned flying object 20A, is facing the front of the flight route 5, the camera 25b attached to the rear surface of the housing 27 of the unmanned flying object 20A will When the unmanned flying object 20B is directed to the rear of the flight route 5, the camera 25b attached to the front surface of the housing 27 is controlled to face the unmanned flying object 20A. be. This can prevent the unmanned flying object 20A from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20B (that is, the unmanned flying object 20B losing sight of the unmanned flying object 20A).

[4.機能ブロック]
図10は、飛行制御システム1で実装される機能の一例を示す機能ブロック図である。図3に示すように、飛行制御システム1を構成する無人飛行体20A,20Bは、機能的には、飛行ルート情報取得部110と、飛行ルート情報記憶部120と、飛行制御部130と、画像取得部140と、中央領域設定部150と、目標角度取得部160と、駆動制御部170と、カメラ方向特定部180と、判定部190と、異常送信部200と、飛行中断部210とを含む。飛行ルート情報取得部110、飛行制御部130、画像取得部140、中央領域設定部150、目標角度取得部160、駆動制御部170、カメラ方向特定部180、判定部190、異常送信部200、及び飛行中断部210は、プロセッサ21を主として実現される。飛行ルート情報記憶部120は、記憶部22を主として実現される。なお、無人飛行体20A,20Bにおいて、図10に示す機能のすべてが実装されなくてもよく、図10に示す機能以外の機能が実装されていてもよい。
[4. Function block]
FIG. 10 is a functional block diagram showing an example of functions implemented in the flight control system 1. As shown in FIG. As shown in FIG. 3, the unmanned air vehicles 20A and 20B constituting the flight control system 1 functionally include a flight route information acquisition unit 110, a flight route information storage unit 120, a flight control unit 130, an image Including an acquisition unit 140, a central region setting unit 150, a target angle acquisition unit 160, a drive control unit 170, a camera direction identification unit 180, a determination unit 190, an abnormality transmission unit 200, and a flight interruption unit 210. . A flight route information acquisition unit 110, a flight control unit 130, an image acquisition unit 140, a central region setting unit 150, a target angle acquisition unit 160, a drive control unit 170, a camera direction identification unit 180, a determination unit 190, an abnormality transmission unit 200, and Flight interruption unit 210 is implemented mainly by processor 21 . The flight route information storage unit 120 is implemented mainly by the storage unit 22 . Note that the unmanned air vehicles 20A and 20B do not have to implement all the functions shown in FIG. 10, and may implement functions other than the functions shown in FIG.

[4-1.飛行ルート情報取得部、飛行ルート情報記憶部]
飛行ルート情報取得部110は、所定の飛行ルートの情報を取得する。飛行ルート情報記憶部120は、飛行ルート情報取得部110が取得した飛行ルートの情報を記憶する。本実施形態では、無人飛行体20Aと無人飛行体20Bは、同じ飛行ルート5を飛行する。このため、無人飛行体20Aの飛行ルート情報取得部110は、無人飛行体20Bが飛行する飛行ルート5の情報を取得し、無人飛行体20Bの飛行ルート情報取得部110は、無人飛行体20Aが飛行する飛行ルート5の情報を取得する。
[4-1. Flight route information acquisition unit, flight route information storage unit]
The flight route information acquisition unit 110 acquires information on a predetermined flight route. The flight route information storage unit 120 stores flight route information acquired by the flight route information acquisition unit 110 . In this embodiment, the unmanned air vehicles 20A and 20B fly the same flight route 5. FIG. Therefore, the flight route information acquiring unit 110 of the unmanned flying object 20A acquires the information of the flight route 5 along which the unmanned flying object 20B flies, and the flight route information acquiring unit 110 of the unmanned flying object 20B acquires Acquire information on flight route 5 to be flown.

[4-2.飛行制御部]
飛行制御部130は、無人飛行体20のモータ28及びプロペラ29の回転速度を制御することにより、飛行ルート情報取得部110が取得した情報に示される飛行ルート5を当該無人飛行体20に飛行させる。ここで、飛行制御部130は、無人飛行体20の測位センサ24が計測した当該無人飛行体20の位置に基づいて、当該無人飛行体20に飛行ルート5を飛行させる。
[4-2. Flight control unit]
The flight control unit 130 controls the rotation speed of the motor 28 and the propeller 29 of the unmanned flying object 20 to cause the unmanned flying object 20 to fly along the flight route 5 indicated by the information acquired by the flight route information acquiring unit 110. . Here, the flight control unit 130 causes the unmanned flying object 20 to fly the flight route 5 based on the position of the unmanned flying object 20 measured by the positioning sensor 24 of the unmanned flying object 20 .

本実施形態では、無人飛行体20Bの飛行制御部130は、無人飛行体20Aに先行して無人飛行体20Bに飛行ルート5を飛行させる。また、無人飛行体20Aの飛行制御部130は、飛行ルート5を先行する無人飛行体20Bを追尾して、無人飛行体20Aに飛行ルート5を飛行させる。 In this embodiment, the flight control unit 130 of the unmanned flying object 20B causes the unmanned flying object 20B to fly the flight route 5 ahead of the unmanned flying object 20A. Further, the flight control unit 130 of the unmanned flying object 20A tracks the unmanned flying object 20B preceding the flight route 5, and causes the unmanned flying object 20A to fly the flight route 5.

無人飛行体20Aの飛行制御部130は、例えば、無人飛行体20Aと無人飛行体20Bとの間に所定の距離を維持しつつ、無人飛行体20Aの位置が飛行ルート5から外れないようにして、無人飛行体20Aに飛行ルート5を飛行させる。ここで、飛行制御部130は、無人飛行体20Bから受信した無人飛行体20Bの位置情報や、無人飛行体20Aのカメラ25が撮影した画像6(後述する画像取得部140が取得した画像)における無人飛行体20Bのサイズに基づいて、所定の距離に対して無人飛行体20Aが無人飛行体20Bに近づきすぎていないか、無人飛行体20Aが無人飛行体20Bから離れすぎていないかを判定し、その判定結果に基づいて飛行ルート5における無人飛行体20Aの移動速度を制御する。これと同様に、飛行ルート5を先行する無人飛行体20Bの飛行制御部130も、当該無人飛行体20Bが無人飛行体20Aに近づきすぎていないか離れすぎていないかを判定し、飛行ルート5における無人飛行体20Bの移動速度を制御してよい。 The flight control unit 130 of the unmanned flying object 20A, for example, maintains a predetermined distance between the unmanned flying object 20A and the unmanned flying object 20B so that the position of the unmanned flying object 20A does not deviate from the flight route 5. , causes the unmanned air vehicle 20A to fly a flight route 5. Here, the flight control unit 130 controls the position information of the unmanned flying object 20B received from the unmanned flying object 20B and the image 6 captured by the camera 25 of the unmanned flying object 20A (an image obtained by the image obtaining unit 140 described later). Based on the size of the unmanned flying object 20B, it is determined whether the unmanned flying object 20A is too close to the unmanned flying object 20B with respect to a predetermined distance, or whether the unmanned flying object 20A is too far away from the unmanned flying object 20B. , the movement speed of the unmanned flying object 20A on the flight route 5 is controlled based on the determination result. Similarly, the flight control unit 130 of the unmanned flying object 20B that precedes the flight route 5 also determines whether the unmanned flying object 20B is too close to or too far away from the unmanned flying object 20A. may control the movement speed of the unmanned air vehicle 20B.

本実施形態では、無人飛行体20Aの飛行制御部130は、無人飛行体20Aのヨー軸Axbに沿った軸線Ax2を中心とする回転方向の角度である第2の目標角度θ2(後述する目標角度取得部160が取得した角度)の方向へカメラ25が向くように、無人飛行体20Aを旋回させる。このようにすることで、無人飛行体20Aのカメラ25が撮影する画像6に、無人飛行体20Bが映らなくなること(無人飛行体20Bを見失うこと)を抑制できる。 In the present embodiment, the flight control unit 130 of the unmanned flying object 20A sets a second target angle θ2 (a target angle described later) that is an angle in the direction of rotation about the axis Ax2 along the yaw axis Axb of the unmanned flying object 20A. The unmanned flying object 20A is turned so that the camera 25 faces the direction of the angle obtained by the obtaining unit 160). By doing so, it is possible to prevent the unmanned flying object 20B from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20A (losing sight of the unmanned flying object 20B).

これと同様に、無人飛行体20Bの飛行制御部130は、無人飛行体20Bのヨー軸Axbに沿った軸線Ax2を中心とする回転方向の角度である第2の目標角度θ2の方向へカメラ25が向くように、無人飛行体20Bを旋回させる。このようにすることで、無人飛行体20Bのカメラ25が撮影する画像6に無人飛行体20Aが映らなくなること(無人飛行体20Aを見失うこと)を抑制できる。 Similarly, the flight control unit 130 of the unmanned flying object 20B directs the camera 25 in the direction of the second target angle θ2, which is the rotational angle about the axis Ax2 along the yaw axis Axb of the unmanned flying object 20B. turn the unmanned air vehicle 20B so that the By doing so, it is possible to prevent the unmanned flying object 20A from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20B (losing sight of the unmanned flying object 20A).

本実施形態では、無人飛行体20には2つのカメラ25a,25bが取り付けられている。無人飛行体20Aの飛行制御部130は、例えば、後述する無人飛行体20Aの画像取得部140がカメラ25aで撮影された画像6を選択した場合(無人飛行体20Aが飛行ルート5の前方を向いており、無人飛行体20Aの筐体27の前面に取り付けられたカメラ25aが撮影した画像6に無人飛行体20Bが映る場合)には、カメラ25aが第2の目標角度θ2の方向へ向くように無人飛行体20Aを旋回させ、無人飛行体20Aの画像取得部140がカメラ25bで撮影された画像6を選択した場合(無人飛行体20Aが飛行ルート5の後方を向いており、無人飛行体20Aの筐体27の後面に取り付けられたカメラ25bが撮影した画像6に無人飛行体20Bが映る場合)には、そのカメラ25bが第2の目標角度θ2の方向へ向くように無人飛行体20Aを旋回させる。 In this embodiment, the unmanned air vehicle 20 is attached with two cameras 25a and 25b. For example, when the image acquisition unit 140 of the unmanned flying object 20A, which will be described later, selects the image 6 captured by the camera 25a (the unmanned flying object 20A faces forward on the flight route 5), the flight control unit 130 of the unmanned flying object 20A and the unmanned flying object 20B is captured in the image 6 captured by the camera 25a attached to the front surface of the housing 27 of the unmanned flying object 20A), the camera 25a is directed in the direction of the second target angle θ2. and the image acquisition unit 140 of the unmanned flying object 20A selects the image 6 taken by the camera 25b (the unmanned flying object 20A is facing the rear of the flight route 5 and the unmanned flying object When the unmanned flying object 20B is captured in the image 6 captured by the camera 25b attached to the rear surface of the housing 27 of the housing 27 of the unmanned flying object 20A, the unmanned flying object 20A is positioned so that the camera 25b faces the direction of the second target angle θ2. swirl.

先述したように、無人飛行体20は、平面視において時計回りの方向に回転するモータ28及びプロペラ29と、反時計回りに回転するモータ28及びプロペラ29とを有している。例えば、無人飛行体20が軸線Ax2に対して時計回りの方向に旋回する場合、飛行制御部130は、時計回りの方向に回転するモータ28の回転数を早くし、時計回りの方向に回転するモータ28の回転数を遅くする。これにより、無人飛行体20は、時計回りの方向に徐々に旋回する。 As described above, the unmanned flying object 20 has the motor 28 and propeller 29 that rotate clockwise and the motor 28 and propeller 29 that rotate counterclockwise in plan view. For example, when the unmanned air vehicle 20 turns clockwise with respect to the axis Ax2, the flight control unit 130 increases the number of rotations of the motor 28 that rotates in the clockwise direction, and rotates in the clockwise direction. Decrease the rotation speed of the motor 28 . As a result, the unmanned flying object 20 gradually turns clockwise.

また、無人飛行体20Aの飛行制御部130は、無人飛行体20Aのカメラ25が撮影した画像6において設定された中央領域62内に無人飛行体20Bが映っていない場合に、無人飛行体20Aのカメラ25が無人飛行体20Bに向くように(すなわち、中央領域62内に無人飛行体20Bが映るように)、無人飛行体20Aを旋回させてもよい。これと同様に、無人飛行体20Bの飛行制御部130も、無人飛行体20Bのカメラ25が撮影した画像6の中央領域62内に無人飛行体20Aが映っていない場合に、当該カメラ25が無人飛行体20Aに向くように、無人飛行体20Bを旋回させてもよい。 Further, the flight control unit 130 of the unmanned flying object 20A controls the unmanned flying object 20A when the unmanned flying object 20B does not appear in the central region 62 set in the image 6 captured by the camera 25 of the unmanned flying object 20A. The unmanned flying object 20A may be turned so that the camera 25 faces the unmanned flying object 20B (that is, the unmanned flying object 20B is shown in the central region 62). Similarly, the flight control unit 130 of the unmanned flying object 20B also detects when the camera 25 of the unmanned flying object 20B does not show the unmanned flying object 20A in the central region 62 of the image 6 captured by the camera 25 of the unmanned flying object 20B. The unmanned flying object 20B may be turned so as to face the flying object 20A.

[4-3.画像取得部、中央領域設定部]
画像取得部140は、無人飛行体20のカメラ25が撮影した画像6を取得する。本実施形態では、無人飛行体20Aの画像取得部140は、2台の無人飛行体20A,20Bの双方が飛行ルート5を飛行している間の期間において、無人飛行体20Aのカメラ25が撮影した画像6を取り続ける。これと同様に、無人飛行体20Bの画像取得部140も、2台の無人飛行体20A,20Bの双方が飛行ルート5を飛行している間の期間において、無人飛行体20Bのカメラ25が撮影した画像6を取り続ける。
[4-3. Image Acquisition Section, Central Area Setting Section]
The image acquisition unit 140 acquires the image 6 captured by the camera 25 of the unmanned air vehicle 20 . In this embodiment, the image acquisition unit 140 of the unmanned flying object 20A causes the camera 25 of the unmanned flying object 20A to capture images while both of the two unmanned flying objects 20A and 20B are flying along the flight route 5. continue to take image 6. Similarly, the image acquisition unit 140 of the unmanned flying object 20B also obtains images captured by the camera 25 of the unmanned flying object 20B while both of the two unmanned flying objects 20A and 20B are flying along the flight route 5. continue to take image 6.

本実施形態では、各無人飛行体20に2つのカメラ25a,25bが取り付けられている。この場合、無人飛行体20Aの画像取得部140は、カメラ25a及びカメラ25bでそれぞれ撮影された画像6のうちから、無人飛行体20Bが映っている画像6を選択する。また、無人飛行体20Bの画像取得部140は、カメラ25a及びカメラ25bでそれぞれ撮影された画像6のうちから、無人飛行体20Aが映っている画像6を選択する。なお、各無人飛行体20に複数のカメラ25が取り付けられている場合、無人飛行体20Aの画像取得部140は、カメラ25a及びカメラ25bでそれぞれ撮影された画像6における無人飛行体20Bの位置に基づいて、画像6を選択してもよい。例えば、無人飛行体20Aの画像取得部140は、無人飛行体20Bが画像6の中心Oa´に最も近くに位置する画像6を選択してもよい。 In this embodiment, two cameras 25a and 25b are attached to each unmanned air vehicle 20. As shown in FIG. In this case, the image acquisition unit 140 of the unmanned flying object 20A selects the image 6 showing the unmanned flying object 20B from the images 6 captured by the cameras 25a and 25b. Further, the image acquisition unit 140 of the unmanned flying object 20B selects the image 6 showing the unmanned flying object 20A from the images 6 captured by the cameras 25a and 25b. Note that when a plurality of cameras 25 are attached to each unmanned flying object 20, the image acquisition unit 140 of the unmanned flying object 20A captures images at the positions of the unmanned flying object 20B in the images 6 captured by the cameras 25a and 25b, respectively. Based on this, image 6 may be selected. For example, the image acquisition unit 140 of the unmanned flying object 20A may select the image 6 in which the unmanned flying object 20B is positioned closest to the center Oa' of the image 6.

中央領域設定部150は、無人飛行体20のカメラ25が撮影した画像6における中央領域62を設定する。中央領域設定部150は、中央領域62の中心が画像6と同じ位置になるように、中央領域62を設定する。中央領域設定部150は、中央領域62のサイズを、カメラ25の画角や画像6の解像度に基づいて決定してもよい。 The central area setting unit 150 sets the central area 62 in the image 6 captured by the camera 25 of the unmanned air vehicle 20 . Central region setting unit 150 sets central region 62 so that the center of central region 62 is at the same position as image 6 . The central area setting section 150 may determine the size of the central area 62 based on the angle of view of the camera 25 and the resolution of the image 6 .

[4-4.目標角度取得部]
目標角度取得部160は、カメラ25の方向である所与のカメラ方向に基づいて、無人飛行体20のピッチ軸Axa(図3を参照)に沿った軸線Ax1を中心とする回転方向での角度である第1の目標角度θ1と、無人飛行体20のヨー軸Axbに沿った軸線Ax2を中心とする回転方向の角度である第2の目標角度θ2とを取得する。無人飛行体20Aの目標角度取得部160は、無人飛行体20Aのカメラ25が無人飛行体20Bに向いた場合のカメラ方向に基づいて、第1及び第2の目標角度θ1,θ2を取得する。これと同様に、無人飛行体20Bの目標角度取得部160も、無人飛行体20Bのカメラ25が無人飛行体20Aに向いた場合のカメラ方向に基づいて、第1及び第2の目標角度θ1,θ2を取得する。
[4-4. Target angle acquisition unit]
The target angle acquisition unit 160 obtains the angle in the rotation direction about the axis Ax1 along the pitch axis Axa (see FIG. 3) of the unmanned air vehicle 20, based on the given camera direction, which is the direction of the camera 25. , and a second target angle θ2 that is the angle in the direction of rotation about the axis Ax2 along the yaw axis Axb of the unmanned air vehicle 20 . The target angle acquisition unit 160 of the unmanned flying object 20A acquires the first and second target angles θ1 and θ2 based on the camera direction when the camera 25 of the unmanned flying object 20A faces the unmanned flying object 20B. Similarly, the target angle acquisition unit 160 of the unmanned flying object 20B also obtains the first and second target angles θ1, Get θ2.

本実施形態では、無人飛行体20Aの目標角度取得部160は、無人飛行体20Aのカメラ25が撮影した画像6に基づいて、そのカメラ25が無人飛行体20Bに向いた場合のカメラ方向を特定することによって、第1及び第2の目標角度θ1,θ2を取得する。これと同様に、無人飛行体20Bの目標角度取得部160は、無人飛行体20Bのカメラ25が撮影した画像6に基づいて、そのカメラ25が無人飛行体20Aに向いた場合のカメラ方向を特定することによって、第1及び第2の目標角度θ1,θ2を取得する。 In this embodiment, the target angle acquisition unit 160 of the unmanned flying object 20A identifies the camera direction when the camera 25 of the unmanned flying object 20A faces the unmanned flying object 20B based on the image 6 captured by the camera 25 of the unmanned flying object 20A. By doing so, the first and second target angles θ1 and θ2 are obtained. Similarly, based on the image 6 captured by the camera 25 of the unmanned flying object 20B, the target angle acquisition unit 160 of the unmanned flying object 20B identifies the camera direction when the camera 25 faces the unmanned flying object 20A. By doing so, the first and second target angles θ1 and θ2 are obtained.

無人飛行体20Aの目標角度取得部160は、無人飛行体20Aのカメラ25が撮影した画像6における無人飛行体20Bの位置に基づいて、そのカメラ25が無人飛行体20Bに向いた場合のカメラ方向を特定することによって、第1及び第2の目標角度θ1,θ2を取得する。無人飛行体20Aの目標角度取得部160は、例えば、図9に示す画像6における無人飛行体20Bの位置と、画像6の解像度、又は距離情報を含むステレオ画像である画像6に基づいて算出された無人飛行体20Aから無人飛行体20Bまでの距離ΔLとに基づいて、現実世界における無人飛行体20Aの位置に対する無人飛行体20Bの相対的な位置(ΔWb,ΔZb)を算出する。そして、カメラ25の上下方向における距離ΔZbに基づいて、この方向に対応する無人飛行体20Aのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向での角度である第1の目標角度θ1を算出すとともに、カメラ25の左右方向における距離ΔWbに基づいて、この方向に対応する無人飛行体20Aのヨー軸Axbに沿った軸線Ax2を中心とする回転方向での角度である第2の目標角度θ2を算出する。 Based on the position of the unmanned flying object 20B in the image 6 captured by the camera 25 of the unmanned flying object 20A, the target angle acquisition unit 160 of the unmanned flying object 20A calculates the camera direction when the camera 25 faces the unmanned flying object 20B. , the first and second target angles θ1 and θ2 are obtained. The target angle acquisition unit 160 of the unmanned flying object 20A is calculated based on, for example, the position of the unmanned flying object 20B in the image 6 shown in FIG. Based on the distance ΔL from the unmanned flying object 20A to the unmanned flying object 20B, the relative position (ΔWb, ΔZb) of the unmanned flying object 20B with respect to the position of the unmanned flying object 20A in the real world is calculated. Then, based on the distance ΔZb in the vertical direction of the camera 25, the first target angle θ1, which is the angle in the direction of rotation about the axis Ax1 along the pitch axis Axa of the unmanned flying object 20A corresponding to this direction, is determined. Also, based on the distance ΔWb in the horizontal direction of the camera 25, the second target angle is the angle in the direction of rotation about the axis Ax2 along the yaw axis Axb of the unmanned flying object 20A corresponding to this direction. Calculate θ2.

本実施形態では、無人飛行体20には2つのカメラ25a,25bが取り付けられている。この場合、目標角度取得部160は、2つのカメラ25a,25bのうちの一方が撮影した画像6に基づいて、第1及び第2の目標角度θ1,θ2を算出する。例えば、無人飛行体20Aの目標角度取得部160は、無人飛行体20Aの画像取得部140がカメラ25aで撮影された画像6(第1の画像)を選択した場合(無人飛行体20Aが飛行ルート5の前方を向いており、無人飛行体20Aの筐体27の前面に取り付けられたカメラ25aが撮影した画像6に無人飛行体20Bが映る場合)には、カメラ25aが撮影した画像6における無人飛行体20Bの位置に基づいて、カメラ25aが無人飛行体20Bに向いた場合のカメラ方向を特定することによって、第1及び第2の目標角度θ1,θ2を取得し、無人飛行体20Aの画像取得部140がカメラ25bで撮影された画像6(第2の画像)を選択した場合(無人飛行体20Aが飛行ルート5の後方を向いており、無人飛行体20Aの筐体27の後面に取り付けられたカメラ25bが撮影した画像6に無人飛行体20Bが映る場合)には、カメラ25bが撮影した画像6における無人飛行体20Bの位置に基づいて、カメラ25bが無人飛行体20Bに向いた場合のカメラ方向を特定することによって、第1及び第2の目標角度θ1,θ2を取得する。 In this embodiment, the unmanned air vehicle 20 is attached with two cameras 25a and 25b. In this case, the target angle acquisition section 160 calculates the first and second target angles θ1 and θ2 based on the image 6 captured by one of the two cameras 25a and 25b. For example, when the image acquisition unit 140 of the unmanned flying object 20A selects the image 6 (first image) captured by the camera 25a (the unmanned flying object 20A is the flight route 5 and the unmanned flying object 20B appears in the image 6 captured by the camera 25a attached to the front surface of the housing 27 of the unmanned flying object 20A), the unmanned flying object in the image 6 captured by the camera 25a Based on the position of the flying object 20B, the camera direction when the camera 25a faces the unmanned flying object 20B is specified to obtain the first and second target angles θ1 and θ2, and the image of the unmanned flying object 20A is obtained. When the acquisition unit 140 selects the image 6 (second image) captured by the camera 25b (the unmanned flying object 20A faces the rear of the flight route 5 and is attached to the rear surface of the housing 27 of the unmanned flying object 20A). When the unmanned flying object 20B appears in the image 6 shot by the camera 25b captured by the camera 25b), the camera 25b faces the unmanned flying object 20B based on the position of the unmanned flying object 20B in the image 6 shot by the camera 25b. First and second target angles θ1 and θ2 are obtained by specifying the camera directions of .

なお、無人飛行体20Aの目標角度取得部160は、測位センサ24が計測した無人飛行体20A,20Bの各位置情報と、後述するカメラ方向特定部180が特定したカメラ25の方向とに基づいて、第1及び第2の目標角度θ1,θ2を取得してもよい。また、無人飛行体20Aの目標角度取得部160は、無人飛行体20Aの測位センサ24が計測した位置情報と、後述するカメラ方向特定部180が特定したカメラ25の方向とに基づいて、第1及び第2の目標角度θ1,θ2を取得してもよい。 Note that the target angle acquisition unit 160 of the unmanned flying object 20A is based on each position information of the unmanned flying objects 20A and 20B measured by the positioning sensor 24 and the direction of the camera 25 specified by the camera direction specifying unit 180 described later. , the first and second target angles θ1 and θ2 may be obtained. Further, the target angle acquisition unit 160 of the unmanned flying object 20A acquires the first angle based on the position information measured by the positioning sensor 24 of the unmanned flying object 20A and the direction of the camera 25 specified by the camera direction specifying unit 180, which will be described later. and second target angles θ1 and θ2 may be obtained.

[4-5.駆動制御部] [4-5. drive control unit]

無人飛行体20Aの駆動制御部170は、無人飛行体20Aのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向において、目標角度取得部160が取得した第1の目標角度θ1の方向へ無人飛行体20Aのカメラ25が向くように、支持構造26(より具体的には、支持構造26のアクチュエータ262)を駆動させる。このようにすることで、無人飛行体20Aのカメラ25が撮影する画像6に無人飛行体20Bが映らなくなること(無人飛行体20Bを見失うこと)を抑制できる。 The drive control unit 170 of the unmanned flying object 20A rotates the unmanned flying object 20A in the direction of the first target angle θ1 acquired by the target angle acquiring unit 160 in the direction of rotation about the axis Ax1 along the pitch axis Axa of the unmanned flying object 20A. The support structure 26 (more specifically, the actuator 262 of the support structure 26) is driven so that the camera 25 of the aircraft 20A is directed. By doing so, it is possible to prevent the unmanned flying object 20B from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20A (losing sight of the unmanned flying object 20B).

これと同様に、無人飛行体20Bの駆動制御部170は、無人飛行体20Bのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向において、目標角度取得部160が取得した第1の目標角度θ1の方向へ無人飛行体20Bのカメラ25が向くように、支持構造26のアクチュエータ262を駆動させる。このようにすることで、無人飛行体20Bのカメラ25が撮影する画像6に無人飛行体20Aが映らなくなること(無人飛行体20Aを見失うこと)を抑制できる。 Similarly, the drive control unit 170 of the unmanned flying object 20B detects the first target angle acquired by the target angle acquiring unit 160 in the rotation direction about the axis Ax1 along the pitch axis Axa of the unmanned flying object 20B. The actuator 262 of the support structure 26 is driven so that the camera 25 of the unmanned flying object 20B faces in the direction of θ1. By doing so, it is possible to prevent the unmanned flying object 20A from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20B (losing sight of the unmanned flying object 20A).

本実施形態では、無人飛行体20には2つのカメラ25a,25bが取り付けられている。無人飛行体20Aの駆動制御部170は、例えば、無人飛行体20Aの画像取得部140がカメラ25aで撮影された画像6を選択した場合(無人飛行体20Aの筐体27の前面に取り付けられたカメラ25aが撮影した画像6に無人飛行体20Bが映る場合)には、カメラ25aが第1の目標角度θ1の方向へ向くように、支持構造26aのアクチュエータ262を駆動させ、無人飛行体20Aの画像取得部140がカメラ25bで撮影された画像6を選択した場合(無人飛行体20Aの筐体27の後面に取り付けられたカメラ25bが撮影した画像6に無人飛行体20Bが映る場合)には、カメラ25bが第1の目標角度θ1の方向へ向くように、支持構造26bのアクチュエータ262を駆動させる。 In this embodiment, the unmanned air vehicle 20 is attached with two cameras 25a and 25b. For example, when the image acquisition unit 140 of the unmanned flying object 20A selects the image 6 captured by the camera 25a (the image attached to the front surface of the housing 27 of the unmanned flying object 20A), the drive control unit 170 of the unmanned flying object 20A When the unmanned flying object 20B appears in the image 6 captured by the camera 25a), the actuator 262 of the support structure 26a is driven so that the camera 25a faces the direction of the first target angle θ1, and the unmanned flying object 20A When the image acquisition unit 140 selects the image 6 captured by the camera 25b (when the unmanned flying object 20B appears in the image 6 captured by the camera 25b attached to the rear surface of the housing 27 of the unmanned flying object 20A) , the actuator 262 of the support structure 26b is driven so that the camera 25b faces in the direction of the first target angle θ1.

例えば、無人飛行体20Aの駆動制御部170は、無人飛行体20Aのカメラ25が撮影した画像6における無人飛行体20Bの位置が、中央領域62外にある場合に、当該カメラ25が無人飛行体20Bに向くように支持構造26を駆動させてもよい。例えば、画像6において、中央領域62の下に無人飛行体20Bが映っている場合に、無人飛行体20Aの駆動制御部170は、カメラ25の向きを下方に傾け、画像6の中央に無人飛行体20Bが映るように支持構造26を駆動させてもよい。 For example, when the position of the unmanned flying object 20B in the image 6 captured by the camera 25 of the unmanned flying object 20A is outside the central region 62, the drive control unit 170 of the unmanned flying object 20A determines that the camera 25 is the unmanned flying object. Support structure 26 may be driven to face 20B. For example, in the image 6, when the unmanned flying object 20B is shown under the central region 62, the drive control unit 170 of the unmanned flying object 20A tilts the camera 25 downward to place the unmanned flying object in the center of the image 6. The support structure 26 may be actuated to reflect the body 20B.

また、無人飛行体20Aの駆動制御部170は、画像6における無人飛行体20Bの位置が中央領域62外にある場合に、当該カメラ25の画角を現在の画角よりも広い画角に変えてもよい。このようにすることでも、無人飛行体20Aのカメラ25が撮影する画像6に、無人飛行体20Bが映らなくなることを抑制できる。 Further, when the position of the unmanned flying object 20B in the image 6 is outside the central region 62, the drive control unit 170 of the unmanned flying object 20A changes the angle of view of the camera 25 to a wider angle of view than the current angle of view. may By doing so, it is also possible to prevent the unmanned flying object 20B from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20A.

なお、無人飛行体20Aの駆動制御部170は、画像6において無人飛行体20Bの位置が中央領域62の内側にある場合には、無人飛行体20Aのカメラ25の画角を現在の画角よりも狭い画角に変更してもよい。このようにすることで、画像6から無人飛行体20Bの位置を特定する際に、画像6に映る別の物体を無人飛行体20Bとして検出することを抑制できる。 Note that when the position of the unmanned flying object 20B is inside the central region 62 in the image 6, the drive control unit 170 of the unmanned flying object 20A adjusts the angle of view of the camera 25 of the unmanned flying object 20A from the current angle of view. may be changed to a narrower angle of view. By doing so, when specifying the position of the unmanned flying object 20B from the image 6, it is possible to suppress the detection of another object appearing in the image 6 as the unmanned flying object 20B.

無人飛行体20Bの駆動制御部170も、当該無人飛行体20Bのカメラ25が撮影した画像6における中央領域62の外に無人飛行体20Aがある場合に、当該カメラ25が無人飛行体20Aに向くように支持構造26を駆動させたり、当該カメラ25の画角を現在の画角よりも広い画角に変えたりしてよい。これにより、無人飛行体20Bのカメラ25が撮影する画像6に無人飛行体20Aが映らなくなること(無人飛行体20Aを見失うこと)を抑制できる。 The drive control unit 170 of the unmanned flying object 20B also directs the camera 25 toward the unmanned flying object 20A when the unmanned flying object 20A is outside the central region 62 in the image 6 captured by the camera 25 of the unmanned flying object 20B. Alternatively, the angle of view of the camera 25 may be changed to be wider than the current angle of view. This can prevent the unmanned flying object 20A from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20B (losing sight of the unmanned flying object 20A).

[4-6.カメラ方向特定部]
カメラ方向特定部180は、無人飛行体20のカメラ25が向いている方向を特定する。無人飛行体20Aのカメラ方向特定部180は、当該無人飛行体20Aのカメラ25が向いている方向を特定し、無人飛行体20Bのカメラ方向特定部180は、当該無人飛行体20Bのカメラ25が向いている方向を特定する。「カメラ25が向いている方向を特定する」とは、例えば、基準方向とカメラ25が向いている方向とのなす角度(緯度方向での角度、経度方向での角度、及び高さ方向での角度)を特定することである。また、「カメラ25が向いている方向を特定する」とは、カメラ25が向いている現実世界における位置を特定することであってもよい。
[4-6. Camera direction identification unit]
The camera direction identification unit 180 identifies the direction in which the camera 25 of the unmanned air vehicle 20 is facing. The camera direction identifying unit 180 of the unmanned flying object 20A identifies the direction in which the camera 25 of the unmanned flying object 20A is facing, and the camera direction identifying unit 180 of the unmanned flying object 20B identifies the direction in which the camera 25 of the unmanned flying object 20B faces. Identify the direction you are facing. "Specifying the direction in which the camera 25 is facing" means, for example, the angle formed between the reference direction and the direction in which the camera 25 is facing (the angle in the latitude direction, the angle in the longitude direction, and the angle in the height direction). angle). Also, "identifying the direction in which the camera 25 is facing" may be identifying the position in the real world to which the camera 25 is facing.

カメラ方向特定部180は、例えば、無人飛行体20の位置における飛行ルート5の進行方向に沿った方向を基準方向とし、この基準方向に対してカメラ25が向いている方向を特定してよい。例えば、無人飛行体20Aのカメラ方向特定部180は、無人飛行体20Aの位置から飛行ルート5を規定する領域の中心であるポイントO2(図4~図6を参照)への方向を基準方向としてよいし、無人飛行体20Aから北極点や南極点に向かう方向を基準方向としてもよい。これと同様に、無人飛行体20Bのカメラ方向特定部180は、無人飛行体20Bの位置から飛行ルート5を規定する領域の中心であるポイントO1への方向を基準方向としてよいし、無人飛行体20Bから北極点や南極点に向かう方向を基準方向としてもよい。 The camera direction specifying unit 180 may specify, for example, the direction in which the camera 25 is facing with respect to the reference direction, which is the direction along the traveling direction of the flight route 5 at the position of the unmanned air vehicle 20 . For example, the camera direction specifying unit 180 of the unmanned flying object 20A uses the direction from the position of the unmanned flying object 20A to the point O2 (see FIGS. 4 to 6), which is the center of the area defining the flight route 5, as the reference direction. Alternatively, the direction from the unmanned air vehicle 20A to the North Pole or the South Pole may be used as the reference direction. Similarly, the camera direction specifying unit 180 of the unmanned flying object 20B may set the direction from the position of the unmanned flying object 20B to the point O1, which is the center of the area defining the flight route 5, as a reference direction. A direction from 20B toward the North Pole or the South Pole may be used as the reference direction.

[4-7.判定部]
無人飛行体20Aの判定部190は、当該無人飛行体20Aのカメラ25が撮影した画像6に基づいて、無人飛行体20Bが飛行ルート5を外れたか否かを判定する。より具体的には、無人飛行体20Aの判定部190は、当該無人飛行体20Aの測位センサ24が計測した無人飛行体20Aの位置、当該無人飛行体20Aのカメラ25が向いている方向、及び、当該カメラ25が撮影した画像6に基づいて、無人飛行体20Bが飛行ルート5を外れたか否かを判定する。これと同様に、無人飛行体20Bの判定部190は、当該無人飛行体20Bのカメラ25が撮影した画像6に基づいて、無人飛行体20Aが飛行ルート5を外れたか否かを判定する。
[4-7. Judgment part]
The determination unit 190 of the unmanned flying object 20A determines whether the unmanned flying object 20B has deviated from the flight route 5 based on the image 6 captured by the camera 25 of the unmanned flying object 20A. More specifically, the determination unit 190 of the unmanned flying object 20A determines the position of the unmanned flying object 20A measured by the positioning sensor 24 of the unmanned flying object 20A, the direction in which the camera 25 of the unmanned flying object 20A is facing, and , based on the image 6 captured by the camera 25, it is determined whether or not the unmanned air vehicle 20B has deviated from the flight route 5. Similarly, the determination unit 190 of the unmanned flying object 20B determines whether the unmanned flying object 20A has deviated from the flight route 5 based on the image 6 captured by the camera 25 of the unmanned flying object 20B.

無人飛行体20Aの判定部190は、例えば、図5及び図6に示したように、当該無人飛行体20Aの位置における飛行ルート5の進行方向(例えば、無人飛行体20AからポイントO2に向かう方向)に対して無人飛行体20Aのカメラ25が向いている方向に基づいて、当該カメラ25が撮影した画像6内に、飛行ルート5内の領域である判定領域61を設定する。そして、設定した判定領域61内に無人飛行体20Bが映っていないと判定される場合に、無人飛行体20Bが飛行ルート5から外れたと判定する。これと同様に、無人飛行体20Bの判定部190は、当該無人飛行体20Bの位置における飛行ルート5の進行方向の逆方向(例えば、無人飛行体20BからポイントO1に向かう方向)に対して無人飛行体20Bのカメラ25が向いている方向に基づいて、当該カメラ25が撮影した画像6内に判定領域61を設定し、判定領域61内に無人飛行体20Aが映っていないと判定される場合に、無人飛行体20Aが飛行ルート5を外れたと判定してよい。 For example, as shown in FIGS. 5 and 6, the determining unit 190 of the unmanned flying object 20A determines the traveling direction of the flight route 5 at the position of the unmanned flying object 20A (for example, the direction from the unmanned flying object 20A to the point O2). ), a determination region 61 within the flight route 5 is set in the image 6 captured by the camera 25 based on the direction in which the camera 25 of the unmanned air vehicle 20A is facing. Then, when it is determined that the unmanned flying object 20B does not appear within the set determination area 61, it is determined that the unmanned flying object 20B has deviated from the flight route 5.例文帳に追加Similarly, the determination unit 190 of the unmanned flying object 20B determines whether the unmanned flying object 20B is unmanned in the direction opposite to the traveling direction of the flight route 5 (for example, the direction from the unmanned flying object 20B to the point O1). A case in which a judgment area 61 is set in the image 6 captured by the camera 25 based on the direction in which the camera 25 of the flying object 20B is facing, and it is judged that the unmanned flying object 20A is not captured in the judgment area 61. Then, it may be determined that the unmanned air vehicle 20A has deviated from the flight route 5.

また、無人飛行体20Aの判定部190は、例えば、図7及び図8に示したように、当該無人飛行体20Aの位置、当該無人飛行体20Aのカメラ25が向いている方向、及び当該カメラ25が撮影した画像6における無人飛行体20Bの位置に基づいて、現実世界における無人飛行体20Bの位置を算出し、この無人飛行体20Bの位置が飛行ルート5内にないと判定される場合に、無人飛行体20Bが飛行ルート5を外れたと判定してもよい。無人飛行体20Aの判定部190は、無人飛行体20Aの位置に対する無人飛行体20Bの相対的な位置を算出し、この算出した位置と、無人飛行体20Aの測位センサ24から取得した現実世界における無人飛行体20Aの位置に基づいて、現実世界における無人飛行体20Bの位置を算出してもよい。これと同様に、無人飛行体20Bの判定部190は、当該無人飛行体20Bの位置、当該無人飛行体20Bのカメラ25が向いている方向、及び当該カメラ25が撮影した画像6における無人飛行体20Aの位置に基づいて、現実世界における無人飛行体20Aの位置を算出し、この無人飛行体20Aの位置が飛行ルート5内にないと判定される場合に、無人飛行体20Aが飛行ルート5を外れたと判定してもよい。 7 and 8, the determining unit 190 of the unmanned flying object 20A determines the position of the unmanned flying object 20A, the direction in which the camera 25 of the unmanned flying object 20A is directed, and the Based on the position of the unmanned flying object 20B in the image 6 captured by 25, the position of the unmanned flying object 20B in the real world is calculated. , it may be determined that the unmanned air vehicle 20B has deviated from the flight route 5. The determining unit 190 of the unmanned flying object 20A calculates the relative position of the unmanned flying object 20B with respect to the position of the unmanned flying object 20A. The position of the unmanned flying object 20B in the real world may be calculated based on the position of the unmanned flying object 20A. Similarly, the determination unit 190 of the unmanned flying object 20B determines the position of the unmanned flying object 20B, the direction in which the camera 25 of the unmanned flying object 20B is facing, and the unmanned flying object in the image 6 captured by the camera 25. The position of the unmanned flying object 20A in the real world is calculated based on the position of the unmanned flying object 20A. It may be judged that it has come off.

このように、無人飛行体20Aの判定部190が、当該無人飛行体20Aのカメラ25で撮影した画像6を用いて無人飛行体20Bが飛行ルート5から外れたか否かを判定することにより、当該カメラ25で撮った画像を管理者が確認しなくても、無人飛行体20Bが飛行ルート5から外れたことを検出できる。これと同様に、無人飛行体20Bの判定部190が、当該無人飛行体20Bのカメラ25で撮影した画像6を用いて無人飛行体20Aが飛行ルート5から外れたか否かを判定することにより、管理者に依らずに無人飛行体20Aが飛行ルート5から外れたことを検出できるようになる。 In this way, the determining unit 190 of the unmanned flying object 20A determines whether or not the unmanned flying object 20B has deviated from the flight route 5 using the image 6 captured by the camera 25 of the unmanned flying object 20A. Departure of the unmanned air vehicle 20B from the flight route 5 can be detected without the administrator checking the image taken by the camera 25.例文帳に追加Similarly, the determination unit 190 of the unmanned flying object 20B uses the image 6 captured by the camera 25 of the unmanned flying object 20B to determine whether the unmanned flying object 20A has deviated from the flight route 5. It becomes possible to detect that the unmanned air vehicle 20A has deviated from the flight route 5 without depending on the administrator.

[4-8.異常送信部、飛行中断部]
異常送信部200は、無人飛行体20に異常が生じた場合に、所定の異常を識別する識別情報(所定のエラーコードや、異常を示す文言、画像など)を管制装置10に送信する。本実施形態では、無人飛行体20Aの異常送信部200は、判定部190により無人飛行体20Bが飛行ルート5内を外れたと判定された場合に、当該無人飛行体20Bが飛行ルート5を外れたことを示す識別情報を管制装置10に送信する。これと同様に、無人飛行体20Bの異常送信部200は、無人飛行体20Aが飛行ルート5内を外れたと判定された場合に、当該無人飛行体20Aが飛行ルート5を外れたことを示す識別情報を管制装置10に送信する。
[4-8. Abnormal transmission unit, flight interruption unit]
The abnormality transmission unit 200 transmits identification information for identifying a predetermined abnormality (predetermined error code, wording indicating the abnormality, image, etc.) to the control device 10 when an abnormality occurs in the unmanned air vehicle 20 . In this embodiment, when the determining unit 190 determines that the unmanned flying object 20B has left the flight route 5, the abnormality transmitting unit 200 of the unmanned flying object 20A detects that the unmanned flying object 20B has left the flight route 5. Identification information indicating that is transmitted to the control device 10 . Similarly, when it is determined that the unmanned flying object 20A has deviated from the flight route 5, the abnormality transmitting unit 200 of the unmanned flying object 20B has an identification signal indicating that the unmanned flying object 20A has deviated from the flight route 5. Information is transmitted to the control device 10 .

例えば、無人飛行体20Aの異常送信部200は、無人飛行体20Aの測位センサ24が計測した無人飛行体20Aの位置や、無人飛行体20Bから受信した無人飛行体20Bの位置を管制装置10に送信してもよい。また、無人飛行体20Aが画像6に基づいて無人飛行体20Bの位置を算出する場合、算出した無人飛行体20Bの位置を、無人飛行体20Bが飛行ルート5を外れたことを示す識別情報とともに管制装置10に送信してもよい。これと同様に、無人飛行体20Bの異常送信部200も、無人飛行体20Aが飛行ルート5を外れたことを示す識別情報とともに、当該無人飛行体20Aの位置を管制装置10に送信してもよい。 For example, the abnormality transmission unit 200 of the unmanned flying object 20A sends the position of the unmanned flying object 20A measured by the positioning sensor 24 of the unmanned flying object 20A and the position of the unmanned flying object 20B received from the unmanned flying object 20B to the control device 10. You may send. When the unmanned flying object 20A calculates the position of the unmanned flying object 20B based on the image 6, the calculated position of the unmanned flying object 20B is displayed together with the identification information indicating that the unmanned flying object 20B has deviated from the flight route 5. You may transmit to the control apparatus 10. FIG. Similarly, even if the abnormality transmission unit 200 of the unmanned flying object 20B also transmits the identification information indicating that the unmanned flying object 20A has deviated from the flight route 5 and the position of the unmanned flying object 20A to the control device 10. good.

飛行中断部210は、無人飛行体20に異常が生じた場合に、当該無人飛行体20に飛行ルート5での飛行を中断させる。本実施形態では、無人飛行体20Aの飛行中断部210は、無人飛行体20Bが飛行ルート5を外れたと判定された場合に、無人飛行体20Aに飛行ルート5での飛行を中断させる。これと同様に、無人飛行体20Bの飛行中断部210は、無人飛行体20Aが飛行ルート5を外れたと判定された場合に、無人飛行体20Bに飛行ルート5での飛行を中断させる。 The flight suspension unit 210 suspends the flight on the flight route 5 by the unmanned flying object 20 when an abnormality occurs in the unmanned flying object 20 . In this embodiment, the flight suspension unit 210 of the unmanned flying object 20A causes the unmanned flying object 20A to suspend the flight on the flight route 5 when it is determined that the unmanned flying object 20B has deviated from the flight route 5. Similarly, the flight suspension unit 210 of the unmanned flying object 20B causes the unmanned flying object 20B to suspend the flight on the flight route 5 when it is determined that the unmanned flying object 20A has deviated from the flight route 5.

無人飛行体20に飛行ルート5での飛行を中断させるとは、例えば、現在の無人飛行体20の位置に留らせる(ホバリングさせる)ことであってもよいし、所定の地点に着陸させることであってもよい。例えば、無人飛行体20Aのカメラ25が撮影した画像6に無人飛行体20Bが映らない(無人飛行体20Bを見失った)場合、無人飛行体20Aの飛行中断部210は、無人飛行体20Aにホバリングさせるとともに、無人飛行体20Aの向きを変えたり無人飛行体20Aのカメラ25の向きを変えたりすることを、当該カメラ25が撮影した画像6に無人飛行体20Bが映るまで繰り返す(すなわち、その場から無人飛行体20Bを探索する)ようにしてもよい。 Interrupting the flight on the flight route 5 by the unmanned flying object 20 may be, for example, causing the unmanned flying object 20 to remain at its current position (hovering) or landing at a predetermined point. may be For example, when the unmanned flying object 20B is not captured in the image 6 captured by the camera 25 of the unmanned flying object 20A (the unmanned flying object 20B is lost), the flight interruption unit 210 of the unmanned flying object 20A hoveres over the unmanned flying object 20A. In addition, changing the direction of the unmanned flying object 20A and changing the direction of the camera 25 of the unmanned flying object 20A are repeated until the unmanned flying object 20B is reflected in the image 6 captured by the camera 25 (that is, in situ search for the unmanned air vehicle 20B).

また、無人飛行体20Bが飛行ルート5から外れた場合に、無人飛行体20Aの飛行中断部210は、所定の飛行可能範囲内で無人飛行体20Bを無人飛行体20Aが追尾するように、無人飛行体20Aに飛行ルート5から外れて飛行させてよい。また、無人飛行体20Aの異常送信部200は、無人飛行体20Bの位置を管制装置10に送信してもよい。このようにすることで、飛行ルート5を外れた後の無人飛行体20Bの位置を、無人飛行体20Aを用いて検出することができる。その後、着陸した無人飛行体20Bを管理者が回収する場合に、無人飛行体20Bの探索を円滑に行うことができる。 Further, when the unmanned flying object 20B deviates from the flight route 5, the flight interruption unit 210 of the unmanned flying object 20A causes the unmanned flying object 20A to track the unmanned flying object 20B within a predetermined flight range. The aircraft 20A may be caused to fly off the flight route 5. Further, the abnormality transmission unit 200 of the unmanned flying object 20A may transmit the position of the unmanned flying object 20B to the control device 10. By doing so, the position of the unmanned flying object 20B after leaving the flight route 5 can be detected using the unmanned flying object 20A. Thereafter, when the administrator retrieves the landed unmanned flying object 20B, the search for the unmanned flying object 20B can be smoothly performed.

[5.フローチャート]
図11は、飛行制御システム1で行われる飛行制御処理の流れの一例を示す図である。以下では、無人飛行体20Aが無人飛行体20Bを追尾して飛行ルート5を飛行する場合に無人飛行体20Aのプロセッサ21が実行する処理について説明するが、飛行ルート5を先行して飛行する無人飛行体20Bのプロセッサ21も、これと同様の処理を実行できる。
[5. flowchart]
FIG. 11 is a diagram showing an example of the flow of flight control processing performed by the flight control system 1. As shown in FIG. The processing executed by the processor 21 of the unmanned flying object 20A when the unmanned flying object 20A tracks the unmanned flying object 20B and flies along the flight route 5 will be described below. The processor 21 of the flying object 20B can also perform similar processing.

無人飛行体20Aが飛行ルート5を飛行しているとき、無人飛行体20Aのプロセッサ11はカメラ方向制御処理を実行しながら(ステップS101)、無人飛行体20Aの測位センサ24は無人飛行体20A(自機)の位置を計測する(ステップS102)。この位置に基づいて、無人飛行体20Aの飛行制御部130は、飛行ルート情報取得部110が取得した情報に示される飛行ルート5に沿って、無人飛行体20Aを飛行させる。 When the unmanned flying object 20A is flying along the flight route 5, the processor 11 of the unmanned flying object 20A executes the camera direction control process (step S101), and the positioning sensor 24 of the unmanned flying object 20A ( self) is measured (step S102). Based on this position, the flight control unit 130 of the unmanned flying object 20A causes the unmanned flying object 20A to fly along the flight route 5 indicated by the information acquired by the flight route information acquiring unit 110.

図12は、ステップS101で実行されるカメラ方向制御処理の流れの一例を示す図である。図12に示すように、無人飛行体20Aの画像取得部140は、無人飛行体20Aの2つのカメラ25a,25bで撮影された画像6のうち、無人飛行体20Bが映っている画像6を選択する(ステップS201)。そして、無人飛行体20Aの中央領域設定部150は、ステップS201で選択した画像6に、この画像6の中心Oa´と同じ位置に中心を有する中央領域62(図5を参照)を設定する(ステップS202)。 FIG. 12 is a diagram showing an example of the flow of camera direction control processing executed in step S101. As shown in FIG. 12, the image acquisition unit 140 of the unmanned flying object 20A selects the image 6 showing the unmanned flying object 20B from among the images 6 captured by the two cameras 25a and 25b of the unmanned flying object 20A. (step S201). Then, the central region setting unit 150 of the unmanned flying object 20A sets a central region 62 (see FIG. 5) having a center at the same position as the center Oa' of the image 6 selected in step S201 (see FIG. 5). step S202).

次いで、無人飛行体20Aのプロセッサ11は、ステップS201で選択した画像6における無人飛行体20Bの位置が、ステップS202において設定した中央領域62内であるか否かを判定する(ステップS203)。無人飛行体20Bの位置が中央領域62内にない場合(ステップS203のNo)、無人飛行体20Aのプロセッサ11は、ステップS205~S207の処理を順次実行する。 Next, the processor 11 of the unmanned flying object 20A determines whether the position of the unmanned flying object 20B in the image 6 selected at step S201 is within the central region 62 set at step S202 (step S203). If the position of the unmanned flying object 20B is not within the central region 62 (No in step S203), the processor 11 of the unmanned flying object 20A sequentially executes the processes of steps S205 to S207.

ステップS204では、無人飛行体20Aの目標角度取得部160が、ステップS201で選択された画像6を撮影したカメラ25が、無人飛行体20Bを向く方向に基づいて、第1及び第2の目標角度θ1,θ2を取得する。無人飛行体20Aの目標角度取得部160は、例えば、ステップS201で選択された画像6に基づいて、この画像6を撮影したカメラ25が無人飛行体20Bを向く方向を特定することによって、第1及び第2の目標角度θ1,θ2を取得する。無人飛行体20Aの目標角度取得部160は、例えば、図9に示す画像6における無人飛行体20Bの位置に基づいて、現実世界における無人飛行体20Aの位置に対する無人飛行体20Bの相対的な位置(ΔWb,ΔZb)を算出する。そして、カメラ25の上下方向における距離ΔZbに基づいて、この方向に対応する回転方向での角度である第1の目標角度θ1を算出すとともに、カメラ25の左右方向における距離ΔWbに基づいて、この方向に対応する回転方向での角度である第2の目標角度θ2を算出する。 In step S204, the target angle acquisition unit 160 of the unmanned flying object 20A obtains first and second target angles based on the direction in which the camera 25 that captured the image 6 selected in step S201 faces the unmanned flying object 20B. Get θ1 and θ2. For example, based on the image 6 selected in step S201, the target angle acquisition unit 160 of the unmanned flying object 20A identifies the direction in which the camera 25 that captured the image 6 faces the unmanned flying object 20B. and second target angles θ1 and θ2. The target angle acquisition unit 160 of the unmanned flying object 20A calculates the relative position of the unmanned flying object 20B with respect to the position of the unmanned flying object 20A in the real world, based on the position of the unmanned flying object 20B in the image 6 shown in FIG. 9, for example. (ΔWb, ΔZb) are calculated. Then, based on the distance ΔZb in the vertical direction of the camera 25, a first target angle θ1, which is the angle in the rotational direction corresponding to this direction, is calculated, and based on the distance ΔWb in the horizontal direction of the camera 25, this target angle θ1 is calculated. A second target angle θ2, which is an angle in the rotation direction corresponding to the direction, is calculated.

ステップS205では、無人飛行体20Aの駆動制御部170が、ステップS204で取得(算出)された第1の目標角度θ1の方向へ、ステップS201で選択された画像6を撮影したカメラ25が向くように、そのカメラ25を支持する支持構造26(より具体的には、支持構造26のアクチュエータ262)を駆動させる。無人飛行体20Aの駆動制御部170は、例えば、無人飛行体20Aに取り付けられる2つのカメラ25a,25bのうち、カメラ25aで無人飛行体20Bを含む画像6が撮影された場合には、カメラ25aが第1の目標角度θ1の方向へ向くように、カメラ25aを支持する支持構造26aを駆動させ、カメラ25bで無人飛行体20Bを含む画像6が撮影された場合には、カメラ25bが第1の目標角度θ1の方向へ向くように、カメラ25bを支持する支持構造26bを駆動させる。 In step S205, the drive control unit 170 of the unmanned flying object 20A directs the camera 25 that captured the image 6 selected in step S201 in the direction of the first target angle θ1 acquired (calculated) in step S204. Then, the support structure 26 that supports the camera 25 (more specifically, the actuator 262 of the support structure 26) is driven. For example, of the two cameras 25a and 25b attached to the unmanned flying object 20A, when the image 6 including the unmanned flying object 20B is captured by the camera 25a, the drive control unit 170 of the unmanned flying object 20A is oriented in the direction of the first target angle θ1. The support structure 26b that supports the camera 25b is driven so as to face in the direction of the target angle .theta.1.

ステップS206では、無人飛行体20Aの飛行制御部130が、ステップS204で取得(算出)された第2の目標角度θ2の方向へ、ステップS201で選択された画像6を撮影したカメラ25が向くように、無人飛行体20A(自機)を旋回させる。無人飛行体20Aの飛行制御部130は、例えば、無人飛行体20Aに取り付けられる2つのカメラ25a,25bのうち、カメラ25aで無人飛行体20Bを含む画像6が撮影された場合には、カメラ25aが第2の目標角度θ2の方向へ向くように無人飛行体20Aを旋回させ、カメラ25bで無人飛行体20Bを含む画像6が撮影された場合には、カメラ25bが第2の目標角度θ2の方向へ向くように無人飛行体20Aを旋回させる。 In step S206, the flight control unit 130 of the unmanned flying object 20A directs the camera 25 that captured the image 6 selected in step S201 in the direction of the second target angle θ2 acquired (calculated) in step S204. Then, the unmanned air vehicle 20A (self) is turned. For example, of the two cameras 25a and 25b attached to the unmanned flying object 20A, when the image 6 including the unmanned flying object 20B is captured by the camera 25a, the flight control unit 130 of the unmanned flying object 20A is directed in the direction of the second target angle θ2, and the image 6 including the unmanned flying object 20B is captured by the camera 25b. The unmanned flying object 20A is turned so as to face the direction.

なお、ステップS205の処理とステップS206の処理は、同時に開始されてもよい。また、ステップS205の処理とステップS206の処理が実行される順番は、逆であってもよい。 Note that the process of step S205 and the process of step S206 may be started at the same time. Also, the order in which the process of step S205 and the process of step S206 are executed may be reversed.

図11に戻り、ステップS103において、無人飛行体20Aのカメラ方向特定部180が、無人飛行体20Aの位置から飛行ルート5の進行方向に向かう方向(例えば、無人飛行体20Aから、図4に示したポイントO2に向かう方向)や、無人飛行体20Aの位置から北極点や南極点に向かう方向などを基準方向とし、この基準方向に対してカメラ25が向いている方向を特定する。そして、ステップS104において、無人飛行体20Aの判定部190は、ステップS101で計測した無人飛行体20Aの位置、ステップS105で特定したカメラ25が向いている方向、及び、ステップS102で取得した画像6に基づいて、無人飛行体20Bが飛行ルート5を外れたか否かを判定する。 Returning to FIG. 11, in step S103, the camera direction specifying unit 180 of the unmanned flying object 20A determines the direction from the position of the unmanned flying object 20A toward the traveling direction of the flight route 5 (for example, from the unmanned flying object 20A shown in FIG. 4). The direction toward the point O2), the direction toward the North Pole or the South Pole from the position of the unmanned air vehicle 20A, and the like are used as reference directions, and the direction in which the camera 25 is facing is specified with respect to this reference direction. Then, in step S104, the determination unit 190 of the unmanned flying object 20A determines the position of the unmanned flying object 20A measured in step S101, the direction in which the camera 25 is directed identified in step S105, and the image 6 acquired in step S102. , it is determined whether or not the unmanned air vehicle 20B has deviated from the flight route 5.

ステップS104では、例えば、図5及び図6に示したように、無人飛行体20Aの位置における飛行ルート5の進行方向に対して無人飛行体20Aのカメラ25が向いている方向に基づいて、ステップS102において取得した画像6内に、飛行ルート5内の領域である判定領域61を設定してよい。そして、設定した判定領域61内に無人飛行体20Bが映っているか否かに基づいて、無人飛行体20Bが飛行ルート5から外れたか否かを判定してよい。 In step S104, for example, as shown in FIGS. 5 and 6, step A determination area 61, which is an area within the flight route 5, may be set in the image 6 acquired in S102. Then, whether or not the unmanned flying object 20B has deviated from the flight route 5 may be determined based on whether the unmanned flying object 20B appears within the set determination area 61 or not.

また、ステップS104では、例えば、図7及び図8に示したように、無人飛行体20Aの位置、無人飛行体20Aのカメラ25が向いている方向、及び当該カメラ25が撮影した画像6における無人飛行体20Bの位置に基づいて、現実世界における無人飛行体20Bの位置を算出し、この無人飛行体20Bの位置が飛行ルート5の外にあると判定される場合に、無人飛行体20Bが飛行ルート5を外れたと判定してもよい。 Further, in step S104, for example, as shown in FIGS. 7 and 8, the position of the unmanned flying object 20A, the direction in which the camera 25 of the unmanned flying object 20A is facing, and the unmanned object in the image 6 captured by the camera 25 are determined. Based on the position of the flying object 20B, the position of the unmanned flying object 20B in the real world is calculated. It may be determined that route 5 has been deviated.

ステップS104において無人飛行体20Bが飛行ルート5を外れていないと判定された場合(ステップS105のNo)、無人飛行体20Aのプロセッサ21は、ステップS101からステップS104の処理を繰り返す。すなわち、無人飛行体20Bが目的地である到着地点に到着するか、無人飛行体20Aが所定の異常を検出するまで、無人飛行体20Aのプロセッサ21は、無人飛行体20Aのカメラ25の方向を制御するカメラ方向制御処理、及び、無人飛行体20Bが飛行ルート5を外れたか否かの判定処理(監視処理)を継続する。 When it is determined in step S104 that the unmanned flying object 20B has not deviated from the flight route 5 (No in step S105), the processor 21 of the unmanned flying object 20A repeats the processing from steps S101 to S104. That is, the processor 21 of the unmanned flying object 20A keeps the direction of the camera 25 of the unmanned flying object 20A until the unmanned flying object 20B arrives at the arrival point, which is the destination, or until the unmanned flying object 20A detects a predetermined abnormality. The control camera direction control process and the determination process (monitoring process) of whether or not the unmanned air vehicle 20B has deviated from the flight route 5 are continued.

ステップS104において無人飛行体20Bが飛行ルート5を外れたと判定された場合(ステップS105のYes)、無人飛行体20Aの異常送信部200は、無人飛行体20Bが飛行ルート5を外れたという異常を示す識別情報を管制装置10に送信し、無人飛行体20Aの飛行中断部210は、無人飛行体20Aに飛行ルート5での飛行を中断させる(ステップS106)。 If it is determined in step S104 that the unmanned flying object 20B has deviated from the flight route 5 (Yes in step S105), the abnormality transmitting unit 200 of the unmanned flying object 20A transmits an abnormality that the unmanned flying object 20B has deviated from the flight route 5. The identification information indicated is transmitted to the control device 10, and the flight suspension unit 210 of the unmanned air vehicle 20A causes the unmanned air vehicle 20A to suspend the flight on the flight route 5 (step S106).

ステップS106において、無人飛行体20Aの異常送信部200は、無人飛行体20Bが飛行ルート5を外れたことを示す識別情報とともに、ステップS101で計測した無人飛行体20Aの位置や、無人飛行体20Bから受信した無人飛行体20Bの位置を管制装置10に送信してもよい。また、ステップS104において、無人飛行体20Aが無人飛行体20Bの位置を算出する場合、ステップS106では、算出した無人飛行体20Bの位置を管制装置10に送信してもよい。 In step S106, the abnormality transmitting unit 200 of the unmanned flying object 20A sends identification information indicating that the unmanned flying object 20B has deviated from the flight route 5, as well as the position of the unmanned flying object 20A measured in step S101 and the unmanned flying object 20B. The position of the unmanned air vehicle 20B received from may be transmitted to the control device 10. Further, when the unmanned flying object 20A calculates the position of the unmanned flying object 20B in step S104, the calculated position of the unmanned flying object 20B may be transmitted to the control device 10 in step S106.

また、ステップS106において、無人飛行体20Aの飛行中断部210は、無人飛行体20を現在の位置でホバリングさせてもよいし、所定の地点に着陸させてもよい。無人飛行体20Aの飛行中断部210は、例えば、無人飛行体20Aのバッテリーの残量に基づいて、無人飛行体20Aが着陸する地点(出発地点や飛行ルート5の近傍にある地点など)を定めてもよい。また、ステップS106において、無人飛行体20Aの飛行中断部210は、飛行ルート5から外れた無人飛行体20Bを、所定の飛行可能範囲内で無人飛行体20Aに追尾させてもよい。ここでも、無人飛行体20Aの異常送信部200は、画像6から特定した無人飛行体20Bの位置を管制装置10に送信してもよい。このようにすることで、飛行ルート5を外れた後の無人飛行体20Bの位置を、無人飛行体20Aを用いて検出することができ、その後の無人飛行体20Bの回収を円滑に行うことができる。 Further, in step S106, the flight interruption unit 210 of the unmanned flying object 20A may cause the unmanned flying object 20 to hover at the current position or land at a predetermined point. The flight interruption unit 210 of the unmanned flying object 20A determines the landing point of the unmanned flying object 20A (the departure point, a point near the flight route 5, etc.) based on, for example, the remaining amount of the battery of the unmanned flying object 20A. may Further, in step S106, the flight interruption unit 210 of the unmanned flying object 20A may cause the unmanned flying object 20A to track the unmanned flying object 20B that has deviated from the flight route 5 within a predetermined flight range. Here, too, the abnormality transmission unit 200 of the unmanned flying object 20A may transmit the position of the unmanned flying object 20B specified from the image 6 to the control device 10. By doing so, the position of the unmanned flying object 20B after deviating from the flight route 5 can be detected using the unmanned flying object 20A, and the unmanned flying object 20B can be recovered smoothly thereafter. can.

[6.まとめ]
以上のように、本実施形態では、無人飛行体20Aは、無人飛行体20Bを追尾して飛行ルート5を飛行し、当該無人飛行体20Aのカメラ25が撮影した画像6に基づいて、無人飛行体20Bが飛行ルート5から外れたか否かを判定する。これによれば、カメラ25の画像(映像)を管理者が目視することなく、無人飛行体20Bが飛行ルートから外れたことを検出できるようになる。
[6. summary]
As described above, in this embodiment, the unmanned flying object 20A flies along the flight route 5 while tracking the unmanned flying object 20B. It is determined whether or not the body 20B has deviated from the flight route 5. According to this, it is possible to detect that the unmanned flying object 20B has deviated from the flight route without the administrator having to look at the image (video) of the camera 25 .

また、無人飛行体20Aは、当該無人飛行体20Aのカメラ25が撮影した画像6における無人飛行体20Bの位置が、中央領域62外にある場合に、当該カメラ25が無人飛行体20に向くように、当該無人飛行体20Aの向きや、当該カメラ25向きを制御してもよい。これによれば、無人飛行体20Aのカメラ25が撮影する画像6に無人飛行体20Bが映らなくなること(すなわち、無人飛行体20Aのカメラ25が無人飛行体20Bを見失うこと)を抑制でき、無人飛行体20Bが飛行ルート5から外れたか否かの検出を継続することができる。 Further, the unmanned flying object 20A is arranged so that the camera 25 faces the unmanned flying object 20 when the position of the unmanned flying object 20B in the image 6 captured by the camera 25 of the unmanned flying object 20A is outside the central region 62. Additionally, the orientation of the unmanned flying object 20A and the orientation of the camera 25 may be controlled. According to this, it is possible to prevent the unmanned flying object 20B from disappearing from the image 6 captured by the camera 25 of the unmanned flying object 20A (that is, the camera 25 of the unmanned flying object 20A losing sight of the unmanned flying object 20B). It can continue to detect whether the aircraft 20B has deviated from the flight route 5 or not.

ここで、無人飛行体20Aは、無人飛行体20Aのカメラ25の方向である所与のカメラ方向に基づいて、無人飛行体20Aのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向での角度である第1の目標角度θ1と、無人飛行体20Aのヨー軸Axbに沿った軸線Ax2を中心とする回転方向の角度である第2の目標角度θ2とを取得してよい。そして、無人飛行体20Aのピッチ軸Axaに沿った軸線Ax1を中心とする回転方向において、第1の目標角度θ1の方向へカメラ25が向くように、そのカメラ25を支持する支持構造26を駆動させるとともに、無人飛行体20Aのヨー軸Axbに沿った軸線Ax2を中心とする回転方向において、第2の目標角度θ2の方向へ無人飛行体20Aのカメラ25が向くように、無人飛行体20Aを旋回させてよい。このようにすることで、例えば、アクチュエータ262の数が1つである単純な支持構造26で、無人飛行体20Aのカメラ25を無人飛行体20Bに向けることが可能になる。 Here, the unmanned flying object 20A rotates about the axis Ax1 along the pitch axis Axa of the unmanned flying object 20A based on a given camera direction, which is the direction of the camera 25 of the unmanned flying object 20A. A first target angle θ1, which is an angle, and a second target angle θ2, which is an angle in the direction of rotation about the axis Ax2 along the yaw axis Axb of the unmanned air vehicle 20A, may be acquired. Then, the support structure 26 that supports the camera 25 is driven so that the camera 25 faces the direction of the first target angle θ1 in the rotation direction about the axis Ax1 along the pitch axis Axa of the unmanned air vehicle 20A. In addition, rotate the unmanned flying object 20A so that the camera 25 of the unmanned flying object 20A faces the direction of the second target angle θ2 in the rotation direction about the axis Ax2 along the yaw axis Axb of the unmanned flying object 20A. You can turn it around. By doing so, for example, with a simple support structure 26 having one actuator 262, the camera 25 of the unmanned air vehicle 20A can be directed toward the unmanned air vehicle 20B.

また、飛行ルート5を先行して飛行する無人飛行体20Bも、当該無人飛行体20Bのカメラ25が撮影した画像6に基づいて、無人飛行体20Aが飛行ルート5から外れたか否かを判定してよい。これによれば、無人飛行体20Aが飛行ルートから外れたことも検出できるようになる。また、無人飛行体20Bも無人飛行体20Bのカメラ25の方向である所与のカメラ方向に基づいて、第1及び第2の目標角度θ1,θ2を取得し、そのカメラ25が第1の目標角度θ1の方向へ向くように、そのカメラ25を支持する支持構造26を駆動させるとともに、カメラ25が第2の目標角度θ2の方向へ向くように、無人飛行体20Bを旋回させてよい。このようにすることで、無人飛行体20Bのカメラ25を、単純な支持構造26で無人飛行体20Aに向けることが可能になる。 Also, the unmanned flying object 20B that flies ahead on the flight route 5 determines whether the unmanned flying object 20A has deviated from the flight route 5 based on the image 6 captured by the camera 25 of the unmanned flying object 20B. you can This makes it possible to detect that the unmanned air vehicle 20A has deviated from the flight route. Also, the unmanned flying object 20B also obtains the first and second target angles θ1 and θ2 based on a given camera direction, which is the direction of the camera 25 of the unmanned flying object 20B, and the camera 25 is the first target angle. The support structure 26 that supports the camera 25 may be driven to face the direction of the angle θ1, and the unmanned air vehicle 20B may be turned so that the camera 25 faces the direction of the second target angle θ2. By doing so, the camera 25 of the unmanned air vehicle 20B can be directed toward the unmanned air vehicle 20A with a simple support structure 26. FIG.

なお、本発明は、以上の実施形態に限定されるものではない。例えば、無人飛行体20Aのカメラ25が飛行ルート5の外を向くように制御し、当該カメラ25が撮影した画像6に無人飛行体20Bが映っている場合に、無人飛行体20Bが飛行ルート5から外れたことを検知してもよい。このようにすることでも、当該カメラ25の画像(映像)を管理者が目視することなく、無人飛行体20Bが飛行ルートから外れたことを検出できるようになる。 In addition, this invention is not limited to the above embodiment. For example, if the camera 25 of the unmanned flying object 20A is controlled to face outside the flight route 5, and the unmanned flying object 20B is reflected in the image 6 captured by the camera 25, the unmanned flying object 20B is directed toward the flight route 5. It may be detected that the By doing so, it is also possible to detect that the unmanned air vehicle 20B has deviated from the flight route without the administrator having to look at the image (video) of the camera 25. FIG.

1 飛行制御システム、5 飛行ルート、10 管制装置、20,20A,20B 無人飛行体、11,21 プロセッサ、12,22 記憶部、13,23 通信部、24 測位センサ、25,25a,25b カメラ、251 レンズ、26,26a,26b 支持構造、261 基部、262 アクチュエータ、27 筐体、28 モータ、29 プロペラ、6 画像、61 判定領域、62 中央領域、110 飛行ルート情報取得部、120 飛行ルート情報記憶部、130 飛行制御部、140 画像取得部、150 中央領域設定部、160 目標角度取得部、170 駆動制御部、180 カメラ方向特定部、190 判定部、200 異常送信部、210 飛行中断部。

1 flight control system, 5 flight route, 10 control device, 20, 20A, 20B unmanned flying object, 11, 21 processor, 12, 22 storage unit, 13, 23 communication unit, 24 positioning sensor, 25, 25a, 25b camera, 251 lens, 26, 26a, 26b support structure, 261 base, 262 actuator, 27 housing, 28 motor, 29 propeller, 6 image, 61 determination area, 62 central area, 110 flight route information acquisition unit, 120 flight route information storage Section 130 Flight Control Section 140 Image Acquisition Section 150 Central Area Setting Section 160 Target Angle Acquisition Section 170 Drive Control Section 180 Camera Direction Identification Section 190 Judgment Section 200 Abnormal Transmission Section 210 Flight Interruption Section.

Claims (6)

第1の無人飛行体と、出発地点から到着地点までの飛行ルートを飛行する第2の無人飛行体とを含む飛行制御システムであって、
前記第1の無人飛行体は、
前記第2の無人飛行体に先行又は追尾して、前記第2の無人飛行体が飛行する前記出発地点から前記到着地点までの飛行ルートを前記第1の無人飛行体に飛行させる飛行制御手段と、
前記第1の無人飛行体の位置から前記第2の無人飛行体を撮影するカメラと、
前記第1の無人飛行体に取り付けられて前記カメラを支持した状態で、前記第1の無人飛行体に対して前記第1の無人飛行体のピッチ軸に沿った軸線を中心とする回転方向で前記カメラの方向を動かすことができる支持構造と、
前記カメラの方向である所与のカメラ方向に基づいて、前記ピッチ軸に沿った軸線を中心とする回転方向での角度である第1の目標角度と、前記第1の無人飛行体のヨー軸に沿った軸線を中心とする回転方向の角度である第2の目標角度とを取得する目標角度取得手段と、
前記ピッチ軸に沿った軸線を中心とする回転方向において、前記第1の目標角度の方向へ前記カメラが向くように前記支持構造を駆動させる駆動制御手段と、を含み、
前記飛行制御手段は、前記ヨー軸に沿った軸線を中心とする回転方向において、前記第2の目標角度の方向へ前記カメラが向くように、前記第1の無人飛行体を旋回させる
飛行制御システム。
A flight control system including a first unmanned air vehicle and a second unmanned air vehicle that flies a flight route from a departure point to an arrival point ,
The first unmanned air vehicle,
flight control means for causing the first unmanned flying object to fly a flight route from the departure point to the arrival point on which the second unmanned flying object flies, preceding or following the second unmanned flying object; ,
a camera for photographing the second unmanned air vehicle from the position of the first unmanned air vehicle;
In a state of being attached to the first unmanned air vehicle and supporting the camera, in a rotational direction about an axis along the pitch axis of the first unmanned air vehicle with respect to the first unmanned air vehicle a support structure capable of moving the orientation of the camera;
A first target angle, which is an angle in a rotational direction about an axis along the pitch axis, and a yaw axis of the first unmanned air vehicle, based on a given camera direction, which is the direction of the camera. a target angle acquisition means for acquiring a second target angle that is an angle in the direction of rotation about the axis along the
drive control means for driving the support structure to point the camera toward the first target angle in a rotational direction about an axis along the pitch axis;
The flight control means turns the first unmanned air vehicle so that the camera faces the direction of the second target angle in a rotational direction about an axis along the yaw axis. Flight control system .
前記目標角度取得手段は、前記カメラが前記第2の無人飛行体に向いた場合のカメラ方向に基づいて、前記第1の目標角度と前記第2の目標角度とを取得する
請求項1に記載の飛行制御システム。
2. The target angle acquisition means according to claim 1, wherein said target angle acquisition means acquires said first target angle and said second target angle based on a camera direction when said camera faces said second unmanned air vehicle. flight control system.
前記目標角度取得手段は、前記カメラが撮影した画像における前記第2の無人飛行体の位置に基づいて、前記カメラが前記第2の無人飛行体に向いた場合のカメラ方向を特定することによって、前記第1の目標角度と前記第2の目標角度とを取得する
請求項1に記載の飛行制御システム。
The target angle obtaining means identifies a camera direction when the camera faces the second unmanned flying object based on the position of the second unmanned flying object in the image captured by the camera, 2. The flight control system of claim 1, wherein the first target angle and the second target angle are obtained.
前記第1の無人飛行体は、
互いに異なる方向に向いている第1のカメラと第2のカメラと、
前記第1の無人飛行体に取り付けられて前記第1のカメラを支持した状態で、前記ピッチ軸に沿った軸線を中心とする回転方向で前記第1のカメラの方向を動かすことができる第1の支持構造と、
前記第1の無人飛行体に取り付けられて前記第2のカメラを支持した状態で、前記ピッチ軸に沿った軸線を中心とする回転方向で前記第2のカメラの方向を動かすことができる第2の支持構造と、
前記第1のカメラが撮影した第1の画像と前記第2のカメラが撮影した第2の画像とのうちから、前記第2の無人飛行体が映っている画像を選択する画像選択手段と、を有し、
前記目標角度取得手段は、前記画像選択手段が前記第1の画像を選択した場合には、前記第1の画像における第2の無人飛行体の位置に基づいて、前記第1のカメラが前記第2の無人飛行体に向いた場合のカメラ方向を特定することによって、前記第1の目標角度と前記第2の目標角度とを取得し、前記画像選択手段が前記第2の画像を選択した場合には、前記第2の画像における第2の無人飛行体の位置に基づいて、前記第2のカメラが前記第2の無人飛行体に向いた場合のカメラ方向を特定することによって、前記第1の目標角度と前記第2の目標角度とを取得し、
前記駆動制御手段は、前記画像選択手段が前記第1の画像を選択した場合には、前記第1のカメラが前記第1の目標角度の方向へ向くように前記第1の支持構造を駆動させ、前記画像選択手段が前記第2の画像を選択した場合には、前記第2のカメラが前記第1の目標角度の方向へ向くように前記第2の支持構造を駆動させ、
前記飛行制御手段は、前記画像選択手段が前記第1の画像を選択した場合には、前記第1のカメラが前記第2の目標角度の方向へ向くように前記第1の無人飛行体を旋回させ、前記画像選択手段が前記第2の画像を選択した場合には、前記第2のカメラが前記第2の目標角度の方向へ向くように前記第1の無人飛行体を旋回させる
請求項1に記載の飛行制御システム。
The first unmanned air vehicle,
a first camera and a second camera facing in different directions;
A first camera capable of moving the direction of the first camera in a rotational direction about an axis along the pitch axis while being attached to the first unmanned air vehicle and supporting the first camera. a support structure for
A second camera capable of moving the direction of the second camera in a rotational direction about an axis along the pitch axis while being attached to the first unmanned air vehicle and supporting the second camera. a support structure for
an image selection means for selecting an image showing the second unmanned air vehicle from among the first image captured by the first camera and the second image captured by the second camera; has
When the image selection means selects the first image, the target angle acquisition means determines that the first camera is positioned in the first image based on the position of the second unmanned air vehicle in the first image. When the first target angle and the second target angle are obtained by specifying the camera direction when facing the unmanned air vehicle in 2, and the image selection means selects the second image wherein, based on the position of the second unmanned air vehicle in the second image, specifying a camera direction when the second camera faces the second unmanned air vehicle, obtain the target angle of and the second target angle of
The drive control means drives the first support structure so that the first camera faces the direction of the first target angle when the image selection means selects the first image. driving the second support structure such that the second camera is oriented toward the first target angle when the image selection means selects the second image;
The flight control means turns the first unmanned air vehicle so that the first camera faces the direction of the second target angle when the image selection means selects the first image. and when the image selection means selects the second image, the first unmanned flying object is turned so that the second camera faces the direction of the second target angle. A flight control system as described in .
第1の無人飛行体の飛行と、出発地点から到着地点までの飛行ルートを飛行する第2の無人飛行体の飛行とを制御する飛行制御方法であって、
前記第1の無人飛行体が、
前記第2の無人飛行体に先行又は追尾して、前記第2の無人飛行体が飛行する前記出発地点から前記到着地点までの飛行ルートを飛行し、
カメラを用いて前記第1の無人飛行体の位置から前記第2の無人飛行体を撮影し、
前記カメラの方向である所与のカメラ方向に基づいて、前記第1の無人飛行体のピッチ軸に沿った軸線を中心とする回転方向での角度である第1の目標角度と、前記第1の無人飛行体のヨー軸に沿った軸線を中心とする回転方向の角度である第2の目標角度とを取得し、
前記ピッチ軸に沿った軸線を中心とする回転方向において、前記第1の目標角度の方向へ前記カメラが向くように、前記第1の無人飛行体に取り付けられて前記カメラを支持している支持構造を駆動させ、
前記ヨー軸に沿った軸線を中心とする回転方向において、前記第2の目標角度の方向へ前記カメラが向くように旋回する
飛行制御方法。
A flight control method for controlling the flight of a first unmanned air vehicle and the flight of a second unmanned air vehicle that flies along a flight route from a departure point to an arrival point , comprising:
The first unmanned air vehicle,
preceding or following the second unmanned flying object and flying along a flight route from the departure point on which the second unmanned flying object flies to the arrival point ;
photographing the second unmanned air vehicle from the position of the first unmanned air vehicle using a camera;
A first target angle, which is an angle in a rotational direction about an axis along a pitch axis of the first unmanned air vehicle, based on a given camera direction, which is the direction of the camera; obtaining a second target angle that is an angle in the direction of rotation about the axis along the yaw axis of the unmanned air vehicle;
A support attached to the first unmanned air vehicle for supporting the camera such that the camera is oriented toward the first target angle in a rotational direction about an axis along the pitch axis. drive the structure,
A flight control method comprising: turning such that the camera faces toward the second target angle in a rotational direction about an axis along the yaw axis.
所定の飛行ルートを飛行する無人飛行体であって、
出発地点から到着地点までの前記飛行ルートを飛行する他の無人飛行体に先行又は追尾して、前記出発地点から前記到着地点までの飛行ルートを前記無人飛行体に飛行させる飛行制御手段と、
前記無人飛行体の位置から前記他の無人飛行体を撮影するカメラと、
前記無人飛行体に取り付けられて前記カメラを支持した状態で、前記無人飛行体に対して前記無人飛行体のピッチ軸に沿った軸線を中心とする回転方向で前記カメラの方向を動かすことができる支持構造と、
前記カメラの方向である所与のカメラ方向に基づいて、前記ピッチ軸に沿った軸線を中心とする回転方向での角度である第1の目標角度と、前記無人飛行体のヨー軸に沿った軸線を中心とする回転方向の角度である第2の目標角度とを取得する目標角度取得手段と、
前記ピッチ軸に沿った軸線を中心とする回転方向において、前記第1の目標角度の方向へ前記カメラが向くように前記支持構造を駆動させる駆動制御手段と、を含み、
前記飛行制御手段は、前記ヨー軸に沿った軸線を中心とする回転方向において、前記第2の目標角度の方向へ前記カメラが向くように、前記無人飛行体を旋回させる
無人飛行体。
An unmanned air vehicle that flies on a predetermined flight route,
flight control means for causing the unmanned flying object to fly the flight route from the departure point to the arrival point by preceding or following another unmanned flying object flying on the flight route from the departure point to the arrival point ;
a camera for photographing the other unmanned flying object from the position of the unmanned flying object;
With the camera attached to the unmanned air vehicle and supporting the camera, the direction of the camera can be moved relative to the unmanned air vehicle in a rotational direction about an axis along the pitch axis of the unmanned air vehicle. a support structure;
Based on a given camera direction, which is the direction of the camera, a first target angle, which is an angle in a rotational direction about an axis along the pitch axis, and a a target angle acquiring means for acquiring a second target angle that is an angle in the direction of rotation about the axis;
drive control means for driving the support structure to point the camera toward the first target angle in a rotational direction about an axis along the pitch axis;
The flight control means rotates the unmanned flying body so that the camera faces the direction of the second target angle in a rotational direction about an axis along the yaw axis.
JP2021204544A 2021-12-16 2021-12-16 Flight control system, flight control method, and unmanned air vehicle Active JP7288947B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021204544A JP7288947B1 (en) 2021-12-16 2021-12-16 Flight control system, flight control method, and unmanned air vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021204544A JP7288947B1 (en) 2021-12-16 2021-12-16 Flight control system, flight control method, and unmanned air vehicle

Publications (2)

Publication Number Publication Date
JP7288947B1 true JP7288947B1 (en) 2023-06-08
JP2023089805A JP2023089805A (en) 2023-06-28

Family

ID=86611058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021204544A Active JP7288947B1 (en) 2021-12-16 2021-12-16 Flight control system, flight control method, and unmanned air vehicle

Country Status (1)

Country Link
JP (1) JP7288947B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119655A (en) 2014-11-26 2016-06-30 パロット Video system for piloting drone in immersive mode
JP2019212204A (en) 2018-06-08 2019-12-12 東京電力ホールディングス株式会社 Position estimation system
JP2021118418A (en) 2020-01-24 2021-08-10 哲也 原田 Drone
JP2021142819A (en) 2020-03-11 2021-09-24 株式会社Jvcケンウッド Flight vehicle, vehicle monitoring system, flight vehicle control method and flight control program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3332015B2 (en) * 1999-07-08 2002-10-07 日本電気株式会社 Tracking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119655A (en) 2014-11-26 2016-06-30 パロット Video system for piloting drone in immersive mode
JP2019212204A (en) 2018-06-08 2019-12-12 東京電力ホールディングス株式会社 Position estimation system
JP2021118418A (en) 2020-01-24 2021-08-10 哲也 原田 Drone
JP2021142819A (en) 2020-03-11 2021-09-24 株式会社Jvcケンウッド Flight vehicle, vehicle monitoring system, flight vehicle control method and flight control program

Also Published As

Publication number Publication date
JP2023089805A (en) 2023-06-28

Similar Documents

Publication Publication Date Title
US12007792B2 (en) Backup navigation system for unmanned aerial vehicles
US20200007746A1 (en) Systems, methods, and devices for setting camera parameters
ES2902469T3 (en) Methods and systems for the control of the movement of flying devices
JP6122591B2 (en) Photogrammetry camera and aerial photography equipment
EP2772725B1 (en) Aerial Photographing System
US20200117197A1 (en) Obstacle detection assembly for a drone, drone equipped with such an obstacle detection assembly and obstacle detection method
EP3519906B1 (en) Systems and methods for height control of a movable object
US20190354116A1 (en) Trajectory determination in a drone race
CN111801717A (en) Automatic exploration control for robotic vehicles
US20190354099A1 (en) Augmenting a robotic vehicle with virtual features
US10386857B2 (en) Sensor-centric path planning and control for robotic vehicles
CN116830057A (en) Unmanned Aerial Vehicle (UAV) cluster control
WO2021168819A1 (en) Return control method and device for unmanned aerial vehicle
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
WO2019239958A1 (en) Unmanned aerial vehicle
US20210034052A1 (en) Information processing device, instruction method for prompting information, program, and recording medium
JP6940459B2 (en) Information processing device, imaging control method, program and recording medium
JP6681101B2 (en) Inspection system
JP7288947B1 (en) Flight control system, flight control method, and unmanned air vehicle
JP7031997B2 (en) Aircraft system, air vehicle, position measurement method, program
JP7176068B1 (en) Flight control system, flight control method, and unmanned air vehicle
JP2020196355A (en) Pilotless aircraft and pilotless aerial system
US20190352005A1 (en) Fiducial gates for drone racing
KR102571330B1 (en) Control apparatus for subject tracking shooting, drone and operation method thereof
JP6681102B2 (en) Inspection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7288947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150