JP2023175386A - flight system - Google Patents

flight system Download PDF

Info

Publication number
JP2023175386A
JP2023175386A JP2022087807A JP2022087807A JP2023175386A JP 2023175386 A JP2023175386 A JP 2023175386A JP 2022087807 A JP2022087807 A JP 2022087807A JP 2022087807 A JP2022087807 A JP 2022087807A JP 2023175386 A JP2023175386 A JP 2023175386A
Authority
JP
Japan
Prior art keywords
unmanned aircraft
landing
image element
aircraft
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022087807A
Other languages
Japanese (ja)
Inventor
直樹 山内
Naoki Yamauchi
和民 有本
Kazutami Arimoto
研作 木下
Kensaku Kinoshita
憲昭 吉川
Kensho Yoshikawa
微 劉
Wei Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cyber Creative Institute Co Ltd
Techno Axel Networks Co Ltd
Original Assignee
Cyber Creative Institute Co Ltd
Techno Axel Networks Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cyber Creative Institute Co Ltd, Techno Axel Networks Co Ltd filed Critical Cyber Creative Institute Co Ltd
Priority to JP2022087807A priority Critical patent/JP2023175386A/en
Publication of JP2023175386A publication Critical patent/JP2023175386A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a flight system capable of guiding an unmanned aircraft to a definite point easily and with high location accuracy.SOLUTION: A flight system comprises an unmanned aircraft and a display device which is identifiable from the sky and transfers a definite point to the unmanned aircraft. A first image element displayed on the display device and for indicating the definite point is a two-dimensional barcode including a hollow region, where a code is not displayed, and has a nest structure in which a second image element similar to the first image element is displayed while being reduced in the hollow region.SELECTED DRAWING: Figure 2

Description

本発明は、飛行システムに関する。 FIELD OF THE INVENTION The present invention relates to flight systems.

無人航空機(いわゆるドローン)は、近年、配送システム、監視システム、農薬散布等の農業支援などその応用範囲が飛躍的に広がっている。 In recent years, the range of applications for unmanned aerial vehicles (so-called drones) has expanded dramatically, including delivery systems, monitoring systems, and agricultural support such as pesticide spraying.

近年は移動体、例えば自動車と連携したドローンの活用が注目されている。この移動体及びドローンを備える飛行システムでは、例えば自動車のルーフが離着陸台となり、飛行中のドローンをこの離着陸台に着陸させることが必要となる。 In recent years, the use of drones in conjunction with moving objects, such as cars, has been attracting attention. In this flight system including a mobile object and a drone, for example, the roof of a car serves as a takeoff and landing pad, and it is necessary to land a flying drone on this takeoff and landing pad.

この離着陸台は、一般に地上に設定される静止した着陸場所よりも面積が狭い。さらに、移動体に設けられた離着陸台に着陸したドローンに対して、再飛行に備えて充電が行われる。この充電方法として、離着陸台に設けられた非接触充電システムが用いられるのが一般的である。このような非接触充電システムでは、離着陸台に設けられたコイルに対するドローンに設けられたコイルの相対位置が充電効率に大きく影響する。この充電効率を高めるため、ドローンを高い位置精度で着陸させることが求められている。 This takeoff and landing pad generally has a smaller surface area than a static landing site set up on the ground. Furthermore, the drone that lands on the takeoff and landing pad provided on the mobile body is charged in preparation for re-flight. As this charging method, a non-contact charging system installed on a takeoff and landing pad is generally used. In such a non-contact charging system, the relative position of the coil provided on the drone with respect to the coil provided on the takeoff and landing pad greatly affects charging efficiency. In order to increase this charging efficiency, it is required to land the drone with high positional accuracy.

この要求に対し、移動体に設けられた離着陸台が上空から識別可能な表示装置を有し、着陸環境情報を含む画像を上記表示装置に表示する飛行システムが提案されている(特開2020-149640号公報参照)。この飛行システムでは、離着陸台側から着陸環境情報を画像を通じて伝達することで着陸の位置精度を高めている。 In response to this demand, a flight system has been proposed in which a takeoff and landing pad installed on a mobile object has a display device that can be identified from the sky, and an image including landing environment information is displayed on the display device (Japanese Patent Application Laid-Open No. 2020-2011-1). (See Publication No. 149640). This flight system improves landing position accuracy by transmitting landing environment information from the takeoff and landing pad through images.

特開2020-149640号公報JP2020-149640A

上記飛行システムで、画像表示によりドローン側から遠方の離着陸台の着陸位置を視認するには、一定の大きさの指標が必要となる。例えば数cmの精度で位置を制御したい場合に、遠方から認識できる大きさが数十cmであると、この指標の大きさ自体が位置誤差となり得る。一方、無線通信等を介して離着陸台側から着陸環境情報を伝達する方式である場合、通信環境等に依存して一定の遅延が生じ得る。この遅延は、高速で移動するドローンにあっては位置精度の誤差となり得る。このようにドローンがリアルタイムに精度の高い位置情報を得ることは難しい。 In the above flight system, an index of a certain size is required to visually confirm the landing position of a distant takeoff and landing pad from the drone side using image display. For example, when it is desired to control the position with an accuracy of several centimeters, if the size that can be recognized from a distance is several tens of centimeters, the size of this index itself can become a position error. On the other hand, if the landing environment information is transmitted from the takeoff and landing pad side via wireless communication or the like, a certain delay may occur depending on the communication environment and the like. This delay can lead to errors in position accuracy for fast-moving drones. In this way, it is difficult for drones to obtain highly accurate location information in real time.

本発明は、上述のような事情に基づいてなされたものであり、無人航空機を容易かつ高い位置精度で、定点に誘導できる飛行システムの提供を目的とする。 The present invention was made based on the above-mentioned circumstances, and aims to provide a flight system that can easily guide an unmanned aircraft to a fixed point with high positional accuracy.

本発明の一実施形態に係る飛行システムは、無人航空機と、上空から識別可能であり、上記無人航空機に定点を伝達する表示装置とを備え、上記表示装置に表示され、上記定点を示すための第1画像要素が、コードが表示されない中空領域を含む2次元バーコードであり、上記中空領域に上記第1画像要素と相似な第2画像要素が縮小表示される入れ子構造を有している。 A flight system according to an embodiment of the present invention includes an unmanned aircraft and a display device that is distinguishable from the sky and that transmits a fixed point to the unmanned aircraft, and that is displayed on the display device to indicate the fixed point. The first image element is a two-dimensional barcode including a hollow area in which no code is displayed, and has a nested structure in which a second image element similar to the first image element is displayed in a reduced size in the hollow area.

本発明の飛行システムは、無人航空機を容易かつ高い位置精度で、定点に誘導できる。 The flight system of the present invention can easily guide an unmanned aircraft to a fixed point with high positional accuracy.

図1は、本発明の一実施形態に係る飛行システムを示す構成図である。FIG. 1 is a configuration diagram showing a flight system according to an embodiment of the present invention. 図2は、図1の自動車を上空から見た状態を示す模式図である。FIG. 2 is a schematic diagram showing the automobile of FIG. 1 viewed from above. 図3は、図1の無人航空機の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the unmanned aircraft shown in FIG. 1. 図4は、図1の自動車の構成例を示すブロック図である。FIG. 4 is a block diagram showing an example of the configuration of the automobile shown in FIG. 1. As shown in FIG. 図5は、図2の表示装置に表示される画像の一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of an image displayed on the display device of FIG. 2. 図6は、図5の第1画像要素を示す模式図である。FIG. 6 is a schematic diagram showing the first image element of FIG. 図7は、図5の第2画像要素を示す模式図である。FIG. 7 is a schematic diagram showing the second image element of FIG.

[本発明の実施形態の説明]
最初に本発明の実施態様を列記して説明する。
[Description of embodiments of the present invention]
First, embodiments of the present invention will be listed and explained.

本発明の一実施形態に係る飛行システムは、無人航空機と、上空から識別可能であり、上記無人航空機に定点を伝達する表示装置とを備え、上記表示装置に表示され、上記定点を示すための第1画像要素が、コードが表示されない中空領域を含む2次元バーコードであり、上記中空領域に上記第1画像要素と相似な第2画像要素が縮小表示される入れ子構造を有している。 A flight system according to an embodiment of the present invention includes an unmanned aircraft and a display device that is distinguishable from the sky and that transmits a fixed point to the unmanned aircraft, and that is displayed on the display device to indicate the fixed point. The first image element is a two-dimensional barcode including a hollow area in which no code is displayed, and has a nested structure in which a second image element similar to the first image element is displayed in a reduced size in the hollow area.

当該飛行システムは、第1画像要素と第2画像要素とが同一のコードを示し、かつ第1画像要素に比べて第2画像要素が小さく、従って解像度も高い。この構成により、第1画像要素を認識できる距離が第2画像要素を認識できる距離よりも大きく、第2画像要素が示す定点の位置精度が第1画像要素が示す定点の位置精度よりも高い。このため、無人航空機は、比較的遠距離から第1画像要素を認識し、その第1画像要素が示す定点へアプローチすることができる。そして、上記無人航空機が上記定点へ近づき、第2画像要素を認識できる距離に至ると、上記無人航空機は、第2画像要素を利用することで、高い位置精度で定点に移動できる。 In the flight system, the first image element and the second image element show the same code, and the second image element is smaller than the first image element and therefore has a higher resolution. With this configuration, the distance at which the first image element can be recognized is greater than the distance at which the second image element can be recognized, and the positional accuracy of the fixed point indicated by the second image element is higher than the positional accuracy of the fixed point indicated by the first image element. Therefore, the unmanned aircraft can recognize the first image element from a relatively long distance and approach the fixed point indicated by the first image element. Then, when the unmanned aircraft approaches the fixed point and reaches a distance where the second image element can be recognized, the unmanned aircraft can move to the fixed point with high positional accuracy by using the second image element.

上記入れ子構造が、複数回繰り返されているとよい。このように上記入れ子構造を複数回繰り返すことで、段階的に位置精度を高めることができるので、より遠距離から、あるいはより高い精度で無人航空機を誘導できるようになる。 It is preferable that the nested structure is repeated multiple times. By repeating the above-mentioned nested structure multiple times in this manner, the positional accuracy can be increased step by step, making it possible to guide the unmanned aircraft from a longer distance or with higher precision.

上記中空領域の中心に、上記定点を示すマーカーが表示されているとよい。上記中空領域には、第1画像要素及び第2画像要素ともにコードを有していないので、この領域の中心に上記マーカーを表示することで、無人航空機から上記定点を認識し易くすることができる。 A marker indicating the fixed point may be displayed at the center of the hollow area. Since neither the first image element nor the second image element has a code in the hollow area, by displaying the marker at the center of this area, the fixed point can be easily recognized from the unmanned aircraft. .

上記中空領域の形状が、上記第1画像要素の外形と相似形をなしており、上記第2画像要素の外形と上記中空領域の形状とが一致するとよい。各形状をこのような関係とすることで、所望の相似比の上記第1画像要素及び上記第2画像要素を少ない表示領域で表示することができる。 The shape of the hollow region is preferably similar to the outer shape of the first image element, and the outer shape of the second image element and the shape of the hollow region preferably match. By establishing such a relationship among the shapes, the first image element and the second image element having a desired similarity ratio can be displayed in a small display area.

上記無人航空機が離着陸可能な離着陸台を備え、上記表示装置が、上記離着陸台に配設されており、上記定点が、上記無人航空機の着陸ポイントであるとよい。当該飛行システムは、無人航空機を離着陸台に着陸させる場合に、特に好適に用いられる。 It is preferable that the unmanned aircraft includes a takeoff and landing pad on which the unmanned aircraft can take off and land, the display device is disposed on the takeoff and landing pad, and the fixed point is a landing point of the unmanned aircraft. The flight system is particularly suitably used when landing an unmanned aircraft on a takeoff and landing pad.

ここで、「無人航空機」とは、人が搭乗せず、無線による遠隔操縦又は搭載コンピュータにあらかじめプログラムされたパターンで自律飛行をする航空機の総称であり、典型的には自律航法装置を備えた小型のマルチロータヘリコプタ(ドローン)を指す。「上空」とは、地上の基準点から天頂となす角度が45度以内かつ基準点からの相対高度が5m以内の範囲を指すものとする。 Here, "unmanned aircraft" is a general term for aircraft that do not have a human onboard and are operated remotely by radio or autonomously according to a pre-programmed pattern on the onboard computer, and are typically equipped with an autonomous navigation system. Refers to a small multi-rotor helicopter (drone). The term "above the sky" refers to an area where the angle between the zenith and the reference point on the ground is within 45 degrees and the relative altitude from the reference point is within 5 m.

[本発明の実施形態の詳細]
以下、本発明の一実施形態に係る飛行システムについて、適宜図面を参照しつつ詳説する。
[Details of embodiments of the present invention]
Hereinafter, a flight system according to an embodiment of the present invention will be explained in detail with reference to the drawings as appropriate.

図1に示す飛行システムは、無人航空機1と、移動体である自動車2と、上記移動体に搭載され、無人航空機1が離着陸可能な離着陸台3と、図2に示すように離着陸台3に配設され、上空から識別可能である表示装置4とを備える。当該飛行システムは、無人航空機1を離着陸台3に着陸させる場合に、特に好適に用いられる。 The flight system shown in FIG. 1 includes an unmanned aircraft 1, a car 2 as a moving body, a takeoff and landing pad 3 mounted on the moving body and on which the unmanned aerial vehicle 1 can take off and land, and a takeoff and landing pad 3 as shown in FIG. and a display device 4 that is arranged and can be identified from the sky. The flight system is particularly preferably used when landing the unmanned aircraft 1 on the takeoff and landing pad 3.

当該飛行システムでは、無人航空機1が自動車2の離着陸台3に搭載されて目的地まで運搬される。目的地に到着後、無人航空機1は離着陸台3から離陸し、所定の位置まで移動する。所定の位置まで移動した無人航空機1Aは、所定の活動、例えば配送、監視、農薬散布等を行う。その間、自動車2は移動している。所定の活動を終えた無人航空機1Aは、移動後の自動車2Bまで移動し、その離着陸台3へ着陸する。図1で無人航空機1Bは、離着陸台3へ着陸した状態を表している。 In this flight system, an unmanned aircraft 1 is mounted on a takeoff and landing pad 3 of an automobile 2 and transported to a destination. After arriving at the destination, the unmanned aircraft 1 takes off from the takeoff and landing pad 3 and moves to a predetermined position. The unmanned aerial vehicle 1A that has moved to a predetermined position performs predetermined activities such as delivery, monitoring, and spraying of agricultural chemicals. Meanwhile, car 2 is moving. After completing the predetermined activity, the unmanned aircraft 1A moves to the car 2B and lands on the takeoff and landing pad 3. In FIG. 1, the unmanned aircraft 1B is shown in a state where it has landed on the takeoff and landing pad 3.

<無人航空機>
無人航空機1は、例えば図3に示すように、記憶部11と、カメラ12と、画像認識部13と、センサ部14と、着陸制御部15と、機体制御用信号送受信部16と、映像データ用無線送受信部17と、通信制御部18とを備える構成とすることができる。
<Unmanned aircraft>
For example, as shown in FIG. 3, the unmanned aircraft 1 includes a storage section 11, a camera 12, an image recognition section 13, a sensor section 14, a landing control section 15, an aircraft control signal transmission/reception section 16, and a video data processing section. The configuration may include a wireless transmitter/receiver 17 and a communication controller 18 .

(記憶部)
記憶部11は、各種情報を一時的あるいは恒久的に記憶する。記憶部11は、例えば半導体メモリ、固定ディスク、リムーバルディスク等で構成される。
(Storage part)
The storage unit 11 stores various information temporarily or permanently. The storage unit 11 includes, for example, a semiconductor memory, a fixed disk, a removable disk, and the like.

記憶部11が記憶する情報としては、例えば無人航空機1(自機)のID情報、着陸すべき自動車2のID情報などを挙げることができる。また、例えば画像認識部13が画像処理を行う際、記憶部11は、その処理データを一時記憶するために用いてもよい。 Examples of the information stored in the storage unit 11 include ID information of the unmanned aircraft 1 (own aircraft), ID information of the car 2 to be landed, and the like. Further, for example, when the image recognition section 13 performs image processing, the storage section 11 may be used to temporarily store the processed data.

(カメラ)
カメラ12は、図1に示すように、無人航空機1が着陸時に下方を撮像できるように設置されている。具体的な位置は特に限定されないが、例えば図1に示すように無人航空機1の胴体の下面にレンズが下方に向くように取り付けられている。
(camera)
As shown in FIG. 1, the camera 12 is installed so that the unmanned aircraft 1 can take an image of the area below when it lands. Although the specific position is not particularly limited, for example, as shown in FIG. 1, the lens is attached to the lower surface of the fuselage of the unmanned aircraft 1 so as to face downward.

カメラ12としては、無人航空機1に搭載可能な公知のカメラを用いることができる。カメラ12は、例えば風景や地形の撮影、飛行時の周囲の監視等を行うカメラと共通としてもよい。 As the camera 12, a known camera that can be mounted on the unmanned aircraft 1 can be used. The camera 12 may be used in common, for example, with a camera that takes pictures of landscapes and topography, monitors the surroundings during flight, and the like.

カメラ12は、後述する離着陸台3の表示装置4に表示された画像5を撮影することができる。撮影した画像5は後述する通信制御部18を介して記憶部11に格納される。 The camera 12 can capture an image 5 displayed on a display device 4 of the takeoff and landing pad 3, which will be described later. The photographed image 5 is stored in the storage unit 11 via the communication control unit 18, which will be described later.

(画像認識部)
画像認識部13は、表示装置4に表示された画像5をカメラ12により認識する。この画像認識部13は、例えばCPU(Central Processing Unit)等の演算処理装置により構成することができる。上記演算処理装置として、DSP(Digital Signal Processor)等の画像処理専用のプロセッサを用いてもよい。
(Image recognition section)
The image recognition unit 13 recognizes the image 5 displayed on the display device 4 using the camera 12 . The image recognition unit 13 can be configured by, for example, an arithmetic processing device such as a CPU (Central Processing Unit). As the arithmetic processing device, a processor dedicated to image processing such as a DSP (Digital Signal Processor) may be used.

具体的には、画像認識部13は、記憶部11に格納されているカメラ12の撮影画像を後述する通信制御部18を介して読み出し、その画像に対して演算処理(いわゆる画像処理)を行うことで着陸に必要な情報(着陸環境情報)を抽出する。抽出される着陸環境情報については、後述する。 Specifically, the image recognition unit 13 reads out images captured by the camera 12 stored in the storage unit 11 via the communication control unit 18, which will be described later, and performs arithmetic processing (so-called image processing) on the images. This will extract the information necessary for landing (landing environment information). The extracted landing environment information will be described later.

(センサ部)
センサ部14は、無人航空機1の位置や飛行状態等を検出するためのジャイロセンサ、速度センサ、航法センサ等の公知の機体センサを有する。
(Sensor part)
The sensor unit 14 includes known body sensors such as a gyro sensor, a speed sensor, and a navigation sensor for detecting the position, flight status, etc. of the unmanned aircraft 1.

また、センサ部14は、無人航空機1の周辺の環境を測定する環境センサを備えてもよい。上記環境センサとしては、例えば無人航空機1から見た自動車2の相対運動(位置、速度や進行方向)を検出するセンサや、無人航空機1と離着陸台3との間の障害物等を検出するセンサを挙げることができる。無人航空機1は、離着陸台3に着陸するまでの間、離着陸台3とは高度差がある。特に高度差が大きい段階においては、地上にある離着陸台3とは風速や気流の方向が異なる。無人航空機1は飛行しているため、これら風速や気流により着陸のための飛行制御に誤差が生じ得るが、上記環境センサとして、自動車2の相対運動を検出する環境センサを備えることで、この誤差を補正し易くなる。また、障害物等を検出するセンサを備えることで、安全な着陸径路を探索し易くできる。 Further, the sensor unit 14 may include an environment sensor that measures the environment around the unmanned aircraft 1. Examples of the environmental sensor include a sensor that detects the relative movement (position, speed, and direction of travel) of the car 2 as seen from the unmanned aircraft 1, and a sensor that detects obstacles between the unmanned aircraft 1 and the takeoff and landing pad 3. can be mentioned. There is an altitude difference between the unmanned aircraft 1 and the takeoff and landing pad 3 until it lands on the takeoff and landing pad 3. Particularly at a stage where the difference in altitude is large, the wind speed and direction of airflow are different from the takeoff and landing pad 3 on the ground. Since the unmanned aircraft 1 is flying, errors may occur in the flight control for landing due to these wind speeds and air currents, but by providing an environmental sensor that detects the relative movement of the car 2 as the environmental sensor, this error can be eliminated. It becomes easier to correct. Furthermore, by providing a sensor that detects obstacles, etc., it is possible to easily search for a safe landing route.

(着陸制御部)
着陸制御部15は、主に画像認識部13、必要に応じてセンサ部14及び後述する機体制御用信号送受信部16等から得られる情報に基づき、飛行経路を決定し、安全に無人航空機1を離着陸台3へ着陸できるよう無人航空機1の姿勢や速度、進行方向を制御する。
(Landing control section)
The landing control unit 15 determines the flight path based on information obtained mainly from the image recognition unit 13 and, if necessary, the sensor unit 14 and the aircraft control signal transmitting/receiving unit 16 (described later), and safely flies the unmanned aircraft 1. The attitude, speed, and direction of movement of the unmanned aircraft 1 are controlled so that it can land on the takeoff and landing pad 3.

着陸制御部15は、飛行経路や無人航空機1の取るべき姿勢を算出する例えばCPU等の演算処理装置と、無人航空機1の飛行制御装置とにより構成される。上記演算処理装置は、例えば画像認識部13の演算処理装置など他に設けられている演算処理装置の一部又は全部を兼ねてもよいし、それぞれ独立に設けてもよい。無人航空機1の飛行制御装置は公知であるため、詳細説明を省略する。 The landing control unit 15 includes an arithmetic processing unit, such as a CPU, which calculates the flight path and the attitude that the unmanned aircraft 1 should take, and a flight control device for the unmanned aircraft 1. The arithmetic processing device described above may serve as part or all of another arithmetic processing device, such as the arithmetic processing device of the image recognition section 13, or may be provided independently. Since the flight control device of the unmanned aircraft 1 is well known, detailed explanation will be omitted.

(機体制御用信号送受信部)
機体制御用信号送受信部16は、自動車2と無人航空機1との間で機体制御用信号を送受信するためのアンテナである。
(Aircraft control signal transmitter/receiver)
The aircraft control signal transmitting/receiving unit 16 is an antenna for transmitting and receiving aircraft control signals between the automobile 2 and the unmanned aircraft 1.

上記機体制御用信号としては、無人航空機1が着陸を行う場合であれば、例えば無人航空機1から自動車2への着陸要求信号や、自動車2から無人航空機1への着陸許可信号など、公知の着陸動作に必要な信号が挙げられる。 If the unmanned aircraft 1 is to land, the aircraft control signal may be a known landing signal, such as a landing request signal from the unmanned aircraft 1 to the car 2 or a landing permission signal from the car 2 to the unmanned aircraft 1. Examples include signals necessary for operation.

また、機体制御用信号送受信部16は、無人航空機1の位置情報を確認するためのGPS(Global Positioning System)衛星との通信を行うこともできるよう構成されている。 The aircraft control signal transmitting/receiving unit 16 is also configured to be able to communicate with a GPS (Global Positioning System) satellite for confirming position information of the unmanned aircraft 1.

(映像データ用無線送受信部)
映像データ用無線送受信部17は、カメラ12で撮影した映像データを自動車2へ送信し、また自動車2で撮影した映像データを受信するためのアンテナである。
(Wireless transmitter/receiver for video data)
The video data wireless transmission/reception unit 17 is an antenna for transmitting video data photographed by the camera 12 to the automobile 2 and for receiving video data photographed by the automobile 2.

この映像データ用無線送受信部17は、機体制御用信号送受信部16と兼ねて1つのアンテナとしてもよいが、データ送受信の効率化の観点から別々に設けられることが好ましい。 The video data wireless transmitter/receiver 17 may serve as a single antenna that also serves as the aircraft control signal transmitter/receiver 16, but is preferably provided separately from the viewpoint of improving the efficiency of data transmission and reception.

(通信制御部)
通信制御部18は、機体制御用信号送受信部16及び映像データ用無線送受信部17で自動車2と通信を行うための変復調、符号化及び復号化を行うとともに、記憶部11、カメラ12、画像認識部13、センサ部14、着陸制御部15、機体制御用信号送受信部16及び映像データ用無線送受信部17の間でのデータのやり取りを制御する。
(Communication control unit)
The communication control unit 18 performs modulation/demodulation, encoding, and decoding for communicating with the automobile 2 using the aircraft control signal transmission/reception unit 16 and the video data wireless transmission/reception unit 17, and also performs modulation/demodulation, encoding, and decoding for communicating with the automobile 2, and also controls the storage unit 11, camera 12, and image recognition. It controls data exchange between the unit 13, the sensor unit 14, the landing control unit 15, the aircraft control signal transmitting/receiving unit 16, and the video data wireless transmitting/receiving unit 17.

この通信制御部18は、例えばCPU等の演算処理装置により構成することができる。上記演算処理装置は、例えば画像認識部13や着陸制御部15の演算処理装置など他に設けられている演算処理装置の一部又は全部を兼ねてもよいし、それぞれ独立に設けてもよい。 This communication control unit 18 can be configured by, for example, an arithmetic processing device such as a CPU. The arithmetic processing device described above may serve as part or all of other arithmetic processing devices, such as the arithmetic processing device of the image recognition section 13 and the landing control section 15, or may be provided independently.

また、通信制御部18が自動車2と通信を行う回線は、特に限定されず公知の回線、例えばモバイルに用いられる3G帯や4G帯、WiFi(IEEE 802.11規格の無線LAN)、ITS(Intelligent Transport Systems:高度道路交通システムで利用されているDSRC(Dedicated Short Range Communications)などを利用することができる。 The line through which the communication control unit 18 communicates with the vehicle 2 is not particularly limited, and may be a known line, such as a 3G band or 4G band used for mobile, WiFi (wireless LAN according to IEEE 802.11 standard), or ITS (Intelligent Transport Systems: DSRC (Dedicated Short Range Communications) used in intelligent transportation systems can be used.

<自動車>
自動車2は、図4に示すように、無人航空機1を制御するための車載機6を備える。車載機6は、例えば表示制御部60と、記憶部61と、カメラ62と、画像認識部63と、センサ部64と、距離方位演算部65と、コマンド生成部66と、機体制御用信号送受信部67と、映像データ用無線送受信部68と、通信制御部69とを有する。
<Automobile>
The automobile 2 includes an on-vehicle device 6 for controlling the unmanned aerial vehicle 1, as shown in FIG. The onboard device 6 includes, for example, a display control section 60, a storage section 61, a camera 62, an image recognition section 63, a sensor section 64, a distance/azimuth calculation section 65, a command generation section 66, and a signal transmission/reception unit for aircraft control. 67 , a video data wireless transmitter/receiver 68 , and a communication controller 69 .

(表示制御部)
表示制御部60は、画像5を表示装置4に表示する。具体的には、表示制御部60は、後述する表示装置4に表示する画像5を構成する画像情報データを作成し、表示装置4に送信する。この表示制御部60は、例えばCPU等の演算処理装置により構成することができる。
(Display control section)
The display control unit 60 displays the image 5 on the display device 4. Specifically, the display control unit 60 creates image information data that constitutes an image 5 to be displayed on the display device 4, which will be described later, and transmits it to the display device 4. This display control section 60 can be configured by, for example, an arithmetic processing device such as a CPU.

(記憶部)
記憶部61は、各種情報を一時的あるいは恒久的に記憶する。記憶部61は、無人航空機1の記憶部11と同様に構成できる。
(Storage part)
The storage unit 61 stores various information temporarily or permanently. The storage unit 61 can be configured similarly to the storage unit 11 of the unmanned aircraft 1.

記憶部61には、その領域の一部にデータベースが格納されていてもよい。このデータベースには、無人航空機1のIDや制御のためのシーケンス手順等の各種情報、HMI(Human Machine Interface)に必要な音声認識データなど格納され、複数種の無人航空機1の制御を実現したり、乗員からの声による指示を認識したりすることが可能とする。 A database may be stored in part of the area of the storage unit 61. This database stores various information such as the ID of the unmanned aircraft 1 and sequence procedures for control, voice recognition data necessary for HMI (Human Machine Interface), etc., and is used to realize control of multiple types of unmanned aircraft 1. This makes it possible to recognize voice instructions from passengers.

(カメラ)
カメラ62は、自動車2の離着陸台3へ着陸体勢に入っている無人航空機1を自動車2側から撮影するために用いられる。
(camera)
The camera 62 is used to photograph the unmanned aircraft 1 that is in a landing position on the takeoff and landing pad 3 of the automobile 2 from the automobile 2 side.

このカメラ62は、無人航空機1を撮影できる限り、その種類は特に限定されない。また、カメラ62は、無人航空機1を撮影できるように自動車2の上部、好ましくは離着陸台3に上空を撮影できるように設置される。 The type of camera 62 is not particularly limited as long as it can photograph the unmanned aircraft 1. Further, the camera 62 is installed above the automobile 2 so as to be able to take a picture of the unmanned aircraft 1, preferably on the takeoff and landing pad 3 so as to be able to take a picture of the sky.

カメラ62が撮影した画像は、後述する通信制御部69を介して記憶部61に格納される。 Images taken by the camera 62 are stored in the storage unit 61 via a communication control unit 69, which will be described later.

(画像認識部)
画像認識部63は、上述のようにカメラ62で撮影された無人航空機1を認識する。この画像認識部63は、認識対象が無人航空機1である点を除き、無人航空機1の画像認識部13と同様に構成できる。
(Image recognition section)
The image recognition unit 63 recognizes the unmanned aircraft 1 photographed by the camera 62 as described above. This image recognition unit 63 can be configured in the same manner as the image recognition unit 13 of the unmanned aircraft 1, except that the recognition target is the unmanned aerial vehicle 1.

(センサ部)
センサ部64は、離着陸台3の位置、高度、風速及び照度、並びに自動車2の速度及び進行方向を取得するための測定装置等を有する。
(Sensor part)
The sensor unit 64 includes a measuring device for acquiring the position, altitude, wind speed, and illuminance of the takeoff and landing pad 3, as well as the speed and traveling direction of the automobile 2.

離着陸台3の位置は、GPS衛星からの情報に基づいて取得可能である。離着陸台3の高度は、GPS衛星からの情報に基づいてもよいが、センサ部64として高度計を備えてもよい。離着陸台3の風速や照度は、センサ部64として風速計や照度計を備えることで取得できる。自動車2の速度は、自動車2が自走のために有する速度計を用いることで取得できる。自動車2の進行方向は、GPS衛星からの情報に基づいてもよいが、センサ部64として方位計を備えてもよい。 The position of the takeoff and landing pad 3 can be obtained based on information from GPS satellites. The altitude of the takeoff and landing pad 3 may be based on information from a GPS satellite, but the sensor section 64 may also include an altimeter. The wind speed and illuminance of the takeoff and landing pad 3 can be obtained by providing the sensor section 64 with an anemometer or an illumination meter. The speed of the automobile 2 can be obtained by using a speedometer that the automobile 2 has for self-propulsion. The traveling direction of the automobile 2 may be based on information from a GPS satellite, but the sensor section 64 may also include a compass.

(距離方位演算部)
距離方位演算部65は、着陸体勢に入っている飛行中の無人航空機1と自動車2との距離と方位とを算出する。距離方位演算部65は、例えばCPU等の演算処理装置により構成することができる。この演算処理装置は、例えば画像認識部63の演算処理装置など他に設けられている演算処理装置の一部又は全部を兼ねてもよいし、それぞれ独立に設けてもよい。以下、演算処理装置で構成されるものについては、同様である。
(Distance and direction calculation section)
The distance/azimuth calculation unit 65 calculates the distance and azimuth between the flying unmanned aircraft 1 and the automobile 2, which are in a landing position. The distance/azimuth calculation section 65 can be configured by, for example, a calculation processing device such as a CPU. This arithmetic processing device may serve as part or all of other arithmetic processing devices, such as the arithmetic processing device of the image recognition section 63, or may be provided independently. The same applies to the components configured by the arithmetic processing units below.

無人航空機1は比較的小さいため、距離方位を測定するための基点は、例えば無人航空機1の重心位置等で代表できる。一方、自動車2は比較的大きいため、距離方位を測定するための基点は、無人航空機1が実際に着陸する離着陸台3に設定することが好ましく、無人航空機1が実際に着陸する際の中心位置となる定点(詳細は後述する)に設定することがさらに好ましい。このように基点を決定することで、着陸に必要な距離及び方位の精度を高めることができる。 Since the unmanned aerial vehicle 1 is relatively small, the reference point for measuring the distance and direction can be represented by, for example, the center of gravity position of the unmanned aerial vehicle 1. On the other hand, since the car 2 is relatively large, it is preferable to set the reference point for measuring the distance and direction to the takeoff and landing pad 3 where the unmanned aircraft 1 actually lands, and the center position when the unmanned aircraft 1 actually lands. It is more preferable to set it at a fixed point (details will be described later). By determining the base point in this way, it is possible to improve the accuracy of the distance and direction required for landing.

無人航空機1と自動車2との距離及び方位の算出は、カメラ62により撮影されたドローンの画像データとカメラ62の撮影方位とを用いて行うことができる。あるいは、無人航空機1から映像データ用無線送受信部17を介して送信されてくる画像データを用いてもよい。さらに、GPS衛星からの無人航空機1や自動車2の位置情報を用いることもできる。これらは単独で用いてもよいし、2つ以上を組み合わせて用いてもよい。組み合わせて用いることで、距離及び方位の算出精度を向上させることができる。 The distance and direction between the unmanned aerial vehicle 1 and the automobile 2 can be calculated using the image data of the drone taken by the camera 62 and the shooting direction of the camera 62. Alternatively, image data transmitted from the unmanned aircraft 1 via the video data wireless transmitter/receiver 17 may be used. Furthermore, position information of the unmanned aircraft 1 and the automobile 2 from GPS satellites can also be used. These may be used alone or in combination of two or more. By using them in combination, it is possible to improve the calculation accuracy of distance and direction.

(コマンド生成部)
コマンド生成部66は、離着陸台3の表示装置4に表示すべき着陸環境情報を含む情報の生成と、その情報に対応した無人航空機1への制御コマンドとを生成する。コマンド生成部66は、例えばCPU等の演算処理装置により構成することができる。
(command generation part)
The command generation unit 66 generates information including landing environment information to be displayed on the display device 4 of the takeoff and landing pad 3, and generates control commands to the unmanned aircraft 1 corresponding to the information. The command generation unit 66 can be configured by, for example, an arithmetic processing device such as a CPU.

上記着陸環境情報を含む情報は、後述する通信制御部69を介して表示制御部60へ送信され、表示制御部60により画像情報データが作成され、表示装置4に表示される。コマンド生成部66は、この着陸環境情報としてセンサ部64で取得した情報である離着陸台3の位置、高度、風速及び照度、並びに自動車2の速度及び進行方向を用いる。つまり、上記着陸環境情報は、離着陸台3の位置、高度、及び照度、並びに自動車2の速度及び進行方向のうちの少なくとも1つを含む。上記着陸環境情報として、これらのうちの少なくとも1つを含めることで、自動車2が移動することで変化し易い情報を無人航空機1の着陸制御に利用することができるので、着陸制御がさらに容易となるうえに、着陸の位置精度をさらに高められる。 Information including the landing environment information is transmitted to the display control section 60 via a communication control section 69, which will be described later, and image information data is created by the display control section 60 and displayed on the display device 4. The command generation unit 66 uses the position, altitude, wind speed, and illuminance of the takeoff and landing pad 3, as well as the speed and traveling direction of the automobile 2, which are information acquired by the sensor unit 64, as the landing environment information. That is, the landing environment information includes at least one of the position, altitude, and illuminance of the takeoff and landing pad 3, and the speed and traveling direction of the automobile 2. By including at least one of these as the landing environment information, information that is likely to change as the automobile 2 moves can be used for landing control of the unmanned aircraft 1, making landing control easier. Moreover, the accuracy of landing position can be further improved.

コマンド生成部66は、無人航空機1の着陸時には、リアルタイムで表示装置4に表示すべき情報の生成を行う。コマンド生成部66からの情報に基づいて表示制御部60により画像情報データが作成され、表示装置4に表示されるから、表示制御部60が表示する画像5により、無人航空機1の着陸時に上記着陸環境情報がリアルタイムで更新される。このように表示制御部60が表示する画像5により、無人航空機1の着陸時に上記着陸環境情報を実質的にリアルタイムで更新することにより、さらに着陸の位置精度を高められる。なお、「リアルタイム」は、所定の間隔をおいて更新作業を行う場合を含み、上記所定の間隔は、10分以下、好ましくは5分以下とされる。 The command generation unit 66 generates information to be displayed on the display device 4 in real time when the unmanned aircraft 1 lands. Since image information data is created by the display control unit 60 based on information from the command generation unit 66 and displayed on the display device 4, the image information data displayed by the display control unit 60 allows the above-mentioned landing when the unmanned aircraft 1 lands. Environmental information is updated in real time. By updating the landing environment information substantially in real time when the unmanned aircraft 1 lands using the image 5 displayed by the display control unit 60 in this manner, the accuracy of the landing position can be further improved. Note that "real time" includes a case where update work is performed at predetermined intervals, and the predetermined interval is 10 minutes or less, preferably 5 minutes or less.

一方、上記制御コマンドは、通信制御部69を介して機体制御用信号送受信部67から無人航空機1へ送信される。無人航空機1へ送信された制御コマンドは、無人航空機1の機体制御用信号送受信部16で受信され、着陸制御部15へ送られる。なお、この制御コマンドは、主として機体制御用のコマンドであるが、他のコマンドを含んでもよい。 On the other hand, the control command is transmitted from the aircraft control signal transmitting/receiving section 67 to the unmanned aircraft 1 via the communication control section 69. The control command sent to the unmanned aircraft 1 is received by the aircraft control signal transmitting/receiving unit 16 of the unmanned aircraft 1 and sent to the landing control unit 15. Note that this control command is mainly a command for controlling the aircraft, but may include other commands.

(機体制御用信号送受信部)
機体制御用信号送受信部67は、自動車2と無人航空機1との間で機体制御用信号を送受信するためのアンテナである。この機体制御用信号送受信部67は、無人航空機1の機体制御用信号送受信部16と同様に構成される。
(Aircraft control signal transmitter/receiver)
The aircraft control signal transmitting/receiving unit 67 is an antenna for transmitting and receiving aircraft control signals between the automobile 2 and the unmanned aircraft 1. This aircraft control signal transmitting/receiving unit 67 is configured similarly to the aircraft controlling signal transmitting/receiving unit 16 of the unmanned aircraft 1.

(映像データ用無線送受信部)
映像データ用無線送受信部68は、カメラ62で撮影した映像データを無人航空機1へ送信し、また無人航空機1で撮影した映像データを受信するためのアンテナである。この映像データ用無線送受信部68は、無人航空機1の映像データ用無線送受信部17と同様に構成される。
(Wireless transmitter/receiver for video data)
The video data wireless transmission/reception unit 68 is an antenna for transmitting video data photographed by the camera 62 to the unmanned aircraft 1 and for receiving video data photographed by the unmanned aircraft 1. This video data wireless transmitter/receiver 68 is configured similarly to the video data wireless transmitter/receiver 17 of the unmanned aircraft 1.

(通信制御部)
通信制御部69は、機体制御用信号送受信部67及び映像データ用無線送受信部68で無人航空機1と通信を行うための変復調、符号化及び復号化を行うとともに、表示制御部60、記憶部61、カメラ62、画像認識部63、センサ部64、距離方位演算部65、コマンド生成部66、機体制御用信号送受信部67、及び映像データ用無線送受信部68の間でのデータのやり取りを制御する。
(Communication control unit)
The communication control unit 69 performs modulation/demodulation, encoding, and decoding for communicating with the unmanned aircraft 1 in the aircraft control signal transmission/reception unit 67 and the video data wireless transmission/reception unit 68, and also performs modulation/demodulation, encoding, and decoding for communicating with the unmanned aircraft 1. , the camera 62, the image recognition section 63, the sensor section 64, the distance/azimuth calculation section 65, the command generation section 66, the aircraft control signal transmission/reception section 67, and the video data wireless transmission/reception section 68. .

この通信制御部69は、例えばCPU等の演算処理装置により構成することができる。また、通信を行う回線としては、無人航空機1の通信制御部18と対応する回線が用いられる。 This communication control section 69 can be configured by, for example, an arithmetic processing device such as a CPU. Further, as a line for communication, a line corresponding to the communication control unit 18 of the unmanned aircraft 1 is used.

<離着陸台>
離着陸台3の設置位置は、無人航空機1が着陸可能であれば特に限定されず、図1に示すように自動車2のルーフや、荷台、ボンネット等適宜の位置とできる。また、離着陸台3の広さは、無人航空機1が着陸可能な大きさとされる。
<Takeoff and landing pad>
The installation position of the take-off and landing pad 3 is not particularly limited as long as the unmanned aircraft 1 can land thereon, and may be any suitable position such as the roof of the automobile 2, the loading platform, or the hood, as shown in FIG. Further, the width of the takeoff and landing pad 3 is set to be large enough to allow the unmanned aircraft 1 to land thereon.

<表示装置>
表示装置4は、無人航空機1に定点を伝達する。上記定点は、無人航空機1の飛行経路において目標となるスポットであり、当該飛行システムのように離着陸を行う場合、上記定点は、無人航空機1の着陸ポイントとすることができる。なお、上記定点は、必ずしも着陸ポイントとする必要はなく、例えば離着陸台3のコーナーの1つにおいてもよい。この場合、無人航空機1は着陸ポイントを定点からの相対位置で把握し、着陸を行うことになる。
<Display device>
The display device 4 communicates the fixed point to the unmanned aerial vehicle 1. The fixed point is a target spot on the flight path of the unmanned aircraft 1, and when taking off and landing as in the flight system, the fixed point can be the landing point of the unmanned aircraft 1. Note that the fixed point does not necessarily have to be a landing point, and may be, for example, one of the corners of the takeoff and landing pad 3. In this case, the unmanned aircraft 1 will determine the landing point as a relative position from the fixed point and will land.

表示装置4は離着陸台3の上面側に配設されている。表示装置4を離着陸台3の最表面に配設し、表示装置4自体に無人航空機1を着陸させることもできるが、離着陸台3を表面がメッシュ状で、かつ表面側から流入する空気を側方へ流出する空気孔を有する中空板状の部材で構成し、表示装置4を上記部材の中空部で、空気の側方への流出を妨げない位置に配設することが好ましい。このような構成にあっては、無人航空機1は上記部材のメッシュ状部分に着陸する。無人航空機1は着陸時には下方に向かって強い気流を発生するが、この下方気流はメッシュを通過し、上記空気孔を介して側方へ流出する。このため、無人航空機1の着陸直前に発生し易い離着陸台3からの反射気流の影響を低減でき、無人航空機1の着陸制御の安定性を高められる。また、表示装置4を上記部材の中空部に配設することで、無人航空機1が直接着陸することがないため、表示装置4の故障や破損の発生を低減できる。なお、この構成では、メッシュの径は、表示装置4の表示を上空から識別可能な程度に粗くされる。 The display device 4 is arranged on the upper surface side of the takeoff and landing pad 3. It is also possible to arrange the display device 4 on the outermost surface of the take-off and landing pad 3 and land the unmanned aircraft 1 on the display device 4 itself, but the take-off and landing pad 3 has a mesh-like surface and the air flowing in from the surface side is It is preferable that the display device 4 is constructed of a hollow plate-like member having air holes that flow out to the side, and that the display device 4 is disposed in the hollow portion of the member at a position that does not prevent air from flowing out to the side. In such a configuration, the unmanned aircraft 1 lands on the mesh portion of the member. When the unmanned aircraft 1 lands, it generates a strong downward airflow, and this downward airflow passes through the mesh and flows out to the side through the air holes. Therefore, the influence of the reflected airflow from the takeoff and landing pad 3, which tends to occur immediately before the unmanned aircraft 1 lands, can be reduced, and the stability of the landing control of the unmanned aircraft 1 can be improved. Further, by disposing the display device 4 in the hollow part of the above-mentioned member, the unmanned aircraft 1 does not land directly, so that the occurrence of failure or damage of the display device 4 can be reduced. Note that in this configuration, the diameter of the mesh is made coarse enough to make the display on the display device 4 recognizable from above.

表示装置4としては、公知の液晶ディスプレイ等を用いることができるが、中でもフレキシブルディスプレイが好ましい。フレキシブルディプレイを用いることで、画像表示が必要な際に離着陸台3に適宜配設することができるので、不要時は格納することで表示装置4の故障や破損の発生を低減できる。また、フレキシブルディスプレイは薄いので、無人航空機1の着陸時の下方気流に影響を与え難い。 As the display device 4, a known liquid crystal display or the like can be used, but a flexible display is particularly preferred. By using a flexible display, it can be appropriately placed on the takeoff and landing pad 3 when image display is required, and it can be stored when not needed, thereby reducing the occurrence of failures or damage to the display device 4. Furthermore, since the flexible display is thin, it is unlikely to affect the downward airflow when the unmanned aircraft 1 lands.

表示装置4の形状(表示画面の平面視形状)としては、正方形状又は長方形状(合わせて「方形状」ともいう)とすることができる。表示装置4の形状を方形状とすることで、既存のディスプレイを容易に用いることができる。また、表示装置4の形状としては、円形状とすることもできる。表示装置4の形状を円形状とすることで、その中心を上記定点として利用することで、無人航空機1から上記定点を認識し易くすることができる。 The shape of the display device 4 (the shape of the display screen in plan view) can be square or rectangular (also referred to as "square"). By making the display device 4 rectangular in shape, an existing display can be easily used. Furthermore, the shape of the display device 4 may be circular. By making the shape of the display device 4 circular and using its center as the fixed point, the fixed point can be easily recognized from the unmanned aircraft 1.

表示装置4の1辺の長さ(表示装置4が円形状である場合は、その直径の長さ)の下限としては、30cmが好ましく、40cmがより好ましい。一方、表示装置4の1辺の長さの上限としては、100cmが好ましく、60cmがより好ましい。表示装置4の1辺の長さが上記下限未満であると、画像5の大きさが制約され、無人航空機1から認識できる距離が短くなるおそれがある。逆に、表示装置4の1辺の長さが上記上限を超えると、離着陸台3に配設することが困難のなるおそれや、離着陸台3が不必要に大きくなり過ぎるおそれがある。 The lower limit of the length of one side of the display device 4 (when the display device 4 is circular, the length of its diameter) is preferably 30 cm, more preferably 40 cm. On the other hand, the upper limit of the length of one side of the display device 4 is preferably 100 cm, more preferably 60 cm. If the length of one side of the display device 4 is less than the above-mentioned lower limit, the size of the image 5 will be restricted, and the distance that can be recognized from the unmanned aircraft 1 may become short. Conversely, if the length of one side of the display device 4 exceeds the above upper limit, there is a risk that it will be difficult to arrange it on the takeoff and landing pad 3, or that the takeoff and landing pad 3 will become unnecessarily large.

表示装置4は、調光可能なものが好ましく、またカラー表示可能なものが好ましい。さらに、表示装置4の最大光量の下限としては、4000LUXが好ましく、4500LUXがより好ましい。表示装置4の最大光量が上記下限未満であると、画像5の明るさが制約され、無人航空機1から認識できる距離が短くなるおそれがある。一方、表示装置4の最大光量の上限は、特に限定されないが、消費電力等の観点から、例えば10000LUXとされる。 The display device 4 is preferably one that can be dimmed, and preferably one that can display color. Further, the lower limit of the maximum light amount of the display device 4 is preferably 4000 LUX, and more preferably 4500 LUX. If the maximum light amount of the display device 4 is less than the above lower limit, the brightness of the image 5 will be restricted, and the distance that can be recognized from the unmanned aircraft 1 may become short. On the other hand, the upper limit of the maximum light amount of the display device 4 is not particularly limited, but is set to, for example, 10,000 LUX from the viewpoint of power consumption and the like.

<画像>
当該飛行システムにおいて、表示装置4に表示される画像5について説明する。画像5は、図5に示すように、第1画像要素51と、第2画像要素52と、第3画像要素53と、マーカー54とから構成されている。なお、図5において、矢印は自動車2の進行方向を示している。
<Image>
The image 5 displayed on the display device 4 in the flight system will be explained. The image 5 is composed of a first image element 51, a second image element 52, a third image element 53, and a marker 54, as shown in FIG. Note that in FIG. 5, arrows indicate the direction in which the automobile 2 is traveling.

(第1画像要素)
第1画像要素51は、表示装置4に表示され、上記定点を示すための画像要素である。第1画像要素51は、図6に示すように、コードが表示されない中空領域51xを含む2次元バーコードである。
(first image element)
The first image element 51 is an image element displayed on the display device 4 to indicate the fixed point. The first image element 51, as shown in FIG. 6, is a two-dimensional barcode including a hollow area 51x where no code is displayed.

図6に示す第1画像要素51では、2次元バーコードは8×8の正方形状のマトリックスであり、中空領域51xとして、その中央の4×4のマトリックスが不使用である。つまり、中空領域51xの形状は、第1画像要素51の外形と相似形をなしている。なお、この構成は一例であって他の構成を妨げるものではない。 In the first image element 51 shown in FIG. 6, the two-dimensional barcode is an 8×8 square matrix, and the 4×4 matrix in the center is not used as the hollow area 51x. In other words, the shape of the hollow region 51x is similar to the outer shape of the first image element 51. Note that this configuration is an example and does not preclude other configurations.

2次元バーコードの1マスを構成する正方形の1辺の長さの下限としては、3cmが好ましく、4cmがより好ましい。一方、上記1辺の長さの上限としては、7cmが好ましく、6cmがより好ましい。上記1辺の長さが上記下限未満であると、無人航空機1から認識できる距離が短くなるおそれがある。逆に、上記1辺の長さが上記上限を超えると、表示装置4に表示できなくなるおそれや、第1画像要素51により無人航空機1に伝達できる情報が不十分となるおそれがある。 The lower limit of the length of one side of a square constituting one square of a two-dimensional barcode is preferably 3 cm, and more preferably 4 cm. On the other hand, the upper limit of the length of one side is preferably 7 cm, more preferably 6 cm. If the length of one side is less than the lower limit, the distance that can be recognized from the unmanned aircraft 1 may become short. Conversely, if the length of one side exceeds the upper limit, there is a risk that the image cannot be displayed on the display device 4, or that the information that can be transmitted to the unmanned aircraft 1 by the first image element 51 becomes insufficient.

2次元バーコードは、例えば以下のようにコードを割り付けることができる。なお、これは一例であって、コードの割り付けは任意に決定することができる。 For example, codes can be assigned to the two-dimensional barcode as follows. Note that this is just an example, and the code assignment can be determined arbitrarily.

前方から第1列には、固定の前方向パターン51aが割り付けられている。また、前方から第5列(最終列)には、固定の後方向パターン51bが割り付けられている。この2つのパターンを参照することで、自動車2の進行方向を知ることができる。 A fixed forward pattern 51a is assigned to the first row from the front. Further, a fixed backward pattern 51b is allocated to the fifth row (last row) from the front. By referring to these two patterns, the traveling direction of the automobile 2 can be known.

中間に位置する第2列から第7列には、着陸環境情報パターン51cが割り付けられている。この着陸環境情報は、上述したように自動車2側で得られる環境情報であり、自動車2の車載機6に備えられたコマンド生成部66で生成される。 A landing environment information pattern 51c is assigned to the second to seventh columns located in the middle. This landing environment information is environmental information obtained on the vehicle 2 side as described above, and is generated by the command generation unit 66 provided in the on-vehicle device 6 of the vehicle 2.

(第2画像要素)
図7に示す第2画像要素52は、第1画像要素51と相似であり、第1画像要素51の中空領域51xに縮小表示される(図5参照)。つまり、第1画像要素51と第2画像要素52とは入れ子構造になっている。
(Second image element)
The second image element 52 shown in FIG. 7 is similar to the first image element 51, and is displayed in a reduced size in the hollow area 51x of the first image element 51 (see FIG. 5). In other words, the first image element 51 and the second image element 52 have a nested structure.

第2画像要素52で表示されている2次元バーコードは、第1画像要素51で表示されている2次元バーコードと、値も含め同一である。 The two-dimensional barcode displayed in the second image element 52 is the same as the two-dimensional barcode displayed in the first image element 51, including the value.

第2画像要素52の外形と第1画像要素51の中空領域51xの形状とは、図5に示すように、一致していることが好ましい。各形状をこのような関係とすることで、所望の相似比の第1画像要素51及び第2画像要素52を少ない表示領域で表示することができる。 As shown in FIG. 5, it is preferable that the outer shape of the second image element 52 and the shape of the hollow region 51x of the first image element 51 match. By establishing such a relationship among the shapes, the first image element 51 and the second image element 52 having a desired similarity ratio can be displayed in a small display area.

第1画像要素51と第2画像要素52との相似比は、1.5:1以上3:1以下が好ましい。上記相似比が上記下限未満であると、中空領域51xを広く取る必要が生じるため、各画像に含められる情報量が制約されるおそれがある。逆に、上記相似比が上記上限を超えると、無人航空機1のスムーズな着陸制御が困難となるおそれがある。 The similarity ratio between the first image element 51 and the second image element 52 is preferably 1.5:1 or more and 3:1 or less. If the above-mentioned similarity ratio is less than the above-mentioned lower limit, it will be necessary to make the hollow region 51x wide, which may limit the amount of information included in each image. Conversely, if the similarity ratio exceeds the upper limit, smooth landing control of the unmanned aircraft 1 may become difficult.

(第3画像要素)
第3画像要素53は、第2画像要素52と相似であり、第2画像要素52の中空領域52xに縮小表示される(図5参照)。つまり、第2画像要素52と第3画像要素53とも入れ子構造になっている。なお、第2画像要素52に対する第3画像要素53の関係は、第1画像要素51に対する第2画像要素52の関係と同一であるので、第3画像要素53の詳細説明は省略する。
(Third image element)
The third image element 53 is similar to the second image element 52, and is displayed in a reduced size in the hollow area 52x of the second image element 52 (see FIG. 5). In other words, both the second image element 52 and the third image element 53 have a nested structure. Note that the relationship of the third image element 53 to the second image element 52 is the same as the relationship of the second image element 52 to the first image element 51, so a detailed explanation of the third image element 53 will be omitted.

上記入れ子構造は、例えば第1画像要素51及び第2画像要素52のみ(1回のみ)とすることもできるが、このように複数回(図5では2回)繰り返されているとよい。上記入れ子構造を複数回繰り返すことで、段階的に位置精度を高めることができるので、より遠距離から、あるいはより高い精度で無人航空機1を誘導できるようになる。 The nested structure may be, for example, only the first image element 51 and the second image element 52 (only once), but it is preferable that it be repeated multiple times (twice in FIG. 5) in this way. By repeating the nested structure a plurality of times, the positional accuracy can be increased step by step, so the unmanned aircraft 1 can be guided from a longer distance or with higher accuracy.

上記入れ子構造の数としては、2以上5以下が好ましい。上記入れ子構造の数が上記下限未満(すなわち1)であると、段階的に位置精度を高める効果は得られない。逆に、上記入れ子構造の数が上記上限を超えると、入れ構造の数を増やすことによる位置精度の向上効果が不十分となるおそれがある。 The number of nested structures is preferably 2 or more and 5 or less. If the number of the nested structures is less than the lower limit (ie, 1), the effect of increasing the positional accuracy in stages cannot be obtained. On the other hand, if the number of nested structures exceeds the upper limit, the effect of improving position accuracy by increasing the number of nested structures may be insufficient.

(マーカー)
マーカー54は、上記定点を示す。当該飛行システムでは、無人航空機1は、この定点を目標に着陸する。
(marker)
Marker 54 indicates the fixed point. In this flight system, the unmanned aircraft 1 lands at this fixed point.

マーカー54は、任意の位置に表示することもできるが、中空領域51x(52x)の中心に表示されているとよい。中空領域51xには、第1画像要素51及び第2画像要素52ともにコードを有していないので、この領域の中心にマーカー54を表示することで、無人航空機1から上記定点を認識し易くすることができる。 Although the marker 54 can be displayed at any position, it is preferably displayed at the center of the hollow area 51x (52x). Since neither the first image element 51 nor the second image element 52 has a code in the hollow area 51x, displaying the marker 54 in the center of this area makes it easier for the unmanned aircraft 1 to recognize the fixed point. be able to.

マーカー54の形状は特に限定されないが、円環状又は円形状とすることができる。マーカー54の大きさは、要求される位置精度にもよるが、例えば直径で1cm以上3cm以下とすることができる。この場合、誤差数cmでの制御が可能となる。 The shape of the marker 54 is not particularly limited, but may be annular or circular. Although the size of the marker 54 depends on the required positional accuracy, it can be, for example, 1 cm or more and 3 cm or less in diameter. In this case, control with an error of several centimeters is possible.

<着陸制御方法>
当該飛行システムにおける着陸制御方法を説明するに当たり、まず、無人航空機1の飛行について簡単に説明する。無人航空機1は、配送システム、監視システム、農業支援などに用いられる。例えば監視システムとして、自動車2から無人航空機1を用いて自動車2の周囲の風景画像を取得する場合、無人航空機1は、自動車2を離陸し上昇後、自動車2の上空でホバリングする。次に、水平飛行により目的地へ速やかに移動後、目的地近傍の上空でホバリングしつつ、最終の撮影ポイントへ高度や位置を調整しながら比較的低速で移動する。撮影ポイントで風景画像を取得した後、再び水平飛行する高度に復帰し、着陸地近傍へ速やかに移動する。着陸地近傍に移動した後は、下降及び着陸を行う。なお、上述では撮影ポイントのみで撮影する場合で説明しているが、水平飛行中に画像取得することも可能である。
<Landing control method>
In explaining the landing control method in the flight system, first, the flight of the unmanned aircraft 1 will be briefly explained. The unmanned aerial vehicle 1 is used for delivery systems, monitoring systems, agricultural support, and the like. For example, when acquiring a landscape image around the car 2 from the car 2 using the unmanned aerial vehicle 1 as a monitoring system, the unmanned aerial vehicle 1 takes off from the car 2, ascends, and then hovers above the car 2. Next, after quickly moving to the destination in horizontal flight, it hovers in the sky near the destination and moves at a relatively low speed to the final shooting point while adjusting the altitude and position. After acquiring a landscape image at the shooting point, the aircraft returns to a level flight altitude and quickly moves to the vicinity of the landing site. After moving near the landing site, descend and land. Note that although the above description is based on the case where images are taken only at the photographing points, it is also possible to acquire images during horizontal flight.

この着陸制御方法は、水平飛行する高度に復帰した後、着陸地近傍へ速やかに移動し下降及び着陸を行う過程で用いられる。上記着陸制御方法は、誘導ステップと着陸ステップとに分けられる。 This landing control method is used in the process of returning to an altitude for level flight, quickly moving to the vicinity of the landing site, descending, and landing. The above landing control method is divided into a guidance step and a landing step.

(誘導ステップ)
誘導ステップでは、無人航空機1のカメラ12が離着陸台3の表示装置4の画像5を認識できる位置まで自動車2が無人航空機1を誘導する。
(Induction step)
In the guidance step, the automobile 2 guides the unmanned aircraft 1 to a position where the camera 12 of the unmanned aircraft 1 can recognize the image 5 on the display device 4 of the takeoff and landing pad 3.

具体的には、自動車2の車載機6のコマンド生成部66が生成した着陸指示に関する制御コマンドを、機体制御用信号送受信部67を介して無人航空機1に送信する。この制御コマンドには、例えば自動車2のID(以下、「車両ID」)、無人航空機1のID(以下、「航空機ID」)、着陸地点位置、到着予定時間などが含まれる。 Specifically, a control command related to a landing instruction generated by the command generating unit 66 of the on-vehicle device 6 of the automobile 2 is transmitted to the unmanned aircraft 1 via the aircraft control signal transmitting/receiving unit 67. This control command includes, for example, the ID of the automobile 2 (hereinafter referred to as "vehicle ID"), the ID of the unmanned aircraft 1 (hereinafter referred to as "aircraft ID"), the landing point position, the expected arrival time, and the like.

車両IDは、自動車2の固有IDであり無人航空機1はこの車両IDにより自機が着陸すべき自動車2を特定することができる。また、航空機IDは無人航空機1の固有IDであり、無人航空機1はこの航空機IDにより自機への制御コマンドであるか否かの認識をすることができる。 The vehicle ID is a unique ID of the vehicle 2, and the unmanned aircraft 1 can specify the vehicle 2 on which it should land based on this vehicle ID. Further, the aircraft ID is a unique ID of the unmanned aircraft 1, and the unmanned aircraft 1 can recognize whether the control command is for its own aircraft or not based on this aircraft ID.

着陸地点位置は、無人航空機1の着陸を予定している地点であり、自動車2が無人航空機1を収容するための移動先でもある。この着陸地点位置は、GPSで規定される位置情報を用いてもよく、予め無人航空機1及び自動車2間で定められ、無人航空機1の記憶部11及び自動車2の記憶部61に格納されたスポット名を用いてもよい。また、到着予定時間は、自動車2が着陸地点位置への移動を完了する予測時間である。 The landing point position is a location where the unmanned aircraft 1 is scheduled to land, and is also a destination where the automobile 2 moves to accommodate the unmanned aircraft 1. This landing point position may be determined using position information defined by GPS, and is a spot determined in advance between the unmanned aircraft 1 and the car 2 and stored in the storage unit 11 of the unmanned aircraft 1 and the storage unit 61 of the car 2. You may also use the first name. Furthermore, the estimated arrival time is the estimated time when the automobile 2 completes its movement to the landing point position.

当該飛行システムでは、無人航空機1の作業中に、無人航空機1が離着陸する自動車2が移動可能である。従って、無人航空機1を離陸させた位置と、着陸させる位置とが同一とは限らない。また、この制御コマンドを送信した時点で自動車2が、無人航空機1の着陸位置にいるとは限らない。このため、着陸地点位置及び到着予定時間の情報を無人航空機1との間で共有する必要がある。 In this flight system, the vehicle 2 on which the unmanned aerial vehicle 1 takes off and lands is movable while the unmanned aerial vehicle 1 is working. Therefore, the position where the unmanned aircraft 1 takes off and the position where it lands are not necessarily the same. Further, the automobile 2 is not necessarily at the landing position of the unmanned aircraft 1 at the time this control command is transmitted. Therefore, it is necessary to share information on the landing site location and estimated arrival time with the unmanned aircraft 1.

この着陸指示に関する制御コマンドについて、機体制御用信号送受信部16を介して受け取った無人航空機1は、通信制御部18で車両ID及び航空機IDを確認し、自機への指示であること及び着陸すべき自動車2及び自機の着陸地点位置を認識する。 The unmanned aircraft 1 that receives the control command regarding this landing instruction via the aircraft control signal transmitting/receiving unit 16 checks the vehicle ID and aircraft ID in the communication control unit 18, and confirms that the command is directed to its own aircraft and that it is scheduled to land. Recognize the landing point positions of the vehicle 2 and own aircraft.

無人航空機1は、例えばセンサ部14の情報から取得した現在の自機位置及び着陸見込時間を車両ID及び航空機IDに加え、機体制御用信号送受信部16を介して自動車2へ送信する。例えば着陸見込時間は、現在の自機位置、着陸予定地点及び自機の予定飛行速度を用いて算出することができる。なお、これらの情報を自動車2へ送信することは必須ではなく、例えば着陸指示の制御コマンドを受信した旨の信号のみを送ってもよい。 The unmanned aircraft 1 adds, for example, its current position and expected landing time acquired from the information of the sensor section 14 to the vehicle ID and the aircraft ID, and transmits them to the automobile 2 via the aircraft control signal transmitting/receiving section 16. For example, the expected landing time can be calculated using the current position of the aircraft, the scheduled landing point, and the scheduled flight speed of the aircraft. Note that it is not essential to transmit this information to the automobile 2, and for example, only a signal indicating that a control command for landing instruction has been received may be transmitted.

これらの制御コマンドのやり取りを行った後、無人航空機1及び自動車2は上記着陸予定地点へ向かう。着陸地点位置及び到着予定時間等の情報は、移動中に変化し得る情報であるため、定期的に更新されてもよく、あるいは一定の変化が生じた際にその都度更新してもよい。この情報の更新は、誘導ステップを再度行うことによりすることができる。 After exchanging these control commands, the unmanned aircraft 1 and the automobile 2 head to the scheduled landing site. Information such as the landing point location and estimated time of arrival is information that can change during movement, so it may be updated periodically or whenever a certain change occurs. This information can be updated by performing the guidance step again.

(着陸ステップ)
このステップは、自動車2及び無人航空機1が着陸地点位置に移動した後に行う。無人航空機1が着陸地点位置に移動しているか否かは、無人航空機1が第1画像要素51の2次元バーコードを認識できるか否かにより判断する。認識できない場合は、誘導ステップを継続し、無人航空機1をさらに自動車2に接近させるか、高度が低いと判断される場合は、無人航空機1の高度を上げて第1画像要素51の視認性を高めてもよい。
(Landing step)
This step is performed after the vehicle 2 and the unmanned aerial vehicle 1 have moved to the landing site position. Whether or not the unmanned aircraft 1 is moving to the landing site position is determined based on whether the unmanned aircraft 1 can recognize the two-dimensional barcode of the first image element 51. If the recognition is not possible, continue the guidance step and bring the unmanned aircraft 1 closer to the vehicle 2, or if it is determined that the altitude is low, increase the altitude of the unmanned aerial vehicle 1 to improve the visibility of the first image element 51. It may be increased.

誘導ステップから着陸ステップに切り変わる際には、第1画像要素51は認識できるが、第1画像要素51よりも小さい第2画像要素52、第3画像要素53及びマーカー54は認識できないという状態になり得る。しかし、無人航空機1は、最も大きい第1画像要素51を認識できるので、第1画像要素51の情報をもとに、定点へのアプローチを続けられる。第2画像要素52以下が認識できないことから、この段階では無人航空機1と上記定点とは遠距離にあり、許容される誤差も大きい。従って第1画像要素51のみの情報でアプローチを続けることが可能である。 When switching from the guidance step to the landing step, the first image element 51 can be recognized, but the second image element 52, the third image element 53, and the marker 54, which are smaller than the first image element 51, cannot be recognized. It can be. However, since the unmanned aircraft 1 can recognize the largest first image element 51, it can continue approaching the fixed point based on the information of the first image element 51. Since the second image element 52 and the following cannot be recognized, the unmanned aircraft 1 and the fixed point are far away at this stage, and the allowable error is large. Therefore, it is possible to continue the approach using only the information of the first image element 51.

着陸ステップに入った後は、無人航空機1は基本的には第1画像要素51が示す定点に向かってアプローチすればよい。例えば図5に示す画像5に基づく場合、上記定点は第1画像要素51の中空領域51xにあることは既知であるので、仮にマーカー54を無人航空機1が認識できない場合にあっても、この中空領域51xに向かってアプローチしていけばよい。 After entering the landing step, the unmanned aircraft 1 basically has to approach the fixed point indicated by the first image element 51. For example, when based on the image 5 shown in FIG. 5, it is known that the fixed point is located in the hollow region 51 All you have to do is approach the area 51x.

上述のように無人航空機1は、無人航空機1自体のカメラ12やセンサ部14から得られる情報のみでアプローチを続けることもできるが、自動車2側からの着陸環境情報も併用することで、きめ細かい飛行制御を可能とし、着陸の位置精度を高められる。この自動車2側からの着陸情報は、着陸環境情報パターン51cを介して以下の手順で行える。 As mentioned above, the unmanned aircraft 1 can continue its approach using only the information obtained from the camera 12 and sensor unit 14 of the unmanned aircraft 1 itself, but by also using the landing environment information from the car 2 side, it is possible to carry out a detailed flight. control and improve landing position accuracy. This landing information from the automobile 2 side can be obtained by the following procedure via the landing environment information pattern 51c.

まず、自動車2は、車載機6のセンサ部64により離着陸台3の位置、高度、及び照度、並びに自動車2の速度及び進行方向を取得する。また、距離方位演算部65は、着陸体勢に入っている飛行中の無人航空機1と自動車2との距離と方位とをカメラ62から得られる情報等をもとに算出する。 First, the automobile 2 acquires the position, altitude, and illuminance of the takeoff and landing pad 3, as well as the speed and traveling direction of the automobile 2, using the sensor unit 64 of the on-vehicle device 6. Further, the distance/azimuth calculating section 65 calculates the distance and the azimuth between the flying unmanned aircraft 1 and the automobile 2 which are in a landing position based on information obtained from the camera 62 and the like.

離着陸台3の位置、高度、風速及び照度、並びに自動車2の速度及び進行方向と、無人航空機1と自動車2との距離及び方位は、表示制御部60を介して表示装置4に着陸環境情報パターン51cとして表示される。着陸環境情報パターン51cには、上記情報以外の情報、例えば車両IDや航空機IDなどが合わせて表示されてもよい。また、上記情報の全てを同時に表示する必要はなく、例えば変化のあった情報のみを表示してもよく、あるいは時分割して順に表示してもよい。 The position, altitude, wind speed and illuminance of the takeoff and landing pad 3, the speed and direction of travel of the automobile 2, and the distance and direction between the unmanned aircraft 1 and the automobile 2 are displayed on the display device 4 via the display control unit 60 in a landing environment information pattern. 51c. Information other than the above information, such as vehicle ID and aircraft ID, may also be displayed in the landing environment information pattern 51c. Furthermore, it is not necessary to display all of the above information at the same time; for example, only the information that has changed may be displayed, or it may be displayed sequentially in a time-sharing manner.

そして、無人航空機1は、画像認識部13によりカメラ12で映像から第1画像要素51を認識し、そのうちの着陸環境情報パターン51cから着陸環境情報を抽出し、自機の着陸制御に用いる。 Then, the unmanned aircraft 1 uses the image recognition unit 13 to recognize the first image element 51 from the video with the camera 12, extracts landing environment information from the landing environment information pattern 51c, and uses it for landing control of the unmanned aircraft 1.

例えば抽出した着陸環境情報に車両IDや航空機IDの情報が含まれる場合、画像認識部13は、この車両ID及び航空機IDの情報から、自機が着陸すべき対象であるか否かを照合する。照合できない場合は、例えば自動車2の車載機6と通信することで、誘導ステップを再実行し、正しい着陸場所へ移動する。照合できた場合は、着陸環境情報の抽出を継続する。 For example, if the extracted landing environment information includes vehicle ID and aircraft ID information, the image recognition unit 13 verifies whether or not the own aircraft is the target for landing based on the vehicle ID and aircraft ID information. . If the comparison cannot be made, the guidance step is re-executed by communicating with the on-vehicle device 6 of the automobile 2, for example, and the vehicle moves to the correct landing place. If the verification is successful, continue extracting the landing environment information.

自動車2の速度及び進行方向は、無人航空機1のカメラ12の映像の経時変化から求めることもできるが、着陸環境情報として送信されてくる着陸環境情報パターン51cに含まれる自動車2の速度及び進行方向を用いることで、その精度を高めることができる。 Although the speed and traveling direction of the automobile 2 can be determined from changes over time in the image of the camera 12 of the unmanned aircraft 1, the speed and traveling direction of the automobile 2 included in the landing environment information pattern 51c transmitted as landing environment information are By using , the accuracy can be improved.

また、無人航空機1と自動車2との距離及び方位は、無人航空機1のカメラ12により撮影された映像のみで算出することもできるが、大気の状態等により誤差が生じる場合がある。着陸環境情報として送信されてくる着陸環境情報パターン51cに含まれる自動車2側から測定した無人航空機1と自動車2との距離及び方位の情報を参照することで、この誤差を低減する。これにより無人航空機1の着陸精度を向上させることができる。 Further, the distance and direction between the unmanned aerial vehicle 1 and the automobile 2 can be calculated using only the image taken by the camera 12 of the unmanned aerial vehicle 1, but errors may occur depending on atmospheric conditions and the like. This error is reduced by referring to the information on the distance and direction between the unmanned aircraft 1 and the car 2 measured from the car 2 side, which is included in the landing environment information pattern 51c transmitted as the landing environment information. Thereby, the landing accuracy of the unmanned aircraft 1 can be improved.

さらに、着陸環境情報として送信されてくる着陸環境情報パターン51cに含まれる離着陸台3の風速により着陸地点の実際の風速に基づいた着陸態勢の微修正を行うことができる。 Furthermore, the landing attitude can be slightly modified based on the actual wind speed at the landing site based on the wind speed at the takeoff and landing pad 3 included in the landing environment information pattern 51c transmitted as the landing environment information.

第1画像要素51に基づいてアプローチを続けていくと、無人航空機1と画像5との距離が縮まり、やがて無人航空機1は、第2画像要素52が認識できるようになる。このとき、無人航空機1は、情報を取得する対象を第1画像要素51から第2画像要素52に切り替える。第2画像要素52は大きさが第1画像要素51よりも小さいため、より小さい目標に対してアプローチすることで、制御誤差を低減できる。第2画像要素52に含まれる情報は、第1画像要素51と同じであるので、飛行制御を断続することなく、あるいは初期化することなく、アプローチを継続できる。また、第2画像要素52は、第1画像要素51の中空領域51xに表示されているので、第1画像要素51から第2画像要素52に切り替えても、カメラ12の向きを変えなくてもよいか、変更を要したとしても微調整ですむ。 As the approach continues based on the first image element 51, the distance between the unmanned aircraft 1 and the image 5 decreases, and eventually the unmanned aircraft 1 becomes able to recognize the second image element 52. At this time, the unmanned aircraft 1 switches the target for acquiring information from the first image element 51 to the second image element 52. Since the second image element 52 is smaller in size than the first image element 51, control errors can be reduced by approaching a smaller target. Since the information contained in the second image element 52 is the same as the first image element 51, the approach can be continued without intermittent flight control or initialization. Further, since the second image element 52 is displayed in the hollow area 51x of the first image element 51, even if the first image element 51 is switched to the second image element 52, the direction of the camera 12 does not need to be changed. OK, even if you need to make changes, it's only a minor adjustment.

さらに第2画像要素52に基づいてアプローチを続けていくと、無人航空機1は第3画像要素53を認識できるようになり、情報を取得する対象をこの第3画像要素53に切り替える。最終的には、無人航空機1は、マーカー54を認識し、この無人航空機1の着陸ポイントをしめす定点であるマーカー54上に着陸することができる。 If the approach is further continued based on the second image element 52, the unmanned aircraft 1 will be able to recognize the third image element 53, and will switch the object of information acquisition to this third image element 53. Eventually, the unmanned aerial vehicle 1 can recognize the marker 54 and land on the marker 54, which is a fixed point indicating the landing point of the unmanned aerial vehicle 1.

<利点>
当該飛行システムは、第1画像要素51と第2画像要素52とが同一のコードを示し、かつ第1画像要素51に比べて第2画像要素52が小さく、従って解像度も高い。この構成により、第1画像要素51を認識できる距離が第2画像要素52を認識できる距離よりも大きく、第2画像要素52が示す定点の位置精度が第1画像要素51が示す定点の位置精度よりも高い。このため、無人航空機1は、比較的遠距離から第1画像要素51を認識し、その第1画像要素51が示す定点へアプローチすることができる。そして、無人航空機1が上記定点へ近づき、第2画像要素52を認識できる距離に至ると、無人航空機1は、第2画像要素52を利用することで、高い位置精度で定点に移動できる。
<Advantages>
In this flight system, the first image element 51 and the second image element 52 show the same code, and the second image element 52 is smaller than the first image element 51, and therefore has a higher resolution. With this configuration, the distance at which the first image element 51 can be recognized is greater than the distance at which the second image element 52 can be recognized, and the positional accuracy of the fixed point indicated by the second image element 52 is the positional accuracy of the fixed point indicated by the first image element 51. higher than Therefore, the unmanned aircraft 1 can recognize the first image element 51 from a relatively long distance and approach the fixed point indicated by the first image element 51. Then, when the unmanned aircraft 1 approaches the fixed point and reaches a distance where the second image element 52 can be recognized, the unmanned aircraft 1 can move to the fixed point with high positional accuracy by using the second image element 52.

[その他の実施形態]
上記実施形態は、本発明の構成を限定するものではない。従って、上記実施形態は、本明細書の記載及び技術常識に基づいて上記実施形態各部の構成要素の省略、置換又は追加が可能であり、それらは全て本発明の範囲に属するものと解釈されるべきである。
[Other embodiments]
The above embodiments do not limit the configuration of the present invention. Therefore, in the above embodiment, it is possible to omit, replace, or add components of each part of the above embodiment based on the description of this specification and common general technical knowledge, and all of these are interpreted as falling within the scope of the present invention. Should.

上記実施形態では、移動体が自動車である場合を説明したが、移動体は自動車には限定されない。移動体とは陸地又は水上を自走可能な車両を指し、自動車のほか、オートバイ、船舶等が含まれる。 In the above embodiment, a case has been described in which the moving body is a car, but the moving body is not limited to a car. A mobile object refers to a vehicle that can self-propel on land or water, and includes automobiles, motorcycles, ships, etc.

また、離着陸台は移動体に搭載されるものに限られず、陸上や水上に固定されたものであってもよい。 Further, the takeoff and landing pad is not limited to one mounted on a moving body, but may be one fixed on land or water.

さらに、表示装置は離着陸台に搭載されるものには限定されず、例えばドローンが定点観測すべき農場の位置など特定のポイントに配置されるものを含む。 Furthermore, the display device is not limited to one that is mounted on a takeoff and landing pad, but includes one that is placed at a specific point, such as the position of a farm that a drone should observe at a fixed point, for example.

上記実施形態では、画像要素の2次元バーコードが着陸環境情報パターンを含む場合を説明したが、着陸環境情報パターンを含むことは必須の構成要素ではない。定点の位置のみを伝達する2次元バーコードであってもよい。この場合、移動体側の環境情報を取得し、表示装置に表示する各機能は、その全部あるいは一部を省略してもよい。 In the above embodiment, a case has been described in which the two-dimensional barcode of the image element includes the landing environment information pattern, but it is not an essential component to include the landing environment information pattern. It may also be a two-dimensional barcode that conveys only the position of a fixed point. In this case, all or part of the functions of acquiring environmental information on the mobile body and displaying it on the display device may be omitted.

上記実施形態では、無人航空機及び自動車がGPS衛星と通信を行える構成を有する場合を説明したが、本発明はGPS衛星との通信を行わない飛行システムにも適用可能である。このような飛行システムとしては、例えば無人航空機が自動車から発信される電波を受信することで、自動車の位置(方位や距離)を認識しつつ飛行するシステムを挙げることができる。 In the above embodiments, a case has been described in which an unmanned aircraft and a car have a configuration that allows communication with a GPS satellite, but the present invention is also applicable to a flight system that does not communicate with a GPS satellite. An example of such a flight system is a system in which an unmanned aircraft flies while recognizing the position (direction and distance) of a car by receiving radio waves transmitted from the car.

上記実施形態では、無人航空機が映像データ用無線送受信部を備える場合を説明したが、例えば自動車で撮影した映像データがない、あるいは無人航空機側で利用しない場合は、送信機能のみを有するものであってもよい。同様に、受信機能のみを有するものであってもよく、さらには映像データ用無線送受信部を備えないものであってもよい。 In the above embodiment, the case where the unmanned aircraft is equipped with a wireless transmission/reception unit for video data has been described, but for example, if there is no video data taken by a car or if it is not used on the unmanned aircraft side, the unmanned aircraft may have only a transmission function. You can. Similarly, the device may have only a receiving function, or may not include a video data wireless transmitter/receiver.

以上説明したように、本発明の飛行システムは、無人航空機を容易かつ高い位置精度で、定点に誘導できる。 As described above, the flight system of the present invention can easily guide an unmanned aircraft to a fixed point with high positional accuracy.

1、1A、1B 無人航空機
11 記憶部
12 カメラ
13 画像認識部
14 センサ部
15 着陸制御部
16 機体制御用信号送受信部
17 映像データ用無線送受信部
18 通信制御部
2、2B 自動車
3 離着陸台
4 表示装置
5 画像
51 第1画像要素
51a 前方向パターン
51b 後方向パターン
51c 着陸環境情報パターン
51x 中空領域
52 第2画像要素
52x 中空領域
53 第3画像要素
54 マーカー
6 車載機
60 表示制御部
61 記憶部
62 カメラ
63 画像認識部
64 センサ部
65 距離方位演算部
66 コマンド生成部
67 機体制御用信号送受信部
68 映像データ用無線送受信部
69 通信制御部
1, 1A, 1B Unmanned aircraft 11 Storage unit 12 Camera 13 Image recognition unit 14 Sensor unit 15 Landing control unit 16 Aircraft control signal transmission and reception unit 17 Video data wireless transmission and reception unit 18 Communication control unit 2, 2B Car 3 Takeoff and landing pad 4 Display Device 5 Image 51 First image element 51a Forward direction pattern 51b Backward direction pattern 51c Landing environment information pattern 51x Hollow area 52 Second image element 52x Hollow area 53 Third image element 54 Marker 6 Onboard aircraft 60 Display control unit 61 Storage unit 62 Camera 63 Image recognition unit 64 Sensor unit 65 Distance/direction calculation unit 66 Command generation unit 67 Aircraft control signal transmission/reception unit 68 Video data wireless transmission/reception unit 69 Communication control unit

Claims (5)

無人航空機と、
上空から識別可能であり、上記無人航空機に定点を伝達する表示装置と
を備え、
上記表示装置に表示され、上記定点を示すための第1画像要素が、コードが表示されない中空領域を含む2次元バーコードであり、
上記中空領域に上記第1画像要素と相似な第2画像要素が縮小表示される入れ子構造を有している飛行システム。
unmanned aircraft and
and a display device that can be identified from the sky and that transmits a fixed point to the unmanned aircraft,
A first image element displayed on the display device to indicate the fixed point is a two-dimensional barcode including a hollow area in which no code is displayed;
A flight system having a nested structure in which a second image element similar to the first image element is displayed in a reduced size in the hollow area.
上記入れ子構造が、複数回繰り返されている請求項1に記載の飛行システム。 The flight system according to claim 1, wherein the nested structure is repeated multiple times. 上記中空領域の中心に、上記定点を示すマーカーが表示されている請求項1又は請求項2に記載の飛行システム。 3. The flight system according to claim 1, wherein a marker indicating the fixed point is displayed at the center of the hollow area. 上記中空領域の形状が、上記第1画像要素の外形と相似形をなしており、
上記第2画像要素の外形と上記中空領域の形状とが一致する請求項1又は請求項2に記載の飛行システム。
The shape of the hollow region is similar to the outer shape of the first image element,
The flight system according to claim 1 or 2, wherein the outer shape of the second image element and the shape of the hollow region match.
上記無人航空機が離着陸可能な離着陸台を備え、
上記表示装置が、上記離着陸台に配設されており、
上記定点が、上記無人航空機の着陸ポイントである請求項1又は請求項2に記載の飛行システム。
Equipped with a take-off and landing pad on which the unmanned aircraft can take off and land,
The display device is disposed on the takeoff and landing pad,
The flight system according to claim 1 or 2, wherein the fixed point is a landing point of the unmanned aircraft.
JP2022087807A 2022-05-30 2022-05-30 flight system Pending JP2023175386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022087807A JP2023175386A (en) 2022-05-30 2022-05-30 flight system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022087807A JP2023175386A (en) 2022-05-30 2022-05-30 flight system

Publications (1)

Publication Number Publication Date
JP2023175386A true JP2023175386A (en) 2023-12-12

Family

ID=89121077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022087807A Pending JP2023175386A (en) 2022-05-30 2022-05-30 flight system

Country Status (1)

Country Link
JP (1) JP2023175386A (en)

Similar Documents

Publication Publication Date Title
US11604479B2 (en) Methods and system for vision-based landing
EP3077879B1 (en) Imaging method and apparatus
ES2397546T3 (en) Precision approach control
CN111492326B (en) Image-based positioning for unmanned aerial vehicles and related systems and methods
KR101494654B1 (en) Method and Apparatus for Guiding Unmanned Aerial Vehicle and Method and Apparatus for Controlling Unmanned Aerial Vehicle
JP7190699B2 (en) Flight system and landing control method
CN108255190B (en) Accurate landing method based on multiple sensors and tethered unmanned aerial vehicle using same
EP3077760B1 (en) Payload delivery
CN102582826A (en) Driving method and system of four-rotor-wing unmanned flight vehicle
EP3077880B1 (en) Imaging method and apparatus
CN111465556A (en) Information processing system, information processing method, and program
GB2522327A (en) Determining routes for aircraft
GB2522328A (en) Payload delivery
JP2023175386A (en) flight system
EP2881827A1 (en) Imaging method and apparatus
EP2881697A1 (en) Capturing and processing images
WO2015082594A1 (en) Determining routes for aircraft
JP6393157B2 (en) Spacecraft search and recovery system
EP2881825A1 (en) Imaging method and apparatus
KR102209882B1 (en) Structure inspection system and method using dron
US20230030222A1 (en) Operating modes and video processing for mobile platforms
EP2881709A1 (en) Determining routes for aircraft
EP2881826A1 (en) Imaging method and apparatus
EP2881698A1 (en) Payload delivery
EP2881824A1 (en) Imaging method and system