JP2022067672A - Landing control device of flying object - Google Patents

Landing control device of flying object Download PDF

Info

Publication number
JP2022067672A
JP2022067672A JP2020176376A JP2020176376A JP2022067672A JP 2022067672 A JP2022067672 A JP 2022067672A JP 2020176376 A JP2020176376 A JP 2020176376A JP 2020176376 A JP2020176376 A JP 2020176376A JP 2022067672 A JP2022067672 A JP 2022067672A
Authority
JP
Japan
Prior art keywords
landing
point
control device
landing control
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020176376A
Other languages
Japanese (ja)
Other versions
JP7455044B2 (en
Inventor
幹雄 板東
Mikio Bando
直之 田代
Naoyuki Tashiro
欣也 中津
Kinya Nakatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020176376A priority Critical patent/JP7455044B2/en
Publication of JP2022067672A publication Critical patent/JP2022067672A/en
Application granted granted Critical
Publication of JP7455044B2 publication Critical patent/JP7455044B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a novel landing control device of a flying object which can safely land a drone without using a landmark group.SOLUTION: A plurality of feature point detection sensors (long-distance narrow-angle space sensor 13, medium-distance wide-angle space sensor 14, short-distance wide-angle space sensor 15) are installed downward in a flying object. Relative positions of feature points, which exist on a landing surface, measured by the feature point detection sensors are measured in response to a change in altitude, reliability of the feature point detection sensors is set depending on altitude, and whether or not the feature points on the landing surface have changed is determined.SELECTED DRAWING: Figure 2

Description

本発明は飛行体の着陸制御装置に係り、特に自律的に飛行体を着陸させる飛行体の着陸制御装置に関するものである。 The present invention relates to a landing control device for an air vehicle, and more particularly to a landing control device for an air vehicle that autonomously lands the air vehicle.

最近では、着陸面に対して垂直方向に離着陸するドローンと呼ばれる無人飛行体を利用して荷物を目的地に搬送するシステムが提案されている。このドローンは、複数の羽根ロータを有したマルチロータ方式が一般的に使用されている。 Recently, a system has been proposed in which a system for transporting luggage to a destination using an unmanned aerial vehicle called a drone that takes off and landing in a direction perpendicular to the landing surface. As this drone, a multi-rotor system having a plurality of blade rotors is generally used.

このドローンによる搬送システムは、ドローンの水平面の飛行計画経路を表わすデータを入力し、飛行計画経路上の複数の位置の夫々の下にある表面の標高を表す高さ基準値を取得し、その位置に対応する飛行高度を高さ基準値に加算した値を飛行計画経路の高度のデータとして使用することで、障害物に衝突しないで飛行計画経路を飛行できるようにしている。 This drone transport system inputs data that represents the flight plan path of the drone's horizontal plane, obtains a height reference value that represents the elevation of the surface below each of the multiple positions on the flight plan path, and that position. By using the value obtained by adding the flight altitude corresponding to the above to the height reference value as the altitude data of the flight plan route, it is possible to fly on the flight plan route without colliding with an obstacle.

そして、このようなドローンによる搬送システムにおいては、ドローンが目的地に到着して着陸する場合、安全に着陸できることが重要である。このため、ドローンの着陸制御装置としては、例えば、特開2019-51741号公報(特許文献1)に記載された方法が提案されている。この特許文献1においては、ドローンをグラウンドステーションの上方に誘導し、搭載カメラで着陸面に配置されるランドマーク群を撮像した画像から三次元空間上の位置を推定し、これに基づいて着陸面に精度良く誘導するものである。 In such a drone transport system, it is important that the drone can land safely when it arrives at the destination and lands. Therefore, as a landing control device for a drone, for example, the method described in Japanese Patent Application Laid-Open No. 2019-51741 (Patent Document 1) has been proposed. In Patent Document 1, the drone is guided above the ground station, the position on the three-dimensional space is estimated from the image of the landmarks arranged on the landing surface by the on-board camera, and the landing surface is estimated based on this. It guides with high accuracy.

つまり、ドローンがグラウンドステーションの上方に誘導されて撮影画像にランドマーク群が撮像されるとき、撮影画像の画面全体に占める面積を算出し、算出された面積が所定面積以上のとき、ランドマーク群を順次切り替え、切り替えられたランドマーク群の撮影画像からグラウンドステーションに対する無人飛行体の三次元空間上の位置を推定し、それから無人飛行体の着陸動作範囲を算出し、算出された着陸動作範囲に基づいてドローンを着陸面へ誘導制御するようにしている。 That is, when the drone is guided above the ground station and the landmark group is imaged in the captured image, the area occupied by the entire screen of the captured image is calculated, and when the calculated area is equal to or larger than the predetermined area, the landmark group is calculated. Is sequentially switched, the position of the unmanned aircraft in the three-dimensional space with respect to the ground station is estimated from the captured images of the switched landmarks, and then the landing motion range of the unmanned aircraft is calculated, and the landing motion range is calculated. Based on this, the drone is guided and controlled to the landing surface.

特開2019-51741号公報Japanese Unexamined Patent Publication No. 2019-51741

ところで、特許文献1に記載されている着陸制御装置は、グラウンドステーションに基準位置となる複数のランドマーク群を整備する必要があり、設置費用やその維持管理の費用等を含めるとシステム構築の費用が高額となるという課題がある。更に、グラウンドステーションという特定された着陸地点にしか着陸できないので、システムの使い勝手が悪いという課題がある。このため、グランドステーションにランドマーク群を整備しないで着陸させるために、ドローンに搭載されたセンサカメラから自律的に着陸可能な場所を認識して着陸させることが考えられる。 By the way, in the landing control device described in Patent Document 1, it is necessary to prepare a plurality of landmark groups as reference positions in the ground station, and the cost of system construction includes the installation cost and the maintenance cost thereof. Has the problem of being expensive. Furthermore, since landing can only be performed at a specific landing point called a ground station, there is a problem that the system is not easy to use. Therefore, in order to land the ground station without arranging the landmarks, it is conceivable to recognize the place where the landing is possible autonomously from the sensor camera mounted on the drone and land.

しかしながら少なくとも、(1)ドローンの高度が低い方へ変化してセンサカメラのセンシング範囲から着陸範囲が逸脱した場合、或いは(2)着陸範囲内に危険な物体が移動した場合、或いは(3)位置・姿勢制御に必要な特徴点の追尾が困難となった場合において、ドローンが意図した着陸位置とならないという現象を生じる。このため、ドローンを安全に着陸させることが難しくなるという課題を生じる。 However, at least, (1) when the altitude of the drone changes to a lower altitude and the landing range deviates from the sensing range of the sensor camera, or (2) a dangerous object moves within the landing range, or (3) the position. -When it becomes difficult to track the feature points required for attitude control, a phenomenon occurs in which the drone does not reach the intended landing position. For this reason, there is a problem that it becomes difficult to land the drone safely.

本発明の目的は、ランドマーク群を使用せずに、飛行体を安全に着陸させることができる新規な飛行体の着陸制御装置を提供することにある。 An object of the present invention is to provide a novel landing control device for an air vehicle capable of safely landing the air vehicle without using a group of landmarks.

尚、この荷物搬送用の飛行体は無人であるが、将来的には有人の飛行体(いわゆる空飛ぶ自動車)に展開される方向で開発が行われている。したがって、本発明では、無人飛行体に限らず有人飛行体に対しても適用できる着陸制御装置を提案するものである。また、飛行体はマルチロータ方式に限らず、これ以外の自律的に飛行する飛行体をも対象とするものである。 Although this air vehicle for carrying luggage is unmanned, it is being developed in the future so that it can be deployed in manned air vehicles (so-called flying vehicles). Therefore, the present invention proposes a landing control device that can be applied not only to unmanned aircraft but also to manned aircraft. In addition, the flying object is not limited to the multi-rotor system, but other flying objects that fly autonomously are also targeted.

本発明の特徴は、着陸地点を含む周辺の特徴点を検出する複数の特徴点検出手段と、特徴点検出手段で検出された特徴点を認識する特徴点認識手段と、飛行体の高度を計測する高度測定手段と、着陸地点に飛行体を自動的に着陸させる着陸制御手段とを備えた飛行体の着陸制御装置であって、
着陸制御手段は、高度に対応して複数の前記特徴点の相対位置を計測すると共に、高度に応じて夫々の前記特徴点を計測する特徴点検出手段を選択し、特徴点の相対位置の変化から着陸地点の形状変化の有無を判定し、形状変化があると飛行体を新たな着陸地点に移動する飛行体の着陸制御装置にある。
The features of the present invention are a plurality of feature point detecting means for detecting peripheral feature points including a landing point, a feature point recognizing means for recognizing feature points detected by the feature point detecting means, and an altitude of an air vehicle. An aircraft landing control device equipped with an altitude measuring means for measuring an altitude and a landing control means for automatically landing the aircraft at a landing point.
The landing control means measures the relative positions of a plurality of the feature points according to the altitude, and selects the feature point detecting means for measuring each of the feature points according to the altitude, and changes the relative position of the feature points. It is in the landing control device of the aircraft that determines whether or not there is a change in the shape of the landing point and moves the aircraft to a new landing point if there is a change in the shape.

本発明によれば、ランドマーク群を使用せずに、飛行体を安全に着陸させることができる。 According to the present invention, the flying object can be safely landed without using a group of landmarks.

飛行体の構成と、これに設けられた空間センサの計測範囲を説明する説明図である。It is explanatory drawing explaining the structure of an air vehicle and the measurement range of the space sensor provided in this structure. 本発明の実施形態になる飛行体制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the flying object control apparatus which becomes embodiment of this invention. 図2に示す飛行体制御装置の動作モードを説明するための制御フローを示すフローチャートである。It is a flowchart which shows the control flow for demonstrating the operation mode of the flying object control apparatus shown in FIG. 図2に示す飛行体制御装置における着陸制御装置の動作を説明するための制御フローを示すフローチャートである。It is a flowchart which shows the control flow for demonstrating the operation of the landing control device in the flying object control device shown in FIG. 飛行体が着陸地点に達した時の地表面を計測する状態を説明するための説明図である。It is explanatory drawing for demonstrating the state which measures the ground surface when an air vehicle reaches a landing point. 図4のステップS32における3D形状を生成する3D形状計測フローを説明するフローチャートである。It is a flowchart explaining the 3D shape measurement flow which generates 3D shape in step S32 of FIG. 3D形状を形成する点群の情報を説明するための説明図である。It is explanatory drawing for demonstrating the information of the point cloud which forms 3D shape. 図6のステップS52における信頼度を設定する信頼度設定フローを説明するフローチャートである。It is a flowchart explaining the reliability setting flow which sets the reliability in step S52 of FIG. 図8における信頼度を求める方法を説明する説明図である。It is explanatory drawing explaining the method of obtaining the reliability in FIG. 図4のステップS32における平面/障害物(凹凸物)を認識する平面/障害物認識フローを説明するフローチャートである。It is a flowchart explaining the plane / obstacle recognition flow which recognizes a plane / obstacle (unevenness) in step S32 of FIG. 図10に示すグルーピングされた障害物の形態を説明する説明図である。It is explanatory drawing explaining the form of the grouped obstacle shown in FIG. 図11に示した障害物の情報を説明する説明図である。It is explanatory drawing explaining the information of the obstacle shown in FIG. 図4のステップS32における特徴点を検出する特徴点検出フローを説明するフローチャートである。It is a flowchart explaining the feature point detection flow which detects the feature point in step S32 of FIG. 図13に示した特徴点の情報を説明するための説明図である。It is explanatory drawing for demonstrating the information of the feature point shown in FIG. 図4のステップS32における特徴点相対位置を検出する特徴点相対位置検出フローを説明するフローチャートである。It is a flowchart explaining the feature point relative position detection flow which detects the feature point relative position in step S32 of FIG. 図15に示した特徴点の相対位置グループの情報を説明する説明図である。It is explanatory drawing explaining the information of the relative position group of the feature point shown in FIG. 図4のステップS41における着陸地点に障害物がるかどうかの危険判断を行う危険判断フローを説明するフローチャートである。It is a flowchart explaining the danger judgment flow which performs the danger judgment whether or not there is an obstacle at the landing point in step S41 of FIG. 図4のステップS42における着陸地点を修正する動作状態管理フローを説明するフローチャートである。It is a flowchart explaining the operation state management flow which corrects the landing point in step S42 of FIG.

以下、本発明の実施形態について図面を用いて詳細に説明するが、本発明は以下の実施形態に限定されることなく、本発明の技術的な概念の中で種々の変形例や応用例をもその範囲に含むものである。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings, but the present invention is not limited to the following embodiments, and various modifications and applications are included in the technical concept of the present invention. Is also included in that range.

図1は、本発明で使用される飛行体10の概略の構成を示している。飛行体10は、矩形状の筐体本体11に対称関係となる位置に4個の羽根ロータ12が設けられており、夫々の羽根ロータ12は図示しない電動モータによって駆動される。尚、本実施形態の飛行体は、これに限るものではなく、要は垂直方向に離着陸できる飛行体であれば良い。 FIG. 1 shows a schematic configuration of the flying object 10 used in the present invention. The flying object 10 is provided with four blade rotors 12 at positions symmetrical to each other in a rectangular housing body 11, and each blade rotor 12 is driven by an electric motor (not shown). The flying object of the present embodiment is not limited to this, and in short, any flying object that can take off and land in the vertical direction may be used.

筐体本体11の中央付近には遠距離狭角空間センサ13が設けられており、更に筐体本体11の左右両端の一方には中距離広角空間センサ14が設けられ、筐体本体11の左右両端の他方には近距離広角空間センサ15が設けられている。これらのセンサ13~15は、地表面を撮像するセンサカメラや、地表面の形状を点群化するライダー(LIDAR)を使用することによって、地表面に存在する種々の静止物体や移動物体の特徴点を検出する特徴点検出センサとして機能する。 A long-distance narrow-angle space sensor 13 is provided near the center of the housing body 11, and a medium-distance wide-angle space sensor 14 is provided on one of the left and right ends of the housing body 11, and the left and right sides of the housing body 11 are provided. A short-distance wide-angle space sensor 15 is provided on the other of both ends. These sensors 13 to 15 are characterized by various stationary and moving objects existing on the ground surface by using a sensor camera that images the ground surface and a lidar (LIDAR) that groupes the shapes of the ground surface into points. Features that detect points Functions as a point detection sensor.

本実施形態では、3次元ライダーを使用しており、以下では「空間センサ」として表記して説明を進める。また、図示はしていないが、筐体本体11には飛行体10の位置を検出するために、周知のGPSセンサが搭載されている。 In this embodiment, a three-dimensional rider is used, and the description will be described below as a “spatial sensor”. Further, although not shown, a well-known GPS sensor is mounted on the housing body 11 in order to detect the position of the flying object 10.

更に、筐体本体11には高度センサ16が設けられており、対地高度を検出している。高度センサ16としては、レーザ式高度計やレーダ式高度計を使用することができ、飛行体10と地表面との距離をレーザ光やマイクロ波の反射によって測定し、飛行体10の対地高度を測定することができる。また,気圧計やGPSセンサの出力する高度から対地高度を算出することもできる。 Further, the housing body 11 is provided with an altitude sensor 16 to detect the altitude above ground level. As the altitude sensor 16, a laser altimeter or a radar altimeter can be used, and the distance between the flying object 10 and the ground surface is measured by the reflection of laser light or microwave, and the altitude above ground level of the flying object 10 is measured. be able to. It is also possible to calculate the altitude above ground level from the altitude output by the barometer or GPS sensor.

遠距離狭角空間センサ13は、計測範囲Aに示すように画角が狭い空間センサであり、中距離広角空間センサ14は、計測範囲Bに示すように画角が遠距離狭角空間センサ13より広い空間センサであり、近距離広角空間センサ15は、計測範囲Cに示すように画角が中距離広角空間センサ14より広い空間センサである。 The long-distance narrow-angle space sensor 13 is a space sensor having a narrow angle of view as shown in the measurement range A, and the medium-range wide-angle space sensor 14 is a long-range narrow-angle space sensor 13 having a narrow angle of view as shown in the measurement range B. It is a wider space sensor, and the short-range wide-angle space sensor 15 is a space sensor having a wider angle of view than the medium-range wide-angle space sensor 14 as shown in the measurement range C.

後述するが、夫々の空間センサ13~15で得られる点群情報は、高度に対応して信頼度が与えられている。例えば、飛行体10の高度が低くなるにつれて、遠距離狭角空間センサ13からの点群情報の信頼度が「大」から「小」に変化され、逆に中、近距離広角空間センサ14、15からの点群情報の信頼度が「小」から「大」に変化される構成とされている。尚、信頼度の大きさは連続的に調整される場合や、スイッチ的に調整される場合を含むものである。言い換えれば、信頼度の変化は、高度によって空間センサが切り換えられると捉えることもできる。 As will be described later, the point cloud information obtained by each of the spatial sensors 13 to 15 is given a high degree of reliability. For example, as the altitude of the flying object 10 decreases, the reliability of the point cloud information from the long-distance narrow-angle space sensor 13 changes from "large" to "small", and conversely, the medium- and short-distance wide-angle space sensors 14 The reliability of the point cloud information from 15 is changed from "small" to "large". It should be noted that the magnitude of the reliability includes a case where it is continuously adjusted and a case where it is adjusted like a switch. In other words, the change in reliability can be regarded as the spatial sensor being switched depending on the altitude.

尚、上述の説明では3個の空間センサが使用されているが、必要に応じて2個の空間センサを用いても良い。また、各空間センサ13~15の配置位置は任意であり、図1のように各空間センサ13~15を離れた位置に配置しても良いし、後述の図5にあるように近接して配置しても良い。 Although three spatial sensors are used in the above description, two spatial sensors may be used if necessary. Further, the arrangement position of each space sensor 13 to 15 is arbitrary, and each space sensor 13 to 15 may be arranged at a distant position as shown in FIG. 1, or may be arranged close to each other as shown in FIG. 5 described later. It may be arranged.

図1に戻って、飛行体10の筐体本体11には、図示していないが飛行体制御装置が設けられており、この飛行体制御装置は、飛行体の水平面の飛行計画経路を表わす経路情報と、飛行計画経路上の複数の位置の夫々の下にある地表面の標高を表す高さ基準値とから、その飛行位置に対応する飛行高度を高さ基準値に加算した値を飛行計画経路の高度情報として使用することで、障害物に衝突しないで飛行計画経路を飛行できるようにしている。 Returning to FIG. 1, the housing body 11 of the flying object 10 is provided with a flying object control device (not shown), and the flying object control device is a route representing a flight planning path in the horizontal plane of the flying object. The flight plan is the value obtained by adding the flight altitude corresponding to the flight position to the height reference value from the information and the height reference value representing the altitude of the ground surface under each of the multiple positions on the flight plan route. By using it as altitude information of the route, it is possible to fly the flight plan route without colliding with obstacles.

一方、飛行体制御装置には本発明が対象とする着陸制御装置も合わせ搭載されている。この着陸制御装置は、飛行体制御装置に機能的に一体的に設けることができ、また、飛行体制御装置と別体に設けることができる。したがって、飛行体制御装置の仕様によって適切な構成を選択すれば良いものである。 On the other hand, the landing control device targeted by the present invention is also mounted on the flight object control device. This landing control device can be provided functionally integrally with the flight object control device, and can be provided separately from the flight object control device. Therefore, an appropriate configuration may be selected according to the specifications of the flight object control device.

次に、本発明になる着陸制御装置について説明する。図2は着陸制御装置の機能が一体化された飛行体制御装置20の構成を示している。 Next, the landing control device according to the present invention will be described. FIG. 2 shows the configuration of the flight object control device 20 in which the functions of the landing control device are integrated.

上述した遠距離狭角空間センサ13、中距離広角空間センサ14、及び近距離広角空間センサ15からの点群情報と高度センサ16からの高度情報は、環境認識部21に入力されている。すなわち、夫々の空間センサ13~15からの点群情報は、3D形状計測部22に入力され、高度センサ16からの高度情報は、センサ信頼度設定部23に入力されている。このセンサ信頼度設定部23によって、3D形状計測部22に入力された点群情報の信頼度が設定される。ここで、「3D」とは「三次元」のことを意味している。 The point cloud information from the long-distance narrow-angle space sensor 13, the medium-distance wide-angle space sensor 14, and the short-distance wide-angle space sensor 15 and the altitude information from the altitude sensor 16 described above are input to the environment recognition unit 21. That is, the point cloud information from each of the spatial sensors 13 to 15 is input to the 3D shape measuring unit 22, and the altitude information from the altitude sensor 16 is input to the sensor reliability setting unit 23. The sensor reliability setting unit 23 sets the reliability of the point cloud information input to the 3D shape measurement unit 22. Here, "3D" means "three-dimensional".

このようにセンサ信頼度設定部23は、高度に対応して各空間センサ13~15からの点群情報に、高度に対応した信頼度を設定する機能を備えている。上述したように、夫々の空間センサ13~15で得られる点群情報は、高度に対応して信頼度が与えられている。例えば、飛行体10の高度が低くなるにつれて、遠距離狭角空間センサ13からの点群情報の信頼度が「大」から「小」に変化され、逆に中、近距離広角空間センサ14、15からの点群情報の信頼度が「小」から「大」に変化される構成とされている。 As described above, the sensor reliability setting unit 23 has a function of setting the reliability corresponding to the altitude to the point cloud information from each of the spatial sensors 13 to 15 corresponding to the altitude. As described above, the point cloud information obtained by each of the spatial sensors 13 to 15 is given a high degree of reliability. For example, as the altitude of the flying object 10 decreases, the reliability of the point cloud information from the long-distance narrow-angle space sensor 13 changes from "large" to "small", and conversely, the medium- and short-distance wide-angle space sensors 14 The reliability of the point cloud information from 15 is changed from "small" to "large".

また、3D形状計測部22には、3D形状記憶部24からの地表面の三次元形状情報が入力され、逆に3D形状計測部22で計測された三次元形状情報が3D形状記憶部24に新たに入力(更新)されている。 Further, the 3D shape measurement unit 22 is input with the 3D shape information of the ground surface from the 3D shape storage unit 24, and conversely, the 3D shape information measured by the 3D shape measurement unit 22 is input to the 3D shape storage unit 24. It has been newly entered (updated).

環境認識部21には、更に平面/凹凸認識部25、特徴点検出部26、特徴点記憶部27、特徴点相対位置算出部28、及び相対値グループ記憶部29が備えられている。 The environment recognition unit 21 is further provided with a flat surface / unevenness recognition unit 25, a feature point detection unit 26, a feature point storage unit 27, a feature point relative position calculation unit 28, and a relative value group storage unit 29.

平面/凹凸認識部25は、3D形状計測部22に入力された点群情報に基づいて、地表面の平面情報や凹凸情報を認識する機能を備えている。 The plane / unevenness recognition unit 25 has a function of recognizing the plane information and unevenness information of the ground surface based on the point cloud information input to the 3D shape measuring unit 22.

また、特徴点検出部26は、3D形状計測部22に入力された点群情報と、平面/凹凸認識部25の平面情報や凹凸情報に基づいて、対象となる点群情報から平面情報や凹凸情報の特徴点を検出する機能を備えている。特徴点検出部26で検出された特徴点は特徴点記憶部27に一時的に記憶される。 Further, the feature point detection unit 26 is based on the point cloud information input to the 3D shape measurement unit 22 and the plane information and unevenness information of the plane / unevenness recognition unit 25, and the plane information and unevenness from the target point cloud information. It has a function to detect feature points of information. The feature points detected by the feature point detection unit 26 are temporarily stored in the feature point storage unit 27.

特徴点相対位置算出部28は、特徴点記憶部27に記憶された複数の特徴点の間の相対的な位置(3次元上の位置)を算出する機能を備えている。また、相対位置グループ記憶部29は、特徴点相対位置算出部28で算出された特徴点から互いに関係する特徴点(例えば、凹凸部の形状)をグループ化して記憶する機能を備えている。相対位置グループ記憶部29の相対位置グループ情報は、3D形状計測部22とセンサ信頼度設定部23にフィードバックされている。 The feature point relative position calculation unit 28 has a function of calculating a relative position (three-dimensional position) between a plurality of feature points stored in the feature point storage unit 27. Further, the relative position group storage unit 29 has a function of grouping and storing feature points (for example, the shape of the uneven portion) related to each other from the feature points calculated by the feature point relative position calculation unit 28. The relative position group information of the relative position group storage unit 29 is fed back to the 3D shape measuring unit 22 and the sensor reliability setting unit 23.

平面/凹凸認識部25からの平面情報や凹凸情報、特徴点検出部26からの特徴点情報、及び位置・姿勢認識部31からの位置・姿勢情報は、危険判断部30に入力されている。ここで、位置・姿勢情報は、グローバル座標系における飛行体10の位置と傾きを表している。 The plane information and unevenness information from the plane / unevenness recognition unit 25, the feature point information from the feature point detection unit 26, and the position / attitude information from the position / attitude recognition unit 31 are input to the danger determination unit 30. Here, the position / attitude information represents the position and inclination of the flying object 10 in the global coordinate system.

位置・姿勢認識部31には、3D形状記憶部24からの三次元形状情報と、位置・姿勢センサ32からの位置・姿勢情報が入力されている。位置・姿勢センサ32は、飛行体10の位置、及び飛行体10の「ヨー」、「ロール」、「ピッチ」等の飛行体10の回転軸回りのパラメータを検出している。 The position / attitude recognition unit 31 is input with the three-dimensional shape information from the 3D shape storage unit 24 and the position / attitude information from the position / attitude sensor 32. The position / attitude sensor 32 detects the position of the flying object 10 and parameters around the rotation axis of the flying object 10, such as “yaw”, “roll”, and “pitch” of the flying object 10.

危険判断部30においては、飛行体10の着陸地点が平面か、或いは障害物(凹凸部)が存在するかを判断し、更には障害物(凹凸部)が存在する場合は安全に着陸できる着陸地点を算出する機能を備えている。 The danger determination unit 30 determines whether the landing point of the flying object 10 is flat or has an obstacle (unevenness), and if there is an obstacle (unevenness), the landing can be safely landed. It has a function to calculate the point.

危険判断部30からの危険情報や着陸地点情報、及び位置・姿勢認識部31からの位置・姿勢情報は、動作状態管理部33に入力されている。これらの情報に基づいて動作状態管理部33は、飛行体10の動作状態の管理を実行する。ここで、動作状態(モード)は「着陸モード」、「離陸モード」、「巡行モード」、「接近モード」、「待機モード」の5つの動作状態を管理している。 Danger information and landing point information from the danger determination unit 30, and position / attitude information from the position / attitude recognition unit 31 are input to the operation state management unit 33. Based on this information, the operating state management unit 33 manages the operating state of the flying object 10. Here, the operating state (mode) manages five operating states of "landing mode", "takeoff mode", "cruising mode", "approaching mode", and "standby mode".

「着陸モード」、「離陸モード」では飛行体10の垂直移動と旋回を実行し、「巡行モード」では地図データベース34にしたがい飛行計画経路に沿った移動を実行し、「接近モード」では所定の指定された地点(例えば、着陸地点)への移動を実行し、「待機モード」では移動をせずにホバリングを実行する、という動作状態を管理する機能を備えている。 In the "landing mode" and "takeoff mode", the flight object 10 is vertically moved and turned, in the "cruising mode", the flight is performed along the flight plan route according to the map database 34, and in the "approach mode", a predetermined position is executed. It has a function to manage the operation state of executing a move to a specified point (for example, a landing point) and executing hovering without moving in the "standby mode".

位置・姿勢制御部35においては、動作状態管理部33からの動作状態管理情報、地図データベース34からの地図情報、及び位置・姿勢認識部31からの位置・姿勢認識情報が入力されている。更に、位置・姿勢制御部35は目標位置・姿勢生成部36によって、目標位置・姿勢情報を生成し、この目標位置・姿勢情報は追従制御部37に入力される。追従制御部37は、目標位置・姿勢情報に基づいて選択された、「着陸モード」、「離陸モード」、「巡行モード」、「接近モード」、「待機モード」のいずれかに対応して飛行体10を自律的に動作させる機能を備えている。 In the position / posture control unit 35, the operation state management information from the operation state management unit 33, the map information from the map database 34, and the position / posture recognition information from the position / posture recognition unit 31 are input. Further, the position / posture control unit 35 generates target position / posture information by the target position / posture generation unit 36, and the target position / posture information is input to the follow-up control unit 37. The follow-up control unit 37 flies corresponding to any one of "landing mode", "takeoff mode", "cruising mode", "approach mode", and "standby mode" selected based on the target position / attitude information. It has a function to operate the body 10 autonomously.

以上が飛行体制御装置20の主な機能要素であるが、これら機能要素は、基本的にはマイクロコンピュータの制御プログラムを実行するによって動作される。マイクロコンピュータは周知の通り、演算を実行するセントラルプロセッシングユニット(CPU)、制御プログラムを記憶した不揮発性メモリ(ROM)、計算結果を記憶したりする揮発性メモリ(RAM)、センサ信号を入力し、駆動信号を出力する入出力回路等から構成されている。以下、飛行体制御装置20の主な機能要素の制御フローについて説明する。 The above are the main functional elements of the flying object control device 20, and these functional elements are basically operated by executing the control program of the microcomputer. As is well known, microcomputers input a central processing unit (CPU) that executes operations, a non-volatile memory (ROM) that stores control programs, a volatile memory (RAM) that stores calculation results, and sensor signals. It is composed of an input / output circuit that outputs a drive signal and the like. Hereinafter, the control flow of the main functional elements of the flight object control device 20 will be described.

[動作モードの設定制御フロー]
先ず、図3は位置・姿勢制御部35の制御フローを示しており、これによって飛行体10の動作モードを設定する。
[Operation mode setting control flow]
First, FIG. 3 shows the control flow of the position / attitude control unit 35, thereby setting the operation mode of the flying object 10.

≪ステップS10≫
ステップS10においては、現在の位置・姿勢情報を取得する。この位置・姿勢情報の取得は、位置・姿勢センサ32、及び位置・姿勢認識部31から求めることができる。位置・姿勢認識部31は、例えば、SLAM(Simultaneous Localization and Mapping)手法を利用して現在の位置・姿勢を求めることができ、この状態で飛行体10が或る状態で飛行していることが認識できる。現在の位置・姿勢情報が取得されるとステップS11に移行する。
<< Step S10 >>
In step S10, the current position / posture information is acquired. The acquisition of the position / posture information can be obtained from the position / posture sensor 32 and the position / posture recognition unit 31. The position / attitude recognition unit 31 can obtain the current position / attitude by using, for example, the SLAM (Simultaneous Localization and Mapping) method, and the flying object 10 is flying in a certain state in this state. Can be recognized. When the current position / posture information is acquired, the process proceeds to step S11.

≪ステップS11≫
ステップS11においては、現在の飛行体10の飛行状態がいずれの動作状態(上述の5つの動作モード)であるかを判断するため、現時点で動作状態管理部33が設定している動作状態を取得する。現在の動作状態が取得されるとステップS12に移行する。
≪Step S11≫
In step S11, in order to determine which operating state (the above-mentioned five operating modes) the current flight state of the flying object 10 is, the operating state set by the operating state management unit 33 at the present time is acquired. do. When the current operating state is acquired, the process proceeds to step S12.

≪ステップS12≫
ステップS12においては、動作状態管理部33から取得された動作状態が「巡行モード」かどうかを判断する。この判断ステップにおいては、動作状態管理部33から逐次送られてくる動作状態の情報に基づいて判断される。この判断ステップで「巡行モード」の状態と判断されるとステップS13に移行し、「巡行モード」の状態ではないと判断されるとステップS14に移行する。
≪Step S12≫
In step S12, it is determined whether or not the operating state acquired from the operating state management unit 33 is the "cruising mode". In this determination step, the determination is made based on the information on the operation state sequentially sent from the operation state management unit 33. If it is determined in this determination step that the state is in the "cruising mode", the process proceeds to step S13, and if it is determined that the state is not in the "cruising mode", the process proceeds to step S14.

≪ステップS13≫
ステップS13においては、ステップS10で取得した現在の位置・姿勢と、地図データベース34からの地図情報をマッチングさせ、目的位置・姿勢譲情報を設定する。この状態で、以下の制御ステップS14、S18、S20で「no」と判断されると、ステップS22に移行して目的位置・姿勢情報にしたがって飛行体10を制御する。これによって、飛行体10は「巡行モード」で目的地に向かうことになる。
≪Step S13≫
In step S13, the current position / posture acquired in step S10 is matched with the map information from the map database 34, and the target position / posture transfer information is set. In this state, if it is determined to be "no" in the following control steps S14, S18, and S20, the process proceeds to step S22 and the flying object 10 is controlled according to the target position / attitude information. As a result, the flying object 10 heads for the destination in the "cruising mode".

≪ステップS14≫
ステップS12、S13の制御ステップを実行すると、本ステップS14では、動作状態管理部33から取得された動作状態が「接近モード」かどうかを判断する。この判断ステップで「接近モード」の状態と判断されるとステップS15に移行し、「接近モード」の状態ではないと判断されるとステップS18に移行する。
<< Step S14 >>
When the control steps of steps S12 and S13 are executed, in this step S14, it is determined whether or not the operation state acquired from the operation state management unit 33 is the "approach mode". If it is determined in this determination step that the state is in the "approach mode", the process proceeds to step S15, and if it is determined that the state is not in the "approach mode", the process proceeds to step S18.

≪ステップS15≫
ステップS14で「接近モード」と判断されているので、ステップS15においては、飛行体10の着陸要請があるかどうかを判断する。着陸要請は、動作状態管理部33から着陸地点の出力があるかどうかで判断することができる。ステップS15で、着陸地点の出力があると判断されるとステップS16に移行し、着陸地点の出力がないと判断されるとステップS17に移行する。
≪Step S15≫
Since the "approach mode" is determined in step S14, it is determined in step S15 whether or not there is a landing request for the aircraft 10. The landing request can be determined by whether or not there is an output of the landing point from the operation state management unit 33. In step S15, if it is determined that there is an output at the landing point, the process proceeds to step S16, and if it is determined that there is no output at the landing point, the process proceeds to step S17.

≪ステップS16≫
ステップS16においては、ステップS15で着陸要請があると判断されているので、ステップS13で設定された目標位置・姿勢情報を新たな着陸地点の上空に着陸地点情報として再設定する。この状態で、以下の制御ステップS18、S20で「no」と判断されると、ステップS22に移行して着陸地点情報にしたがって、飛行体10が着陸地点の上空に向かう制御を実行する。これによって、飛行体10は「接近モード」で着陸地点に向かうことになる。
≪Step S16≫
In step S16, since it is determined that there is a landing request in step S15, the target position / attitude information set in step S13 is reset as landing point information above the new landing point. In this state, if it is determined to be "no" in the following control steps S18 and S20, the process proceeds to step S22, and the flight body 10 is controlled to fly over the landing point according to the landing point information. As a result, the aircraft 10 will head toward the landing point in the "approach mode".

≪ステップS17≫
一方、ステップS15で着陸地点の出力がないと判断されているので、地図データベースから目標位置・姿勢情報を新たに再設定する。この状態で、以下の制御ステップS18、S20で「no」と判断されると、ステップS22に移行して目標位置・姿勢情報にしたがって飛行体10を制御する。
≪Step S17≫
On the other hand, since it is determined in step S15 that there is no output of the landing point, the target position / attitude information is newly set from the map database. In this state, if it is determined to be "no" in the following control steps S18 and S20, the process proceeds to step S22 and the flying object 10 is controlled according to the target position / attitude information.

≪ステップS18≫
ステップS16、S17で着陸地点情報、或いは目標位置・姿勢情報が設定されると、ステップS18においては、動作状態管理部33から取得された動作状態が「待機モード」かどうかを判断する。この判断ステップで「待機モード」の状態と判断されるとステップS19に移行し、「待機モード」の状態ではないと判断されるとステップS20に移行する。
≪Step S18≫
When the landing point information or the target position / attitude information is set in steps S16 and S17, in step S18, it is determined whether or not the operation state acquired from the operation state management unit 33 is the "standby mode". If it is determined in this determination step that the state is in the "standby mode", the process proceeds to step S19, and if it is determined that the state is not in the "standby mode", the process proceeds to step S20.

≪ステップS19≫
ステップS19においては、飛行体10が着陸地点に到着して「待機モード」に設定されているので、現在の位置・姿勢情報を新たな目標位置・姿勢情報に再設定する。この状態で飛行体10は、ホバリングを行い着陸地点の上空で待機することになる。次に、この状態でステップS20に移行する。
≪Step S19≫
In step S19, since the aircraft 10 arrives at the landing point and is set to the "standby mode", the current position / attitude information is reset to the new target position / attitude information. In this state, the flying object 10 will hover and stand by in the sky above the landing point. Next, in this state, the process proceeds to step S20.

≪ステップS20≫
ステップS18、S19の制御ステップを実行すると、本ステップS20においては、動作状態が「着陸モード」あるいは「離陸モード」にあるかどうかを判断する。「着陸モード」あるいは「離陸モード」ではないと判断されるとステップS22に移行し、着陸モード」あるいは「離陸モード」にあると判断されるとステップS21に移行する。
≪Step S20≫
When the control steps of steps S18 and S19 are executed, in this step S20, it is determined whether or not the operating state is in the "landing mode" or the "takeoff mode". If it is determined that it is not in the "landing mode" or "takeoff mode", the process proceeds to step S22, and if it is determined that it is in the "landing mode" or "takeoff mode", the process proceeds to step S21.

≪ステップS21≫
ステップS21においては、現在の位置・姿勢情報をそのままに維持し、垂直方向に移動した地点を目標位置・姿勢に設定する。これによって、飛行体10がホバリングの状態から上昇方向、或いは下降方向に移動されることになる。垂直方向に移動した目標位置・姿勢が設定されるとステップS22に移行する。
≪Step S21≫
In step S21, the current position / posture information is maintained as it is, and the point moved in the vertical direction is set as the target position / posture. As a result, the flying object 10 is moved from the hovering state in the ascending direction or the descending direction. When the target position / posture moved in the vertical direction is set, the process proceeds to step S22.

≪ステップS22≫
ステップS22においては、ステップS13、S16、S17、S19、S21のいずれかで設定された目標位置・姿勢情報に基づき、飛行体10の動作状態を制御することで、飛行体10を目的とする地点に飛行させることができる。
≪Step S22≫
In step S22, the target point of the flying object 10 is controlled by controlling the operating state of the flying object 10 based on the target position / attitude information set in any one of steps S13, S16, S17, S19, and S21. Can be flown to.

以上が飛行体制御装置20の位置・姿勢制御部35の大まかな制御フローである。次に本発明が対象とする着陸制御装置の具体的な制御フローを説明する。尚、以下では着陸制御装置の全体的な制御フローを説明し、その後に全体的な制御フローで実行される主な個々の制御フローを説明する。 The above is a rough control flow of the position / attitude control unit 35 of the flight object control device 20. Next, a specific control flow of the landing control device targeted by the present invention will be described. In the following, the overall control flow of the landing control device will be described, and then the main individual control flows executed in the overall control flow will be described.

[全体的な着陸制御フロー]
全体的な着陸制御フローは図4に示す通りであり、図3に示す制御ステップS20~S22を更に詳細に示したものである。以下、全体的な着陸制御フローを図4にしたがって説明する。
[Overall landing control flow]
The overall landing control flow is as shown in FIG. 4, and the control steps S20 to S22 shown in FIG. 3 are shown in more detail. Hereinafter, the overall landing control flow will be described with reference to FIG.

≪ステップS30≫
ステップS30においては、地図データベース34から着陸地点の真上に飛行体10を移動する。この場合は高度センサ16からの高度情報や、GPSセンサの位置情報等を用いて飛行体10の位置を決めることができる。飛行体10が着陸地点の真上に移動するとステップS31に移行する。
<< Step S30 >>
In step S30, the flight object 10 is moved directly above the landing point from the map database 34. In this case, the position of the flying object 10 can be determined by using the altitude information from the altitude sensor 16, the position information of the GPS sensor, and the like. When the aircraft 10 moves directly above the landing point, the process proceeds to step S31.

尚、図5に飛行体10が着陸するときの状態を概略的に示している。図5の飛行体10は、各空間センサ13~15が近接して配置されている。飛行体10は着陸地点周辺に到着すると、空間センサ13~15によって着陸地点周辺の3つの点群情報が取得される。この時、着陸地点周辺には、着陸地点Lや障害物B1、B2が存在しており、取得された点群情報から着陸地点Lや障害物B1、B2の特徴点が抽出される。 Note that FIG. 5 schematically shows the state when the flying object 10 lands. In the flying object 10 of FIG. 5, the spatial sensors 13 to 15 are arranged in close proximity to each other. When the aircraft 10 arrives around the landing point, the space sensors 13 to 15 acquire information on three point clouds around the landing point. At this time, the landing points L and obstacles B1 and B2 exist around the landing points, and the characteristic points of the landing points L and obstacles B1 and B2 are extracted from the acquired point cloud information.

着陸地点L(アルファベットのHで表示)においては、「〇」で示した平面上の特徴点が検出され、障害物B1、B2においては、「●」で示した障害物の凹凸部の特徴点が検出される。他の図面の説明においても「〇」は平面上の特徴点を示し、「●」は障害物の凹凸部の特徴点を示している。 At the landing point L (indicated by the alphabet H), the feature points on the plane indicated by "○" are detected, and at the obstacles B1 and B2, the feature points of the uneven portion of the obstacle indicated by "●". Is detected. In the explanation of other drawings, "○" indicates a feature point on a plane, and "●" indicates a feature point of an uneven portion of an obstacle.

≪ステップS31≫
ステップS31においては、飛行体10が高度の高い位置に存在しているので、遠距離狭角空間センサ13によって取得された点群情報を用いて、着陸地点周辺の3D形状情報を生成する。この3D形状情報は種々の方法で求めることができるが、本実施形態では図6、図7、図8、図9に示す「3D形状生成フロー」から求めることができる。また、「3D形状生成フロー」の制御ステップの詳細は後述する。着陸地点周辺の3D形状情報が生成されるとステップS32に移行する。
≪Step S31≫
In step S31, since the flying object 10 exists at a high altitude position, the point cloud information acquired by the long-distance narrow-angle space sensor 13 is used to generate 3D shape information around the landing point. This 3D shape information can be obtained by various methods, but in the present embodiment, it can be obtained from the "3D shape generation flow" shown in FIGS. 6, 7, 8 and 9. The details of the control step of the "3D shape generation flow" will be described later. When the 3D shape information around the landing point is generated, the process proceeds to step S32.

≪ステップS32≫
ステップS32においては、ステップS31で求められた3D形状情報から着陸地点周辺の平面、及び障害物(凹凸物)を認識する。この平面、及び障害物(凹凸物)の認識も種々の方法で求めることができるが、本実施形態では図10、図11、図12に示す「平面、障害物(凹凸物)認識フロー」から求めることができる。「平面、障害物(凹凸物)認識フロー」の制御ステップの詳細は後述する。
<< Step S32 >>
In step S32, the plane around the landing point and the obstacle (unevenness) are recognized from the 3D shape information obtained in step S31. Recognition of this plane and obstacles (unevenness) can also be obtained by various methods, but in this embodiment, from the "plane, obstacle (unevenness) recognition flow" shown in FIGS. 10, 11, and 12. You can ask. The details of the control step of "plane, obstacle (unevenness) recognition flow" will be described later.

更に、平面、及び障害物(凹凸物)を認識すると、平面、及び障害物(凹凸物)の特徴点を検出する。特徴点の検出も種々の方法で求めることができるが、本実施形態では図13、図14に示す「特徴点検出フロー」から求めることができる。「特徴点検出フロー」の制御ステップの詳細は後述する。 Further, when the plane and the obstacle (unevenness) are recognized, the feature points of the plane and the obstacle (unevenness) are detected. The detection of feature points can also be obtained by various methods, but in the present embodiment, it can be obtained from the "feature point detection flow" shown in FIGS. 13 and 14. Details of the control steps of the "feature point detection flow" will be described later.

特徴点を検出すると、互いの特徴点の間の相対位置を計測して各特徴点に特定の識別ID(特徴点ID)を付与する。識別ID(特徴点ID)の付与も種々の方法で求めることができるが、本実施形態では図15、図16に示す「特徴点相対位置検出フロー」から求めることができる。「特徴点相対位置検出フロー」の制御ステップの詳細は後述する。 When a feature point is detected, the relative position between the feature points is measured and a specific identification ID (feature point ID) is given to each feature point. The assignment of the identification ID (feature point ID) can also be obtained by various methods, but in the present embodiment, it can be obtained from the "feature point relative position detection flow" shown in FIGS. 15 and 16. The details of the control step of the "feature point relative position detection flow" will be described later.

特徴点に特定の識別ID(特徴点ID)を付与するまでの処理が完了するとステップS33に移行する。 When the process of assigning a specific identification ID (feature point ID) to the feature point is completed, the process proceeds to step S33.

≪ステップS33≫
ステップS33においては、上述した平面上の特徴点の相対位置から、着陸に十分な広さの平面が存在するかどうかの判断を行う。平面の広さは飛行体10の着陸面への投影面積を基準に判断することができる。飛行体10の体格は予め決められているので、平面上の特徴点の相対位置から求められた平面の広さと比較することで、着陸が可能かどうか判断される。
≪Step S33≫
In step S33, it is determined whether or not there is a plane sufficiently wide for landing from the relative positions of the feature points on the plane described above. The size of the plane can be determined based on the projected area of the flying object 10 on the landing surface. Since the physique of the flying object 10 is predetermined, it is determined whether or not landing is possible by comparing it with the width of the plane obtained from the relative positions of the feature points on the plane.

着陸ができないと判断されるとステップS34に移行し、着陸ができると判断されるとステップS35に移行する。 If it is determined that landing is not possible, the process proceeds to step S34, and if it is determined that landing is possible, the process proceeds to step S35.

≪ステップS34≫
ステップS34においては、飛行体10が着陸できないと判断されているので、着陸場所を変更する処理を行い、再びステップS30に戻って、同様の処理を繰り返すことになる。
<< Step S34 >>
In step S34, since it is determined that the aircraft 10 cannot land, a process of changing the landing location is performed, the process returns to step S30 again, and the same process is repeated.

≪ステップS35≫
一方、ステップS33で着陸ができると判断されているので、ステップS35においては、飛行体10の着陸動作を開始する。尚、この時の着陸地点周辺の点群情報は、高度が高い時の点群情報であるので、遠距離狭角空間センサ13による計測範囲内の点群情報となる。このため、高度が低くなるにしたがって計測範囲が狭くなるので、特徴点が消失して追尾できない、着陸範囲内に危険な物体(例えば車両等)が移動してくると、これを検出できない、位置・姿勢制御に必要な特徴点の追尾が困難となるといった不具合を生じる。
≪Step S35≫
On the other hand, since it is determined that the landing can be performed in step S33, the landing operation of the flying object 10 is started in step S35. Since the point cloud information around the landing point at this time is the point cloud information when the altitude is high, it is the point cloud information within the measurement range by the long-distance narrow-angle space sensor 13. For this reason, the measurement range becomes narrower as the altitude becomes lower, so the feature points disappear and cannot be tracked. If a dangerous object (for example, a vehicle) moves within the landing range, it cannot be detected. -There is a problem that it becomes difficult to track the feature points required for attitude control.

そこで、本実施形態では、ステップS36以降の制御ステップを実行して、上述の不具合をなくすようにするものである。 Therefore, in the present embodiment, the control steps after step S36 are executed to eliminate the above-mentioned problems.

≪ステップS36≫
ステップS36においては、高度センサ16から高度変化量を取得する。これによって、飛行体10の現在の対地高度を求めることができる。この対地高度は空間センサ13~15による点群情報の信頼度を求めるために使用される。対地高度が求められると、ステップS37に移行する。
≪Step S36≫
In step S36, the altitude change amount is acquired from the altitude sensor 16. This makes it possible to determine the current altitude above ground level of the aircraft 10. This altitude above ground level is used to determine the reliability of the point cloud information by the spatial sensors 13 to 15. When the altitude above ground level is required, the process proceeds to step S37.

≪ステップS37≫
ステップS37においては、特徴点を検出できる空間センサ13~15毎に信頼度を設定する。信頼度の設定は、対地高度と特徴点の相対位置とから特徴点を含む必要画角を求め、この必要画角と各空間センサ13~15の画角とから求められる。この信頼度の求め方は、本実施形態では図8に示す「信頼度設定フロー」から求めることができる。「信頼度設定フロー」の制御ステップの詳細は後述する。信頼度の設定処理が完了するとステップS38に移行する。
≪Step S37≫
In step S37, the reliability is set for each of the spatial sensors 13 to 15 that can detect the feature points. The reliability is set by obtaining the required angle of view including the feature points from the altitude above ground level and the relative position of the feature points, and from the required angle of view and the angles of view of the spatial sensors 13 to 15. In this embodiment, the reliability can be obtained from the "reliability setting flow" shown in FIG. The details of the control steps of the "reliability setting flow" will be described later. When the reliability setting process is completed, the process proceeds to step S38.

≪ステップS38≫
ステップS38においては、空間センサ13~15の計測データ(3つの点群情報)と、ステップS37で求められた信頼度から新たに3D形状情報を生成する。この3D形状情報の生成方法はステップS31と同じ方法で行うことができる。ただし、この場合の3D形状情報は、ステップS31で生成した3D形状情報に対して、或る時間が経過した後の3D形状情報となる。このため、新たな障害物が発生している状況が想定される。新たな3D形状情報の生成が完了するとステップS39に移行する。
≪Step S38≫
In step S38, 3D shape information is newly generated from the measurement data (three point cloud information) of the spatial sensors 13 to 15 and the reliability obtained in step S37. The method of generating the 3D shape information can be performed by the same method as in step S31. However, the 3D shape information in this case becomes the 3D shape information after a certain time has elapsed with respect to the 3D shape information generated in step S31. Therefore, it is assumed that a new obstacle has occurred. When the generation of new 3D shape information is completed, the process proceeds to step S39.

≪ステップS39≫
ステップS39においては、着陸地点周辺の平面及び障害物(凹凸物)を再び認識して、新たな特徴点を検出する。この制御ステップは、ステップS32と同じ方法で行うことができる。尚、ステップS38で説明したように新たな障害物が発生している状況が想定される。したがって、新たな特徴点が検出されると、互いの特徴点の間の相対位置を計測して各特徴点に特定の識別ID(特徴点ID)を付与する。
≪Step S39≫
In step S39, the plane around the landing point and the obstacle (unevenness) are recognized again, and a new feature point is detected. This control step can be performed in the same manner as in step S32. As described in step S38, it is assumed that a new obstacle has occurred. Therefore, when a new feature point is detected, the relative position between the feature points is measured and a specific identification ID (feature point ID) is given to each feature point.

新たな特徴点に特定の識別ID(特徴点ID)を付与するまでの処理が完了すると、ステップS40に移行する。 When the process of assigning a specific identification ID (feature point ID) to the new feature point is completed, the process proceeds to step S40.

≪ステップS40≫
ステップS40においては、位置・姿勢認識部31によって、現在の飛行体10の位置、姿勢を特定する。現在の位置・姿勢はステップS10と同様にSLAM手法を利用して求めることができる。この時の位置・姿勢は着陸モードでの位置・姿勢となっており、飛行体10は着陸地点に向かって降下している状態である。現在の飛行体10の位置、姿勢が特定されるとステップS41に移行する。
<< Step S40 >>
In step S40, the position / attitude recognition unit 31 specifies the current position and attitude of the flying object 10. The current position / posture can be obtained by using the SLAM method as in step S10. The position / attitude at this time is the position / attitude in the landing mode, and the aircraft 10 is in a state of descending toward the landing point. When the current position and attitude of the flying object 10 are specified, the process proceeds to step S41.

≪ステップS41≫
ステップS41においては、着陸地点に新たな障害物が存在するかどうかの判断を実行している。新たな障害物が存在するかどうかの判断は、図17に示す「危険判断フロー」から判断することができる。「危険判断フロー」の制御ステップの詳細は後述する。
≪Step S41≫
In step S41, it is determined whether or not a new obstacle exists at the landing point. Whether or not a new obstacle exists can be determined from the "danger determination flow" shown in FIG. The details of the control steps of the "danger judgment flow" will be described later.

ステップS35の時刻においては、着陸動作を実行している時点で障害物が存在していない状況であったが、時間の経過によって例えば車両の進入等が発生して、着地点に新たな障害物が発生することがある。 At the time of step S35, there was no obstacle at the time of executing the landing operation, but as time passed, for example, a vehicle approached and a new obstacle was found at the landing point. May occur.

したがって、ステップS39で求められた新たな特徴点から、着陸地点に新たな障害物が発生したと判断されるとステップS42に移行し、新たな特徴点が発生していないと判断されるとステップS43に移行する。 Therefore, from the new feature points obtained in step S39, if it is determined that a new obstacle has occurred at the landing point, the process proceeds to step S42, and if it is determined that no new feature point has occurred, the step is taken. Move to S43.

≪ステップS42≫
ステップS41で着陸地点周辺に新たな障害物が有ると判断されているので、ステップS42においては、着陸場所を修正して新たな着陸場所を求めている。新たな着陸場所は、図18に示す「動作状態管理フロー」から求めることができる。「動作状態管理フロー」の制御ステップの詳細は後述する。新たな着陸場所が求められると、ステップS43に移行する。
≪Step S42≫
Since it is determined in step S41 that there is a new obstacle around the landing point, in step S42, the landing place is corrected and a new landing place is sought. The new landing location can be obtained from the "operating state management flow" shown in FIG. The details of the control steps of the "operation state management flow" will be described later. When a new landing place is requested, the process proceeds to step S43.

≪ステップS43≫
ステップS43においては、設定された着陸場所、或いはステップS42で修正された着陸場所に向かって、飛行体10の移動制御を実行する。飛行体10の移動制御を実行するとステップS44に移行する。
≪Step S43≫
In step S43, the movement control of the aircraft 10 is executed toward the landing place set or the landing place modified in step S42. When the movement control of the flight object 10 is executed, the process proceeds to step S44.

≪ステップS44≫
ステップS44においては、飛行体10が着陸場所に着地したかどうかの判断を行っている。着地判断は、飛行体10の重量で開閉される着地スイッチを飛行体10に設けることで、着地を判断することができる。着地が完了しないと判断されるとステップS36に戻り、再びステップS36以降の制御ステップを実行する。一方、着地が完了したと判断されると、エンドに抜けて本制御フローを完了する。
<< Step S44 >>
In step S44, it is determined whether or not the aircraft 10 has landed at the landing site. The landing determination can be made by providing the flying object 10 with a landing switch that is opened and closed by the weight of the flying object 10. If it is determined that the landing is not completed, the process returns to step S36, and the control steps after step S36 are executed again. On the other hand, when it is determined that the landing is completed, it exits to the end and completes this control flow.

以上が着陸制御装置の全体的な制御フローであるが、次に主な個々の制御フローを説明する。 The above is the overall control flow of the landing control device. Next, the main individual control flows will be described.

[3D形状生成フロー]
ステップS31における3D形状生成フローについて、図6、図7、図8、図9を用いて説明する。尚、図6は着陸地点周辺の3D形状を新たに計測して更新する制御フローを示し、図7はその時の点群の詳細情報を示し、図8は図6における信頼度を求める制御フローを示し、図9は信頼度を求める必要画角の算出方法を示している。
[3D shape generation flow]
The 3D shape generation flow in step S31 will be described with reference to FIGS. 6, 7, 8 and 9. Note that FIG. 6 shows a control flow for newly measuring and updating the 3D shape around the landing point, FIG. 7 shows detailed information of the point cloud at that time, and FIG. 8 shows a control flow for obtaining the reliability in FIG. Shown, FIG. 9 shows a method of calculating the required angle of view for obtaining reliability.

以下、図6に示す制御フローを元に3D形状生成フローを説明するが、以下の制御フローにおいては、ICP(Iterative Closest Point)手法を用いている。 Hereinafter, the 3D shape generation flow will be described based on the control flow shown in FIG. 6, but in the following control flow, the ICP (Iterative Closest Point) method is used.

≪ステップS50≫
ステップS50において、各空間センサ13~15からの着陸地点周辺の点群情報を計測する。この点群情報の計測は従来と同様の方法で計測することができる。着陸地点周辺の点群情報を計測するとステップS51に移行する。
<< Step S50 >>
In step S50, the point cloud information around the landing point is measured from each of the spatial sensors 13 to 15. The point cloud information can be measured by the same method as before. When the point cloud information around the landing point is measured, the process proceeds to step S51.

≪ステップS51≫
ステップS51において、3D形状記憶部24から直近の着陸地点付近の3D形状情報を読み込む。3D形状記憶部24の形状データは逐次更新されているので、最新の形状データとされている。着陸地点付近の3D形状情報を読み込むとステップS52に移行する。
≪Step S51≫
In step S51, the 3D shape information near the nearest landing point is read from the 3D shape storage unit 24. Since the shape data of the 3D shape storage unit 24 is sequentially updated, it is regarded as the latest shape data. When the 3D shape information near the landing point is read, the process proceeds to step S52.

≪ステップS52≫
ステップS52において、各空間センサ13~15から得られた3つの点群情報に、信頼度をそれぞれ設定する。この信頼度は対地高度に基づいて決められている。具体的な設定方法は図8、図9によって説明する。信頼度が設定されるとステップS53に移行する。
<< Step S52 >>
In step S52, the reliability is set for each of the three point cloud information obtained from each of the spatial sensors 13 to 15. This reliability is determined based on the altitude above ground level. A specific setting method will be described with reference to FIGS. 8 and 9. When the reliability is set, the process proceeds to step S53.

≪ステップS53≫
ステップS53においては、各空間センサ13~15の点群情報から観測可能な特徴点をリストアップする。このリストアップされる特徴点は、後述する図9に示す必要画角で設定される外接円の範囲内にある特徴点である。また、リストアップされた特徴点は、対地高度が低くなっても追尾されていくものである。特徴点がリストアップされるとステップS54に移行する。
≪Step S53≫
In step S53, the feature points that can be observed from the point cloud information of each space sensor 13 to 15 are listed. The feature points listed are feature points within the range of the circumscribed circle set by the required angle of view shown in FIG. 9 to be described later. In addition, the feature points listed are tracked even when the altitude above ground level is low. When the feature points are listed, the process proceeds to step S54.

≪ステップS54≫
ステップS54においては、ステップS53で求めた特徴点から、各空間センサ13~15の特徴点相対位置を求め、特徴点相対位置から点群変換行列を計算する。特徴点相対位置は、図15、図16に示す「特徴点相対位置検出フロー」から求めることができる。
<< Step S54 >>
In step S54, the feature point relative positions of the spatial sensors 13 to 15 are obtained from the feature points obtained in step S53, and the point cloud conversion matrix is calculated from the feature point relative positions. The feature point relative position can be obtained from the "feature point relative position detection flow" shown in FIGS. 15 and 16.

ここで、点群とは図7に示す情報を有している。点群の情報は、直交座標系のX、Y、Zの基本的位置情報や色などの情報を持つ3次元データから構成されている。また、点群は特徴点を含んでおり、例えば、図7において点群は、位置(P1)については、色(C1)、輝度(K1)、反射強度(I1)…が定義され、位置(P2)については、色(C2)、輝度(K2)、反射強度(I2)…が定義されている。これらの膨大な量の点を元に3D空間を表現することができる。点群変換行列の計算が完了するとステップS55に移行する。 Here, the point cloud has the information shown in FIG. 7. The point cloud information is composed of three-dimensional data having information such as basic position information and colors of X, Y, and Z in the Cartesian coordinate system. Further, the point cloud includes feature points. For example, in FIG. 7, for the position (P1), the color (C1), the luminance (K1), the reflection intensity (I1), and the like are defined, and the position (P1) is defined. For P2), color (C2), luminance (K2), reflection intensity (I2) ... Are defined. A 3D space can be expressed based on these enormous amounts of points. When the calculation of the point cloud transformation matrix is completed, the process proceeds to step S55.

≪ステップS55≫
ステップS55においては、ステップS52で設定された各空間センサ13~15の3つの点群情報の信頼度に応じて、ステップS53で求めた空間センサ13~15由来の特徴点に重みを設定する。例えば、或る点群情報の信頼度が「1」であれば、そのままの情報となり、「0」であれば、その特徴点は無視されることになる。特徴点に信頼度に応じた重みの設定が完了するとステップS56に移行する。
≪Step S55≫
In step S55, weights are set for the feature points derived from the spatial sensors 13 to 15 obtained in step S53 according to the reliability of the three point cloud information of each spatial sensor 13 to 15 set in step S52. For example, if the reliability of a certain point cloud information is "1", the information is as it is, and if it is "0", the feature point is ignored. When the setting of the weight according to the reliability of the feature point is completed, the process proceeds to step S56.

≪ステップS56≫
ステップS56においては、点群変換行列により各空間センサ13~15の3つの点群情報を3D形状情報の座標に変換し、各空間センサ13~15の3つの3D形状情報と読み込んだ3D形状情報とを統合する。3D形状情報の統合が完了するとステップS57に移行する。
≪Step S56≫
In step S56, the three point cloud information of each space sensor 13 to 15 is converted into the coordinates of the 3D shape information by the point cloud conversion matrix, and the three 3D shape information of each space sensor 13 to 15 and the read 3D shape information are converted. And integrate with. When the integration of the 3D shape information is completed, the process proceeds to step S57.

≪ステップS57≫
ステップS57においては、ステップS56で統合された3D形状情報を3D形状記憶部24に転送して、3D形状記憶部24の3D形状情報を更新する。更新が完了するとエンドに抜けて処理を終了する。
≪Step S57≫
In step S57, the 3D shape information integrated in step S56 is transferred to the 3D shape storage unit 24, and the 3D shape information of the 3D shape storage unit 24 is updated. When the update is completed, it exits to the end and ends the process.

[信頼度設定フロー]
次に、ステップS52における信頼度の設定方法について、図8、図9を用いて説明する。
[Reliability setting flow]
Next, the method of setting the reliability in step S52 will be described with reference to FIGS. 8 and 9.

≪ステップS60≫
ステップS60においては、動作状態管理部33から「着陸モード」の実行指令が出され、「着陸モード」を実行しているかどうかの判断が行われる。「着陸モード」でないと判断されるとエンドに抜けて処理を終了する。一方、現在の動作モードが「着陸モード」であると判断されるとステップS61に移行する。
<< Step S60 >>
In step S60, the operation state management unit 33 issues an execution command for the "landing mode", and determines whether or not the "landing mode" is being executed. If it is determined that it is not in "landing mode", it exits to the end and ends the process. On the other hand, if it is determined that the current operation mode is the "landing mode", the process proceeds to step S61.

≪ステップS61≫
ステップS61においては、高度センサ16によって、飛行体10の高度変化を取得する。つまり、高度変化から対地高度を検出するが、この対地高度は、信頼度を設定するパラメータとして使用される。対地高度が検出されるとステップS62に移行する。
≪Step S61≫
In step S61, the altitude sensor 16 acquires the altitude change of the flying object 10. That is, the altitude above ground level is detected from the change in altitude, and this altitude above ground level is used as a parameter for setting the reliability. When the altitude above ground level is detected, the process proceeds to step S62.

≪ステップS62≫
ステップS62においては、相対位置グループ記憶部29から特徴点相対位置を取得する。この特徴点相対位置は、図15、図16に示す「特徴点相対位置検出フロー」から求めることができる。この特徴点相対位置も、信頼度を設定するパラメータとして使用される。特徴点相対位置が求められるとステップS63に移行する。
≪Step S62≫
In step S62, the feature point relative position is acquired from the relative position group storage unit 29. The feature point relative position can be obtained from the "feature point relative position detection flow" shown in FIGS. 15 and 16. This feature point relative position is also used as a parameter to set the reliability. When the relative position of the feature point is obtained, the process proceeds to step S63.

≪ステップS63≫
ステップS63においては、対地高度と特徴点相対位置から必要画角(θ)を計算する。図9に示しているように、互いに関連する平面上の特徴点(○で表示)や障害物の凹凸部の特徴点(●で表示)は、相対的な距離(a、b、c)を有している。したがって、必要とする平面や障害物を構成する識別ID(特徴点ID)の全ての特徴点を含む外接円の直径(D)と高度(H)から、逆三角関数を用いて必要画角を求めることができる。識別ID(特徴点ID)の全ての特徴点を含む必要画角(θ)が求められると、ステップS64に移行する。
≪Step S63≫
In step S63, the required angle of view (θ) is calculated from the altitude above ground level and the relative position of the feature points. As shown in FIG. 9, the feature points on the plane (indicated by ○) and the feature points of the uneven portion of the obstacle (indicated by ●), which are related to each other, are relative distances (a, b, c). Have. Therefore, the required angle of view is determined by using the inverse trigonometric function from the diameter (D) and altitude (H) of the circumscribed circle including all the feature points of the identification ID (feature point ID) constituting the required plane or obstacle. You can ask. When the required angle of view (θ) including all the feature points of the identification ID (feature point ID) is obtained, the process proceeds to step S64.

≪ステップS64≫
ステップS64においては、求められた必要画角(θ)と各空間センサ13~15の画角とを比較し、各空間センサ13~15の画像の信頼度を設定する。例えば、遠距離狭角空間センサ13の画角が、必要画角(θ)より小さいと信頼度が小さいと判断され、遠距離狭角空間センサ13の画角が、必要画角(θ)より大きいと信頼度が大きいと判断される。中距離広角空間センサ14、近距離広角空間センサ15においても同様の判断が実行される。この判断結果に対応して各空間センサ13~15毎に信頼度が設定される。
≪Step S64≫
In step S64, the obtained required angle of view (θ) is compared with the angle of view of each of the spatial sensors 13 to 15, and the reliability of the image of each of the spatial sensors 13 to 15 is set. For example, if the angle of view of the long-distance narrow-angle space sensor 13 is smaller than the required angle of view (θ), it is determined that the reliability is low, and the angle of view of the long-distance narrow-angle space sensor 13 is larger than the required angle of view (θ). If it is large, it is judged that the reliability is high. The same determination is performed in the medium-range wide-angle space sensor 14 and the short-range wide-angle space sensor 15. The reliability is set for each of the spatial sensors 13 to 15 according to this determination result.

このように、飛行体10の高度が低くなるにつれて必要画角(θ)が大きくなるので、中距離広角空間センサ14、近距離広角空間センサ15の方の信頼度が大きくなる。ここで、信頼度は「1~0」の範囲に設定されており、適宜設定することができる。また、信頼度を「1」、或いは「0」に設定することもできる。信頼度が設定されると、エンドに抜けて処理を終了する。 As described above, the required angle of view (θ) increases as the altitude of the flying object 10 decreases, so that the reliability of the medium-range wide-angle space sensor 14 and the short-range wide-angle space sensor 15 increases. Here, the reliability is set in the range of "1 to 0" and can be set as appropriate. Further, the reliability can be set to "1" or "0". When the reliability is set, it exits to the end and ends the process.

[平面/障害物認識フロー]
次に、ステップS32における平面や障害物の凹凸部を認識する平面/障害物認識方法について、図10、図11、図12を用いて説明する。
[Plane / Obstacle recognition flow]
Next, a plane / obstacle recognition method for recognizing a plane or an uneven portion of an obstacle in step S32 will be described with reference to FIGS. 10, 11, and 12.

≪ステップS70≫
ステップS70においては、3D形状記憶部24から最新の着陸地点周辺の3D形状情報を取得する。着陸地点周辺においては、平面や障害物(凹凸部)が存在しているため、障害物を避けて着陸させる必要がある。このため、着陸地点周辺の3D形状情報から障害物を検出する。着陸地点周辺の3D形状情報を取得するとステップS71に移行する。
≪Step S70≫
In step S70, 3D shape information around the latest landing point is acquired from the 3D shape storage unit 24. Since there are planes and obstacles (uneven parts) around the landing point, it is necessary to avoid obstacles when landing. Therefore, obstacles are detected from the 3D shape information around the landing point. When the 3D shape information around the landing point is acquired, the process proceeds to step S71.

≪ステップS71≫
ステップS71においては、着陸地点周辺の3D形状情報から平面を推定する。この平面を推定するのは、平面から重力方向で上側に突出している凸部や、平面から重力方向で下側に陥没している凹部等を検出する基準とするためである。もちろん、飛行体10の着陸面を設定するためにも利用することができる。
≪Step S71≫
In step S71, the plane is estimated from the 3D shape information around the landing point. The reason for estimating this plane is to use it as a reference for detecting a convex portion protruding upward from the plane in the direction of gravity, a concave portion recessed downward in the direction of gravity from the plane, and the like. Of course, it can also be used to set the landing surface of the aircraft 10.

ここで、平面の推定するためには種々の方法があるが、本実施形態では周知のRANSAC(Random Sample Consensus)手法を用いて平面を推定することができる。平面が推定されるとステップS72に移行する。 Here, there are various methods for estimating the plane, but in the present embodiment, the plane can be estimated by using a well-known RANSAC (Random Sample Consensus) method. When the plane is estimated, the process proceeds to step S72.

≪ステップS72≫
ステップS72においては、ステップS71で推定された平面を基準にして、重力方向で所定の閾値以上の点(特徴点)を検出し、特徴点検出部へ送信する。特徴点検出部の動作は後述する。所定の閾値以上の点を検出すると、ステップS73に移行する。尚、特徴点は点群の一部であるので、図7に示す点群情報も紐付けられている。
≪Step S72≫
In step S72, a point (feature point) equal to or higher than a predetermined threshold value in the direction of gravity is detected with reference to the plane estimated in step S71, and is transmitted to the feature point detection unit. The operation of the feature point detection unit will be described later. When a point equal to or higher than a predetermined threshold value is detected, the process proceeds to step S73. Since the feature points are a part of the point cloud, the point cloud information shown in FIG. 7 is also associated with them.

≪ステップS73≫
ステップS73においては、所定閾値以上の点をグルーピングし、識別IDと原点、サイズを表すベクトルを保存する。このグルーピングは互いに関連した点をグループ(点群)として捉えることで「障害物」を特定するものである。
≪Step S73≫
In step S73, points equal to or larger than a predetermined threshold are grouped, and a vector representing an identification ID, an origin, and a size is stored. This grouping identifies "obstacles" by treating points related to each other as a group (point cloud).

図11はグルーピングの概念を示しており、「〇」は平面上の特徴点を示し、「●」は障害物の特徴点を示している。障害物の特徴点は、夫々が相対的な距離を有して関連しているのでグルーピングすることができ、更には、所定の原点位置を基準とするサイズベクトル(xyz)で表すことができる。サイズベクトル(xyz)の保存が完了するとステップS74に移行する。 FIG. 11 shows the concept of grouping, where “◯” indicates a feature point on a plane and “●” indicates a feature point of an obstacle. The feature points of the obstacles can be grouped because they are related to each other with a relative distance, and can be further represented by a size vector (xyz) with respect to a predetermined origin position. When the storage of the size vector (xyz) is completed, the process proceeds to step S74.

≪ステップS74≫
ステップS74においては、グルーピングした点群の夫々に凹凸フラグを設定する。この凹凸フラグは、基準となる平面に対して上側に突出している点群(障害物)であるか、或いは基準となる平面に対して下側に陥没している点群(障害物)であるかを示すフラグである。本実施形態では、上側に突出している点群では「+」(凸フラグ)を設定し、下側に陥没している点群では「-」(凹フラグ)を設定している。凹凸フラグの設定が完了するとステップS75に移行する。
≪Step S74≫
In step S74, an unevenness flag is set for each of the grouped point clouds. This unevenness flag is a point cloud (obstacle) that protrudes upward with respect to the reference plane, or a point cloud (obstacle) that is depressed downward with respect to the reference plane. It is a flag indicating whether or not. In the present embodiment, "+" (convex flag) is set for the point cloud protruding upward, and "-" (concave flag) is set for the point cloud depressed downward. When the setting of the unevenness flag is completed, the process proceeds to step S75.

≪ステップS75≫
ステップS75においては、グルーピングした点群(凹凸グループ)に、夫々を識別するグループ識別IDを設定する。グループ識別IDの一例を図12に示している。
≪Step S75≫
In step S75, a group identification ID for identifying each is set in the grouped point cloud (unevenness group). An example of the group identification ID is shown in FIG.

図12において、グルーピングした点群の情報は、直交座標系の原点位置、サイズベクトル、凹凸フラグなどの情報を持つデータから構成されている。例えば、グループ識別ID(G1)については、原点位置(P1)、サイズベクトル(S1)、凹フラグ(-1)が定義され、グループ識別ID(G2)については、原点位置(P2)、サイズベクトル(S2)、凸フラグ(+1)が定義されている。グループ識別IDの設定が完了するとステップS76に移行する。 In FIG. 12, the grouped point cloud information is composed of data having information such as the origin position of the orthogonal coordinate system, the size vector, and the unevenness flag. For example, the origin position (P1), the size vector (S1), and the concave flag (-1) are defined for the group identification ID (G1), and the origin position (P2), the size vector for the group identification ID (G2). (S2), the convex flag (+1) is defined. When the setting of the group identification ID is completed, the process proceeds to step S76.

≪ステップS76≫
ステップS76においては、ステップS75で求められたグループ識別ID(上述した原点位置、サイズベクトル、凹凸フラグ等を含む)は、危険判断部30に送信される。これによって、危険判断部30は障害物の有無や大きさ等を判断して、飛行体10の着陸に支障があるかどうかの判断を実行する。危険判断部30の制御動作は後述する。グループ識別IDの送信が完了するとエンドに抜けて処理を終了する。
≪Step S76≫
In step S76, the group identification ID (including the above-mentioned origin position, size vector, unevenness flag, etc.) obtained in step S75 is transmitted to the danger determination unit 30. As a result, the danger determination unit 30 determines whether or not there is an obstacle, the size, and the like, and determines whether or not the landing of the flight object 10 is hindered. The control operation of the danger determination unit 30 will be described later. When the transmission of the group identification ID is completed, the process ends with the end.

[特徴点検出フロー]
次に、ステップS32における着陸地点周辺の平面および障害物(凹凸物)を認識して特徴点を検出する特徴点検出方法について、図13、図14を用いて説明する。
[Feature point detection flow]
Next, a feature point detection method for recognizing a plane around the landing point and an obstacle (unevenness) and detecting the feature points in step S32 will be described with reference to FIGS. 13 and 14.

≪ステップS80≫
ステップS80においては、3D形状記憶部24から最新の着陸地点周辺の3D形状情報を取得する。着陸地点周辺の3D形状情報を取得するとステップS81に移行する。
≪Step S80≫
In step S80, the latest 3D shape information around the landing point is acquired from the 3D shape storage unit 24. When the 3D shape information around the landing point is acquired, the process proceeds to step S81.

≪ステップS81≫
ステップS81においては、着陸地点周辺の3D形状情報において、形状、色、反射強度の変化(差分・勾配等)を算出する。これは新たな特徴点が発生したことを検出するためである。新たな特徴点とは、例えば着陸地点周辺に車両が進入してくる場合等が想定される。形状、色、反射強度の変化(差分・勾配等)が算出されると、ステップS82に移行する。
≪Step S81≫
In step S81, changes in shape, color, and reflection intensity (difference, gradient, etc.) are calculated in the 3D shape information around the landing point. This is to detect that a new feature point has occurred. The new feature point is assumed to be, for example, the case where a vehicle enters the vicinity of the landing point. When changes in shape, color, and reflection intensity (difference, gradient, etc.) are calculated, the process proceeds to step S82.

≪ステップS82≫
ステップS82においては、ステップS81で求められた形状、色、反射強度の変化量が、所定の閾値を超える点(特徴点)を抽出する。新たな特徴点が検出されると、ステップS83に移行する。
≪Step S82≫
In step S82, points (feature points) where the amount of change in shape, color, and reflection intensity obtained in step S81 exceeds a predetermined threshold value are extracted. When a new feature point is detected, the process proceeds to step S83.

≪ステップS83≫
ステップS83においては、特徴点記憶部27から、比較対象となる領域の全特徴点を取得する。全特徴点が取得されるとステップS84に移行する。
≪Step S83≫
In step S83, all the feature points in the area to be compared are acquired from the feature point storage unit 27. When all the feature points are acquired, the process proceeds to step S84.

≪ステップS84≫
ステップS84においては、ステップS84で取得した特徴点と、ステップS82で求めた変化量が閾値を超えた特徴点とを比較(マッチング)する。これによって、新たな特徴点の発生を把握することができる。それぞれの特徴点の比較が完了するとステップS85に移行する。
≪Step S84≫
In step S84, the feature points acquired in step S84 and the feature points for which the amount of change obtained in step S82 exceeds the threshold value are compared (matched). This makes it possible to grasp the occurrence of new feature points. When the comparison of each feature point is completed, the process proceeds to step S85.

≪ステップS85≫
ステップS85においては、ステップS84の比較結果を用いて新しい特徴点(マッチングしない点)が存在するかどうかを判断する。新しい特徴点が存在しないと判断されるとエンドに抜けて処理を終了する。一方、新しい特徴点が存在すると判断されるとステップS86に移行する。
≪Step S85≫
In step S85, it is determined whether or not a new feature point (point that does not match) exists by using the comparison result of step S84. If it is determined that there is no new feature point, it exits to the end and ends the process. On the other hand, if it is determined that a new feature point exists, the process proceeds to step S86.

≪ステップS86≫
ステップS86においては、新しい特徴点に識別IDを付加して位置情報と共に特徴点記憶部27に更新、記憶する。特徴点の記憶の一例を図14に示している。図14において、識別IDの情報は、直交座標系の位置(xyz)、凹凸フラグなどの情報を持つデータから構成されている。例えば、識別ID(D1)については、位置(P1=x1、y1、z1)、凹フラグ(0/平面)が定義され、識別ID(D2)については、位置(P2=x2、y2、z2)、凹フラグ(-1/凹部)が定義され、識別ID(D3)については、位置(P3=x3、y3、z3)、凹フラグ(+1/凸部)が定義される。特徴点記憶部27に新しい特徴点を記憶すると、エンドに抜けて処理を終了する。
≪Step S86≫
In step S86, an identification ID is added to the new feature point, and the feature point storage unit 27 is updated and stored together with the position information. An example of memory of feature points is shown in FIG. In FIG. 14, the information of the identification ID is composed of data having information such as the position (xyz) of the orthogonal coordinate system and the unevenness flag. For example, for the identification ID (D1), the position (P1 = x1, y1, z1) and the concave flag (0 / plane) are defined, and for the identification ID (D2), the position (P2 = x2, y2, z2). , Concave flag (-1 / concave) is defined, and for the identification ID (D3), the position (P3 = x3, y3, z3) and concave flag (+ 1 / convex) are defined. When a new feature point is stored in the feature point storage unit 27, the process ends with the end.

[特徴点相対位置計測フロー]
次に、ステップS32における特徴点の相対位置を計測する特徴点相対位置計測方法について、図15、図16を用いて説明する。
[Characteristic point relative position measurement flow]
Next, the feature point relative position measuring method for measuring the feature point relative position in step S32 will be described with reference to FIGS. 15 and 16.

≪ステップS90≫
ステップS90においては、図13のステップS86で記憶された新しい特徴点が、特徴点記憶部27に存在するかどうかを判断する。新しい特徴点が存在しないと判断されるとエンドに抜けて処理を終了する。一方、新しい特徴点が存在すると判断されるとステップS91に移行する。
≪Step S90≫
In step S90, it is determined whether or not the new feature point stored in step S86 of FIG. 13 exists in the feature point storage unit 27. If it is determined that there is no new feature point, it exits to the end and ends the process. On the other hand, if it is determined that a new feature point exists, the process proceeds to step S91.

≪ステップS91≫
ステップS91においては、特徴点記憶部27から新しい特徴点を取得する。新しい特徴点が検出されるとステップS92に移行する。
≪Step S91≫
In step S91, a new feature point is acquired from the feature point storage unit 27. When a new feature point is detected, the process proceeds to step S92.

≪ステップS92≫
ステップS92においては、新しい特徴点を含む関連した特徴点を組み合わせた全組み合わせ求め、求めた全組み合わせに対して、夫々の相対位置グループを生成し、これらにグループIDを付加する。これによって、関連する特徴点からなるグループが形成される。この相対位置グループの生成によって障害物等を特定することができる。相対位置グループを生成するとステップS93に移行する。
≪Step S92≫
In step S92, all combinations are obtained by combining related feature points including new feature points, relative position groups are generated for each of the obtained combinations, and a group ID is added to these. This forms a group of related feature points. Obstacles and the like can be identified by generating this relative position group. When the relative position group is generated, the process proceeds to step S93.

≪ステップS93≫
ステップS93においては、相対位置グループの夫々の特徴点の相対距離を計算する。図9に戻って、特徴点「〇」と特徴点「●」の組み合わせからなるグループにおいて、各特徴点の相対距離は三次元を含む座標系の座標位置から求めることができ、それぞれ「a」、「b」、「c」と求めることができる。単位は「メートル(m)」であり、これによって、障害物の大きさを判断できる。
≪Step S93≫
In step S93, the relative distance of each feature point of the relative position group is calculated. Returning to FIG. 9, in the group consisting of the combination of the feature points "○" and the feature points "●", the relative distance of each feature point can be obtained from the coordinate position of the coordinate system including three dimensions, and each "a". , "B", "c". The unit is "meter (m)", which allows the size of obstacles to be determined.

障害物のサイズ(体格)が大きいと、飛行体10の着陸に支障をきたす危険物と認定することができる。例えば、後述する危険判断フローにおいて、相相対位置グループの情報を用いて危険判断を実行することができる。相対位置グループの特徴点の相対距離の計算が終了するとステップS94に移行する。 If the size (physical shape) of the obstacle is large, it can be recognized as a dangerous object that hinders the landing of the flying object 10. For example, in the danger judgment flow described later, the danger judgment can be executed using the information of the phase-relative position group. When the calculation of the relative distance of the feature points of the relative position group is completed, the process proceeds to step S94.

≪ステップS94≫
ステップS94においては、ステップS92、S93で求めた相対位置グループの識別IDや相対距離を、相対位置グループ記憶部29に記憶して更新する。相対位置グループの情報の一例を図16に示している。図16において、相対位置グループの識別ID情報は、相対位置グループを構成する夫々の特徴点や相対距離などの情報を持つデータから構成されている。
≪Step S94≫
In step S94, the identification ID and the relative distance of the relative position group obtained in steps S92 and S93 are stored and updated in the relative position group storage unit 29. FIG. 16 shows an example of the information of the relative position group. In FIG. 16, the identification ID information of the relative position group is composed of data having information such as feature points and relative distances of each of the relative position groups.

例えば、相対位置グループ識別ID(RG1)については、図9に示すように関連する特徴点の識別ID(1、3、6)と、夫々の特徴点の間の相対距離(a、b、c)が定義され、相対位置グループ識別ID(RG2)については、関連する特徴点の識別ID(1、4、2)と、夫々の特徴点の間の相対距離が定義される。相対位置グループ記憶部29に、新しい相対位置グループIDや相対距離を記憶すると、エンドに抜けて処理を終了する。 For example, for the relative position group identification ID (RG1), as shown in FIG. 9, the relative distances (a, b, c) between the identification IDs (1, 3, 6) of the related feature points and the respective feature points. ) Is defined, and for the relative position group identification ID (RG2), the relative distance between the identification IDs (1, 4, 2) of the related feature points and the respective feature points is defined. When a new relative position group ID or relative distance is stored in the relative position group storage unit 29, the process ends with the end.

[危険判断フロー]
次に、図4のステップS41における着陸地点に新たな障害物が存在するかどうかの判断を実行する危険判断方法について、図17を用いて説明する。
[Danger judgment flow]
Next, a danger determination method for executing determination of whether or not a new obstacle exists at the landing point in step S41 of FIG. 4 will be described with reference to FIG.

≪ステップS100≫
ステップS100においては、現在の飛行体10の位置・姿勢、着陸地点付近の障害物(凹凸グループ)、特徴点を取得する。これらの情報が取得されるとステップS101に移行する。
≪Step S100≫
In step S100, the current position / attitude of the flying object 10, obstacles (unevenness group) near the landing point, and feature points are acquired. When these information are acquired, the process proceeds to step S101.

≪ステップS101≫
ステップS101においては、現在の飛行体10の位置・姿勢から重力方向に垂直な着陸地点とその周辺を算出する。これによって、飛行体10が着陸しようとしている地表面を特定することができる。着陸地点周辺が特定されるとステップS102に移行する。
<< Step S101 >>
In step S101, the landing point perpendicular to the direction of gravity and its surroundings are calculated from the current position and attitude of the flying object 10. This makes it possible to identify the ground surface on which the aircraft 10 is about to land. When the area around the landing point is specified, the process proceeds to step S102.

≪ステップS102≫
ステップS102においては、着陸地点周辺に障害物や平面以外の新たな特徴点(障害物)が存在するかどうかが判断される。着陸モードを実行するときに、既に障害物や平面の特徴点が検出されて着陸地点が設定され、これに向かって飛行体10は降下している。このため、着陸地点に車両等が進入してくると、新たな障害物となる恐れがある。この新たな障害物を回避するため、本制御ステップでは新たな特徴点の発生の有無を判断している。
<< Step S102 >>
In step S102, it is determined whether or not there is an obstacle or a new feature point (obstacle) other than the plane around the landing point. When the landing mode is executed, an obstacle or a feature point on a plane is already detected and a landing point is set, and the aircraft 10 is descending toward this point. Therefore, if a vehicle or the like enters the landing point, it may become a new obstacle. In order to avoid this new obstacle, in this control step, it is determined whether or not a new feature point is generated.

本制御ステップで新たな特徴点が存在しないと判断されるエンドに抜けて処理を終了する。一方、新たな特徴点が存在すると判断されるとステップS103に移行する。 In this control step, the process is terminated by exiting to the end where it is determined that no new feature point exists. On the other hand, if it is determined that a new feature point exists, the process proceeds to step S103.

≪ステップS103≫
ステップS103においては、飛行体10がそのままの着陸動作を継続すると新たな障害物に接触する恐れがあるため、動作状態管理部33に飛行体10の降下停止信号を出力する。降下停止信号の出力を動作状態管理部33に送信するとステップS104に移行する。
<< Step S103 >>
In step S103, if the flying object 10 continues the landing operation as it is, it may come into contact with a new obstacle. Therefore, the descent stop signal of the flying object 10 is output to the operation state management unit 33. When the output of the descent stop signal is transmitted to the operation state management unit 33, the process proceeds to step S104.

≪ステップS104≫
ステップS104においては、着陸地点周辺の障害物(凹凸グループ)、平面以外の新たな特徴点が存在しない、着陸地点と最も近い着陸点を新たに算出する。もちろん、この場合でも飛行体10が着陸できる面積を有する平面が算出されるのは言うまでもない。新たな着陸地点が算出されるとステップS105に移行する。
<< Step S104 >>
In step S104, the landing point closest to the landing point is newly calculated, in which there are no obstacles (unevenness group) around the landing point and new feature points other than the plane. Of course, even in this case, it goes without saying that a plane having an area on which the flying object 10 can land is calculated. When a new landing point is calculated, the process proceeds to step S105.

≪ステップS105≫
ステップS105においては、ステップS104で求められた新たな着陸地点を、動作状態管理部33に出力する。新たな着陸地点が出力されるとエンドに抜け処理を終了する。尚、ステップS103からの降下停止信号、ステップS104の新たな着陸地点は、次に説明する動作状態管理状態フローで使用される。
<< Step S105 >>
In step S105, the new landing point obtained in step S104 is output to the operation state management unit 33. When a new landing point is output, the exit process ends at the end. The descent stop signal from step S103 and the new landing point in step S104 are used in the operation state management state flow described below.

[動作状態管理フロー]
次に、図4のステップS42における着陸地点を修正する着陸地点修正方法について、図18を用いて説明する。
[Operation status management flow]
Next, a landing point correction method for correcting the landing point in step S42 of FIG. 4 will be described with reference to FIG.

≪ステップS110≫
ステップS110においては、現在の飛行体10の位置・姿勢を位置・姿勢認識部31から取得する。飛行体10の位置・姿勢を取得するとステップS111に移行する。
<< Step S110 >>
In step S110, the current position / attitude of the flying object 10 is acquired from the position / attitude recognition unit 31. When the position / attitude of the flying object 10 is acquired, the process proceeds to step S111.

≪ステップS111≫
ステップS111においては、現在の位置・姿勢と地図DBの地図情報とをマッチングさせ、現在の飛行体10の状態を判断する。現在の飛行体10の状態を把握するとステップS112に移行する。
<< Step S111 >>
In step S111, the current position / attitude is matched with the map information of the map DB, and the current state of the flying object 10 is determined. When the current state of the flying object 10 is grasped, the process proceeds to step S112.

≪ステップS112≫
ステップS112においては、危険判断部30から降下停止信号の出力(図17のステップS103からの出力)があるかどうかが判断される。降下停止信号がないと判断されるとステップS114に移行し、降下停止信号があると判断されるとステップS113に移行する。
<< Step S112 >>
In step S112, it is determined from the danger determination unit 30 whether or not there is an output of the descent stop signal (output from step S103 of FIG. 17). If it is determined that there is no descent stop signal, the process proceeds to step S114, and if it is determined that there is a descent stop signal, the process proceeds to step S113.

≪ステップS113≫
ステップS113においては、飛行体10がそのままの着陸動作を継続すると新たな障害物に接触する恐れがあるため、動作状態管理部33は動作モードを「待機モード」に変更する。「待機モード」に変更することにより、飛行体10はホバリングを行って、現在の位置で停止状態となる。「待機モード」に変更されるとステップS114に移行する。
<< Step S113 >>
In step S113, if the flying object 10 continues the landing operation as it is, there is a possibility that it may come into contact with a new obstacle. Therefore, the operation state management unit 33 changes the operation mode to the “standby mode”. By changing to the "standby mode", the flying object 10 will hover and will be stopped at the current position. When the mode is changed to the "standby mode", the process proceeds to step S114.

≪ステップS114≫
ステップS114においては、危険判断部30から新たな着陸地点の出力(図17のステップS105からの出力)があるかどうかが判断される。新たな着陸地点の出力がないと判断されるとステップS117に移行し、新たな着陸地点の出力があると判断されるとステップS115に移行する。
<< Step S114 >>
In step S114, it is determined from the danger determination unit 30 whether or not there is an output of a new landing point (output from step S105 in FIG. 17). If it is determined that there is no output at the new landing point, the process proceeds to step S117, and if it is determined that there is an output at the new landing point, the process proceeds to step S115.

≪ステップS115≫
ステップS115においては、ステップS114で求められた新たな着陸地点を、位置・姿勢制御部35に出力する。これによって、飛行体10の新たな着陸地点が設定される。位置・姿勢制御部35に新たな着陸地点が出力されるとステップS116に移行する。
≪Step S115≫
In step S115, the new landing point obtained in step S114 is output to the position / attitude control unit 35. As a result, a new landing point for the aircraft 10 is set. When a new landing point is output to the position / attitude control unit 35, the process proceeds to step S116.

≪ステップS116≫
ステップS116においては、飛行体10を着陸地点に移動させるために、動作状態管理部33は動作モードを「接近モード」に変更する。「接近モード」に変更することにより、飛行体10は新たな着陸地点に向かって移動を開始する。「接近モード」に変更されるとステップS117に移行する。
<< Step S116 >>
In step S116, in order to move the aircraft 10 to the landing point, the operation state management unit 33 changes the operation mode to the “approach mode”. By changing to the "approach mode", the aircraft 10 starts moving toward the new landing point. When the mode is changed to the "approach mode", the process proceeds to step S117.

≪ステップS117≫
ステップS117においては、動作モードが「接近モード」で、かつ新たな着陸点に到着したかどうかを判断する。「接近モード」の状態で着陸地点に到達していない場合はステップS119に移行し、「接近モード」の状態で着陸地点に到達している場合はステップS118に移行する。
≪Step S117≫
In step S117, it is determined whether or not the operation mode is "approach mode" and a new landing point has been reached. If the landing point has not been reached in the "approach mode", the process proceeds to step S119, and if the landing point has been reached in the "approach mode", the process proceeds to step S118.

≪ステップS118≫
ステップS118においては、飛行体10が「接近モード」の状態で着陸地点に到達しているので、動作モードを「着陸モード」に変更して、新たな着陸地点に飛行体10を降下させるように制御する。「着陸モード」に変更されるとステップS119に移行する。
≪Step S118≫
In step S118, since the aircraft 10 has reached the landing point in the "approach mode", the operation mode is changed to the "landing mode" so that the aircraft 10 is lowered to the new landing point. Control. When the mode is changed to the "landing mode", the process proceeds to step S119.

≪ステップS119≫
ステップS119においては、ステップS113の「待機モード」、ステップS116の「接近モード、ステップS118の「着陸モード」のいずれかの動作モードを環境認識部21に出力する。その後にエンドに抜けて処理を終了する。
≪Step S119≫
In step S119, any one of the operation mode of the "standby mode" of step S113, the "approach mode" of step S116, and the "landing mode" of step S118 is output to the environment recognition unit 21. After that, it exits to the end and ends the process.

以上に説明した着陸制御を実行することによって、少なくとも、(1)ドローンの高度が低い方へ変化してセンサカメラのセンシング範囲から着陸範囲が逸脱した場合、或いは(2)着陸範囲内に危険な物体が移動した場合、或いは(3)位置・姿勢制御に必要な特徴点の追尾が困難となった場合のいずれかにおいて、ドローンを意図した着陸位置に着陸させることができるようになる。 By executing the landing control described above, at least (1) when the altitude of the drone changes to the lower side and the landing range deviates from the sensing range of the sensor camera, or (2) it is dangerous within the landing range. The drone can be landed at the intended landing position either when the object moves or (3) it becomes difficult to track the feature points required for position / attitude control.

尚、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

10…飛行体、11…筐体本体、12…羽根ロータ、13…遠距離狭角空間センサ、14…中距離広角空間センサ、15…近距離広角空間センサ、16…高度センサ。 10 ... flying object, 11 ... housing body, 12 ... blade rotor, 13 ... long-distance narrow-angle space sensor, 14 ... medium-distance wide-angle space sensor, 15 ... short-distance wide-angle space sensor, 16 ... altitude sensor.

Claims (8)

着陸地点を含む周辺の特徴点を検出する複数の特徴点検出手段と、前記特徴点検出手段で検出された前記特徴点を認識する特徴点認識手段と、飛行体の高度を計測する高度測定手段と、前記着陸地点に前記飛行体を自動的に着陸させる着陸制御手段とを備えた飛行体の着陸制御装置であって、
前記着陸制御手段は、高度に対応して複数の前記特徴点の相対位置を計測すると共に、高度に応じて夫々の前記特徴点を計測する前記特徴点検出手段を選択し、前記特徴点の相対位置の変化から前記着陸地点の形状変化の有無を判定し、形状変化があると前記飛行体を新たな前記着陸地点に移動することを特徴とする飛行体の着陸制御装置。
A plurality of feature point detecting means for detecting peripheral feature points including a landing point, a feature point recognizing means for recognizing the feature points detected by the feature point detecting means, and an altitude measuring means for measuring the altitude of an air vehicle. And a landing control device for an air vehicle provided with a landing control means for automatically landing the air vehicle at the landing point.
The landing control means measures the relative positions of a plurality of the feature points corresponding to the altitude, and selects the feature point detecting means for measuring each of the feature points according to the altitude, and the relative of the feature points. A landing control device for an air vehicle, which determines whether or not there is a change in the shape of the landing point from a change in position, and moves the air vehicle to a new landing point when the shape changes.
請求項1に記載の飛行体の着陸制御装置において、
前記着陸制御手段は、複数の前記特徴点検出手段で計測された前記特徴点に、前記高度測定手段で測定された高度に応じて信頼度が付与し、計測された前記特徴点を信頼度に応じて追尾することを特徴とする飛行体の着陸制御装置。
In the landing control device for the aircraft according to claim 1,
The landing control means imparts reliability to the feature points measured by the plurality of feature point detecting means according to the altitude measured by the altitude measuring means, and uses the measured feature points as the reliability. An air vehicle landing control device characterized by tracking accordingly.
請求項1に記載の飛行体の着陸制御装置において、
前記着陸制御手段は、前記飛行体が着陸している途中で新たに着陸の障害となる障害物を検出すると、前記飛行体の降下を停止して前記飛行体を現在の位置に保持することを特徴とする飛行体の着陸制御装置。
In the landing control device for the aircraft according to claim 1,
When the landing control means detects a new obstacle that hinders landing while the aircraft is landing, the landing control means stops the descent of the aircraft and holds the aircraft in its current position. A characteristic aircraft landing control device.
請求項1に記載の飛行体の着陸制御装置において、
前記着陸制御手段は、前記飛行体が着陸している途中で新たに着陸の障害となる障害物を検出すると、新たな前記着陸地点を求めると共に、前記飛行体を新たな前記着陸地点に移動させることを特徴とする飛行体の着陸制御装置。
In the landing control device for the aircraft according to claim 1,
When the landing control means detects a new obstacle that hinders landing while the aircraft is landing, the landing control means obtains a new landing point and moves the aircraft to the new landing point. The landing control device for the aircraft, which is characterized by that.
請求項3、又は請求項4に記載の飛行体の着陸制御装置において、
前記着陸制御手段は、着陸の障害となる前記障害物として、前記着陸地点の平面に対する凹凸の大きさによって判断することを特徴とする飛行体の着陸制御装置。
In the landing control device for the flying object according to claim 3 or 4.
The landing control means is a landing control device for an air vehicle, which is determined by the size of unevenness with respect to a plane of the landing point as the obstacle that hinders landing.
請求項5に記載の飛行体の着陸制御装置において、
前記着陸制御手段は、着陸の障害となる前記障害物を互いに関連する複数のグルーピングされた前記特徴点から形成し、グルーピングされた複数の前記特徴点の相対位置から前記障害物の大きさを判定することを特徴とする飛行体の着陸制御装置。
In the landing control device for the flying object according to claim 5.
The landing control means forms the obstacle that is an obstacle to landing from a plurality of grouped feature points related to each other, and determines the size of the obstacle from the relative positions of the grouped feature points. An air vehicle landing control device characterized by
請求項1に記載の飛行体の着陸制御装置において、
前記特徴点検出手段は、地表面の形状を点群情報として検出する空間センサ(LIDAR/light detection and ranging)であることを特徴とする飛行体の着陸制御装置。
In the landing control device for the aircraft according to claim 1,
The feature point detecting means is a landing control device for an air vehicle, characterized by being a spatial sensor (LIDAR / light detection and ranging) that detects the shape of the ground surface as point cloud information.
請求項7に記載の飛行体の着陸制御装置において、
前記空間センサは少なくとも2つ備えられており、一方は画角が狭い遠距離狭角空間センサであり、他方は画角が広い近距離広角空間センサであることを特徴とする飛行体の着陸制御装置。
In the landing control device for the flying object according to claim 7.
The landing control of an air vehicle is provided with at least two spatial sensors, one of which is a long-distance narrow-angle space sensor having a narrow angle of view and the other of which is a short-distance wide-angle space sensor having a wide angle of view. Device.
JP2020176376A 2020-10-21 2020-10-21 Aircraft landing control system Active JP7455044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020176376A JP7455044B2 (en) 2020-10-21 2020-10-21 Aircraft landing control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020176376A JP7455044B2 (en) 2020-10-21 2020-10-21 Aircraft landing control system

Publications (2)

Publication Number Publication Date
JP2022067672A true JP2022067672A (en) 2022-05-09
JP7455044B2 JP7455044B2 (en) 2024-03-25

Family

ID=81456035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020176376A Active JP7455044B2 (en) 2020-10-21 2020-10-21 Aircraft landing control system

Country Status (1)

Country Link
JP (1) JP7455044B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084781A1 (en) * 2022-10-17 2024-04-25 株式会社Nttドコモ Information processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5476960B2 (en) 2009-12-08 2014-04-23 トヨタ自動車株式会社 Vehicle forward monitoring device
JP6169300B2 (en) 2015-03-19 2017-07-26 株式会社プロドローン Unmanned rotary wing aircraft and surrounding object ranging method
US20170313439A1 (en) 2016-04-29 2017-11-02 Jordan Holt Methods and syststems for obstruction detection during autonomous unmanned aerial vehicle landings
CN107089319A (en) 2017-04-20 2017-08-25 中化舟山危化品应急救援基地有限公司 Storage tank fire detection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084781A1 (en) * 2022-10-17 2024-04-25 株式会社Nttドコモ Information processing device

Also Published As

Publication number Publication date
JP7455044B2 (en) 2024-03-25

Similar Documents

Publication Publication Date Title
US20200207474A1 (en) Unmanned aerial vehicle and payload delivery system
US20210358315A1 (en) Unmanned aerial vehicle visual point cloud navigation
Asadi et al. An integrated UGV-UAV system for construction site data collection
US11807361B2 (en) Vision based calibration system for unmanned aerial vehicles
US20220234733A1 (en) Aerial Vehicle Smart Landing
US20200026720A1 (en) Construction and update of elevation maps
WO2017177533A1 (en) Method and system for controlling laser radar based micro unmanned aerial vehicle
EP3276440A1 (en) Sense and avoid maneuvering
US11726501B2 (en) System and method for perceptive navigation of automated vehicles
CN109923492A (en) Flight path determines
US10409293B1 (en) Gimbal stabilized components for remotely operated aerial vehicles
CN107544531B (en) Line inspection method and device and unmanned aerial vehicle
WO2017168423A1 (en) System and method for autonomous guidance of vehicles
Brockers et al. Fully self-contained vision-aided navigation and landing of a micro air vehicle independent from external sensor inputs
CN112558608A (en) Vehicle-mounted machine cooperative control and path optimization method based on unmanned aerial vehicle assistance
WO2020168464A1 (en) Local sensing based autonomous navigation, and associated systems and methods
WO2023010451A1 (en) Unmanned aerial vehicle scheduling method, server, parking apron pad device, system, and storage medium
CN113156998A (en) Unmanned aerial vehicle flight control system and control method
EP3992747B1 (en) Mobile body, control method, and program
Eudes et al. Autonomous and safe inspection of an industrial warehouse by a multi-rotor MAV
Mebarki et al. Autonomous landing of rotary-wing aerial vehicles by image-based visual servoing in GPS-denied environments
JP2022067672A (en) Landing control device of flying object
US11987382B2 (en) Method for aircraft localization and control
Agarwal et al. Monocular vision based navigation and localisation in indoor environments
CN114330832A (en) Intelligent express package distribution system and working method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240312

R150 Certificate of patent or registration of utility model

Ref document number: 7455044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150