JP7455044B2 - Aircraft landing control system - Google Patents
Aircraft landing control system Download PDFInfo
- Publication number
- JP7455044B2 JP7455044B2 JP2020176376A JP2020176376A JP7455044B2 JP 7455044 B2 JP7455044 B2 JP 7455044B2 JP 2020176376 A JP2020176376 A JP 2020176376A JP 2020176376 A JP2020176376 A JP 2020176376A JP 7455044 B2 JP7455044 B2 JP 7455044B2
- Authority
- JP
- Japan
- Prior art keywords
- landing
- flying object
- aircraft
- landing control
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 26
- 238000005259 measurement Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 12
- 238000000034 method Methods 0.000 description 123
- 230000008569 process Effects 0.000 description 104
- 238000013459 approach Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 7
- 230000005484 gravity Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は飛行体の着陸制御装置に係り、特に自律的に飛行体を着陸させる飛行体の着陸制御装置に関するものである。 The present invention relates to a landing control system for an aircraft, and more particularly to a landing control system for an aircraft that autonomously lands the aircraft.
最近では、着陸面に対して垂直方向に離着陸するドローンと呼ばれる無人飛行体を利用して荷物を目的地に搬送するシステムが提案されている。このドローンは、複数の羽根ロータを有したマルチロータ方式が一般的に使用されている。 Recently, a system has been proposed in which cargo is transported to a destination using an unmanned flying vehicle called a drone that takes off and lands perpendicularly to a landing surface. This drone generally uses a multi-rotor system having multiple blade rotors.
このドローンによる搬送システムは、ドローンの水平面の飛行計画経路を表わすデータを入力し、飛行計画経路上の複数の位置の夫々の下にある表面の標高を表す高さ基準値を取得し、その位置に対応する飛行高度を高さ基準値に加算した値を飛行計画経路の高度のデータとして使用することで、障害物に衝突しないで飛行計画経路を飛行できるようにしている。 This drone transportation system inputs data representing the drone's flight plan path in a horizontal plane, obtains a height reference value representing the elevation of the surface below each of multiple positions on the flight plan path, and obtains a height reference value representing the elevation of the surface below each of multiple positions on the flight plan path. By using the value obtained by adding the flight altitude corresponding to the height reference value as the altitude data for the flight plan route, it is possible to fly the flight plan route without colliding with obstacles.
そして、このようなドローンによる搬送システムにおいては、ドローンが目的地に到着して着陸する場合、安全に着陸できることが重要である。このため、ドローンの着陸制御装置としては、例えば、特開2019-51741号公報(特許文献1)に記載された方法が提案されている。この特許文献1においては、ドローンをグラウンドステーションの上方に誘導し、搭載カメラで着陸面に配置されるランドマーク群を撮像した画像から三次元空間上の位置を推定し、これに基づいて着陸面に精度良く誘導するものである。
In such a transportation system using a drone, when the drone arrives at the destination and lands, it is important that the drone can land safely. For this reason, as a landing control device for a drone, a method described in, for example, Japanese Patent Application Publication No. 2019-51741 (Patent Document 1) has been proposed. In
つまり、ドローンがグラウンドステーションの上方に誘導されて撮影画像にランドマーク群が撮像されるとき、撮影画像の画面全体に占める面積を算出し、算出された面積が所定面積以上のとき、ランドマーク群を順次切り替え、切り替えられたランドマーク群の撮影画像からグラウンドステーションに対する無人飛行体の三次元空間上の位置を推定し、それから無人飛行体の着陸動作範囲を算出し、算出された着陸動作範囲に基づいてドローンを着陸面へ誘導制御するようにしている。 In other words, when the drone is guided above the ground station and a group of landmarks is captured in the photographed image, the area occupied by the entire screen of the photographed image is calculated, and when the calculated area is larger than a predetermined area, the landmark group The position of the unmanned aircraft in three-dimensional space with respect to the ground station is estimated from the captured images of the switched landmark group, and then the landing movement range of the unmanned aircraft is calculated, and the landing movement range is adjusted to the calculated landing movement range. Based on this, the drone is guided and controlled to the landing surface.
ところで、特許文献1に記載されている着陸制御装置は、グラウンドステーションに基準位置となる複数のランドマーク群を整備する必要があり、設置費用やその維持管理の費用等を含めるとシステム構築の費用が高額となるという課題がある。更に、グラウンドステーションという特定された着陸地点にしか着陸できないので、システムの使い勝手が悪いという課題がある。このため、グランドステーションにランドマーク群を整備しないで着陸させるために、ドローンに搭載されたセンサカメラから自律的に着陸可能な場所を認識して着陸させることが考えられる。
By the way, the landing control system described in
しかしながら少なくとも、(1)ドローンの高度が低い方へ変化してセンサカメラのセンシング範囲から着陸範囲が逸脱した場合、或いは(2)着陸範囲内に危険な物体が移動した場合、或いは(3)位置・姿勢制御に必要な特徴点の追尾が困難となった場合において、ドローンが意図した着陸位置とならないという現象を生じる。このため、ドローンを安全に着陸させることが難しくなるという課題を生じる。 However, at least (1) if the altitude of the drone changes to a lower side and the landing range deviates from the sensing range of the sensor camera, or (2) if a dangerous object moves within the landing range, or (3) if the position・When it becomes difficult to track the feature points necessary for attitude control, a phenomenon occurs in which the drone does not land at the intended landing position. This poses a problem in that it becomes difficult to land the drone safely.
本発明の目的は、ランドマーク群を使用せずに、飛行体を安全に着陸させることができる新規な飛行体の着陸制御装置を提供することにある。 An object of the present invention is to provide a novel landing control system for an aircraft that can safely land an aircraft without using a group of landmarks.
尚、この荷物搬送用の飛行体は無人であるが、将来的には有人の飛行体(いわゆる空飛ぶ自動車)に展開される方向で開発が行われている。したがって、本発明では、無人飛行体に限らず有人飛行体に対しても適用できる着陸制御装置を提案するものである。また、飛行体はマルチロータ方式に限らず、これ以外の自律的に飛行する飛行体をも対象とするものである。 Although this cargo transport vehicle is unmanned, development is underway to develop it into a manned vehicle (so-called flying car) in the future. Therefore, the present invention proposes a landing control system that can be applied not only to unmanned flying vehicles but also to manned flying vehicles. Further, the flying object is not limited to the multi-rotor type, but also covers other autonomous flying objects.
本発明の特徴は、着陸地点を含む周辺の特徴点を検出する複数の特徴点検出手段と、特徴点検出手段で検出された特徴点を認識する特徴点認識手段と、飛行体の高度を計測する高度測定手段と、着陸地点に飛行体を自動的に着陸させる着陸制御手段とを備えた飛行体の着陸制御装置であって、
着陸制御手段は、高度に対応して複数の前記特徴点の相対位置を計測すると共に、高度に応じて夫々の前記特徴点を計測する特徴点検出手段を選択し、特徴点の相対位置の変化から着陸地点の形状変化の有無を判定し、形状変化があると飛行体を新たな着陸地点に移動する飛行体の着陸制御装置にある。
The features of the present invention include a plurality of feature point detection means for detecting feature points in the vicinity including the landing site, a feature point recognition means for recognizing the feature points detected by the feature point detection means, and a feature point recognition means for measuring the altitude of the aircraft. A landing control device for an aircraft, comprising: an altitude measuring means for automatically landing the aircraft at a landing site;
The landing control means measures the relative positions of the plurality of feature points in accordance with the altitude, selects a feature point detection means for measuring each of the feature points in accordance with the altitude, and detects changes in the relative positions of the feature points. The aircraft's landing control system determines whether or not there has been a change in the shape of the landing site, and if there is a change in shape, moves the aircraft to a new landing site.
本発明によれば、ランドマーク群を使用せずに、飛行体を安全に着陸させることができる。 According to the present invention, a flying object can be safely landed without using a landmark group.
以下、本発明の実施形態について図面を用いて詳細に説明するが、本発明は以下の実施形態に限定されることなく、本発明の技術的な概念の中で種々の変形例や応用例をもその範囲に含むものである。 Hereinafter, embodiments of the present invention will be described in detail using drawings, but the present invention is not limited to the following embodiments, and various modifications and applications can be made within the technical concept of the present invention. is also included within the scope.
図1は、本発明で使用される飛行体10の概略の構成を示している。飛行体10は、矩形状の筐体本体11に対称関係となる位置に4個の羽根ロータ12が設けられており、夫々の羽根ロータ12は図示しない電動モータによって駆動される。尚、本実施形態の飛行体は、これに限るものではなく、要は垂直方向に離着陸できる飛行体であれば良い。
FIG. 1 shows a schematic configuration of a
筐体本体11の中央付近には遠距離狭角空間センサ13が設けられており、更に筐体本体11の左右両端の一方には中距離広角空間センサ14が設けられ、筐体本体11の左右両端の他方には近距離広角空間センサ15が設けられている。これらのセンサ13~15は、地表面を撮像するセンサカメラや、地表面の形状を点群化するライダー(LIDAR)を使用することによって、地表面に存在する種々の静止物体や移動物体の特徴点を検出する特徴点検出センサとして機能する。
A long-range narrow-
本実施形態では、3次元ライダーを使用しており、以下では「空間センサ」として表記して説明を進める。また、図示はしていないが、筐体本体11には飛行体10の位置を検出するために、周知のGPSセンサが搭載されている。
In this embodiment, a three-dimensional lidar is used, and will be described below as a "spatial sensor". Further, although not shown, a well-known GPS sensor is mounted on the
更に、筐体本体11には高度センサ16が設けられており、対地高度を検出している。高度センサ16としては、レーザ式高度計やレーダ式高度計を使用することができ、飛行体10と地表面との距離をレーザ光やマイクロ波の反射によって測定し、飛行体10の対地高度を測定することができる。また,気圧計やGPSセンサの出力する高度から対地高度を算出することもできる。
Furthermore, an
遠距離狭角空間センサ13は、計測範囲Aに示すように画角が狭い空間センサであり、中距離広角空間センサ14は、計測範囲Bに示すように画角が遠距離狭角空間センサ13より広い空間センサであり、近距離広角空間センサ15は、計測範囲Cに示すように画角が中距離広角空間センサ14より広い空間センサである。
The long-range narrow-
後述するが、夫々の空間センサ13~15で得られる点群情報は、高度に対応して信頼度が与えられている。例えば、飛行体10の高度が低くなるにつれて、遠距離狭角空間センサ13からの点群情報の信頼度が「大」から「小」に変化され、逆に中、近距離広角空間センサ14、15からの点群情報の信頼度が「小」から「大」に変化される構成とされている。尚、信頼度の大きさは連続的に調整される場合や、スイッチ的に調整される場合を含むものである。言い換えれば、信頼度の変化は、高度によって空間センサが切り換えられると捉えることもできる。
As will be described later, reliability is given to the point cloud information obtained by each of the
尚、上述の説明では3個の空間センサが使用されているが、必要に応じて2個の空間センサを用いても良い。また、各空間センサ13~15の配置位置は任意であり、図1のように各空間センサ13~15を離れた位置に配置しても良いし、後述の図5にあるように近接して配置しても良い。
Although three spatial sensors are used in the above description, two spatial sensors may be used if necessary. Further, the placement positions of the
図1に戻って、飛行体10の筐体本体11には、図示していないが飛行体制御装置が設けられており、この飛行体制御装置は、飛行体の水平面の飛行計画経路を表わす経路情報と、飛行計画経路上の複数の位置の夫々の下にある地表面の標高を表す高さ基準値とから、その飛行位置に対応する飛行高度を高さ基準値に加算した値を飛行計画経路の高度情報として使用することで、障害物に衝突しないで飛行計画経路を飛行できるようにしている。
Returning to FIG. 1, the
一方、飛行体制御装置には本発明が対象とする着陸制御装置も合わせ搭載されている。この着陸制御装置は、飛行体制御装置に機能的に一体的に設けることができ、また、飛行体制御装置と別体に設けることができる。したがって、飛行体制御装置の仕様によって適切な構成を選択すれば良いものである。 On the other hand, the aircraft control system is also equipped with a landing control system, which is the object of the present invention. This landing control device can be provided functionally integrally with the flight vehicle control device, or can be provided separately from the flight vehicle control device. Therefore, an appropriate configuration may be selected depending on the specifications of the aircraft control device.
次に、本発明になる着陸制御装置について説明する。図2は着陸制御装置の機能が一体化された飛行体制御装置20の構成を示している。
Next, a landing control system according to the present invention will be explained. FIG. 2 shows the configuration of an
上述した遠距離狭角空間センサ13、中距離広角空間センサ14、及び近距離広角空間センサ15からの点群情報と高度センサ16からの高度情報は、環境認識部21に入力されている。すなわち、夫々の空間センサ13~15からの点群情報は、3D形状計測部22に入力され、高度センサ16からの高度情報は、センサ信頼度設定部23に入力されている。このセンサ信頼度設定部23によって、3D形状計測部22に入力された点群情報の信頼度が設定される。ここで、「3D」とは「三次元」のことを意味している。
Point cloud information from the above-mentioned long-range narrow-
このようにセンサ信頼度設定部23は、高度に対応して各空間センサ13~15からの点群情報に、高度に対応した信頼度を設定する機能を備えている。上述したように、夫々の空間センサ13~15で得られる点群情報は、高度に対応して信頼度が与えられている。例えば、飛行体10の高度が低くなるにつれて、遠距離狭角空間センサ13からの点群情報の信頼度が「大」から「小」に変化され、逆に中、近距離広角空間センサ14、15からの点群情報の信頼度が「小」から「大」に変化される構成とされている。
In this way, the sensor
また、3D形状計測部22には、3D形状記憶部24からの地表面の三次元形状情報が入力され、逆に3D形状計測部22で計測された三次元形状情報が3D形状記憶部24に新たに入力(更新)されている。
Furthermore, the three-dimensional shape information of the ground surface from the 3D
環境認識部21には、更に平面/凹凸認識部25、特徴点検出部26、特徴点記憶部27、特徴点相対位置算出部28、及び相対値グループ記憶部29が備えられている。
The
平面/凹凸認識部25は、3D形状計測部22に入力された点群情報に基づいて、地表面の平面情報や凹凸情報を認識する機能を備えている。
The plane/
また、特徴点検出部26は、3D形状計測部22に入力された点群情報と、平面/凹凸認識部25の平面情報や凹凸情報に基づいて、対象となる点群情報から平面情報や凹凸情報の特徴点を検出する機能を備えている。特徴点検出部26で検出された特徴点は特徴点記憶部27に一時的に記憶される。
Further, the feature
特徴点相対位置算出部28は、特徴点記憶部27に記憶された複数の特徴点の間の相対的な位置(3次元上の位置)を算出する機能を備えている。また、相対位置グループ記憶部29は、特徴点相対位置算出部28で算出された特徴点から互いに関係する特徴点(例えば、凹凸部の形状)をグループ化して記憶する機能を備えている。相対位置グループ記憶部29の相対位置グループ情報は、3D形状計測部22とセンサ信頼度設定部23にフィードバックされている。
The feature point relative
平面/凹凸認識部25からの平面情報や凹凸情報、特徴点検出部26からの特徴点情報、及び位置・姿勢認識部31からの位置・姿勢情報は、危険判断部30に入力されている。ここで、位置・姿勢情報は、グローバル座標系における飛行体10の位置と傾きを表している。
Plane information and unevenness information from the plane/
位置・姿勢認識部31には、3D形状記憶部24からの三次元形状情報と、位置・姿勢センサ32からの位置・姿勢情報が入力されている。位置・姿勢センサ32は、飛行体10の位置、及び飛行体10の「ヨー」、「ロール」、「ピッチ」等の飛行体10の回転軸回りのパラメータを検出している。
Three-dimensional shape information from the 3D
危険判断部30においては、飛行体10の着陸地点が平面か、或いは障害物(凹凸部)が存在するかを判断し、更には障害物(凹凸部)が存在する場合は安全に着陸できる着陸地点を算出する機能を備えている。
The
危険判断部30からの危険情報や着陸地点情報、及び位置・姿勢認識部31からの位置・姿勢情報は、動作状態管理部33に入力されている。これらの情報に基づいて動作状態管理部33は、飛行体10の動作状態の管理を実行する。ここで、動作状態(モード)は「着陸モード」、「離陸モード」、「巡行モード」、「接近モード」、「待機モード」の5つの動作状態を管理している。
The danger information and landing point information from the
「着陸モード」、「離陸モード」では飛行体10の垂直移動と旋回を実行し、「巡行モード」では地図データベース34にしたがい飛行計画経路に沿った移動を実行し、「接近モード」では所定の指定された地点(例えば、着陸地点)への移動を実行し、「待機モード」では移動をせずにホバリングを実行する、という動作状態を管理する機能を備えている。
In the "landing mode" and "takeoff mode", the
位置・姿勢制御部35においては、動作状態管理部33からの動作状態管理情報、地図データベース34からの地図情報、及び位置・姿勢認識部31からの位置・姿勢認識情報が入力されている。更に、位置・姿勢制御部35は目標位置・姿勢生成部36によって、目標位置・姿勢情報を生成し、この目標位置・姿勢情報は追従制御部37に入力される。追従制御部37は、目標位置・姿勢情報に基づいて選択された、「着陸モード」、「離陸モード」、「巡行モード」、「接近モード」、「待機モード」のいずれかに対応して飛行体10を自律的に動作させる機能を備えている。
In the position/
以上が飛行体制御装置20の主な機能要素であるが、これら機能要素は、基本的にはマイクロコンピュータの制御プログラムを実行するによって動作される。マイクロコンピュータは周知の通り、演算を実行するセントラルプロセッシングユニット(CPU)、制御プログラムを記憶した不揮発性メモリ(ROM)、計算結果を記憶したりする揮発性メモリ(RAM)、センサ信号を入力し、駆動信号を出力する入出力回路等から構成されている。以下、飛行体制御装置20の主な機能要素の制御フローについて説明する。
The above are the main functional elements of the
[動作モードの設定制御フロー]
先ず、図3は位置・姿勢制御部35の制御フローを示しており、これによって飛行体10の動作モードを設定する。
[Operation mode setting control flow]
First, FIG. 3 shows a control flow of the position/
≪ステップS10≫
ステップS10においては、現在の位置・姿勢情報を取得する。この位置・姿勢情報の取得は、位置・姿勢センサ32、及び位置・姿勢認識部31から求めることができる。位置・姿勢認識部31は、例えば、SLAM(Simultaneous Localization and Mapping)手法を利用して現在の位置・姿勢を求めることができ、この状態で飛行体10が或る状態で飛行していることが認識できる。現在の位置・姿勢情報が取得されるとステップS11に移行する。
<<Step S10>>
In step S10, current position/orientation information is acquired. This position/orientation information can be obtained from the position/
≪ステップS11≫
ステップS11においては、現在の飛行体10の飛行状態がいずれの動作状態(上述の5つの動作モード)であるかを判断するため、現時点で動作状態管理部33が設定している動作状態を取得する。現在の動作状態が取得されるとステップS12に移行する。
<<Step S11>>
In step S11, in order to determine which operating state (the above-mentioned five operating modes) the flight state of the
≪ステップS12≫
ステップS12においては、動作状態管理部33から取得された動作状態が「巡行モード」かどうかを判断する。この判断ステップにおいては、動作状態管理部33から逐次送られてくる動作状態の情報に基づいて判断される。この判断ステップで「巡行モード」の状態と判断されるとステップS13に移行し、「巡行モード」の状態ではないと判断されるとステップS14に移行する。
<<Step S12>>
In step S12, it is determined whether the operating state acquired from the operating
≪ステップS13≫
ステップS13においては、ステップS10で取得した現在の位置・姿勢と、地図データベース34からの地図情報をマッチングさせ、目的位置・姿勢譲情報を設定する。この状態で、以下の制御ステップS14、S18、S20で「no」と判断されると、ステップS22に移行して目的位置・姿勢情報にしたがって飛行体10を制御する。これによって、飛行体10は「巡行モード」で目的地に向かうことになる。
<<Step S13>>
In step S13, the current position/orientation acquired in step S10 is matched with map information from the
≪ステップS14≫
ステップS12、S13の制御ステップを実行すると、本ステップS14では、動作状態管理部33から取得された動作状態が「接近モード」かどうかを判断する。この判断ステップで「接近モード」の状態と判断されるとステップS15に移行し、「接近モード」の状態ではないと判断されるとステップS18に移行する。
<<Step S14>>
After the control steps in steps S12 and S13 are executed, in step S14, it is determined whether the operating state acquired from the operating
≪ステップS15≫
ステップS14で「接近モード」と判断されているので、ステップS15においては、飛行体10の着陸要請があるかどうかを判断する。着陸要請は、動作状態管理部33から着陸地点の出力があるかどうかで判断することができる。ステップS15で、着陸地点の出力があると判断されるとステップS16に移行し、着陸地点の出力がないと判断されるとステップS17に移行する。
<<Step S15>>
Since the "approach mode" is determined in step S14, it is determined in step S15 whether or not there is a landing request for the
≪ステップS16≫
ステップS16においては、ステップS15で着陸要請があると判断されているので、ステップS13で設定された目標位置・姿勢情報を新たな着陸地点の上空に着陸地点情報として再設定する。この状態で、以下の制御ステップS18、S20で「no」と判断されると、ステップS22に移行して着陸地点情報にしたがって、飛行体10が着陸地点の上空に向かう制御を実行する。これによって、飛行体10は「接近モード」で着陸地点に向かうことになる。
<<Step S16>>
In step S16, since it is determined that there is a landing request in step S15, the target position/attitude information set in step S13 is reset as landing point information above the new landing point. In this state, if "no" is determined in the following control steps S18 and S20, the process moves to step S22, and control is executed for the flying
≪ステップS17≫
一方、ステップS15で着陸地点の出力がないと判断されているので、地図データベースから目標位置・姿勢情報を新たに再設定する。この状態で、以下の制御ステップS18、S20で「no」と判断されると、ステップS22に移行して目標位置・姿勢情報にしたがって飛行体10を制御する。
<<Step S17>>
On the other hand, since it is determined in step S15 that there is no landing point output, target position/attitude information is newly set from the map database. In this state, if "no" is determined in the following control steps S18 and S20, the process moves to step S22 and the flying
≪ステップS18≫
ステップS16、S17で着陸地点情報、或いは目標位置・姿勢情報が設定されると、ステップS18においては、動作状態管理部33から取得された動作状態が「待機モード」かどうかを判断する。この判断ステップで「待機モード」の状態と判断されるとステップS19に移行し、「待機モード」の状態ではないと判断されるとステップS20に移行する。
<<Step S18>>
When the landing site information or target position/attitude information is set in steps S16 and S17, it is determined in step S18 whether the operating state acquired from the operating
≪ステップS19≫
ステップS19においては、飛行体10が着陸地点に到着して「待機モード」に設定されているので、現在の位置・姿勢情報を新たな目標位置・姿勢情報に再設定する。この状態で飛行体10は、ホバリングを行い着陸地点の上空で待機することになる。次に、この状態でステップS20に移行する。
<<Step S19>>
In step S19, since the flying
≪ステップS20≫
ステップS18、S19の制御ステップを実行すると、本ステップS20においては、動作状態が「着陸モード」あるいは「離陸モード」にあるかどうかを判断する。「着陸モード」あるいは「離陸モード」ではないと判断されるとステップS22に移行し、着陸モード」あるいは「離陸モード」にあると判断されるとステップS21に移行する。
≪Step S20≫
After the control steps in steps S18 and S19 are executed, in step S20, it is determined whether the operating state is in "landing mode" or "takeoff mode". If it is determined that the vehicle is not in the "landing mode" or "takeoff mode", the process proceeds to step S22, and if it is determined that the vehicle is in the "landing mode" or "takeoff mode", the process proceeds to step S21.
≪ステップS21≫
ステップS21においては、現在の位置・姿勢情報をそのままに維持し、垂直方向に移動した地点を目標位置・姿勢に設定する。これによって、飛行体10がホバリングの状態から上昇方向、或いは下降方向に移動されることになる。垂直方向に移動した目標位置・姿勢が設定されるとステップS22に移行する。
<<Step S21>>
In step S21, the current position/orientation information is maintained as is, and the point moved in the vertical direction is set as the target position/orientation. As a result, the flying
≪ステップS22≫
ステップS22においては、ステップS13、S16、S17、S19、S21のいずれかで設定された目標位置・姿勢情報に基づき、飛行体10の動作状態を制御することで、飛行体10を目的とする地点に飛行させることができる。
<<Step S22>>
In step S22, the operating state of the
以上が飛行体制御装置20の位置・姿勢制御部35の大まかな制御フローである。次に本発明が対象とする着陸制御装置の具体的な制御フローを説明する。尚、以下では着陸制御装置の全体的な制御フローを説明し、その後に全体的な制御フローで実行される主な個々の制御フローを説明する。
The above is the general control flow of the position/
[全体的な着陸制御フロー]
全体的な着陸制御フローは図4に示す通りであり、図3に示す制御ステップS20~S22を更に詳細に示したものである。以下、全体的な着陸制御フローを図4にしたがって説明する。
[Overall landing control flow]
The overall landing control flow is as shown in FIG. 4, which shows the control steps S20 to S22 shown in FIG. 3 in more detail. The overall landing control flow will be described below with reference to FIG.
≪ステップS30≫
ステップS30においては、地図データベース34から着陸地点の真上に飛行体10を移動する。この場合は高度センサ16からの高度情報や、GPSセンサの位置情報等を用いて飛行体10の位置を決めることができる。飛行体10が着陸地点の真上に移動するとステップS31に移行する。
≪Step S30≫
In step S30, the flying
尚、図5に飛行体10が着陸するときの状態を概略的に示している。図5の飛行体10は、各空間センサ13~15が近接して配置されている。飛行体10は着陸地点周辺に到着すると、空間センサ13~15によって着陸地点周辺の3つの点群情報が取得される。この時、着陸地点周辺には、着陸地点Lや障害物B1、B2が存在しており、取得された点群情報から着陸地点Lや障害物B1、B2の特徴点が抽出される。
Incidentally, FIG. 5 schematically shows the state when the flying
着陸地点L(アルファベットのHで表示)においては、「〇」で示した平面上の特徴点が検出され、障害物B1、B2においては、「●」で示した障害物の凹凸部の特徴点が検出される。他の図面の説明においても「〇」は平面上の特徴点を示し、「●」は障害物の凹凸部の特徴点を示している。 At landing point L (indicated by the alphabet H), feature points on the plane indicated by "○" are detected, and at obstacles B1 and B2, feature points on the uneven parts of the obstacles indicated by "●" are detected. is detected. In the explanations of other drawings as well, "O" indicates a feature point on a plane, and "●" indicates a feature point on an uneven part of an obstacle.
≪ステップS31≫
ステップS31においては、飛行体10が高度の高い位置に存在しているので、遠距離狭角空間センサ13によって取得された点群情報を用いて、着陸地点周辺の3D形状情報を生成する。この3D形状情報は種々の方法で求めることができるが、本実施形態では図6、図7、図8、図9に示す「3D形状生成フロー」から求めることができる。また、「3D形状生成フロー」の制御ステップの詳細は後述する。着陸地点周辺の3D形状情報が生成されるとステップS32に移行する。
≪Step S31≫
In step S31, since the flying
≪ステップS32≫
ステップS32においては、ステップS31で求められた3D形状情報から着陸地点周辺の平面、及び障害物(凹凸物)を認識する。この平面、及び障害物(凹凸物)の認識も種々の方法で求めることができるが、本実施形態では図10、図11、図12に示す「平面、障害物(凹凸物)認識フロー」から求めることができる。「平面、障害物(凹凸物)認識フロー」の制御ステップの詳細は後述する。
<<Step S32>>
In step S32, the plane around the landing site and obstacles (uneven objects) are recognized from the 3D shape information obtained in step S31. Recognition of this plane and obstacles (uneven objects) can be obtained by various methods, but in this embodiment, from the "plane and obstacle (uneven object) recognition flow" shown in FIGS. 10, 11, and 12. You can ask for it. Details of the control steps of the "plane and obstacle (uneven object) recognition flow" will be described later.
更に、平面、及び障害物(凹凸物)を認識すると、平面、及び障害物(凹凸物)の特徴点を検出する。特徴点の検出も種々の方法で求めることができるが、本実施形態では図13、図14に示す「特徴点検出フロー」から求めることができる。「特徴点検出フロー」の制御ステップの詳細は後述する。 Furthermore, when a plane and an obstacle (uneven object) are recognized, feature points of the plane and the obstacle (uneven object) are detected. Although feature points can be detected using various methods, in this embodiment, feature points can be detected using the "feature point detection flow" shown in FIGS. 13 and 14. Details of the control steps of the "feature point detection flow" will be described later.
特徴点を検出すると、互いの特徴点の間の相対位置を計測して各特徴点に特定の識別ID(特徴点ID)を付与する。識別ID(特徴点ID)の付与も種々の方法で求めることができるが、本実施形態では図15、図16に示す「特徴点相対位置検出フロー」から求めることができる。「特徴点相対位置検出フロー」の制御ステップの詳細は後述する。 When the feature points are detected, the relative positions between the feature points are measured and a specific identification ID (feature point ID) is assigned to each feature point. Although the identification ID (feature point ID) can be determined by various methods, in this embodiment, it can be determined from the "feature point relative position detection flow" shown in FIGS. 15 and 16. Details of the control steps of the "feature point relative position detection flow" will be described later.
特徴点に特定の識別ID(特徴点ID)を付与するまでの処理が完了するとステップS33に移行する。 When the process of assigning a specific identification ID (feature point ID) to the feature point is completed, the process moves to step S33.
≪ステップS33≫
ステップS33においては、上述した平面上の特徴点の相対位置から、着陸に十分な広さの平面が存在するかどうかの判断を行う。平面の広さは飛行体10の着陸面への投影面積を基準に判断することができる。飛行体10の体格は予め決められているので、平面上の特徴点の相対位置から求められた平面の広さと比較することで、着陸が可能かどうか判断される。
<<Step S33>>
In step S33, it is determined from the relative positions of the feature points on the plane described above whether a plane large enough for landing exists. The width of the plane can be determined based on the projected area of the
着陸ができないと判断されるとステップS34に移行し、着陸ができると判断されるとステップS35に移行する。 If it is determined that landing is not possible, the process moves to step S34, and if it is determined that landing is possible, the process moves to step S35.
≪ステップS34≫
ステップS34においては、飛行体10が着陸できないと判断されているので、着陸場所を変更する処理を行い、再びステップS30に戻って、同様の処理を繰り返すことになる。
<Step S34>
In step S34, since it is determined that the
≪ステップS35≫
一方、ステップS33で着陸ができると判断されているので、ステップS35においては、飛行体10の着陸動作を開始する。尚、この時の着陸地点周辺の点群情報は、高度が高い時の点群情報であるので、遠距離狭角空間センサ13による計測範囲内の点群情報となる。このため、高度が低くなるにしたがって計測範囲が狭くなるので、特徴点が消失して追尾できない、着陸範囲内に危険な物体(例えば車両等)が移動してくると、これを検出できない、位置・姿勢制御に必要な特徴点の追尾が困難となるといった不具合を生じる。
<<Step S35>>
On the other hand, since it is determined in step S33 that landing is possible, the landing operation of the
そこで、本実施形態では、ステップS36以降の制御ステップを実行して、上述の不具合をなくすようにするものである。 Therefore, in this embodiment, the control steps after step S36 are executed to eliminate the above-mentioned problems.
≪ステップS36≫
ステップS36においては、高度センサ16から高度変化量を取得する。これによって、飛行体10の現在の対地高度を求めることができる。この対地高度は空間センサ13~15による点群情報の信頼度を求めるために使用される。対地高度が求められると、ステップS37に移行する。
<<Step S36>>
In step S36, the altitude change amount is acquired from the
≪ステップS37≫
ステップS37においては、特徴点を検出できる空間センサ13~15毎に信頼度を設定する。信頼度の設定は、対地高度と特徴点の相対位置とから特徴点を含む必要画角を求め、この必要画角と各空間センサ13~15の画角とから求められる。この信頼度の求め方は、本実施形態では図8に示す「信頼度設定フロー」から求めることができる。「信頼度設定フロー」の制御ステップの詳細は後述する。信頼度の設定処理が完了するとステップS38に移行する。
<<Step S37>>
In step S37, reliability is set for each of the
≪ステップS38≫
ステップS38においては、空間センサ13~15の計測データ(3つの点群情報)と、ステップS37で求められた信頼度から新たに3D形状情報を生成する。この3D形状情報の生成方法はステップS31と同じ方法で行うことができる。ただし、この場合の3D形状情報は、ステップS31で生成した3D形状情報に対して、或る時間が経過した後の3D形状情報となる。このため、新たな障害物が発生している状況が想定される。新たな3D形状情報の生成が完了するとステップS39に移行する。
<<Step S38>>
In step S38, 3D shape information is newly generated from the measurement data (three point group information) of the
≪ステップS39≫
ステップS39においては、着陸地点周辺の平面及び障害物(凹凸物)を再び認識して、新たな特徴点を検出する。この制御ステップは、ステップS32と同じ方法で行うことができる。尚、ステップS38で説明したように新たな障害物が発生している状況が想定される。したがって、新たな特徴点が検出されると、互いの特徴点の間の相対位置を計測して各特徴点に特定の識別ID(特徴点ID)を付与する。
<<Step S39>>
In step S39, the plane and obstacles (uneven objects) around the landing site are recognized again, and new feature points are detected. This control step can be performed in the same way as step S32. Note that, as explained in step S38, a situation in which a new obstacle has occurred is assumed. Therefore, when a new feature point is detected, the relative positions between the feature points are measured and a specific identification ID (feature point ID) is assigned to each feature point.
新たな特徴点に特定の識別ID(特徴点ID)を付与するまでの処理が完了すると、ステップS40に移行する。 When the process of assigning a specific identification ID (feature point ID) to a new feature point is completed, the process moves to step S40.
≪ステップS40≫
ステップS40においては、位置・姿勢認識部31によって、現在の飛行体10の位置、姿勢を特定する。現在の位置・姿勢はステップS10と同様にSLAM手法を利用して求めることができる。この時の位置・姿勢は着陸モードでの位置・姿勢となっており、飛行体10は着陸地点に向かって降下している状態である。現在の飛行体10の位置、姿勢が特定されるとステップS41に移行する。
≪Step S40≫
In step S40, the position/
≪ステップS41≫
ステップS41においては、着陸地点に新たな障害物が存在するかどうかの判断を実行している。新たな障害物が存在するかどうかの判断は、図17に示す「危険判断フロー」から判断することができる。「危険判断フロー」の制御ステップの詳細は後述する。
<<Step S41>>
In step S41, it is determined whether a new obstacle exists at the landing site. Whether or not a new obstacle exists can be determined from the "danger determination flow" shown in FIG. 17. Details of the control steps of the "danger judgment flow" will be described later.
ステップS35の時刻においては、着陸動作を実行している時点で障害物が存在していない状況であったが、時間の経過によって例えば車両の進入等が発生して、着地点に新たな障害物が発生することがある。 At the time of step S35, there were no obstacles when the landing operation was executed, but as time passes, for example, a vehicle approaches, and a new obstacle appears at the landing point. may occur.
したがって、ステップS39で求められた新たな特徴点から、着陸地点に新たな障害物が発生したと判断されるとステップS42に移行し、新たな特徴点が発生していないと判断されるとステップS43に移行する。 Therefore, if it is determined from the new feature point obtained in step S39 that a new obstacle has occurred at the landing site, the process moves to step S42, and if it is determined that no new feature point has occurred, the process proceeds to step S42. The process moves to S43.
≪ステップS42≫
ステップS41で着陸地点周辺に新たな障害物が有ると判断されているので、ステップS42においては、着陸場所を修正して新たな着陸場所を求めている。新たな着陸場所は、図18に示す「動作状態管理フロー」から求めることができる。「動作状態管理フロー」の制御ステップの詳細は後述する。新たな着陸場所が求められると、ステップS43に移行する。
<<Step S42>>
Since it is determined in step S41 that there is a new obstacle around the landing site, in step S42 the landing site is corrected and a new landing site is found. A new landing location can be obtained from the "operating state management flow" shown in FIG. Details of the control steps of the "operating state management flow" will be described later. When a new landing location is determined, the process moves to step S43.
≪ステップS43≫
ステップS43においては、設定された着陸場所、或いはステップS42で修正された着陸場所に向かって、飛行体10の移動制御を実行する。飛行体10の移動制御を実行するとステップS44に移行する。
<<Step S43>>
In step S43, movement control of the flying
≪ステップS44≫
ステップS44においては、飛行体10が着陸場所に着地したかどうかの判断を行っている。着地判断は、飛行体10の重量で開閉される着地スイッチを飛行体10に設けることで、着地を判断することができる。着地が完了しないと判断されるとステップS36に戻り、再びステップS36以降の制御ステップを実行する。一方、着地が完了したと判断されると、エンドに抜けて本制御フローを完了する。
<<Step S44>>
In step S44, it is determined whether the flying
以上が着陸制御装置の全体的な制御フローであるが、次に主な個々の制御フローを説明する。 The above is the overall control flow of the landing control system. Next, the main individual control flows will be explained.
[3D形状生成フロー]
ステップS31における3D形状生成フローについて、図6、図7、図8、図9を用いて説明する。尚、図6は着陸地点周辺の3D形状を新たに計測して更新する制御フローを示し、図7はその時の点群の詳細情報を示し、図8は図6における信頼度を求める制御フローを示し、図9は信頼度を求める必要画角の算出方法を示している。
[3D shape generation flow]
The 3D shape generation flow in step S31 will be explained using FIGS. 6, 7, 8, and 9. Furthermore, Fig. 6 shows the control flow for newly measuring and updating the 3D shape around the landing site, Fig. 7 shows the detailed information of the point cloud at that time, and Fig. 8 shows the control flow for calculating the reliability in Fig. 6. FIG. 9 shows a method for calculating the required angle of view for determining reliability.
以下、図6に示す制御フローを元に3D形状生成フローを説明するが、以下の制御フローにおいては、ICP(Iterative Closest Point)手法を用いている。 The 3D shape generation flow will be described below based on the control flow shown in FIG. 6, and the ICP (Iterative Closest Point) method is used in the control flow below.
≪ステップS50≫
ステップS50において、各空間センサ13~15からの着陸地点周辺の点群情報を計測する。この点群情報の計測は従来と同様の方法で計測することができる。着陸地点周辺の点群情報を計測するとステップS51に移行する。
≪Step S50≫
In step S50, point cloud information around the landing site from each of the
≪ステップS51≫
ステップS51において、3D形状記憶部24から直近の着陸地点付近の3D形状情報を読み込む。3D形状記憶部24の形状データは逐次更新されているので、最新の形状データとされている。着陸地点付近の3D形状情報を読み込むとステップS52に移行する。
<<Step S51>>
In step S51, 3D shape information in the vicinity of the most recent landing point is read from the 3D
≪ステップS52≫
ステップS52において、各空間センサ13~15から得られた3つの点群情報に、信頼度をそれぞれ設定する。この信頼度は対地高度に基づいて決められている。具体的な設定方法は図8、図9によって説明する。信頼度が設定されるとステップS53に移行する。
<<Step S52>>
In step S52, reliability is set for each of the three point cloud information obtained from each of the
≪ステップS53≫
ステップS53においては、各空間センサ13~15の点群情報から観測可能な特徴点をリストアップする。このリストアップされる特徴点は、後述する図9に示す必要画角で設定される外接円の範囲内にある特徴点である。また、リストアップされた特徴点は、対地高度が低くなっても追尾されていくものである。特徴点がリストアップされるとステップS54に移行する。
<<Step S53>>
In step S53, observable feature points are listed from the point cloud information of each
≪ステップS54≫
ステップS54においては、ステップS53で求めた特徴点から、各空間センサ13~15の特徴点相対位置を求め、特徴点相対位置から点群変換行列を計算する。特徴点相対位置は、図15、図16に示す「特徴点相対位置検出フロー」から求めることができる。
<<Step S54>>
In step S54, the relative positions of the feature points of each of the
ここで、点群とは図7に示す情報を有している。点群の情報は、直交座標系のX、Y、Zの基本的位置情報や色などの情報を持つ3次元データから構成されている。また、点群は特徴点を含んでおり、例えば、図7において点群は、位置(P1)については、色(C1)、輝度(K1)、反射強度(I1)…が定義され、位置(P2)については、色(C2)、輝度(K2)、反射強度(I2)…が定義されている。これらの膨大な量の点を元に3D空間を表現することができる。点群変換行列の計算が完了するとステップS55に移行する。 Here, the point group has information shown in FIG. The point group information is composed of three-dimensional data having information such as basic positional information of X, Y, and Z in an orthogonal coordinate system and information such as color. In addition, the point cloud includes feature points. For example, in the point cloud in FIG. 7, for the position (P1), color (C1), brightness (K1), reflection intensity (I1)... Regarding P2), color (C2), brightness (K2), reflection intensity (I2), etc. are defined. 3D space can be expressed based on these huge amounts of points. When the calculation of the point group transformation matrix is completed, the process moves to step S55.
≪ステップS55≫
ステップS55においては、ステップS52で設定された各空間センサ13~15の3つの点群情報の信頼度に応じて、ステップS53で求めた空間センサ13~15由来の特徴点に重みを設定する。例えば、或る点群情報の信頼度が「1」であれば、そのままの情報となり、「0」であれば、その特徴点は無視されることになる。特徴点に信頼度に応じた重みの設定が完了するとステップS56に移行する。
<<Step S55>>
In step S55, weights are set for the feature points derived from the
≪ステップS56≫
ステップS56においては、点群変換行列により各空間センサ13~15の3つの点群情報を3D形状情報の座標に変換し、各空間センサ13~15の3つの3D形状情報と読み込んだ3D形状情報とを統合する。3D形状情報の統合が完了するとステップS57に移行する。
<<Step S56>>
In step S56, the three point cloud information of each
≪ステップS57≫
ステップS57においては、ステップS56で統合された3D形状情報を3D形状記憶部24に転送して、3D形状記憶部24の3D形状情報を更新する。更新が完了するとエンドに抜けて処理を終了する。
<<Step S57>>
In step S57, the 3D shape information integrated in step S56 is transferred to the 3D
[信頼度設定フロー]
次に、ステップS52における信頼度の設定方法について、図8、図9を用いて説明する。
[Reliability setting flow]
Next, a method for setting reliability in step S52 will be explained using FIGS. 8 and 9.
≪ステップS60≫
ステップS60においては、動作状態管理部33から「着陸モード」の実行指令が出され、「着陸モード」を実行しているかどうかの判断が行われる。「着陸モード」でないと判断されるとエンドに抜けて処理を終了する。一方、現在の動作モードが「着陸モード」であると判断されるとステップS61に移行する。
<<Step S60>>
In step S60, a command to execute the "landing mode" is issued from the operating
≪ステップS61≫
ステップS61においては、高度センサ16によって、飛行体10の高度変化を取得する。つまり、高度変化から対地高度を検出するが、この対地高度は、信頼度を設定するパラメータとして使用される。対地高度が検出されるとステップS62に移行する。
<<Step S61>>
In step S61, the
≪ステップS62≫
ステップS62においては、相対位置グループ記憶部29から特徴点相対位置を取得する。この特徴点相対位置は、図15、図16に示す「特徴点相対位置検出フロー」から求めることができる。この特徴点相対位置も、信頼度を設定するパラメータとして使用される。特徴点相対位置が求められるとステップS63に移行する。
<<Step S62>>
In step S62, the feature point relative positions are acquired from the relative position
≪ステップS63≫
ステップS63においては、対地高度と特徴点相対位置から必要画角(θ)を計算する。図9に示しているように、互いに関連する平面上の特徴点(○で表示)や障害物の凹凸部の特徴点(●で表示)は、相対的な距離(a、b、c)を有している。したがって、必要とする平面や障害物を構成する識別ID(特徴点ID)の全ての特徴点を含む外接円の直径(D)と高度(H)から、逆三角関数を用いて必要画角を求めることができる。識別ID(特徴点ID)の全ての特徴点を含む必要画角(θ)が求められると、ステップS64に移行する。
<<Step S63>>
In step S63, the required angle of view (θ) is calculated from the altitude above the ground and the relative position of the feature point. As shown in Figure 9, the relative distances (a, b, c) of the feature points on the plane (indicated by ○) and the feature points on the uneven parts of obstacles (indicated by ●) that are related to each other are have. Therefore, from the diameter (D) and height (H) of the circumscribed circle that includes all the feature points of the identification ID (feature point ID) that constitute the required plane and obstacle, use inverse trigonometric functions to calculate the required angle of view. You can ask for it. Once the necessary angle of view (θ) including all the feature points of the identification ID (feature point ID) is determined, the process moves to step S64.
≪ステップS64≫
ステップS64においては、求められた必要画角(θ)と各空間センサ13~15の画角とを比較し、各空間センサ13~15の画像の信頼度を設定する。例えば、遠距離狭角空間センサ13の画角が、必要画角(θ)より小さいと信頼度が小さいと判断され、遠距離狭角空間センサ13の画角が、必要画角(θ)より大きいと信頼度が大きいと判断される。中距離広角空間センサ14、近距離広角空間センサ15においても同様の判断が実行される。この判断結果に対応して各空間センサ13~15毎に信頼度が設定される。
<<Step S64>>
In step S64, the obtained required angle of view (θ) is compared with the angle of view of each of the
このように、飛行体10の高度が低くなるにつれて必要画角(θ)が大きくなるので、中距離広角空間センサ14、近距離広角空間センサ15の方の信頼度が大きくなる。ここで、信頼度は「1~0」の範囲に設定されており、適宜設定することができる。また、信頼度を「1」、或いは「0」に設定することもできる。信頼度が設定されると、エンドに抜けて処理を終了する。
In this way, as the altitude of the flying
[平面/障害物認識フロー]
次に、ステップS32における平面や障害物の凹凸部を認識する平面/障害物認識方法について、図10、図11、図12を用いて説明する。
[Plane/obstacle recognition flow]
Next, a plane/obstacle recognition method for recognizing uneven parts of a plane and obstacles in step S32 will be explained using FIGS. 10, 11, and 12.
≪ステップS70≫
ステップS70においては、3D形状記憶部24から最新の着陸地点周辺の3D形状情報を取得する。着陸地点周辺においては、平面や障害物(凹凸部)が存在しているため、障害物を避けて着陸させる必要がある。このため、着陸地点周辺の3D形状情報から障害物を検出する。着陸地点周辺の3D形状情報を取得するとステップS71に移行する。
<<Step S70>>
In step S70, the latest 3D shape information around the landing site is acquired from the 3D
≪ステップS71≫
ステップS71においては、着陸地点周辺の3D形状情報から平面を推定する。この平面を推定するのは、平面から重力方向で上側に突出している凸部や、平面から重力方向で下側に陥没している凹部等を検出する基準とするためである。もちろん、飛行体10の着陸面を設定するためにも利用することができる。
<<Step S71>>
In step S71, a plane is estimated from 3D shape information around the landing site. The purpose of estimating this plane is to use it as a reference for detecting convex portions that protrude upward from the plane in the direction of gravity, recesses that sink downward from the plane in the direction of gravity, and the like. Of course, it can also be used to set the landing surface of the
ここで、平面の推定するためには種々の方法があるが、本実施形態では周知のRANSAC(Random Sample Consensus)手法を用いて平面を推定することができる。平面が推定されるとステップS72に移行する。 Here, there are various methods for estimating the plane, but in this embodiment, the well-known RANSAC (Random Sample Consensus) method can be used to estimate the plane. Once the plane is estimated, the process moves to step S72.
≪ステップS72≫
ステップS72においては、ステップS71で推定された平面を基準にして、重力方向で所定の閾値以上の点(特徴点)を検出し、特徴点検出部へ送信する。特徴点検出部の動作は後述する。所定の閾値以上の点を検出すると、ステップS73に移行する。尚、特徴点は点群の一部であるので、図7に示す点群情報も紐付けられている。
<<Step S72>>
In step S72, points (feature points) that are equal to or greater than a predetermined threshold in the direction of gravity are detected based on the plane estimated in step S71, and transmitted to the feature point detection section. The operation of the feature point detection section will be described later. If a point equal to or greater than a predetermined threshold is detected, the process moves to step S73. Note that since the feature points are part of the point cloud, the point cloud information shown in FIG. 7 is also linked.
≪ステップS73≫
ステップS73においては、所定閾値以上の点をグルーピングし、識別IDと原点、サイズを表すベクトルを保存する。このグルーピングは互いに関連した点をグループ(点群)として捉えることで「障害物」を特定するものである。
≪Step S73≫
In step S73, points equal to or greater than a predetermined threshold are grouped, and vectors representing the identification ID, origin, and size are saved. This grouping identifies "obstacles" by capturing mutually related points as a group (point cloud).
図11はグルーピングの概念を示しており、「〇」は平面上の特徴点を示し、「●」は障害物の特徴点を示している。障害物の特徴点は、夫々が相対的な距離を有して関連しているのでグルーピングすることができ、更には、所定の原点位置を基準とするサイズベクトル(xyz)で表すことができる。サイズベクトル(xyz)の保存が完了するとステップS74に移行する。 FIG. 11 shows the concept of grouping, where "O" indicates a feature point on a plane, and "●" indicates a feature point of an obstacle. Since the feature points of the obstacle are related to each other by a relative distance, they can be grouped, and furthermore, they can be represented by a size vector (xyz) based on a predetermined origin position. When the storage of the size vector (xyz) is completed, the process moves to step S74.
≪ステップS74≫
ステップS74においては、グルーピングした点群の夫々に凹凸フラグを設定する。この凹凸フラグは、基準となる平面に対して上側に突出している点群(障害物)であるか、或いは基準となる平面に対して下側に陥没している点群(障害物)であるかを示すフラグである。本実施形態では、上側に突出している点群では「+」(凸フラグ)を設定し、下側に陥没している点群では「-」(凹フラグ)を設定している。凹凸フラグの設定が完了するとステップS75に移行する。
<<Step S74>>
In step S74, an unevenness flag is set for each of the grouped points. This unevenness flag is a point group (obstacle) that protrudes upward from the reference plane, or a point group (obstacle) that is depressed downward from the reference plane. This is a flag indicating whether In this embodiment, a "+" (convex flag) is set for a point group that protrudes upward, and a "-" (concave flag) is set for a point group that is depressed downward. When the setting of the unevenness flag is completed, the process moves to step S75.
≪ステップS75≫
ステップS75においては、グルーピングした点群(凹凸グループ)に、夫々を識別するグループ識別IDを設定する。グループ識別IDの一例を図12に示している。
<<Step S75>>
In step S75, a group identification ID for identifying each grouped point group (unevenness group) is set. An example of group identification ID is shown in FIG. 12.
図12において、グルーピングした点群の情報は、直交座標系の原点位置、サイズベクトル、凹凸フラグなどの情報を持つデータから構成されている。例えば、グループ識別ID(G1)については、原点位置(P1)、サイズベクトル(S1)、凹フラグ(-1)が定義され、グループ識別ID(G2)については、原点位置(P2)、サイズベクトル(S2)、凸フラグ(+1)が定義されている。グループ識別IDの設定が完了するとステップS76に移行する。 In FIG. 12, the information on the grouped point group is composed of data having information such as the origin position of the orthogonal coordinate system, the size vector, and the unevenness flag. For example, for group identification ID (G1), origin position (P1), size vector (S1), and concave flag (-1) are defined, and for group identification ID (G2), origin position (P2), size vector (S2), a convex flag (+1) is defined. When the setting of the group identification ID is completed, the process moves to step S76.
≪ステップS76≫
ステップS76においては、ステップS75で求められたグループ識別ID(上述した原点位置、サイズベクトル、凹凸フラグ等を含む)は、危険判断部30に送信される。これによって、危険判断部30は障害物の有無や大きさ等を判断して、飛行体10の着陸に支障があるかどうかの判断を実行する。危険判断部30の制御動作は後述する。グループ識別IDの送信が完了するとエンドに抜けて処理を終了する。
<<Step S76>>
In step S76, the group identification ID obtained in step S75 (including the above-mentioned origin position, size vector, unevenness flag, etc.) is transmitted to the
[特徴点検出フロー]
次に、ステップS32における着陸地点周辺の平面および障害物(凹凸物)を認識して特徴点を検出する特徴点検出方法について、図13、図14を用いて説明する。
[Feature point detection flow]
Next, a feature point detection method for detecting feature points by recognizing the plane and obstacles (uneven objects) around the landing site in step S32 will be explained using FIGS. 13 and 14.
≪ステップS80≫
ステップS80においては、3D形状記憶部24から最新の着陸地点周辺の3D形状情報を取得する。着陸地点周辺の3D形状情報を取得するとステップS81に移行する。
<<Step S80>>
In step S80, the latest 3D shape information around the landing site is acquired from the 3D
≪ステップS81≫
ステップS81においては、着陸地点周辺の3D形状情報において、形状、色、反射強度の変化(差分・勾配等)を算出する。これは新たな特徴点が発生したことを検出するためである。新たな特徴点とは、例えば着陸地点周辺に車両が進入してくる場合等が想定される。形状、色、反射強度の変化(差分・勾配等)が算出されると、ステップS82に移行する。
<<Step S81>>
In step S81, changes in shape, color, and reflection intensity (difference, slope, etc.) are calculated in the 3D shape information around the landing site. This is to detect the occurrence of a new feature point. The new feature point is assumed to be, for example, a case where a vehicle approaches the vicinity of the landing site. Once changes in shape, color, and reflection intensity (difference, slope, etc.) are calculated, the process moves to step S82.
≪ステップS82≫
ステップS82においては、ステップS81で求められた形状、色、反射強度の変化量が、所定の閾値を超える点(特徴点)を抽出する。新たな特徴点が検出されると、ステップS83に移行する。
<<Step S82>>
In step S82, points (feature points) for which the amount of change in shape, color, and reflection intensity determined in step S81 exceed a predetermined threshold are extracted. When a new feature point is detected, the process moves to step S83.
≪ステップS83≫
ステップS83においては、特徴点記憶部27から、比較対象となる領域の全特徴点を取得する。全特徴点が取得されるとステップS84に移行する。
<<Step S83>>
In step S83, all feature points of the area to be compared are acquired from the feature
≪ステップS84≫
ステップS84においては、ステップS84で取得した特徴点と、ステップS82で求めた変化量が閾値を超えた特徴点とを比較(マッチング)する。これによって、新たな特徴点の発生を把握することができる。それぞれの特徴点の比較が完了するとステップS85に移行する。
<<Step S84>>
In step S84, the feature point acquired in step S84 is compared (matched) with the feature point for which the amount of change found in step S82 exceeds a threshold value. This makes it possible to grasp the occurrence of new feature points. When the comparison of each feature point is completed, the process moves to step S85.
≪ステップS85≫
ステップS85においては、ステップS84の比較結果を用いて新しい特徴点(マッチングしない点)が存在するかどうかを判断する。新しい特徴点が存在しないと判断されるとエンドに抜けて処理を終了する。一方、新しい特徴点が存在すると判断されるとステップS86に移行する。
<<Step S85>>
In step S85, it is determined whether a new feature point (unmatched point) exists using the comparison result in step S84. If it is determined that no new feature points exist, the process exits to END and ends the process. On the other hand, if it is determined that a new feature point exists, the process moves to step S86.
≪ステップS86≫
ステップS86においては、新しい特徴点に識別IDを付加して位置情報と共に特徴点記憶部27に更新、記憶する。特徴点の記憶の一例を図14に示している。図14において、識別IDの情報は、直交座標系の位置(xyz)、凹凸フラグなどの情報を持つデータから構成されている。例えば、識別ID(D1)については、位置(P1=x1、y1、z1)、凹フラグ(0/平面)が定義され、識別ID(D2)については、位置(P2=x2、y2、z2)、凹フラグ(-1/凹部)が定義され、識別ID(D3)については、位置(P3=x3、y3、z3)、凹フラグ(+1/凸部)が定義される。特徴点記憶部27に新しい特徴点を記憶すると、エンドに抜けて処理を終了する。
<<Step S86>>
In step S86, an identification ID is added to the new feature point, and the new feature point is updated and stored in the feature
[特徴点相対位置計測フロー]
次に、ステップS32における特徴点の相対位置を計測する特徴点相対位置計測方法について、図15、図16を用いて説明する。
[Feature point relative position measurement flow]
Next, a feature point relative position measuring method for measuring the relative position of the feature point in step S32 will be described using FIGS. 15 and 16.
≪ステップS90≫
ステップS90においては、図13のステップS86で記憶された新しい特徴点が、特徴点記憶部27に存在するかどうかを判断する。新しい特徴点が存在しないと判断されるとエンドに抜けて処理を終了する。一方、新しい特徴点が存在すると判断されるとステップS91に移行する。
≪Step S90≫
In step S90, it is determined whether the new feature point stored in step S86 of FIG. 13 exists in the feature
≪ステップS91≫
ステップS91においては、特徴点記憶部27から新しい特徴点を取得する。新しい特徴点が検出されるとステップS92に移行する。
<<Step S91>>
In step S91, new feature points are acquired from the feature
≪ステップS92≫
ステップS92においては、新しい特徴点を含む関連した特徴点を組み合わせた全組み合わせ求め、求めた全組み合わせに対して、夫々の相対位置グループを生成し、これらにグループIDを付加する。これによって、関連する特徴点からなるグループが形成される。この相対位置グループの生成によって障害物等を特定することができる。相対位置グループを生成するとステップS93に移行する。
<<Step S92>>
In step S92, all combinations of related feature points including new feature points are determined, relative position groups are generated for all of the determined combinations, and group IDs are added to these groups. This forms groups of related feature points. Obstacles and the like can be identified by generating this relative position group. Once the relative position group is generated, the process moves to step S93.
≪ステップS93≫
ステップS93においては、相対位置グループの夫々の特徴点の相対距離を計算する。図9に戻って、特徴点「〇」と特徴点「●」の組み合わせからなるグループにおいて、各特徴点の相対距離は三次元を含む座標系の座標位置から求めることができ、それぞれ「a」、「b」、「c」と求めることができる。単位は「メートル(m)」であり、これによって、障害物の大きさを判断できる。
<Step S93>
In step S93, the relative distance of each feature point in the relative position group is calculated. Returning to Fig. 9, in a group consisting of a combination of feature points "◯" and "●", the relative distance of each feature point can be found from the coordinate position of a coordinate system including three dimensions, and can be found as "a", "b", and "c", respectively. The unit is "meter (m)", and the size of the obstacle can be determined from this.
障害物のサイズ(体格)が大きいと、飛行体10の着陸に支障をきたす危険物と認定することができる。例えば、後述する危険判断フローにおいて、相相対位置グループの情報を用いて危険判断を実行することができる。相対位置グループの特徴点の相対距離の計算が終了するとステップS94に移行する。
If the size (physique) of the obstacle is large, it can be recognized as a dangerous object that will hinder the landing of the flying
≪ステップS94≫
ステップS94においては、ステップS92、S93で求めた相対位置グループの識別IDや相対距離を、相対位置グループ記憶部29に記憶して更新する。相対位置グループの情報の一例を図16に示している。図16において、相対位置グループの識別ID情報は、相対位置グループを構成する夫々の特徴点や相対距離などの情報を持つデータから構成されている。
<<Step S94>>
In step S94, the identification ID and relative distance of the relative position group obtained in steps S92 and S93 are stored in the relative position
例えば、相対位置グループ識別ID(RG1)については、図9に示すように関連する特徴点の識別ID(1、3、6)と、夫々の特徴点の間の相対距離(a、b、c)が定義され、相対位置グループ識別ID(RG2)については、関連する特徴点の識別ID(1、4、2)と、夫々の特徴点の間の相対距離が定義される。相対位置グループ記憶部29に、新しい相対位置グループIDや相対距離を記憶すると、エンドに抜けて処理を終了する。
For example, for the relative position group identification ID (RG1), as shown in FIG. ) is defined, and for the relative position group identification ID (RG2), the identification IDs (1, 4, 2) of related feature points and the relative distances between the respective feature points are defined. When the new relative position group ID and relative distance are stored in the relative position
[危険判断フロー]
次に、図4のステップS41における着陸地点に新たな障害物が存在するかどうかの判断を実行する危険判断方法について、図17を用いて説明する。
[Risk judgment flow]
Next, a risk determination method for determining whether a new obstacle exists at the landing site in step S41 of FIG. 4 will be described using FIG. 17.
≪ステップS100≫
ステップS100においては、現在の飛行体10の位置・姿勢、着陸地点付近の障害物(凹凸グループ)、特徴点を取得する。これらの情報が取得されるとステップS101に移行する。
<<Step S100>>
In step S100, the current position and attitude of the flying
≪ステップS101≫
ステップS101においては、現在の飛行体10の位置・姿勢から重力方向に垂直な着陸地点とその周辺を算出する。これによって、飛行体10が着陸しようとしている地表面を特定することができる。着陸地点周辺が特定されるとステップS102に移行する。
<<Step S101>>
In step S101, a landing point perpendicular to the direction of gravity and its surroundings are calculated from the current position and attitude of the flying
≪ステップS102≫
ステップS102においては、着陸地点周辺に障害物や平面以外の新たな特徴点(障害物)が存在するかどうかが判断される。着陸モードを実行するときに、既に障害物や平面の特徴点が検出されて着陸地点が設定され、これに向かって飛行体10は降下している。このため、着陸地点に車両等が進入してくると、新たな障害物となる恐れがある。この新たな障害物を回避するため、本制御ステップでは新たな特徴点の発生の有無を判断している。
<<Step S102>>
In step S102, it is determined whether an obstacle or a new feature point (obstacle) other than a plane exists around the landing site. When executing the landing mode, obstacles and feature points on the plane have already been detected, a landing point has been set, and the flying
本制御ステップで新たな特徴点が存在しないと判断されるエンドに抜けて処理を終了する。一方、新たな特徴点が存在すると判断されるとステップS103に移行する。 In this control step, the process exits to the end where it is determined that no new feature point exists, and the process ends. On the other hand, if it is determined that a new feature point exists, the process moves to step S103.
≪ステップS103≫
ステップS103においては、飛行体10がそのままの着陸動作を継続すると新たな障害物に接触する恐れがあるため、動作状態管理部33に飛行体10の降下停止信号を出力する。降下停止信号の出力を動作状態管理部33に送信するとステップS104に移行する。
<<Step S103>>
In step S103, if the flying
≪ステップS104≫
ステップS104においては、着陸地点周辺の障害物(凹凸グループ)、平面以外の新たな特徴点が存在しない、着陸地点と最も近い着陸点を新たに算出する。もちろん、この場合でも飛行体10が着陸できる面積を有する平面が算出されるのは言うまでもない。新たな着陸地点が算出されるとステップS105に移行する。
<<Step S104>>
In step S104, the closest landing point to the landing point is newly calculated, where there are no obstacles (unevenness groups) around the landing point or new feature points other than flat surfaces. Of course, even in this case, it goes without saying that a plane having an area on which the flying
≪ステップS105≫
ステップS105においては、ステップS104で求められた新たな着陸地点を、動作状態管理部33に出力する。新たな着陸地点が出力されるとエンドに抜け処理を終了する。尚、ステップS103からの降下停止信号、ステップS104の新たな着陸地点は、次に説明する動作状態管理状態フローで使用される。
<<Step S105>>
In step S105, the new landing site determined in step S104 is output to the operating
[動作状態管理フロー]
次に、図4のステップS42における着陸地点を修正する着陸地点修正方法について、図18を用いて説明する。
[Operating state management flow]
Next, a landing point correction method for correcting the landing point in step S42 in FIG. 4 will be described using FIG. 18.
≪ステップS110≫
ステップS110においては、現在の飛行体10の位置・姿勢を位置・姿勢認識部31から取得する。飛行体10の位置・姿勢を取得するとステップS111に移行する。
<<Step S110>>
In step S110, the current position and attitude of the flying
≪ステップS111≫
ステップS111においては、現在の位置・姿勢と地図DBの地図情報とをマッチングさせ、現在の飛行体10の状態を判断する。現在の飛行体10の状態を把握するとステップS112に移行する。
<<Step S111>>
In step S111, the current position/attitude is matched with the map information in the map DB, and the current state of the
≪ステップS112≫
ステップS112においては、危険判断部30から降下停止信号の出力(図17のステップS103からの出力)があるかどうかが判断される。降下停止信号がないと判断されるとステップS114に移行し、降下停止信号があると判断されるとステップS113に移行する。
<<Step S112>>
In step S112, it is determined whether or not a descent stop signal is output from the danger determining section 30 (output from step S103 in FIG. 17). If it is determined that there is no descent stop signal, the process proceeds to step S114, and if it is determined that there is a descent stop signal, the process proceeds to step S113.
≪ステップS113≫
ステップS113においては、飛行体10がそのままの着陸動作を継続すると新たな障害物に接触する恐れがあるため、動作状態管理部33は動作モードを「待機モード」に変更する。「待機モード」に変更することにより、飛行体10はホバリングを行って、現在の位置で停止状態となる。「待機モード」に変更されるとステップS114に移行する。
<<Step S113>>
In step S113, if the flying
≪ステップS114≫
ステップS114においては、危険判断部30から新たな着陸地点の出力(図17のステップS105からの出力)があるかどうかが判断される。新たな着陸地点の出力がないと判断されるとステップS117に移行し、新たな着陸地点の出力があると判断されるとステップS115に移行する。
<<Step S114>>
In step S114, it is determined whether there is an output of a new landing site from the danger determination unit 30 (output from step S105 in FIG. 17). If it is determined that there is no output from a new landing site, the process moves to step S117, and if it is determined that there is an output from a new landing site, the process moves to step S115.
≪ステップS115≫
ステップS115においては、ステップS114で求められた新たな着陸地点を、位置・姿勢制御部35に出力する。これによって、飛行体10の新たな着陸地点が設定される。位置・姿勢制御部35に新たな着陸地点が出力されるとステップS116に移行する。
<<Step S115>>
In step S115, the new landing site determined in step S114 is output to the position/
≪ステップS116≫
ステップS116においては、飛行体10を着陸地点に移動させるために、動作状態管理部33は動作モードを「接近モード」に変更する。「接近モード」に変更することにより、飛行体10は新たな着陸地点に向かって移動を開始する。「接近モード」に変更されるとステップS117に移行する。
<<Step S116>>
In step S116, the operating
≪ステップS117≫
ステップS117においては、動作モードが「接近モード」で、かつ新たな着陸点に到着したかどうかを判断する。「接近モード」の状態で着陸地点に到達していない場合はステップS119に移行し、「接近モード」の状態で着陸地点に到達している場合はステップS118に移行する。
<<Step S117>>
In step S117, it is determined whether the operation mode is "approach mode" and whether or not the aircraft has arrived at a new landing point. If the landing site has not been reached in the "approach mode" state, the process moves to step S119, and if the landing site has been reached in the "approach mode" state, the process moves to step S118.
≪ステップS118≫
ステップS118においては、飛行体10が「接近モード」の状態で着陸地点に到達しているので、動作モードを「着陸モード」に変更して、新たな着陸地点に飛行体10を降下させるように制御する。「着陸モード」に変更されるとステップS119に移行する。
<<Step S118>>
In step S118, since the
≪ステップS119≫
ステップS119においては、ステップS113の「待機モード」、ステップS116の「接近モード、ステップS118の「着陸モード」のいずれかの動作モードを環境認識部21に出力する。その後にエンドに抜けて処理を終了する。
<<Step S119>>
In step S119, any one of the operating modes of "standby mode" in step S113, "approach mode" in step S116, and "landing mode" in step S118 is output to the
以上に説明した着陸制御を実行することによって、少なくとも、(1)ドローンの高度が低い方へ変化してセンサカメラのセンシング範囲から着陸範囲が逸脱した場合、或いは(2)着陸範囲内に危険な物体が移動した場合、或いは(3)位置・姿勢制御に必要な特徴点の追尾が困難となった場合のいずれかにおいて、ドローンを意図した着陸位置に着陸させることができるようになる。 By executing the landing control described above, at least (1) the altitude of the drone changes to a lower direction and the landing range deviates from the sensing range of the sensor camera, or (2) there is a danger within the landing range. If the object moves, or (3) if it becomes difficult to track the feature points necessary for position/attitude control, the drone will be able to land at the intended landing position.
尚、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add, delete, or replace a part of the configuration of each embodiment with other configurations.
10…飛行体、11…筐体本体、12…羽根ロータ、13…遠距離狭角空間センサ、14…中距離広角空間センサ、15…近距離広角空間センサ、16…高度センサ。
DESCRIPTION OF
Claims (8)
前記着陸制御手段は、高度に対応して複数の前記特徴点の相対位置を計測すると共に、高度に応じて夫々の前記特徴点を計測する前記特徴点検出手段を選択し、前記特徴点の相対位置の変化から前記着陸地点の形状変化の有無を判定し、形状変化があると前記飛行体を新たな前記着陸地点に移動することを特徴とする飛行体の着陸制御装置。 a plurality of feature point detection means for detecting feature points around the landing site; feature point recognition means for recognizing the feature points detected by the feature point detection means; and altitude measurement means for measuring the altitude of the aircraft. A landing control device for an aircraft, comprising: and a landing control means for automatically landing the aircraft at the landing site,
The landing control means measures the relative positions of the plurality of feature points in accordance with the altitude, selects the feature point detection means for measuring each of the feature points in accordance with the altitude, and measures the relative positions of the plurality of feature points in accordance with the altitude. A landing control system for an aircraft, characterized in that it determines whether there is a change in the shape of the landing site based on a change in position, and if there is a change in shape, moves the aircraft to a new landing site.
前記着陸制御手段は、複数の前記特徴点検出手段で計測された前記特徴点に、前記高度測定手段で測定された高度に応じて信頼度が付与し、計測された前記特徴点を信頼度に応じて追尾することを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 1,
The landing control means assigns reliability to the feature points measured by the plurality of feature point detection means according to the altitude measured by the altitude measurement means, and assigns reliability to the measured feature points. A landing control device for a flying object, which is characterized by tracking according to the following.
前記着陸制御手段は、前記飛行体が着陸している途中で新たに着陸の障害となる障害物を検出すると、前記飛行体の降下を停止して前記飛行体を現在の位置に保持することを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 1,
The landing control means stops the descent of the flying object and maintains the flying object at the current position when a new obstacle that becomes an obstacle to landing is detected while the flying object is landing. A distinctive feature of the aircraft's landing control system.
前記着陸制御手段は、前記飛行体が着陸している途中で新たに着陸の障害となる障害物を検出すると、新たな前記着陸地点を求めると共に、前記飛行体を新たな前記着陸地点に移動させることを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 1,
When the landing control means detects a new obstacle that obstructs landing while the flying object is landing, the landing control means determines a new landing point and moves the flying object to the new landing point. A landing control device for an aircraft, characterized by:
前記着陸制御手段は、着陸の障害となる前記障害物として、前記着陸地点の平面に対する凹凸の大きさによって判断することを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 3 or 4,
A landing control system for a flying object, wherein the landing control means determines the obstacle that becomes an obstacle to landing based on the size of unevenness with respect to a plane of the landing site.
前記着陸制御手段は、着陸の障害となる前記障害物を互いに関連する複数のグルーピングされた前記特徴点から形成し、グルーピングされた複数の前記特徴点の相対位置から前記障害物の大きさを判定することを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 5,
The landing control means forms the obstacle that becomes an obstacle to landing from a plurality of mutually related feature points grouped together, and determines the size of the obstacle from the relative position of the plurality of grouped feature points. A landing control device for an aircraft, characterized by:
前記特徴点検出手段は、地表面の形状を点群情報として検出する空間センサ(LIDAR/light detection and ranging)であることを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 1,
A landing control system for an aircraft, wherein the feature point detection means is a space sensor (LIDAR/light detection and ranging) that detects the shape of the ground surface as point group information.
前記空間センサは少なくとも2つ備えられており、一方は画角が狭い遠距離狭角空間センサであり、他方は画角が広い近距離広角空間センサであることを特徴とする飛行体の着陸制御装置。 The landing control device for a flying object according to claim 7,
Landing control of an aircraft, characterized in that at least two space sensors are provided, one of which is a long-range, narrow-angle space sensor with a narrow field of view, and the other is a short-range, wide-angle space sensor with a wide field of view. Device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020176376A JP7455044B2 (en) | 2020-10-21 | 2020-10-21 | Aircraft landing control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020176376A JP7455044B2 (en) | 2020-10-21 | 2020-10-21 | Aircraft landing control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022067672A JP2022067672A (en) | 2022-05-09 |
JP7455044B2 true JP7455044B2 (en) | 2024-03-25 |
Family
ID=81456035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020176376A Active JP7455044B2 (en) | 2020-10-21 | 2020-10-21 | Aircraft landing control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7455044B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024084781A1 (en) * | 2022-10-17 | 2024-04-25 | 株式会社Nttドコモ | Information processing device |
JP2024104215A (en) * | 2023-01-23 | 2024-08-02 | 三菱重工業株式会社 | Position control system for vertical take-off and landing aircraft, vertical take-off and landing aircraft, and position control method for vertical take-off and landing aircraft |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011121398A (en) | 2009-12-08 | 2011-06-23 | Toyota Motor Corp | Vehicle front monitoring device |
WO2016148303A1 (en) | 2015-03-19 | 2016-09-22 | 株式会社プロドローン | Unmanned rotorcraft, and surrounding object ranging method thereof |
CN107089319A (en) | 2017-04-20 | 2017-08-25 | 中化舟山危化品应急救援基地有限公司 | Storage tank fire detection system |
US20170313439A1 (en) | 2016-04-29 | 2017-11-02 | Jordan Holt | Methods and syststems for obstruction detection during autonomous unmanned aerial vehicle landings |
-
2020
- 2020-10-21 JP JP2020176376A patent/JP7455044B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011121398A (en) | 2009-12-08 | 2011-06-23 | Toyota Motor Corp | Vehicle front monitoring device |
WO2016148303A1 (en) | 2015-03-19 | 2016-09-22 | 株式会社プロドローン | Unmanned rotorcraft, and surrounding object ranging method thereof |
US20170313439A1 (en) | 2016-04-29 | 2017-11-02 | Jordan Holt | Methods and syststems for obstruction detection during autonomous unmanned aerial vehicle landings |
CN107089319A (en) | 2017-04-20 | 2017-08-25 | 中化舟山危化品应急救援基地有限公司 | Storage tank fire detection system |
Also Published As
Publication number | Publication date |
---|---|
JP2022067672A (en) | 2022-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12037117B2 (en) | Unmanned aerial vehicle and payload delivery system | |
JP7353747B2 (en) | Information processing device, system, method, and program | |
JP7143444B2 (en) | aircraft smart landing | |
US11017679B2 (en) | Unmanned aerial vehicle visual point cloud navigation | |
US10761538B2 (en) | Systems and methods for enhanced collision avoidance on logistics ground support equipment using multi-sensor detection fusion | |
Beul et al. | Fast autonomous flight in warehouses for inventory applications | |
US10527720B2 (en) | Millimeter-wave terrain aided navigation system | |
Miranda et al. | Autonomous navigation system for a delivery drone | |
Nieuwenhuisen et al. | Multimodal obstacle detection and collision avoidance for micro aerial vehicles | |
US9733090B2 (en) | Route planning | |
EP3759561B1 (en) | Drone control system | |
WO2020168464A1 (en) | Local sensing based autonomous navigation, and associated systems and methods | |
JP7455044B2 (en) | Aircraft landing control system | |
WO2017168423A1 (en) | System and method for autonomous guidance of vehicles | |
US11537140B2 (en) | Mobile body, location estimation device, and computer program | |
CN113156998A (en) | Unmanned aerial vehicle flight control system and control method | |
US11987382B2 (en) | Method for aircraft localization and control | |
US20220019224A1 (en) | Mobile body, method of controlling mobile body, and program | |
KR20210010166A (en) | System and method for processing unmanned flight vehicle leaving formation in cluster flight | |
EP3992747B1 (en) | Mobile body, control method, and program | |
Eudes et al. | Autonomous and safe inspection of an industrial warehouse by a multi-rotor MAV | |
Mittal et al. | Vision-based autonomous landing in catastrophe-struck environments | |
Lee | Machine learning vision and nonlinear control approach for autonomous ship landing of vertical flight aircraft | |
CN113848561A (en) | Depth vision camera and laser radar fused navigation method, system and equipment | |
Agarwal et al. | Monocular vision based navigation and localisation in indoor environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7455044 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |