JP2021172318A - Descending system for unmanned flight body - Google Patents

Descending system for unmanned flight body Download PDF

Info

Publication number
JP2021172318A
JP2021172318A JP2020080714A JP2020080714A JP2021172318A JP 2021172318 A JP2021172318 A JP 2021172318A JP 2020080714 A JP2020080714 A JP 2020080714A JP 2020080714 A JP2020080714 A JP 2020080714A JP 2021172318 A JP2021172318 A JP 2021172318A
Authority
JP
Japan
Prior art keywords
sign
hierarchical
unmanned
target
outer shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020080714A
Other languages
Japanese (ja)
Other versions
JP7539688B2 (en
Inventor
達也 山口
Tatsuya Yamaguchi
サンチェス ヘルナンデス ホルヘ
Hernandez Jorge Sanchez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eams Robotics Co Ltd
Original Assignee
Eams Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eams Robotics Co Ltd filed Critical Eams Robotics Co Ltd
Priority to JP2020080714A priority Critical patent/JP7539688B2/en
Publication of JP2021172318A publication Critical patent/JP2021172318A/en
Application granted granted Critical
Publication of JP7539688B2 publication Critical patent/JP7539688B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a descending system that can land an unmanned flight body at an accurate target position.SOLUTION: Target markers are comprised of layer markers at several stages that have different outer shape sizes in a horizontal direction. A layer marker with a relatively small outer shape is arranged on an inner side of a layer marker with a relatively large outer shape. When the layer marker with the relatively large outer shape is recognizable within a photographic range of image acquiring means, an unmanned flight body descends while performing control so that the layer marker with the relatively large outer shape is positioned within the photographic range. If the layer marker with the relatively large outer shape becomes unrecognizable within the photographic range as a result of lowering the unmanned flight body, the unmanned flight body descends while performing control so that the layer marker with the relatively small outer shape is positioned within the photographic range.SELECTED DRAWING: Figure 13

Description

本発明は、無人飛行体の降下システムに関する。 The present invention relates to a descent system for an unmanned aircraft.

従来、小型無人飛行体(「ドローン」とも呼ばれる。)の利用が提案されている。このようなドローンが着陸する際に、地上に配置した目標物(「マーカー」とも呼ばれる。)を目指して降下する技術が提案されている(例えば、特許文献1)。 Conventionally, the use of small unmanned aerial vehicles (also called "drones") has been proposed. When such a drone lands, a technique has been proposed in which the drone descends toward a target (also referred to as a "marker") placed on the ground (for example, Patent Document 1).

特願2019−501868号公報Japanese Patent Application No. 2019-501868

上述の技術においては、ドローンはカメラで目標物を撮影し、目標物に向かって降下する。カメラには、撮影可能な範囲(例えば、「画角」で規定される。以下、「撮影範囲」と呼ぶ。)があり、ドローンの飛行高度が下がるほど、撮影範囲内の地上の領域は狭くなる。このため、ドローンが高度を下げると、いずれ、マーカーの一部または全部が撮影範囲を外れるから、ドローンが所定の着陸位置に正確に着陸することができない場合がある。 In the techniques described above, the drone shoots the target with a camera and descends towards the target. The camera has a shooting range (for example, defined by the "angle of view"; hereinafter referred to as the "shooting range"), and the lower the flight altitude of the drone, the narrower the ground area within the shooting range. Become. Therefore, when the drone lowers the altitude, part or all of the markers will eventually go out of the shooting range, and the drone may not be able to land accurately at the predetermined landing position.

本発明はかかる問題の解決を試みたものであり、正確な目標位置に降下することができる無人飛行体の降下システムを提供することを目的とする。 The present invention has attempted to solve such a problem, and an object of the present invention is to provide a descent system for an unmanned aircraft capable of descending to an accurate target position.

第一の発明は、複数のモーターの回転軸にそれぞれ接続されたプロペラの回転を制御して飛行する無人飛行体を目標位置に着陸させるための降下システムであって、前記目標位置を含む領域に配置される目標標識を有し、前記目標標識は、水平方向における外形の大きさが異なる複数段階の階層標識から構成され、相対的に外形が小さな前記階層標識は、相対的に外形が大きな前記階層標識の内側に配置され、前記複数段階の前記階層標識は水平方向における内側に前記目標位置を含み、前記無人飛行体は、前記階層標識を構成する各部の相対的な位置関係を示す情報である相対情報と、下方を撮影可能な画像取得手段と、を有し、前記画像取得手段の撮影範囲内において相対的に外形が大きな前記階層標識を認識可能な場合には、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になった場合には、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下する、降下システムである。 The first invention is a descent system for landing an unmanned vehicle that flies by controlling the rotation of propellers connected to the rotation axes of a plurality of motors at a target position, in a region including the target position. The target marker having a target marker to be arranged, the target marker is composed of a plurality of stages of hierarchical markers having different outer dimensions in the horizontal direction, and the hierarchical marker having a relatively small outer shape has a relatively large outer shape. Arranged inside the hierarchical sign, the multi-stage hierarchical sign includes the target position inside in the horizontal direction, and the unmanned vehicle is information indicating the relative positional relationship of each part constituting the hierarchical sign. When the hierarchical sign having a relatively large outer shape can be recognized within the shooting range of the image acquisition means, which has a certain relative information and an image acquisition means capable of photographing the lower part, the relatively outer shape is said. The unmanned aviator descends while controlling the unmanned aviator so that the hierarchical sign having a large size is located within the imaging range, and as a result of the unmanned aviation descending, the hierarchical sign having a relatively large outer shape within the imaging range. Is a descent system in which the unmanned vehicle is controlled and descended so that the hierarchical sign having a relatively small outer shape is located within the photographing range when the unmanned vehicle becomes unrecognizable.

まず、図23乃至25を参照して、本発明の技術思想を説明する。図23に示すように、空中に位置する無人飛行体1の位置から目標位置CP0までの間の空中に、中空のチューブ状の枠部材W1を配置すれば、無人飛行体1が枠部材W1内を通過するように位置を制御しつつ降下することにより、正確に目標位置CP0に着陸することができる。また、枠部材W1に替えて、図24に示すように、上方から下方に向かって次第に内形が小さくなる枠部材W2を配置すれば、無人飛行体1が枠部材W2内を通過するように位置を制御しつつ降下することにより、降下するに連れて、水平方向の位置が目標位置CP0の鉛直方向に近づく。さらに、図25に示すように、1つの枠部材W2に替えて、複数の枠W2a乃至W2dを空中に配置しても同様であり、上方の枠W2aから下方の枠W2dに向かうに連れて、枠の大きさを小さくしていくことによって、無人飛行体1は、下降するに連れて、目標位置CP0に近づく。しかし、任意の空中に枠部材W1、W2やW2a乃至W2dを配置することは現実的ではない。この点、本発明は、複数段階の階層標識を認識しつつ、降下することによって、複数の枠W2a等を通過するのと技術的に等価である効果を奏するように構成される。すなわち、第一の発明の構成によれば、無人飛行体1は、相対的に飛行高度が高く、外側の階層標識を撮影範囲内において認識可能な場合には、外側の階層標識を撮影範囲内に維持しつつ降下し、無人飛行体が降下した結果、撮影範囲内において外側の階層標識が認識できなくなった場合には、内側の階層標識を撮影範囲内に維持しつつ降下することができる。無人飛行体1は、階層標識が撮影範囲内に入るように無人飛行体1の位置を制御する(以下、「撮影位置制御」と呼ぶ。)。撮影位置制御をしつつ降下する技術は、複数の枠W2a等を通過しつつ降下するのと技術的に等価である。さらに、相対的に高い高度においては外側の階層標識に基づいて降下し、相対的に低い高度においては内側の階層標識に基づいて降下することにより、無人飛行体が降下するに連れて、無人飛行体の水平方向の位置は目標位置を通る鉛直線上に近づく(以下、「降下接近効果」と呼ぶ。)。これにより、目標標識を参照して、正確な目標位置に降下することができる。また、無人飛行体は、相対情報を有しているから、機首方向を所定の方向に調整しつつ降下することができる。 First, the technical idea of the present invention will be described with reference to FIGS. 23 to 25. As shown in FIG. 23, if the hollow tubular frame member W1 is arranged in the air between the position of the unmanned vehicle 1 located in the air and the target position CP0, the unmanned vehicle 1 is inside the frame member W1. By descending while controlling the position so as to pass through, it is possible to land at the target position CP0 accurately. Further, as shown in FIG. 24, if the frame member W2 whose inner shape gradually decreases from the upper side to the lower side is arranged instead of the frame member W1, the unmanned flying object 1 passes through the frame member W2. By descending while controlling the position, the horizontal position approaches the vertical direction of the target position CP0 as the descending occurs. Further, as shown in FIG. 25, the same is true even if a plurality of frames W2a to W2d are arranged in the air instead of one frame member W2, and as the upper frame W2a moves toward the lower frame W2d, By reducing the size of the frame, the unmanned aircraft 1 approaches the target position CP0 as it descends. However, it is not realistic to arrange the frame members W1, W2 and W2a to W2d in any air. In this respect, the present invention is configured to exert an effect technically equivalent to passing through a plurality of frames W2a and the like by descending while recognizing a plurality of stages of hierarchical signs. That is, according to the configuration of the first invention, when the unmanned aircraft 1 has a relatively high flight altitude and the outer hierarchical sign can be recognized within the photographing range, the outer hierarchical sign is within the photographing range. If the outer hierarchical sign cannot be recognized within the shooting range as a result of the unmanned aircraft descending while maintaining the level, the inner layered sign can be maintained within the shooting range. The unmanned vehicle 1 controls the position of the unmanned vehicle 1 so that the hierarchical sign falls within the shooting range (hereinafter, referred to as “shooting position control”). The technique of descending while controlling the shooting position is technically equivalent to descending while passing through a plurality of frames W2a and the like. In addition, at relatively high altitudes it descends based on the outer tier markings and at relatively low altitudes it descends based on the inner tier markings, resulting in unmanned flight as the unmanned aircraft descends. The horizontal position of the body approaches the vertical line passing through the target position (hereinafter referred to as "descent approach effect"). This makes it possible to descend to an accurate target position with reference to the target sign. Further, since the unmanned aircraft has relative information, it can descend while adjusting the nose direction to a predetermined direction.

第二の発明は、第一の発明の構成において、前記無人飛行体は、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下するときに、相対的に外形が小さな前記階層標識も認識し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になる前に、前記相対的に前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する制御に切り替える、降下システムである。 In the second aspect of the invention, in the configuration of the first invention, the unmanned vehicle descends while controlling the unmanned vehicle so that the hierarchical sign having a relatively large outer shape is located within the photographing range. Occasionally, the hierarchical sign having a relatively small outer shape is also recognized, and as a result of the unmanned vehicle descending, the hierarchical sign having a relatively large outer shape becomes unrecognizable within the photographing range. It is a descent system that switches to a descent control while controlling the hierarchical sign having a relatively small outer shape to be located within the photographing range.

第二の発明の構成によれば、無人飛行体は、外側の階層標識が撮影範囲内に位置するように制御しつつ降下するときに、既に内側の階層標識も認識しており、外側の階層標識が認識不可能になる前に、内側の階層標識が撮影範囲内に位置するように制御しつつ降下する制御に切り替えるから、撮影位置制御を途切れることなく実施することができる。 According to the configuration of the second invention, when the unmanned air vehicle descends while controlling the outer hierarchical sign to be located within the shooting range, the unmanned air vehicle is already aware of the inner hierarchical sign, and the outer hierarchical sign is also recognized. Since the control is switched to the descent control while controlling the inner hierarchical sign to be located within the shooting range before the sign becomes unrecognizable, the shooting position control can be performed without interruption.

第三の発明は、第一の発明または第二の発明のいずれかの構成において、最も内側の前記階層標識は、前記無人飛行体が着陸したときにおいても、前記無人飛行体が前記撮影範囲内において認識可能な外形の大きさに規定されている、降下システムである。 The third invention is the configuration of either the first invention or the second invention, in which the innermost layered marker is within the imaging range of the unmanned vehicle even when the unmanned vehicle lands. It is a descent system specified in the size of the outer shape that can be recognized in.

第三の発明の構成によれば、着陸する瞬間まで、撮影位置制御を継続することができるから、確実に目標位置に着陸することができる。 According to the configuration of the third invention, since the shooting position control can be continued until the moment of landing, it is possible to surely land at the target position.

第四の発明は、第一の発明乃至第三の発明のいずれかの構成において前記複数段階の前記階層標識は複数の要素標識から構成され、前記相対情報は、各前記要素標識を基準とする前記目標位置の方向及び距離を示す情報であり、前記無人飛行体は、前記要素標識に示される前記目標位置の方向及び距離に基づいて、前記無人飛行体自体の機首方向を所定方向に制御する、降下システムである。 In the fourth invention, in any of the configurations of the first invention to the third invention, the hierarchical label having a plurality of stages is composed of a plurality of element labels, and the relative information is based on each element label. Information indicating the direction and distance of the target position, and the unmanned vehicle controls the nose direction of the unmanned vehicle itself in a predetermined direction based on the direction and distance of the target position indicated on the element sign. It is a descent system.

第四の発明の構成によれば、無人飛行体は、要素標識を認識することによって、機首方向を所定方向に制御しつつ、目標位置に向かって降下することができる。 According to the configuration of the fourth invention, the unmanned air vehicle can descend toward the target position while controlling the nose direction in a predetermined direction by recognizing the element sign.

第五の発明は、第四の発明の構成において、前記無人飛行体は、前記階層標識の一部の前記要素標識によって、前記階層標識の全体を推定する推定手段を有し、推定した前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する、降下システムである。 In the fifth aspect of the invention, in the configuration of the fourth invention, the unmanned vehicle has an estimation means for estimating the whole of the layered label by the elemental markers of a part of the layered indicator, and the estimated layer. It is a descent system that descends while controlling the sign to be located within the imaging range.

第五の発明の構成によれば、階層標識の一部が影などによって認識できない場合であっても、階層標識の全体を推定し、撮影位置制御を実施しつつ、降下することができる。 According to the configuration of the fifth invention, even if a part of the hierarchical sign cannot be recognized due to a shadow or the like, the entire hierarchical sign can be estimated and the shooting position can be controlled while descending.

第六の発明は、第四の発明または第五の発明の構成において、前記目標位置を含む領域には、前記無人飛行体の充電可能な電源を充電するための充電装置が配置され、前記無人飛行体は、前記目標位置に、前記機首方向を前記所定方向に向けた状態において着陸し、前記充電装置によって前記無人飛行体の電源を充電するように構成されている、降下システムである。 In the sixth invention, in the configuration of the fourth invention or the fifth invention, a charging device for charging the rechargeable power source of the unmanned vehicle is arranged in the region including the target position, and the unmanned vehicle is described. The aircraft is a descent system configured to land at the target position with the nose direction facing the predetermined direction and to charge the power supply of the unmanned aircraft by the charging device.

第六の発明の構成によれば、無人飛行体は、機首方向を所定方向に制御しつつ着陸することができるから、例えば、充電装置の充電用端子が特定の位置に設定されている場合において、無人飛行体側の充電用端子を充電装置側の充電用端子と接続させることができる。 According to the configuration of the sixth invention, the unmanned aircraft can land while controlling the nose direction in a predetermined direction. Therefore, for example, when the charging terminal of the charging device is set to a specific position. In, the charging terminal on the unmanned vehicle side can be connected to the charging terminal on the charging device side.

第七の発明は、第一の発明乃至第六の発明のいずれかの構成において、前記降下システムは、複数の前記無人飛行体と複数の前記目標標識を有し、各前記無人飛行体には、異なる前記目標標識が割り当てられ、各前記無人飛行体は、割り当てられた前記目標標識が示す前記目標位置に向かって降下するように構成されている、降下システムである。 A seventh invention, in any of the configurations of the first to sixth inventions, the descent system has a plurality of the unmanned vehicle and a plurality of target markers, each of the unmanned vehicle. , Different target markers are assigned, and each said unmanned vehicle is a descent system configured to descend towards the target position indicated by the assigned target marker.

第七の発明の構成によれば、複数の無人飛行体が、それぞれの目標位置に精度良く降下することができる。 According to the configuration of the seventh invention, a plurality of unmanned aircraft can accurately descend to their respective target positions.

第八の発明は、第一の発明乃至第七の発明のいずれかの構成において、前記無人飛行体は、予め有している前記目標標識の特徴を示すデータと、前記画像取得手段によって取得した画像データにおける画像から抽出した特徴データとの相関度に基づいて、前記目標標識を認識するように構成されており、前記目標標識の特徴を示すデータは、深層学習(ディープラーニング)によって生成されたデータを含む請求項1乃至請求項7のいずれかに記載の降下システムである。 The eighth invention, in any of the configurations of the first invention to the seventh invention, is obtained by the data indicating the characteristics of the target marker which the unmanned vehicle has in advance and the image acquisition means. It is configured to recognize the target marker based on the degree of correlation with the feature data extracted from the image in the image data, and the data showing the feature of the target marker is generated by deep learning. The descent system according to any one of claims 1 to 7, which includes data.

同一の目標標識であっても、環境の光の強さなどによって、様々が外観を呈する。この点、第八の発明の構成によれば、同一の目標標識について様々な外観を深層学習し、その結果として生成された目標標識の特徴を示すデータを利用して目標標識を認識することができるから、環境の変化の影響があっても、精度良く目標標識を認識することができる。 Even with the same target sign, various appearances are exhibited depending on the intensity of light in the environment. In this regard, according to the configuration of the eighth invention, it is possible to deeply learn various appearances of the same target marker and recognize the target marker by using the data showing the characteristics of the target marker generated as a result. Therefore, it is possible to accurately recognize the target marker even if it is affected by changes in the environment.

本発明によれば、正確な目標位置に着陸することができる。 According to the present invention, it is possible to land at an accurate target position.

本発明の第一の実施形態に係る降下システムの運用の一例を示す概略図である。It is the schematic which shows an example of the operation of the descent system which concerns on 1st Embodiment of this invention. 無人飛行体を示す概略斜視図である。It is a schematic perspective view which shows an unmanned flying body. 無人飛行体の機能ブロックを概略図である。It is a schematic diagram of the functional block of an unmanned air vehicle. 目標標識の一例を示す概略平面図である。It is a schematic plan view which shows an example of a target sign. 外側の階層標識を示す概略平面図である。It is a schematic plan view which shows the outer hierarchical sign. 内側の階層標識を示す概略平面図である。It is a schematic plan view which shows the inner hierarchical sign. 無人飛行体が記憶する目標標識に関するデータの構造を示す概念図である。It is a conceptual diagram which shows the structure of the data about the target marker which an unmanned vehicle memorizes. 階層標識と画像取得手段の撮影範囲の関係を示す概略平面図である。It is a schematic plan view which shows the relationship between the hierarchical sign and the photographing range of an image acquisition means. 外側の階層標識と画像取得手段の撮影範囲の関係を示す概略平面図である。It is a schematic plan view which shows the relationship between the outer hierarchical sign and the photographing range of an image acquisition means. 内側の階層標識と画像取得手段の撮影範囲の関係を示す概略平面図である。It is a schematic plan view which shows the relationship between the inner hierarchical sign and the photographing range of an image acquisition means. 無人飛行体の高度と撮影範囲の関係を示す概略図である。It is a schematic diagram which shows the relationship between the altitude of an unmanned aircraft and a shooting range. 無人飛行体の高度と撮影範囲の関係を示す概略図である。It is a schematic diagram which shows the relationship between the altitude of an unmanned aircraft and a shooting range. 無人飛行体が降下する軌跡の一例を示す概略図である。It is a schematic diagram which shows an example of the trajectory that an unmanned vehicle descends. 無人飛行体の動作を説明するための概略フローチャートである。It is a schematic flowchart for demonstrating the operation of an unmanned vehicle. 本発明の第二の実施形態の無人飛行体の動作を説明するための概略フローチャートである。It is a schematic flowchart for demonstrating the operation of the unmanned air vehicle of the 2nd Embodiment of this invention. 本発明の第三の実施形態の無人飛行体の動作を説明するための概略フローチャートである。It is a schematic flowchart for demonstrating the operation of the unmanned flying body of the 3rd Embodiment of this invention. 本発明の第四の実施形態に係る降下システムの運用の一例を示す概略図である。It is the schematic which shows an example of the operation of the descent system which concerns on 4th Embodiment of this invention. 降下システムの運用の一例を示す概略図である。It is the schematic which shows an example of the operation of the descent system. 画像推定の一例を示す概略図である。It is a schematic diagram which shows an example of image estimation. 画像推定の一例を示す概略図である。It is a schematic diagram which shows an example of image estimation. 本発明の第五の実施形態に係る降下システムの運用の一例を示す概略図である。It is the schematic which shows an example of the operation of the descent system which concerns on 5th Embodiment of this invention. 本発明の第六の実施形態に係る無人飛行体が記憶する目標標識に関するデータの構造を示す概念図である。It is a conceptual diagram which shows the structure of the data about the target marker stored in the unmanned air vehicle which concerns on the 6th Embodiment of this invention. 本発明の技術思想を説明するための概念図である。It is a conceptual diagram for demonstrating the technical idea of this invention. 本発明の技術思想を説明するための概念図である。It is a conceptual diagram for demonstrating the technical idea of this invention. 本発明の技術思想を説明するための概念図である。It is a conceptual diagram for demonstrating the technical idea of this invention.

以下、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。 Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail. In the following description, the same reference numerals are given to similar configurations, and the description thereof will be omitted or abbreviated. The description of the configuration that can be appropriately implemented by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.

図1に示す無人機1は、プロペラの回転によって推力を得て、所定の経路を自律飛行することができるように構成されている。無人機1は無人飛行体の一例である。 The unmanned aerial vehicle 1 shown in FIG. 1 is configured to be able to autonomously fly on a predetermined route by obtaining thrust by rotating a propeller. The unmanned aerial vehicle 1 is an example of an unmanned aerial vehicle.

無人機1は、所定領域300を経路R1に従って自律飛行する。無人機1は、GPS衛星(Global Positioning System)等の航法衛星からの測位用電波を受信し、無人機1自体の位置を測位しつつ、経路R1に従って自律飛行することができる。 The unmanned aerial vehicle 1 autonomously flies in the predetermined area 300 according to the route R1. The unmanned aircraft 1 can receive positioning radio waves from navigation satellites such as GPS satellites (Global Positioning System), position the unmanned aircraft 1 itself, and fly autonomously according to the route R1.

所定領域300は、山200A乃至200F、ゴルフ場202、動物園204、田畑206、池208、道路210などの構成物が存在する。無人機1は、所定領域300を撮影しつつ、飛行する。無人機1は、発着領域90から発進し、発着領域90に帰還する。無人機1が着陸するための目標位置CP0は、発着領域90内に位置する。 The predetermined area 300 includes components such as mountains 200A to 200F, a golf course 202, a zoo 204, a field 206, a pond 208, and a road 210. The unmanned aerial vehicle 1 flies while photographing the predetermined area 300. The unmanned aerial vehicle 1 starts from the departure / arrival area 90 and returns to the departure / arrival area 90. The target position CP0 for the unmanned aerial vehicle 1 to land is located within the departure / arrival area 90.

図2に示すように、無人機1は、筐体2を有する。筐体2には、無人機1の各部を制御するコンピュータ、自律飛行装置、無線通信装置、GPS(Global Positioning System)などの航法衛星システムからの測位用電波を利用する測位装置、バッテリー等が配置されている。また、筐体2には、固定装置12を介して、カメラ14が配置されている。カメラ14は、画像取得手段の一例である。 As shown in FIG. 2, the unmanned aerial vehicle 1 has a housing 2. A computer that controls each part of the unmanned aircraft 1, an autonomous flight device, a wireless communication device, a positioning device that uses radio waves for positioning from a navigation satellite system such as GPS (Global Positioning System), a battery, and the like are arranged in the housing 2. Has been done. Further, a camera 14 is arranged in the housing 2 via a fixing device 12. The camera 14 is an example of an image acquisition means.

無人機1は、カメラ14によって、外部領域(下方の領域)の画像を取得する。無人機1は、カメラ14によって、無人機1の真下の方向も撮影することができる。カメラ14は、可視光カメラであるが、これとは異なり、可視光カメラと近赤外線カメラとを切り替え可能なハイブリッドカメラであってもよい。ただし、無人機1は、目標位置CP0へ向かって降下する際には、可視光カメラを使用する。以下、カメラ14によって撮影して得た画像を「カメラ画像」と呼ぶ。 The unmanned aerial vehicle 1 acquires an image of an external region (lower region) by the camera 14. The unmanned aerial vehicle 1 can also take a picture in the direction directly below the unmanned aerial vehicle 1 by the camera 14. The camera 14 is a visible light camera, but unlike this, it may be a hybrid camera capable of switching between a visible light camera and a near infrared camera. However, the unmanned aerial vehicle 1 uses a visible light camera when descending toward the target position CP0. Hereinafter, the image obtained by taking a picture with the camera 14 is referred to as a “camera image”.

固定装置12は、カメラ画像のぶれを最小化し、かつ、カメラ14の光軸を任意の方向に制御することができる3軸の固定装置(いわゆる、ジンバル)である。 The fixing device 12 is a three-axis fixing device (so-called gimbal) that can minimize blurring of the camera image and control the optical axis of the camera 14 in an arbitrary direction.

筐体2には、丸棒状のアーム4が接続されている。各アーム4にはモーター6が接続されており、各モーター6にはプロペラ8が接続されている。各モーター6は、直流モーター(ブラシレスDCモーター)である。各モーター6は、それぞれ独立して制御され、無人機1を上下水平方向の移動や空中での停止(ホバリング)及び機首方向の変更を自在に行うことができるようになっている。無人機1は、前後左右へ移動する場合には、進行方向に対して後方側の2つのモーター6の回転数を進行方向側の2つのモーター6の回転数よりも多くする。無人機1は、水平方向の位置を維持しつつ機首方向を変更する場合には、対角線上の2つのモーター6の回転数をもう一組の対角線状の2つのモーター6の回転数よりも多くする。無人機1は、隣り合うモーター6を反対方向に回転し、反力を相殺するように構成されている。無人機1は、水平方向の位置を維持しつつ機首方向を変更する場合には、反力を相殺せずに利用する。無人機1は、すべてのモーター6の回転数を徐々に減少させることによって、鉛直方向に降下することができる。 A round bar-shaped arm 4 is connected to the housing 2. A motor 6 is connected to each arm 4, and a propeller 8 is connected to each motor 6. Each motor 6 is a DC motor (brushless DC motor). Each motor 6 is independently controlled so that the unmanned aerial vehicle 1 can be freely moved up and down and horizontally, stopped in the air (hovering), and changed in the nose direction. When the unmanned aerial vehicle 1 moves back and forth and left and right, the rotation speed of the two motors 6 on the rear side with respect to the traveling direction is made higher than the rotation speed of the two motors 6 on the traveling direction side. When the unmanned aircraft 1 changes the nose direction while maintaining the horizontal position, the rotation speed of the two diagonal motors 6 is higher than the rotation speed of the other two diagonal motors 6. Do more. The unmanned aerial vehicle 1 is configured to rotate adjacent motors 6 in opposite directions to cancel out the reaction force. The unmanned aerial vehicle 1 is used without canceling the reaction force when changing the nose direction while maintaining the horizontal position. The unmanned aerial vehicle 1 can descend in the vertical direction by gradually reducing the rotation speeds of all the motors 6.

アーム4には保護枠10が接続され、プロペラ8が外部の物体に直接接触することを防止している。アーム4及び保護枠10は、例えば、炭素繊維強化プラスチックで形成されており、強度を保ちつつ、軽量に構成されている。 A protective frame 10 is connected to the arm 4 to prevent the propeller 8 from coming into direct contact with an external object. The arm 4 and the protective frame 10 are made of, for example, carbon fiber reinforced plastic, and are lightweight while maintaining strength.

図3は、無人機1の機能構成を示す図である。図3に示すように、無人機1は、CPU(Central Processing Unit)50、記憶部52、無線通信部54、衛星測位部56、慣性センサー部58、駆動制御部60、画像処理部62、及び、電源部64を有する。 FIG. 3 is a diagram showing a functional configuration of the unmanned aerial vehicle 1. As shown in FIG. 3, the unmanned device 1 includes a CPU (Central Processing Unit) 50, a storage unit 52, a wireless communication unit 54, a satellite positioning unit 56, an inertial sensor unit 58, a drive control unit 60, an image processing unit 62, and an image processing unit 62. , Has a power supply unit 64.

無人機1は、無線通信部54によって、無人機1に発進等の指示を無線送信する制御装置(図示せず)と通信可能になっている。制御装置は、無人機1の管理者が操作するコンピュータであり、無線通信が可能なコンピュータである。 The unmanned aerial vehicle 1 can communicate with a control device (not shown) that wirelessly transmits an instruction such as starting to the unmanned aerial vehicle 1 by the wireless communication unit 54. The control device is a computer operated by the administrator of the unmanned aerial vehicle 1, and is a computer capable of wireless communication.

無人機1は、衛星測位部56によって、無人機1自体の位置を測定することができる。衛星測位部56は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機1の位置を計測する。上述のように、無人機1は、計測した位置に基づいて、経路R1を自律飛行する。慣性センサー部58は、例えば、加速度センサー及びジャイロセンサーによって、無人機1の動きを出力する。慣性センサー部58からの情報は自律飛行装置に出力され、無人機1の姿勢制御に利用される。姿勢制御とは、無人機1が予定した傾斜と乖離した場合に修正することを意味する。例えば、無人機1の4つのプロペラ8の回転面の高さが同一であるときを水平状態とすれば、傾斜とは、水平状態からの乖離である。例えば、無人機1が空中停止(ホバリング)しているときや、鉛直方向の降下するときの予定の傾斜は0であり、無人機1は水平状態を維持する。 The unmanned aerial vehicle 1 can measure the position of the unmanned aerial vehicle 1 itself by the satellite positioning unit 56. The satellite positioning unit 56 basically receives positioning radio waves from four or more navigation satellites and measures the position of the unmanned aerial vehicle 1. As described above, the unmanned aerial vehicle 1 autonomously flies on the route R1 based on the measured position. The inertial sensor unit 58 outputs the movement of the unmanned aerial vehicle 1 by, for example, an acceleration sensor and a gyro sensor. The information from the inertial sensor unit 58 is output to the autonomous flight device and used for attitude control of the unmanned aerial vehicle 1. Attitude control means to correct when the unmanned aerial vehicle 1 deviates from the planned inclination. For example, assuming that the horizontal state is when the heights of the rotating surfaces of the four propellers 8 of the unmanned aerial vehicle 1 are the same, the inclination is a deviation from the horizontal state. For example, when the unmanned aerial vehicle 1 is stopped in the air (hovering) or when it descends in the vertical direction, the planned inclination is 0, and the unmanned aerial vehicle 1 maintains a horizontal state.

駆動制御部60によって、無人機1は各モーター6(図2参照)に接続されたプロペラ8(図2参照)の回転を制御し、上下水平移動や空中停止、及び、機首方向を制御するようになっている。 The unmanned aircraft 1 controls the rotation of the propeller 8 (see FIG. 2) connected to each motor 6 (see FIG. 2) by the drive control unit 60, and controls the vertical horizontal movement, the aerial stop, and the nose direction. It has become like.

画像処理部62によって、無人機1はカメラ14(図2参照)を作動させて外部の画像(カメラ画像)を取得することができる。カメラ14の光軸は、無人機1が目標位置CP0に向かって降下するときには、鉛直方向における下方に固定される。 The image processing unit 62 allows the unmanned aerial vehicle 1 to operate the camera 14 (see FIG. 2) to acquire an external image (camera image). The optical axis of the camera 14 is fixed downward in the vertical direction when the drone 1 descends toward the target position CP0.

電源部64は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。 The power supply unit 64 is, for example, a replaceable rechargeable battery, and is adapted to supply electric power to each unit of the unmanned aerial vehicle 1.

記憶部52には、出発点から目的位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、目標標識100に関するデータ、及び、着陸プログラムを格納している。CPU50と着陸プログラムは着陸制御手段の一例である。 The storage unit 52 stores various data and programs necessary for autonomous movement such as data indicating a movement plan for autonomous movement from the starting point to the target position, data on the target marker 100, and a landing program. There is. The CPU 50 and the landing program are examples of landing control means.

着陸プログラムは、無人機1が、飛行高度を下げて、目標位置CP0に向かって降下するための制御を行うためのプログラムである。無人機1は、衛星測位部56による現在位置の測位によって、目標位置CP0の上空に到達したと判断すると、着陸プログラムによって、駆動制御部60を介してモーター6の回転を制御し、徐々に高度を下げて、目標位置CP0に向かって降下する。 The landing program is a program for controlling the unmanned aerial vehicle 1 to lower the flight altitude and descend toward the target position CP0. When the unmanned aerial vehicle 1 determines that it has reached the sky above the target position CP0 by positioning the current position by the satellite positioning unit 56, the unmanned aerial vehicle 1 controls the rotation of the motor 6 via the drive control unit 60 by the landing program, and gradually increases its altitude. Is lowered and descends toward the target position CP0.

ここで、図4乃至図8を参照して、着陸領域90に配置される目標標識100について説明する。着陸領域90には、図4に示す目標標識100が配置されている。目標標識100は目標標識の一例である。着陸領域90は、目標位置CP0を含む領域の一例である。無人機1と目標標識100によって降下システムが構成される。 Here, the target sign 100 arranged in the landing area 90 will be described with reference to FIGS. 4 to 8. The target sign 100 shown in FIG. 4 is arranged in the landing area 90. The target sign 100 is an example of a target sign. The landing area 90 is an example of an area including the target position CP0. The drone 1 and the target sign 100 constitute a descent system.

図4に示すように、目標標識100は、水平方向における外形の大きさが異なる複数段階の階層標識102及び104から構成される。内側の階層標識104は、外側の階層標識102よりも水平方向における外形が小さい。内側の階層標識104は、外側の階層標識102の内側に配置されている。外側の階層標識102の外形は正方形であり、一辺の長さL1は、例えば、130cm(センチメートル)である。内側の階層標識104の外形は正方形であり、一辺の長さL2は、例えば、20cm(センチメートル)である。内側の階層標識104は、無人機1が着陸したときにおいても、その全体がカメラ14の撮影範囲内に入り、無人機1において認識可能な外形の大きさに規定されている。具体的には、内側の階層標識104は、無人機1が着陸したときにおいて、その全体がカメラ14の撮影範囲内に入る限界の外形の大きさに規定されている。本実施形態においては、内側の階層標識104の正方形の外形104out(図6参照)の対角線の長さは、無人機1の着陸時におけるカメラ14の撮影範囲である円の直径と等しい。 As shown in FIG. 4, the target sign 100 is composed of a plurality of stages of hierarchical signs 102 and 104 having different outer shape sizes in the horizontal direction. The inner layered sign 104 has a smaller outer shape in the horizontal direction than the outer layered sign 102. The inner hierarchical sign 104 is located inside the outer hierarchical sign 102. The outer shape of the outer hierarchical sign 102 is square, and the length L1 on one side is, for example, 130 cm (centimeter). The outer shape of the inner hierarchical sign 104 is square, and the length L2 on one side is, for example, 20 cm (centimeter). Even when the unmanned aerial vehicle 1 lands, the inner layered sign 104 is defined as having an outer shape that can be recognized by the unmanned aerial vehicle 1 so that the entire area is within the shooting range of the camera 14. Specifically, the inner hierarchical sign 104 is defined as the size of the outer shape of the limit that the entire unmanned aerial vehicle 1 falls within the shooting range of the camera 14 when the unmanned aerial vehicle 1 lands. In the present embodiment, the diagonal length of the square outer shape 104out (see FIG. 6) of the inner hierarchical sign 104 is equal to the diameter of the circle which is the shooting range of the camera 14 at the time of landing of the unmanned aircraft 1.

無人機1が着陸するための目標位置CP0は、階層標識102及び104の内側に位置する。すなわち、階層標識102及び104は、それぞれの内側に目標位置CP0を含む。目標位置CP0は、特定の緯度及び経度で示される座標である。本実施形態において、目標位置CP0は、階層標識102の外形102outの中心位置である(図5参照)。また、目標位置CP0は、階層標識104の外形104outの中心位置でもある(図6参照)。 The target position CP0 for the drone 1 to land is located inside the hierarchical signs 102 and 104. That is, the hierarchical markers 102 and 104 include the target position CP0 inside each of them. The target position CP0 is a coordinate indicated by a specific latitude and longitude. In the present embodiment, the target position CP0 is the center position of the outer shape 102out of the hierarchical sign 102 (see FIG. 5). The target position CP0 is also the center position of the outer shape 104out of the hierarchical sign 104 (see FIG. 6).

階層標識102及び104は、それぞれ、複数の要素標識から構成される。図4及び図5に示すように、外側の階層標識102は、要素標識102a乃至102h及び102inで構成される。要素標識102inは正方形の輪郭として構成され、要素標識102inの外周に接して要素標識102a乃至102hが形成されている。図6に示すように、内側の階層標識104は、部分標識104a乃至104iから構成される。 The hierarchical markers 102 and 104 are each composed of a plurality of element markers. As shown in FIGS. 4 and 5, the outer hierarchical marker 102 is composed of element markers 102a to 102h and 102in. The element marker 102in is configured as a square outline, and the element markers 102a to 102h are formed in contact with the outer periphery of the element marker 102in. As shown in FIG. 6, the inner hierarchical marker 104 is composed of partial markers 104a to 104i.

図7は、目標標識100に関するデータの一例を説明するための概念図である。図7においては、目標標識を目標標識X1とし、目標標識X1が外側の階層標識A及び内側の階層標識Bから構成され、階層標識Aは要素標識Aa及びAbから構成され、階層標識Bは要素標識Ba及びBbから構成されるものとしている。 FIG. 7 is a conceptual diagram for explaining an example of data relating to the target marker 100. In FIG. 7, the target marker is the target indicator X1, the target indicator X1 is composed of the outer hierarchical indicator A and the inner hierarchical indicator B, the hierarchical indicator A is composed of the element markers Aa and Ab, and the hierarchical indicator B is an element. It is assumed to be composed of labels Ba and Bb.

目標標識X1に関するデータは、目標標識X1の座標を示す位置データ、目標標識X1の識別データ、目標標識X1の特徴を示す特徴データ、及び、目標標識X1と目標位置との関係を示すデータを含む。目標標識X1の位置データに示される位置は目標位置の位置と同一である。特徴データは、対象物の特徴点、輪郭や個々の構成の方向といった特徴を示すデータである。特徴データは、KLT(Kanada−Lucas−Tomasi)法、SIFT(Scale INvariant Feature Transform)などの特徴点ベースの画像に基づく追跡方法において使用されるデータである。目標標識X1の特徴データは、例えば、目標標識X1全体としての特徴点、輪郭や個々の構成の方向といった特徴を示すデータである。 The data relating to the target marker X1 includes position data indicating the coordinates of the target indicator X1, identification data of the target indicator X1, feature data indicating the features of the target indicator X1, and data indicating the relationship between the target indicator X1 and the target position. .. The position shown in the position data of the target sign X1 is the same as the position of the target position. The feature data is data showing features such as feature points, contours, and directions of individual configurations of an object. Feature data is data used in feature point-based image-based tracking methods such as the KLT (Canada-Lucas-Tomasi) method and SIFT (Scale INvariant Feature Transfer Transfer). The feature data of the target sign X1 is, for example, data showing features such as feature points, contours, and directions of individual configurations of the target sign X1 as a whole.

階層標識Aに関するデータは、階層標識Aの位置データ、階層標識Aの識別データ、階層標識Aの特徴データ、及び、階層標識Aと目標位置との関係を示すデータを含む。特徴データの内容は、上述の目標標識X1の特徴データと同様である。階層標識Aの位置データに示される位置は、目標位置の位置と同一である。階層標識Bに関するデータの構成は以上の階層標識Aのデータ構成と同様である。 The data relating to the hierarchical indicator A includes the position data of the hierarchical indicator A, the identification data of the hierarchical indicator A, the feature data of the hierarchical indicator A, and the data showing the relationship between the hierarchical indicator A and the target position. The content of the feature data is the same as the feature data of the target marker X1 described above. The position shown in the position data of the hierarchical sign A is the same as the position of the target position. The structure of the data relating to the hierarchical indicator B is the same as the above data structure of the hierarchical indicator A.

要素標識Aaに関するデータは、要素標識Aaの位置データ、要素標識Aaの識別データ、要素標識Aaの特徴データ、及び、要素標識Aaと目標位置との関係を示すデータを含む。要素標識Aaの位置データは、要素標識Aa自体の基準位置を示すデータであり、目標位置とは異なる。要素標識Aaの基準位置は、例えば、要素標識Aaの水平方向における中心位置とする。要素標識Aaの位置データと目標位置との関係を示すデータは、要素標識Aaの基準位置を基準として、目標位置の方向及び距離を示すデータである。他の要素標識Ab,Ba及びBbの構成は以上と同様である。すなわち、無人機1は、記憶部52に、各要素標識を基準とする目標位置の方向及び距離を示す情報を格納している。各要素標識を基準とする目標位置の方向及び距離を示す情報は、相対情報の一例である。 The data relating to the element marker Aa includes the position data of the element indicator Aa, the identification data of the element indicator Aa, the feature data of the element indicator Aa, and the data showing the relationship between the element indicator Aa and the target position. The position data of the element marker Aa is data indicating the reference position of the element marker Aa itself, and is different from the target position. The reference position of the element marker Aa is, for example, the center position of the element marker Aa in the horizontal direction. The data indicating the relationship between the position data of the element marker Aa and the target position is data indicating the direction and distance of the target position with reference to the reference position of the element indicator Aa. The configurations of the other element labels Ab, Ba and Bb are the same as described above. That is, the unmanned aerial vehicle 1 stores information indicating the direction and distance of the target position with respect to each element sign in the storage unit 52. The information indicating the direction and distance of the target position with respect to each element marker is an example of relative information.

着陸プログラムは、認識対象決定プログラム及び目標標識認識プログラムを含む。認識対象決定プログラムとCPU50は認識対象決定手段の一例であり、目標標識認識プログラムとCPU50は目標標識認識手段の一例である。認識対象決定プログラムは、無人機1がカメラ画像において認識すべき認識対象を決定するためのプログラムである。本実施形態において、無人機1は、認識対象決定プログラムによって、階層標識102と104のいずれかを認識対象とする。目標標識認識プログラムは、無人機1が認識対象を認識するためのプログラムである。 The landing program includes a recognition target determination program and a target sign recognition program. The recognition target determination program and the CPU 50 are examples of the recognition target determination means, and the target sign recognition program and the CPU 50 are examples of the target sign recognition means. The recognition target determination program is a program for determining the recognition target to be recognized by the unmanned aerial vehicle 1 in the camera image. In the present embodiment, the unmanned aerial vehicle 1 makes one of the hierarchical signs 102 and 104 a recognition target by the recognition target determination program. The target sign recognition program is a program for the unmanned aerial vehicle 1 to recognize the recognition target.

無人機1は、目標位置CP0の上空に到達したと判断すると、カメラ14によって鉛直方向における下方を撮影する。そして、無人機1は、認識対象決定プログラムによって、外側の階層標識102を認識対象として設定する。後述のように、無人機1は、降下した結果、外側の階層標識102がカメラ画像から外れ、認識できなくなった場合には、内側の階層標識104を認識対象として設定する。 When the unmanned aerial vehicle 1 determines that it has reached the sky above the target position CP0, the camera 14 photographs the lower part in the vertical direction. Then, the unmanned aerial vehicle 1 sets the outer hierarchical sign 102 as a recognition target by the recognition target determination program. As will be described later, when the outer hierarchical sign 102 deviates from the camera image and cannot be recognized as a result of descending, the unmanned aerial vehicle 1 sets the inner hierarchical sign 104 as a recognition target.

無人機1は、目標標識認識プログラムによって、カメラ画像中の特徴を抽出し、予め記憶部52に格納している階層標識102及び104の特徴データに基づいて、カメラ画像中において、認識対象として設定された階層標識102または104を認識する。具体的には、無人機1は、カメラ画像中の特徴と、記憶部52に記憶されている特徴データとを対比して、相関性(相関度)を判断することによって、階層標識102または104を認識する。また、無人機1は、目標標識認識プログラムによって、認識対象として設定された階層標識102または104を構成する要素標識を認識する。 The unmanned machine 1 extracts features in the camera image by the target sign recognition program, and sets them as recognition targets in the camera image based on the feature data of the hierarchical signs 102 and 104 stored in the storage unit 52 in advance. Recognize the hierarchical sign 102 or 104. Specifically, the unmanned machine 1 compares the features in the camera image with the feature data stored in the storage unit 52 to determine the correlation (correlation degree), thereby determining the hierarchical marker 102 or 104. Recognize. Further, the unmanned machine 1 recognizes the element signs constituting the hierarchical sign 102 or 104 set as the recognition target by the target sign recognition program.

無人機1は、目標標識認識プログラムによって、特徴点ベースにおける追跡方法を実施する。例えば、無人機1は、カメラ画像について、輪郭や個々の構成の方向といった特徴を多数抽出し、カメラ画像に投影された物体の特徴(以下、「カメラ画像の特徴」という。)を認識する。無人機1は、カメラ画像の特徴と記憶部52に格納された特徴データと対比して、相関性(相関度)を判断する。相関度が高いほど、カメラ画像中の物体が、階層標識102及び104、あるいは、特定の要素標識である可能性が高い。例えば、相関度が0の場合には、カメラ画像中の領域が特定の階層標識あるいは要素標識である可能性(以下、「カテゴリー共通確率」と呼ぶ。)は0%として、相関度が最大値を示すときに、カテゴリー共通確率が100%であると定義する。無人機1は、カテゴリー共通確率が所定の基準値である、例えば、95%以上であるときに、カメラ画像中の物体が、特定の階層標識、あるいは、要素標識であると判断する。 The drone 1 implements a feature point-based tracking method by means of a target marker recognition program. For example, the unmanned machine 1 extracts a large number of features such as contours and directions of individual configurations from the camera image, and recognizes the features of the object projected on the camera image (hereinafter, referred to as “features of the camera image”). The unmanned aerial vehicle 1 determines the correlation (correlation degree) by comparing the features of the camera image with the feature data stored in the storage unit 52. The higher the degree of correlation, the more likely the object in the camera image is the hierarchical markers 102 and 104, or specific element markers. For example, when the correlation degree is 0, the possibility that the area in the camera image is a specific hierarchical marker or element marker (hereinafter referred to as "category common probability") is 0%, and the correlation degree is the maximum value. Is defined as having a common category probability of 100%. The unmanned aerial vehicle 1 determines that the object in the camera image is a specific hierarchical sign or an element sign when the category common probability is a predetermined reference value, for example, 95% or more.

図8に、無人機1のカメラ14の撮影範囲と階層標識102及び104との関係を示す。無人機1がカメラ14の撮影方向を鉛直方向における下方に向けた状態で降下すると、無人機1の高度が低下するに連れて、カメラ14の撮影範囲内の地表の領域が狭くなる。なお、カメラ14の画角は一定とする。また、カメラ14の光軸は鉛直下方に固定する。例えば、無人機1の高度が低下するに連れて、カメラ14の撮影範囲内の地表の領域は、円S1の範囲内、円S2の範囲内、円S3の範囲内、円S4の範囲内、円S5の範囲内というように狭くなっていく。そして、無人機1の高度が低下するに連れて、階層標識102及び104のカメラ画像中の大きさが大きくなっていく。別の観点では、無人機1の高度が低下するにつれて、カメラ画像中の画素に占める階層標識102及び104の割合が大きくなることを意味する。 FIG. 8 shows the relationship between the shooting range of the camera 14 of the unmanned aerial vehicle 1 and the hierarchical signs 102 and 104. When the unmanned aerial vehicle 1 descends with the shooting direction of the camera 14 facing downward in the vertical direction, the area of the ground surface within the shooting range of the camera 14 becomes narrower as the altitude of the unmanned aerial vehicle 1 decreases. The angle of view of the camera 14 is constant. Further, the optical axis of the camera 14 is fixed vertically downward. For example, as the altitude of the unmanned aircraft 1 decreases, the area of the ground surface within the shooting range of the camera 14 is within the range of the circle S1, within the range of the circle S2, within the range of the circle S3, within the range of the circle S4, and so on. It becomes narrower within the range of the circle S5. Then, as the altitude of the unmanned aerial vehicle 1 decreases, the size of the hierarchical signs 102 and 104 in the camera image increases. From another point of view, it means that as the altitude of the unmanned aerial vehicle 1 decreases, the ratio of the hierarchical markers 102 and 104 to the pixels in the camera image increases.

無人機1の高度が低下するに連れて、外側の階層標識102と内側の階層標識104の双方がカメラ14の撮影範囲内に入る状態から、外側の階層標識102は撮影範囲の外側に外れ、内側の階層標識104のみが撮影範囲内に入る状態に移行する。 As the altitude of the unmanned aircraft 1 decreases, both the outer hierarchical sign 102 and the inner hierarchical sign 104 fall within the shooting range of the camera 14, and the outer hierarchical sign 102 moves out of the shooting range. The state shifts to a state in which only the inner hierarchical sign 104 falls within the shooting range.

無人機1は、着陸プログラムによって、外側の階層標識102が撮影範囲に入り、その全体が認識可能な場合には、階層標識102がカメラ画像内に位置するように無人機1の位置を制御しつつ降下する。言い換えると、無人機1は、階層標識102に基づく撮影位置制御を実施しつつ降下する。そして、無人機1が降下した結果、階層標識102がカメラ画像内に収まらなくなり、階層標識102の全体が認識できなくなった場合には、無人機1は、内側の階層標識104がカメラ画像内に位置するように無人機1の位置を制御しつつ降下するように構成されている。すなわち、無人機1は、まず、階層標識102に基づく撮影位置制御を実施しつつ降下し、階層標識102が撮影範囲の外側に外れると、階層標識104に基づく撮影位置制御に切り替える。ただし、無人機1は、風などの影響によって姿勢や位置が変動するから、図8のように、階層標識102及び104の中心位置である目標位置CP0が、常にカメラ画像の中心に位置するわけではない。 The unmanned aircraft 1 controls the position of the unmanned aircraft 1 so that the outer hierarchical sign 102 enters the shooting range by the landing program and the entire hierarchical sign 102 can be recognized in the camera image. While descending. In other words, the unmanned aerial vehicle 1 descends while performing shooting position control based on the hierarchical sign 102. Then, as a result of the unmanned machine 1 descending, when the hierarchical sign 102 cannot be accommodated in the camera image and the entire hierarchical sign 102 cannot be recognized, the unmanned machine 1 has the inner hierarchical sign 104 in the camera image. It is configured to descend while controlling the position of the unmanned aircraft 1 so that it is positioned. That is, the unmanned aerial vehicle 1 first descends while performing the shooting position control based on the hierarchical sign 102, and when the hierarchical sign 102 goes out of the shooting range, it switches to the shooting position control based on the hierarchical sign 104. However, since the attitude and position of the unmanned aerial vehicle 1 fluctuate due to the influence of wind and the like, the target position CP0, which is the center position of the hierarchical signs 102 and 104, is always located at the center of the camera image as shown in FIG. is not it.

図9及び10図を参照して、無人機1が、降下する制御を具体的に説明する。図9に示すように、無人機1は、外側の階層標識102がカメラ画像内に入るように無人機1の位置を制御しつつ降下する。相対的に高度が高い状態においては、例えば、図9に示すように、カメラ画像の撮影範囲S11において、階層標識102の中心位置は左に寄っていても、無人機1が高度を下げて、撮影範囲S12、S13、S14、S15となるにつれて、階層標識102の中心位置はカメラ画像の中心に近づいたり遠ざかったりしつつも、全体的には徐々に中心に寄っていき、最終的に、中心に近い状態になる。このように、撮影位置制御を実施しつつ降下することによって、降下接近効果を奏する。 The control of the unmanned aerial vehicle 1 descending will be specifically described with reference to FIGS. 9 and 10. As shown in FIG. 9, the unmanned aerial vehicle 1 descends while controlling the position of the unmanned aerial vehicle 1 so that the outer hierarchical sign 102 enters the camera image. In a relatively high altitude state, for example, as shown in FIG. 9, in the shooting range S11 of the camera image, even if the center position of the hierarchical sign 102 is shifted to the left, the unmanned aircraft 1 lowers the altitude. As the shooting range becomes S12, S13, S14, and S15, the center position of the hierarchical marker 102 gradually approaches the center as a whole while moving closer to or farther from the center of the camera image, and finally to the center. It becomes a state close to. In this way, by descending while controlling the shooting position, the descending approach effect is achieved.

内側の階層標識104においても同様であり、例えば、図10に示すように、カメラ画像の撮影範囲S21において、階層標識104の中心位置は右に寄っていても、無人機1が高度を下げて、撮影範囲S22、S23、S24、S25となるにつれて、カメラ画像における階層標識104の中心位置はカメラ画像の中央に近づいたり遠ざかったりしつつも、全体的には徐々に中央に寄っていき、最終的に、階層標識104の中心位置はカメラ画像の中心に近くなる。すなわち、降下接近効果を奏する。 The same applies to the inner hierarchical sign 104. For example, as shown in FIG. 10, in the shooting range S21 of the camera image, even if the center position of the hierarchical sign 104 is shifted to the right, the unmanned aircraft 1 lowers the altitude. As the shooting range becomes S22, S23, S24, and S25, the center position of the hierarchical indicator 104 in the camera image moves closer to or farther from the center of the camera image, but gradually approaches the center as a whole, and finally. Therefore, the center position of the hierarchical marker 104 is close to the center of the camera image. That is, it has a descent approach effect.

無人機1は、認識対象である階層標識102または104がカメラ画像内に入れば降下を継続し、カメラ画像の中心に階層標識102の中心位置が位置するように無人機1の水平方向の位置を制御する。これに対して、無人機1は、認識対象である階層標識102または104がカメラ画像に入らない場合には、下降を停止、あるいは、下降速度を低下して、認識対象である階層標識102または104がカメラ画像に入るように無人機1の水平方向の位置を調整し、認識対象である階層標識102または104がカメラ画像に入った時点で撮影位置制御を実施しつつ下降を再開する。 The unmanned machine 1 continues to descend when the layered sign 102 or 104 to be recognized enters the camera image, and the horizontal position of the unmanned machine 1 so that the center position of the layered sign 102 is located at the center of the camera image. To control. On the other hand, when the layered indicator 102 or 104 to be recognized does not enter the camera image, the unmanned machine 1 stops descending or reduces the descending speed to recognize the layered indicator 102 or 104. The horizontal position of the unmanned machine 1 is adjusted so that 104 enters the camera image, and when the hierarchical indicator 102 or 104 to be recognized enters the camera image, the descent is restarted while performing the shooting position control.

図11に示すように、無人機1は、着陸領域90の上空に到達すると、カメラ14によって、矢印Z1に示す方向である鉛直方向における下方を撮影する。カメラ14の撮影範囲は、例えば、画角θ1で示される。図11の状態においては、画角θ1の撮影範囲は円S31の範囲であり、階層標識102及び階層標識104の双方が認識可能である。しかし、無人機1は、認識対象決定プログラムによって、外側の階層標識102のみを認識するように構成されている。無人機1は、階層標識102及び要素標識102a乃至102h及び102inを認識する。 As shown in FIG. 11, when the unmanned aerial vehicle 1 reaches the sky above the landing area 90, the camera 14 photographs the lower part in the vertical direction, which is the direction indicated by the arrow Z1. The shooting range of the camera 14 is indicated by, for example, the angle of view θ1. In the state of FIG. 11, the photographing range of the angle of view θ1 is the range of the circle S31, and both the hierarchical sign 102 and the hierarchical sign 104 can be recognized. However, the unmanned aerial vehicle 1 is configured to recognize only the outer hierarchical sign 102 by the recognition target determination program. The unmanned aerial vehicle 1 recognizes the hierarchical sign 102 and the element signs 102a to 102h and 102in.

無人機1は、記憶部52に格納している階層標識102の位置データ及び、要素標識102a乃至102hの目標位置CP0との関係を示すデータを参照し、機首方向を所定の方向に制御する。そして、無人機1は、カメラ画像に階層標識102の外形102outの全体が入るように、撮影位置制御を実施しつつ、降下する。 The unmanned machine 1 controls the nose direction in a predetermined direction by referring to the position data of the hierarchical sign 102 stored in the storage unit 52 and the data indicating the relationship between the element signs 102a to 102h and the target position CP0. .. Then, the unmanned aerial vehicle 1 descends while performing shooting position control so that the entire outer shape 102out of the hierarchical sign 102 is included in the camera image.

図12に示すように、無人機1が降下した結果、階層標識102がカメラ画像の外側に外れ、カメラ14の撮影範囲に階層標識102の全体が認識できない状態になると、認識対象決定プログラムによって認識する対象を内側の階層標識104に切り替える。そして、無人機1は、目標標識認識プログラムによって、階層標識104及び要素標識104a乃至104iを認識し、記憶部52に格納している階層標識104の位置データ及び、要素標識104a乃至104iの目標位置との関係を示すデータを参照し、機首方向を所定の方向に制御する。そして、無人機1は、カメラ画像に階層標識104の外形104outが入るように、撮影位置制御を実施しつつ、降下する。 As shown in FIG. 12, as a result of the unmanned aircraft 1 descending, when the hierarchical indicator 102 is displaced outside the camera image and the entire hierarchical indicator 102 cannot be recognized in the shooting range of the camera 14, the recognition target determination program recognizes it. The target to be displayed is switched to the inner hierarchical indicator 104. Then, the unmanned machine 1 recognizes the hierarchical sign 104 and the element signs 104a to 104i by the target sign recognition program, and the position data of the hierarchical sign 104 stored in the storage unit 52 and the target position of the element signs 104a to 104i. The nose direction is controlled in a predetermined direction with reference to the data showing the relationship with. Then, the unmanned aerial vehicle 1 descends while performing shooting position control so that the outer shape 104out of the hierarchical sign 104 is included in the camera image.

階層標識102及び104の外形102out及び104outがカメラ画像の撮影範囲内に入るように、撮影位置制御を実施しつつ降下することによって、図13に示すように、無人機1は、目標位置CP0の水平方向の位置に徐々に近づきながら降下することができる。図13に、目標位置の鉛直線上の空中に架空の枠として枠102air及び枠104airを示す。枠102airは外側の階層標識102に対応し、枠104airは内側の階層標識104に対応する。階層標識102及び104に基づいて撮影位置制御を実施しつつ降下することは、無人機1が枠102airを通過し、枠104airを通過することを目指して降下することと技術的概念として等価である。このため、無人機1が、複数段階の階層標識102及び104に基づいて撮影位置制御を実施しつつ降下することによって、無人機1が降下するに連れて、無人機1の水平方向の位置は目標位置CP0を含む鉛直線上に近づく降下接近効果を奏する。これにより、無人機1は、目標標識100を参照して、正確な目標位置CP0に降下することができる。また、無人機1は、相対情報を有しているから、機首方向を所定の方向に維持しつつ降下することができる。 As shown in FIG. 13, the unmanned aerial vehicle 1 has the target position CP0 by descending while performing the shooting position control so that the outer shapes 102out and 104out of the layer signs 102 and 104 are within the shooting range of the camera image. You can descend while gradually approaching the horizontal position. FIG. 13 shows a frame 102air and a frame 104air as fictitious frames in the air on the vertical line of the target position. The frame 102air corresponds to the outer layered sign 102, and the frame 104air corresponds to the inner layered sign 104. Descent while performing shooting position control based on the hierarchical signs 102 and 104 is technically equivalent to descending with the aim of the unmanned aerial vehicle 1 passing through the frame 102air and passing through the frame 104air. .. Therefore, as the unmanned aerial vehicle 1 descends while performing shooting position control based on the multi-stage hierarchical signs 102 and 104, the horizontal position of the unmanned aerial vehicle 1 changes as the unmanned aerial vehicle 1 descends. It has a descent approach effect that approaches the vertical line including the target position CP0. As a result, the drone 1 can descend to the accurate target position CP0 with reference to the target sign 100. Further, since the unmanned aerial vehicle 1 has relative information, it can descend while maintaining the nose direction in a predetermined direction.

以下、図14のフローチャートを参照して、無人機1の動作の概略を説明する。無人機1が、目標位置CP0の上空に到達すると(図14のステップST1)、着陸プログラム
による降下制御を開始する。無人機1は、鉛直方向における下方を撮影し、認識対象決定プログラムによって、外側の階層標識102を認識対象として設定する(ステップST2)。続いて、無人機1は、目標標識認識プログラムによって、外側の階層標識102を認識すると(ステップST3)、階層標識102の全体をカメラ画像に投影するように無人機1の水平方向の位置を制御しつつ降下する(ステップST4)。無人機1の高度が下がり、階層標識102がカメラ14の撮影範囲から外れると(ステップST5)、認識対象決定プログラムによって、認識対象を内側の階層標識104に変更し(ステップST6)、目標標識認識プログラムによって階層標識104を認識し、階層標識104の全体をカメラ画像に投影するように無人機1の水平方向の位置を制御しつつ降下し(ステップST7)、着陸したと判断すると(ステップST8)、停止する。着陸の判断は、例えば、慣性センサー部58(図3参照)の出力から、下方への移動が停止したことを判断することによって行ってもよい。
Hereinafter, the outline of the operation of the unmanned aerial vehicle 1 will be described with reference to the flowchart of FIG. When the unmanned aerial vehicle 1 reaches the sky above the target position CP0 (step ST1 in FIG. 14), the descent control by the landing program is started. The unmanned aerial vehicle 1 photographs the lower part in the vertical direction, and sets the outer hierarchical sign 102 as the recognition target by the recognition target determination program (step ST2). Subsequently, when the unmanned machine 1 recognizes the outer hierarchical sign 102 by the target sign recognition program (step ST3), the unmanned machine 1 controls the horizontal position of the unmanned machine 1 so as to project the entire hierarchical sign 102 onto the camera image. It descends while doing (step ST4). When the altitude of the unmanned machine 1 decreases and the hierarchical sign 102 deviates from the shooting range of the camera 14 (step ST5), the recognition target is changed to the inner hierarchical sign 104 by the recognition target determination program (step ST6), and the target sign is recognized. When the program recognizes the hierarchical sign 104, descends while controlling the horizontal position of the unmanned aircraft 1 so as to project the entire hierarchical sign 104 onto the camera image (step ST7), and determines that it has landed (step ST8). ,Stop. The landing determination may be made, for example, by determining from the output of the inertial sensor unit 58 (see FIG. 3) that the downward movement has stopped.

本実施形態において、階層標識は、階層標識102及び104の2段階とした。本発明は、複数段階の階層標識を使用することを特徴とするから、本実施形態とは異なり、階層標識は2階層に限らず、例えば、3階層以上の階層にしてもよい。また、本実施形態とは異なり、姿勢制御と撮影位置制御において、優先順位をつけてもよい。例えば、姿勢制御によって階層標識102または104がカメラ画像の中心に近づかない場合に、撮影位置制御を実施するようにしてもよい。あるいは、本実施形態とは異なり、撮影位置制御は、姿勢制御の時間間隔よりも長い時間間隔において実施するようにしてもよい。例えば、姿勢制御を1000分の1秒ごとに実施するとすれば、撮影位置制御は10分の1秒ごとに実施する。また、本実施形態とは異なり、階層標識102及び104の全体をカメラ画像に投影するように無人機1の水平位置を制御しつつ降下するのではなく、階層標識102及び104の中心位置がカメラ画像の中心位置に位置するように無人機1の水平方向の位置を制御しつつ降下するようにしてもよい。この場合、階層標識102及び104の中心位置は、階層標識102及び104の全体を認識することによって認識する。また、階層標識102及び104をカメラ画像に投影することによって降下方向を制御する技術は、以上に限定されない。例えば、無人機1の水平方向の位置制御に階層標識102を採用する場合には、カメラ画像中における階層標識102の画素数が増加するように制御し、階層標識104を採用する場合には、カメラ画像中における階層標識104の画素数が増加するように制御するようにしてもよい。 In the present embodiment, the hierarchical marking has two stages of hierarchical markings 102 and 104. Since the present invention is characterized in that a plurality of levels of hierarchical markings are used, unlike the present embodiment, the hierarchical markings are not limited to two layers, and may be, for example, three or more layers. Further, unlike the present embodiment, priority may be given in posture control and shooting position control. For example, the shooting position control may be performed when the hierarchical sign 102 or 104 does not approach the center of the camera image due to the posture control. Alternatively, unlike the present embodiment, the photographing position control may be performed at a time interval longer than the time interval of the posture control. For example, if the attitude control is performed every 1/1000 second, the shooting position control is performed every 1/110 second. Further, unlike the present embodiment, the center position of the hierarchical markers 102 and 104 is the camera instead of descending while controlling the horizontal position of the unmanned machine 1 so as to project the entire hierarchical markers 102 and 104 onto the camera image. You may descend while controlling the horizontal position of the unmanned machine 1 so that it is located at the center position of the image. In this case, the center position of the hierarchical signs 102 and 104 is recognized by recognizing the entire hierarchical signs 102 and 104. Further, the technique for controlling the descending direction by projecting the hierarchical signs 102 and 104 onto the camera image is not limited as described above. For example, when the hierarchical sign 102 is adopted for the horizontal position control of the unmanned machine 1, the number of pixels of the hierarchical sign 102 in the camera image is controlled to increase, and when the hierarchical sign 104 is adopted, the number of pixels is controlled to increase. The number of pixels of the hierarchical indicator 104 in the camera image may be controlled to increase.

<第二の実施形態>
次に、図15を参照して、第二の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第二の実施形態においては、図15のステップST4A及びST7Aに示すように、無人機1は、階層標識102及び104の中心位置をカメラ画像の中心位置に投影するように無人機1の水平位置を制御しつつ降下する。
<Second embodiment>
Next, a second embodiment will be described with reference to FIG. The description of the matters common to the first embodiment will be omitted, and the matters different from the first embodiment will be mainly described. In the second embodiment, as shown in steps ST4A and ST7A of FIG. 15, the unmanned aerial vehicle 1 has a horizontal position of the unmanned aerial vehicle 1 so as to project the center positions of the hierarchical signs 102 and 104 onto the center position of the camera image. Descent while controlling.

<第三の実施形態>
次に、図16を参照して、第三の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第三の実施形態においては、無人機1は、目標位置CP0の上空に到達すると、外側の階層標識102を認識し、階層標識102の外形102outの全体がカメラ画像に投影されるように水平方向の位置を制御しつつ降下するのであるが、このとき、内側の階層標識104も認識している。そして、外側の階層標識102の外形102outの全体がカメラ画像に投影できなくなる直前に、内側の階層標識104の外形104outの全体をカメラ画像に投影しつつ降下する制御に切り替える。外側の階層標識102の外形102outの全体がカメラ画像に投影できなくなる直前は、例えば、外形102outの一部がカメラ画像の最も外側に達したときとするが、これに限定されない。
<Third embodiment>
Next, a third embodiment will be described with reference to FIG. The description of the matters common to the first embodiment will be omitted, and the matters different from the first embodiment will be mainly described. In the third embodiment, when the unmanned aircraft 1 reaches the sky above the target position CP0, it recognizes the outer hierarchical sign 102, and the entire outer shape 102out of the hierarchical sign 102 is projected in the horizontal direction so as to be projected on the camera image. At this time, the inner hierarchical sign 104 is also recognized. Then, immediately before the entire outer shape 102out of the outer layered sign 102 cannot be projected onto the camera image, the control is switched to the control of descending while projecting the entire outer shape 104out of the inner layered sign 104 onto the camera image. Immediately before the entire outer shape 102out of the outer hierarchical sign 102 cannot be projected onto the camera image, for example, a part of the outer shape 102out reaches the outermost side of the camera image, but the present invention is not limited to this.

図16のステップST4Bに示すように、無人機は、階層標識102の全体をカメラ画像に投影するように水平方向の位置を制御しつつ降下するときに、並行して、内側の階層標識104を認識している。ただし、内側の階層標識104は、撮影位置制御には使用しない。無人機1は、外側の階層標識102の外形102outの一部がカメラ画像から外れる直前であると判断すると(ステップST5B)、内側の階層標識104の外形104outをカメラ画像に投影するように無人機1の水平位置を制御しつつ降下する制御に切り替える(ステップST6)。この制御によれば、無人機1は、途切れることなく撮影位置制御を実施しつつ降下することができる。 As shown in step ST4B of FIG. 16, when the unmanned aircraft descends while controlling the horizontal position so as to project the entire hierarchical sign 102 onto the camera image, the unmanned aircraft simultaneously presses the inner hierarchical sign 104. It has recognized. However, the inner hierarchical sign 104 is not used for shooting position control. When the unmanned machine 1 determines that a part of the outer shape 102out of the outer layered sign 102 is about to deviate from the camera image (step ST5B), the unmanned machine 1 projects the outer shape 104out of the inner layered sign 104 onto the camera image. It switches to the control of descending while controlling the horizontal position of 1 (step ST6). According to this control, the unmanned aerial vehicle 1 can descend while performing shooting position control without interruption.

<第四の実施形態>
次に、図17乃至20を参照して、第四の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第四の実施形態においては、図17及び18に示すように、目標標識100は、充電基地400に配置される。充電基地400は、基部402、及び、左右の移動筐体404A及び404Bから構成される。
<Fourth Embodiment>
Next, a fourth embodiment will be described with reference to FIGS. 17 to 20. The description of the matters common to the first embodiment will be omitted, and the matters different from the first embodiment will be mainly described. In a fourth embodiment, the target marker 100 is located at the charging base 400, as shown in FIGS. 17 and 18. The charging base 400 is composed of a base 402 and left and right mobile housings 404A and 404B.

左右の移動筐体404A及び404Bは、図17及び18に示すように、矢印X1方向及び矢印X2方向に示すように、水平方向に往復移動可能であり、図17に示す開放状態及び図18に示す閉鎖状態を形成する。 The left and right movable housings 404A and 404B can reciprocate in the horizontal direction as shown in the arrow X1 direction and the arrow X2 direction as shown in FIGS. 17 and 18, and are shown in the open state shown in FIG. 17 and in FIG. Form the indicated closed state.

目標標識100は、基部402の水平方向における中央部に配置されており、図17に示す開放状態においては外部に露出し、図18に示す閉鎖状態においては移動筐体404A及び404Bによって覆われるように構成されている。 The target marker 100 is arranged at the center of the base 402 in the horizontal direction so as to be exposed to the outside in the open state shown in FIG. 17 and covered by the moving housings 404A and 404B in the closed state shown in FIG. It is configured in.

無人機1は、充電基地400が開放状態において、目標標識100に示される目標位置に向かって降下する。無人機1が基部402に着陸すると、充電基地400は閉鎖し、無人機1に対する充電が実施される。 The unmanned aerial vehicle 1 descends toward the target position indicated by the target sign 100 when the charging base 400 is open. When the unmanned aerial vehicle 1 lands on the base 402, the charging base 400 is closed and the unmanned aerial vehicle 1 is charged.

無人機1の記憶部52には、形状推定プログラムが格納されている。無人機1は、形状推定プログラムによって、階層標識102の一部のみが認識できる場合において、階層標識102の全体形状を推定することができる。そして、無人機1は、着陸プログラムによって、推定した階層標識102がカメラ画像の撮影範囲内に入る状態を維持し、かつ、推定した階層標識102の全体がカメラ画像内に入るように撮影位置制御を実施しつつ、降下する。以上の制御は、階層標識104についても同様である。形状推定プログラムとCPU50は、形状推定手段の一例である。 The shape estimation program is stored in the storage unit 52 of the unmanned aerial vehicle 1. The unmanned aerial vehicle 1 can estimate the overall shape of the hierarchical sign 102 when only a part of the hierarchical sign 102 can be recognized by the shape estimation program. Then, the unmanned aircraft 1 maintains the state in which the estimated hierarchical sign 102 falls within the shooting range of the camera image by the landing program, and controls the shooting position so that the entire estimated hierarchical sign 102 falls within the camera image. While carrying out, descend. The above control is the same for the hierarchical indicator 104. The shape estimation program and the CPU 50 are examples of shape estimation means.

例えば、図19及び図20に示すように、階層標識102及び104の一部が、影SD1及びSD2によって認識が困難な場合がある。 For example, as shown in FIGS. 19 and 20, some of the hierarchical markers 102 and 104 may be difficult to recognize due to the shadows SD1 and SD2.

無人機1は、目標標識認識プログラムによって、階層標識102及び階層標識104の要素標識を認識し、認識した要素標識に基づいて、階層標識102及び階層標識104の全体形状を推定することができる。 The unmanned machine 1 can recognize the element signs of the layered sign 102 and the layered sign 104 by the target sign recognition program, and can estimate the overall shape of the layered sign 102 and the layered sign 104 based on the recognized element signs.

例えば、図19に示すように、外側の階層標識102の要素標識のうち、要素標識102a、102b、102g及び102hが認識可能であり、他の要素標識102c等は認識不可能な場合、認識可能な要素標識102a、102b、102g及び102hから外層標識102の全体形状を推定する。このことは、図20に示すように、内側の階層標識104の一部の要素標識が認識可能な場合においても同様である。 For example, as shown in FIG. 19, among the element signs of the outer hierarchical sign 102, the element signs 102a, 102b, 102g and 102h can be recognized, and the other element signs 102c and the like cannot be recognized. The overall shape of the outer layer label 102 is estimated from the element labels 102a, 102b, 102g and 102h. This is the same even when some element markers of the inner hierarchical indicator 104 are recognizable, as shown in FIG.

そして、無人機1は、着陸プログラムによって、推定した階層標識102または階層標識104がカメラ画像の撮影範囲内に位置するように、撮影位置制御を実施しつつ、降下する。 Then, the unmanned aircraft 1 descends while performing shooting position control so that the estimated layered sign 102 or layered sign 104 is located within the shooting range of the camera image by the landing program.

なお、本実施形態において、人工知能の使用は必須ではないが、無人機1は、様々な環境条件において撮影した画像データを使用した機械学習の結果を利用して、階層標識102及び階層標識104の一部から、階層標識102及び104を認識するように構成してもよい。目標標識100について、様々な見え方の画像を学習することによって、所定の部分の特徴を抽出し、どのような見え方であっても、所定の部分を識別するための学習結果データを生成することができる。特徴データに示される特徴は、様々な環境条件においても不変の特徴と、様々な環境条件ごとの特徴の双方を含む。この場合、無人機1は、学習結果データを記憶部52に格納している。 Although the use of artificial intelligence is not essential in the present embodiment, the unmanned machine 1 utilizes the results of machine learning using image data taken under various environmental conditions, and the hierarchical indicator 102 and the hierarchical indicator 104. It may be configured to recognize the hierarchical markers 102 and 104 from a part of. By learning images of various appearances of the target marker 100, features of a predetermined part are extracted, and learning result data for identifying a predetermined part regardless of the appearance is generated. be able to. The features shown in the feature data include both features that are invariant under various environmental conditions and features for each of the various environmental conditions. In this case, the unmanned aerial vehicle 1 stores the learning result data in the storage unit 52.

機械学習は、無人機1自体が実施する必要はなく、外部のコンピュータが実施し、無人機1はその学習結果を利用するようにしてもよい。機械学習の方式は、例えば、深層学習(ディープラーニング)を採用する。深層学習とは、多層構造のニューラルネットワークを用いた機械学習であり、画像認識の分野が有力な活用分野の一つである。ニューラルネットワークは、例えば、畳み込みニューラルネットワーク(CNN:Conlolutional Neural Network)である。畳み込みニューラルネットワークは、入力層(input layer)、畳み込み層(convolution layer)、プーリング層(pooling layer)、全結合層(fully connetced layer)、出力層(output layer)から構成され、畳み込み層とプーリング層は複数回繰り返して深い層を形成し、その後の全結合層も複数層続く。無人機1は、ディープラーニングによって生成した学習結果データを使用することによって、階層標識102または104がどのような見え方であっても識別することができる。 The machine learning does not have to be carried out by the unmanned aerial vehicle 1 itself, but may be carried out by an external computer, and the unmanned aerial vehicle 1 may use the learning result. As the machine learning method, for example, deep learning is adopted. Deep learning is machine learning using a multi-layered neural network, and the field of image recognition is one of the promising fields of utilization. The neural network is, for example, a convolutional neural network (CNN). A convolutional neural network is composed of an input layer, a convolution layer, a pooling layer, a fully connected layer, and an output layer, and is composed of a convolutional layer and an output layer. Repeats multiple times to form a deep layer, followed by multiple fully connected layers. The unmanned aerial vehicle 1 can identify the hierarchical marker 102 or 104 in any way by using the learning result data generated by deep learning.

<第五の実施形態>
次に、図21を参照して、第五の実施形態について説明する。第一の実施形態または第二の実施形態と共通する事項の説明は省略し、異なる事項を中心に説明する。第五の実施形態においては、図21に示すように、複数の無人機1A,1B及び1Cが運用され、各無人機1A等について、それぞれ、目標標識100A,100B及び100Cが割り当てられている。
<Fifth Embodiment>
Next, a fifth embodiment will be described with reference to FIG. The explanation of the matters common to the first embodiment or the second embodiment will be omitted, and the explanation will be focused on different matters. In the fifth embodiment, as shown in FIG. 21, a plurality of unmanned aerial vehicles 1A, 1B and 1C are operated, and target markers 100A, 100B and 100C are assigned to each unmanned aerial vehicle 1A and the like, respectively.

各無人機1A等は、着陸プログラムによって、それぞれに割り当てられた目標標識100A等が示す目標位置に向かって降下するように構成されている。 Each unmanned aerial vehicle 1A or the like is configured to descend toward the target position indicated by the target sign 100A or the like assigned to each unmanned aerial vehicle 1A or the like by a landing program.

<第六の実施形態>
次に、図22を参照して、第六の実施形態について説明する。第五の実施形態と共通する事項の説明は省略し、異なる事項を中心に説明する。第六の実施形態においては、複数の無人機1A,1B及び1Cには、特定の目標標識が割り当てられているのであるが、無人機1A等の管理者によって変更可能に構成されている。
<Sixth Embodiment>
Next, a sixth embodiment will be described with reference to FIG. The explanation of the matters common to the fifth embodiment will be omitted, and the explanation will be focused on different matters. In the sixth embodiment, a specific target sign is assigned to the plurality of unmanned aerial vehicles 1A, 1B, and 1C, but the unmanned aerial vehicle 1A and the like can be changed by an administrator.

例えば、図22に示すように、無人機1Aの記憶部には、複数の目標標識として、目標標識X1及びX2についてのデータが格納されている。無人機1Bの記憶部にも、無人機1Aと同様に、複数の目標標識として、目標標識X1及びX2についてのデータが格納されている。無人機1Aに当初割り当てられた目標標識が目標標識X1であり、無人機1Bに当初割り当てられた目標標識が目標標識X2であるとする。本実施形態においては、管理者によって、無人機1A等に当初割り当てられた目標標識を他の目標標識に変更することができる。これにより、例えば、無人機1Aが故障した場合において、無人機1Bの目標標識を目標標識X1に変更し、無人機1Aの任務を実施させるという運用が可能となる。 For example, as shown in FIG. 22, data about the target signs X1 and X2 are stored as a plurality of target signs in the storage unit of the unmanned machine 1A. Similar to the unmanned machine 1A, the storage unit of the unmanned machine 1B also stores data about the target signs X1 and X2 as a plurality of target signs. It is assumed that the target sign initially assigned to the unmanned machine 1A is the target sign X1 and the target sign initially assigned to the unmanned machine 1B is the target sign X2. In the present embodiment, the administrator can change the target sign initially assigned to the unmanned aerial vehicle 1A or the like to another target sign. As a result, for example, when the unmanned aerial vehicle 1A breaks down, the target sign of the unmanned aerial vehicle 1B is changed to the target sign X1, and the mission of the unmanned aerial vehicle 1A can be performed.

なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。また、上述の各実施形態は、適宜、組み合わせることができる。 The present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention. In addition, each of the above-described embodiments can be combined as appropriate.

1,1A,1B,1C 無人機
2 筐体
6 モーター
14 カメラ
52 記憶部
56 衛星測位部
90 発着領域
100 目標標識
102,104 階層標識
102a,102b,102c,102d,102e,102f,102g,102h,102in,104a,104b,104c,104d,104e,104f,104g,104h,104i 要素標識
1,1A, 1B, 1C Unmanned machine 2 Housing 6 Motor 14 Camera 52 Storage unit 56 Satellite positioning unit 90 Departure / arrival area 100 Target sign 102,104 Hierarchical sign 102a, 102b, 102c, 102d, 102e, 102f, 102g, 102h, 102in, 104a, 104b, 104c, 104d, 104e, 104f, 104g, 104h, 104i element labeling

Claims (8)

複数のモーターの回転軸にそれぞれ接続されたプロペラの回転を制御して飛行する無人飛行体を目標位置に着陸させるための降下システムであって、
前記目標位置を含む領域に配置される目標標識を有し、
前記目標標識は、水平方向における外形の大きさが異なる複数段階の階層標識から構成され、
相対的に外形が小さな前記階層標識は、相対的に外形が大きな前記階層標識の内側に配置され、
前記複数段階の前記階層標識は水平方向における内側に前記目標位置を含み、
前記無人飛行体は、
前記階層標識を構成する各部の相対的な位置関係を示す情報である相対情報と、
下方を撮影可能な画像取得手段と、
を有し、
前記画像取得手段の撮影範囲内において相対的に外形が大きな前記階層標識を認識可能な場合には、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、
前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になった場合には、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下する、
降下システム。
It is a descent system for landing an unmanned aircraft that flies by controlling the rotation of propellers connected to the rotation axes of multiple motors at a target position.
Having a target marker placed in the area containing the target position
The target sign is composed of a plurality of levels of hierarchical signs having different outer dimensions in the horizontal direction.
The hierarchical sign having a relatively small outer shape is arranged inside the hierarchical sign having a relatively large outer shape.
The plurality of stages of the hierarchical marker include the target position inside in the horizontal direction.
The unmanned aircraft
Relative information, which is information indicating the relative positional relationship of each part constituting the hierarchical sign, and
An image acquisition means that can take a picture of the bottom,
Have,
When the layered sign having a relatively large outer shape can be recognized within the photographing range of the image acquisition means, the unmanned flying object has the layered sign having a relatively large outer shape located within the photographing range. Descent while controlling
When the layered sign having a relatively large outer shape becomes unrecognizable as a result of the unmanned flying object descending, the layered sign having a relatively small outer shape is within the shooting range. Descent while controlling the unmanned aircraft so that it is located at
Descent system.
前記無人飛行体は、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下するときに、相対的に外形が小さな前記階層標識も認識し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になる前に、前記相対的に前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する制御に切り替える、
請求項1に記載の降下システム。
When the unmanned vehicle descends while controlling the unmanned vehicle so that the layered sign having a relatively large outer shape is located within the photographing range, the unmanned vehicle also recognizes the layered sign having a relatively small outer shape. Then, as a result of the unmanned flying object descending, the layered sign having a relatively small outer shape becomes unrecognizable before the layered sign having a relatively large outer shape becomes unrecognizable within the photographing range. Switch to descent control while controlling to be within the shooting range.
The descent system according to claim 1.
最も内側の前記階層標識は、前記無人飛行体が着陸したときにおいても、前記無人飛行体が前記撮影範囲内において認識可能な外形の大きさに規定されている、
請求項1または請求項2に記載の降下システム。
The innermost hierarchical sign is defined by the size of the outer shape that the unmanned vehicle can recognize within the shooting range even when the unmanned vehicle lands.
The descent system according to claim 1 or 2.
前記複数段階の前記階層標識は複数の要素標識から構成され、
前記相対情報は、各前記要素標識を基準とする前記目標位置の方向及び距離を示す情報であり、
前記無人飛行体は、前記要素標識に示される前記目標位置の方向及び距離に基づいて、前記無人飛行体自体の機首方向を所定方向に制御する、
請求項1乃至請求項3のいずれかに記載の降下システム。
The multi-stage hierarchical sign is composed of a plurality of element signs.
The relative information is information indicating the direction and distance of the target position with respect to each element marker.
The unmanned vehicle controls the nose direction of the unmanned vehicle itself in a predetermined direction based on the direction and distance of the target position indicated on the element marker.
The descent system according to any one of claims 1 to 3.
前記無人飛行体は、
前記階層標識の一部の前記要素標識によって、前記階層標識の全体を推定する推定手段を有し、
推定した前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する、
請求項4に記載の降下システム。
The unmanned aircraft
It has an estimation means for estimating the whole of the hierarchical label by the element label which is a part of the hierarchical label.
The estimated hierarchical sign descends while being controlled so as to be located within the shooting range.
The descent system according to claim 4.
前記目標位置を含む領域には、前記無人飛行体の充電可能な電源を充電するための充電装置が配置され、
前記無人飛行体は、前記目標位置に、前記機首方向を前記所定方向に向けた状態において着陸し、前記充電装置によって前記無人飛行体の電源を充電するように構成されている、
請求項4または5に記載の降下システム。
In the area including the target position, a charging device for charging the rechargeable power source of the unmanned vehicle is arranged.
The unmanned aircraft is configured to land at the target position with the nose direction facing the predetermined direction, and to charge the power supply of the unmanned aircraft by the charging device.
The descent system according to claim 4 or 5.
前記降下システムは、複数の前記無人飛行体と複数の前記目標標識を有し、
各前記無人飛行体には、異なる前記目標標識が割り当てられ、
各前記無人飛行体は、割り当てられた前記目標標識が示す前記目標位置に向かって降下するように構成されている、
請求項1乃至請求項6のいずれかに記載の降下システム。
The descent system has a plurality of the unmanned aircraft and a plurality of the target markers.
Each said unmanned vehicle is assigned a different said target marker.
Each unmanned vehicle is configured to descend towards the target position indicated by the assigned target sign.
The descent system according to any one of claims 1 to 6.
前記無人飛行体は、
予め有している前記目標標識の特徴を示すデータと、前記画像取得手段によって取得した画像データにおける画像から抽出した特徴データとの相関度に基づいて、前記目標標識を認識するように構成されており、
前記目標標識の特徴を示すデータは、深層学習(ディープラーニング)によって生成されたデータを含む請求項1乃至7のいずれかに記載の降下システム。
The unmanned aircraft
It is configured to recognize the target marker based on the degree of correlation between the data indicating the characteristics of the target marker held in advance and the feature data extracted from the image in the image data acquired by the image acquisition means. Ori
The descent system according to any one of claims 1 to 7, wherein the data indicating the characteristics of the target marker includes data generated by deep learning.
JP2020080714A 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system Active JP7539688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080714A JP7539688B2 (en) 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080714A JP7539688B2 (en) 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system

Publications (2)

Publication Number Publication Date
JP2021172318A true JP2021172318A (en) 2021-11-01
JP7539688B2 JP7539688B2 (en) 2024-08-26

Family

ID=78279456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080714A Active JP7539688B2 (en) 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system

Country Status (1)

Country Link
JP (1) JP7539688B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114044158A (en) * 2021-11-29 2022-02-15 浙江图盛输变电工程有限公司温州科技分公司 Unmanned aerial vehicle autopilot system based on artificial intelligence image recognition
KR20230068839A (en) * 2021-11-11 2023-05-18 한국전력 국제원자력대학원대학교 산학협력단 A guided landing method of drone using multiple landing marks
WO2023119298A1 (en) * 2021-12-23 2023-06-29 Ariel Scientific Innovations Ltd. Unmanned aerial vehicle and a method of landing same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170045894A1 (en) * 2015-08-12 2017-02-16 Qualcomm Incorporated Autonomous Landing and Control
US20170225800A1 (en) * 2016-02-05 2017-08-10 Jordan Holt Visual landing aids for unmanned aerial systems
JP2018124718A (en) * 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
WO2019175993A1 (en) * 2018-03-13 2019-09-19 日本電気株式会社 Target member
WO2019175994A1 (en) * 2018-03-13 2019-09-19 日本電気株式会社 Moving body guidance device, moving body guidance method, and computer readable recording medium
US10479528B1 (en) * 2018-11-06 2019-11-19 Ping Liang Network of distributed drone system and parking pads

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170045894A1 (en) * 2015-08-12 2017-02-16 Qualcomm Incorporated Autonomous Landing and Control
US20170225800A1 (en) * 2016-02-05 2017-08-10 Jordan Holt Visual landing aids for unmanned aerial systems
JP2018124718A (en) * 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
WO2019175993A1 (en) * 2018-03-13 2019-09-19 日本電気株式会社 Target member
WO2019175994A1 (en) * 2018-03-13 2019-09-19 日本電気株式会社 Moving body guidance device, moving body guidance method, and computer readable recording medium
US10479528B1 (en) * 2018-11-06 2019-11-19 Ping Liang Network of distributed drone system and parking pads

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230068839A (en) * 2021-11-11 2023-05-18 한국전력 국제원자력대학원대학교 산학협력단 A guided landing method of drone using multiple landing marks
KR102579913B1 (en) * 2021-11-11 2023-09-15 한국전력 국제원자력대학원대학교 산학협력단 A guided landing method of drone using multiple landing marks
CN114044158A (en) * 2021-11-29 2022-02-15 浙江图盛输变电工程有限公司温州科技分公司 Unmanned aerial vehicle autopilot system based on artificial intelligence image recognition
CN114044158B (en) * 2021-11-29 2024-06-04 浙江图盛输变电工程有限公司温州科技分公司 Unmanned aerial vehicle automatic driving system based on artificial intelligent image recognition
WO2023119298A1 (en) * 2021-12-23 2023-06-29 Ariel Scientific Innovations Ltd. Unmanned aerial vehicle and a method of landing same

Also Published As

Publication number Publication date
JP7539688B2 (en) 2024-08-26

Similar Documents

Publication Publication Date Title
US11604479B2 (en) Methods and system for vision-based landing
US11332033B2 (en) Systems and methods for UAV battery exchange
US10611252B2 (en) Systems and methods for UAV battery power backup
CN108453738B (en) Control method for four-rotor aircraft aerial autonomous grabbing operation based on Opencv image processing
CN110062919B (en) Drop-off location planning for delivery vehicles
JP7539688B2 (en) Unmanned aerial vehicle descent system
JP2019520719A (en) Vision based calibration system for unmanned aerial vehicles
WO2019040254A1 (en) Systems and methods for improving performance of a robotic vehicle by managing on-board camera defects
CN106054929A (en) Unmanned plane automatic landing guiding method based on optical flow
US11745899B2 (en) Adhoc geo-fiducial mats for landing UAVs
US20230419843A1 (en) Unmanned aerial vehicle dispatching method, server, base station, system, and readable storage medium
CN113495569A (en) Unmanned aerial vehicle accurate landing method based on autonomous identification
JP2020149640A (en) Flight system and landing control method
WO2023080950A1 (en) Automated assignment of uavs to staging pads
KR102231574B1 (en) Unmanned Aerial Vehicle landing method that can safely land on a moving landing pad and Unmanned Aerial Vehicle landing system using the same
CN115981355A (en) Unmanned aerial vehicle automatic cruise method and system capable of landing quickly and accurately
JP2019188965A (en) Unmanned flight body, learning result information, unmanned flight method and unmanned flight program
CN215813349U (en) Unmanned aerial vehicle formation target real-time tracking and modeling system
CN112198894B (en) Autonomous moving landing guidance method and system for rotor unmanned aerial vehicle
CN112313599B (en) Control method, device and storage medium
CN221214317U (en) Split type panorama detection robot based on intelligent interaction
KR102571330B1 (en) Control apparatus for subject tracking shooting, drone and operation method thereof
US20240194081A1 (en) Context-Based Navigation of Uncrewed Vehicles Using Relative Position Markers
US20230316741A1 (en) Method for Semantic Localization of an Unmanned Aerial Vehicle
JP2023175386A (en) flight system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240806

R150 Certificate of patent or registration of utility model

Ref document number: 7539688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150