JP7539688B2 - Unmanned aerial vehicle descent system - Google Patents

Unmanned aerial vehicle descent system Download PDF

Info

Publication number
JP7539688B2
JP7539688B2 JP2020080714A JP2020080714A JP7539688B2 JP 7539688 B2 JP7539688 B2 JP 7539688B2 JP 2020080714 A JP2020080714 A JP 2020080714A JP 2020080714 A JP2020080714 A JP 2020080714A JP 7539688 B2 JP7539688 B2 JP 7539688B2
Authority
JP
Japan
Prior art keywords
sign
unmanned aerial
aerial vehicle
target
hierarchical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020080714A
Other languages
Japanese (ja)
Other versions
JP2021172318A (en
Inventor
達也 山口
サンチェス ヘルナンデス ホルヘ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eams Robotics Co Ltd
Original Assignee
Eams Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eams Robotics Co Ltd filed Critical Eams Robotics Co Ltd
Priority to JP2020080714A priority Critical patent/JP7539688B2/en
Publication of JP2021172318A publication Critical patent/JP2021172318A/en
Application granted granted Critical
Publication of JP7539688B2 publication Critical patent/JP7539688B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/654Landing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/244Arrangements for determining position or orientation using passive navigation aids external to the vehicle, e.g. markers, reflectors or magnetic means
    • G05D1/2446Arrangements for determining position or orientation using passive navigation aids external to the vehicle, e.g. markers, reflectors or magnetic means the passive navigation aids having encoded information, e.g. QR codes or ground control points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/20Aircraft, e.g. drones
    • G05D2109/25Rotorcrafts
    • G05D2109/254Flying platforms, e.g. multicopters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、無人飛行体の降下システムに関する。 The present invention relates to a descent system for an unmanned aerial vehicle.

従来、小型無人飛行体(「ドローン」とも呼ばれる。)の利用が提案されている。このようなドローンが着陸する際に、地上に配置した目標物(「マーカー」とも呼ばれる。)を目指して降下する技術が提案されている(例えば、特許文献1)。 The use of small unmanned aerial vehicles (also called "drones") has been proposed. A technology has been proposed in which such drones descend to aim at targets (also called "markers") placed on the ground when landing (see, for example, Patent Document 1).

特願2019-501868号公報Patent Application No. 2019-501868

上述の技術においては、ドローンはカメラで目標物を撮影し、目標物に向かって降下する。カメラには、撮影可能な範囲(例えば、「画角」で規定される。以下、「撮影範囲」と呼ぶ。)があり、ドローンの飛行高度が下がるほど、撮影範囲内の地上の領域は狭くなる。このため、ドローンが高度を下げると、いずれ、マーカーの一部または全部が撮影範囲を外れるから、ドローンが所定の着陸位置に正確に着陸することができない場合がある。 In the above-mentioned technology, the drone photographs the target with a camera and descends towards the target. The camera has a range that it can photograph (defined, for example, by the "angle of view"; hereafter referred to as the "photography range"), and the lower the flying altitude of the drone, the smaller the area of the ground within the photography range becomes. For this reason, when the drone lowers its altitude, eventually some or all of the markers will fall outside the photography range, and the drone may not be able to land accurately at the designated landing position.

本発明はかかる問題の解決を試みたものであり、正確な目標位置に降下することができる無人飛行体の降下システムを提供することを目的とする。 The present invention attempts to solve this problem, and aims to provide a descent system for an unmanned aerial vehicle that can descend to a precise target location.

第一の発明は、複数のモーターの回転軸にそれぞれ接続されたプロペラの回転を制御して飛行する無人飛行体を目標位置に着陸させるための降下システムであって、前記目標位置を含む領域に配置される目標標識を有し、前記目標標識は、水平方向における外形の大きさが異なる複数段階の階層標識から構成され、相対的に外形が小さな前記階層標識は、相対的に外形が大きな前記階層標識の内側に配置され、前記複数段階の前記階層標識は水平方向における内側に前記目標位置を含み、前記無人飛行体は、前記階層標識を構成する各部の相対的な位置関係を示す情報である相対情報と、下方を撮影可能な画像取得手段と、を有し、前記画像取得手段の撮影範囲内において相対的に外形が大きな前記階層標識を認識可能な場合には、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になった場合には、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下する、降下システムである。 The first invention is a descent system for landing an unmanned aerial vehicle at a target position, the unmanned aerial vehicle flying by controlling the rotation of propellers connected to the rotating shafts of multiple motors, the system having a target marker arranged in an area including the target position, the target marker being composed of multiple levels of hierarchical markers having different external sizes in the horizontal direction, the hierarchical markers having relatively small external sizes being arranged inside the hierarchical markers having relatively large external sizes, the hierarchical markers of the multiple levels including the target position on the inside in the horizontal direction, the unmanned aerial vehicle detecting the relative positional relationship of each part constituting the hierarchical marker. The descent system has relative information, which is information indicating the location of the object, and an image acquisition means capable of capturing images below, and when the relatively large-sized floor sign can be recognized within the capture range of the image acquisition means, the unmanned aerial vehicle is controlled to descend so that the relatively large-sized floor sign is located within the capture range, and when the relatively large-sized floor sign cannot be recognized within the capture range as a result of the descent of the unmanned aerial vehicle, the unmanned aerial vehicle is controlled to descend so that the relatively small-sized floor sign is located within the capture range.

まず、図23乃至25を参照して、本発明の技術思想を説明する。図23に示すように、空中に位置する無人飛行体1の位置から目標位置CP0までの間の空中に、中空のチューブ状の枠部材W1を配置すれば、無人飛行体1が枠部材W1内を通過するように位置を制御しつつ降下することにより、正確に目標位置CP0に着陸することができる。また、枠部材W1に替えて、図24に示すように、上方から下方に向かって次第に内形が小さくなる枠部材W2を配置すれば、無人飛行体1が枠部材W2内を通過するように位置を制御しつつ降下することにより、降下するに連れて、水平方向の位置が目標位置CP0の鉛直方向に近づく。さらに、図25に示すように、1つの枠部材W2に替えて、複数の枠W2a乃至W2dを空中に配置しても同様であり、上方の枠W2aから下方の枠W2dに向かうに連れて、枠の大きさを小さくしていくことによって、無人飛行体1は、下降するに連れて、目標位置CP0に近づく。しかし、任意の空中に枠部材W1、W2やW2a乃至W2dを配置することは現実的ではない。この点、本発明は、複数段階の階層標識を認識しつつ、降下することによって、複数の枠W2a等を通過するのと技術的に等価である効果を奏するように構成される。すなわち、第一の発明の構成によれば、無人飛行体1は、相対的に飛行高度が高く、外側の階層標識を撮影範囲内において認識可能な場合には、外側の階層標識を撮影範囲内に維持しつつ降下し、無人飛行体が降下した結果、撮影範囲内において外側の階層標識が認識できなくなった場合には、内側の階層標識を撮影範囲内に維持しつつ降下することができる。無人飛行体1は、階層標識が撮影範囲内に入るように無人飛行体1の位置を制御する(以下、「撮影位置制御」と呼ぶ。)。撮影位置制御をしつつ降下する技術は、複数の枠W2a等を通過しつつ降下するのと技術的に等価である。さらに、相対的に高い高度においては外側の階層標識に基づいて降下し、相対的に低い高度においては内側の階層標識に基づいて降下することにより、無人飛行体が降下するに連れて、無人飛行体の水平方向の位置は目標位置を通る鉛直線上に近づく(以下、「降下接近効果」と呼ぶ。)。これにより、目標標識を参照して、正確な目標位置に降下することができる。また、無人飛行体は、相対情報を有しているから、機首方向を所定の方向に調整しつつ降下することができる。 First, the technical concept of the present invention will be described with reference to Figures 23 to 25. As shown in Figure 23, if a hollow tube-shaped frame member W1 is placed in the air between the position of the unmanned aerial vehicle 1 located in the air and the target position CP0, the unmanned aerial vehicle 1 can land accurately at the target position CP0 by descending while controlling the position so that it passes through the frame member W1. Also, if a frame member W2 whose inner shape gradually becomes smaller from top to bottom is placed instead of the frame member W1 as shown in Figure 24, the unmanned aerial vehicle 1 descends while controlling the position so that it passes through the frame member W2, and as it descends, the horizontal position approaches the vertical direction of the target position CP0. Furthermore, as shown in Figure 25, the same result can be obtained by placing multiple frames W2a to W2d in the air instead of one frame member W2, and by reducing the size of the frame from the upper frame W2a to the lower frame W2d, the unmanned aerial vehicle 1 approaches the target position CP0 as it descends. However, it is not realistic to place the frame members W1, W2, or W2a to W2d in any air. In this respect, the present invention is configured to achieve an effect that is technically equivalent to passing through multiple frames W2a, etc., by descending while recognizing multiple levels of floor signs. That is, according to the configuration of the first invention, when the unmanned aerial vehicle 1 has a relatively high flight altitude and the outer floor sign can be recognized within the shooting range, it descends while maintaining the outer floor sign within the shooting range, and when the outer floor sign cannot be recognized within the shooting range as a result of the unmanned aerial vehicle descending, it can descend while maintaining the inner floor sign within the shooting range. The unmanned aerial vehicle 1 controls the position of the unmanned aerial vehicle 1 so that the floor sign is within the shooting range (hereinafter referred to as "shooting position control"). The technology of descending while performing shooting position control is technically equivalent to descending while passing through multiple frames W2a, etc. Furthermore, by descending based on the outer hierarchical marker at relatively high altitudes and descending based on the inner hierarchical marker at relatively low altitudes, the horizontal position of the unmanned aerial vehicle approaches a vertical line passing through the target position as it descends (hereinafter referred to as the "descent approach effect"). This allows the unmanned aerial vehicle to descend to an accurate target position by referring to the target marker. Also, because the unmanned aerial vehicle has relative information, it can descend while adjusting its nose direction in a specified direction.

第二の発明は、第一の発明の構成において、前記無人飛行体は、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下するときに、相対的に外形が小さな前記階層標識も認識し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になる前に、前記相対的に前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する制御に切り替える、降下システムである。 The second invention is a descent system in which, in the configuration of the first invention, the unmanned aerial vehicle, when descending while controlling the unmanned aerial vehicle so that the relatively large-sized floor level sign is positioned within the shooting range, also recognizes the relatively small-sized floor level sign, and switches to control for descending while controlling the relatively small-sized floor level sign to be positioned within the shooting range before the relatively large-sized floor level sign becomes unrecognizable within the shooting range as a result of the descent of the unmanned aerial vehicle.

第二の発明の構成によれば、無人飛行体は、外側の階層標識が撮影範囲内に位置するように制御しつつ降下するときに、既に内側の階層標識も認識しており、外側の階層標識が認識不可能になる前に、内側の階層標識が撮影範囲内に位置するように制御しつつ降下する制御に切り替えるから、撮影位置制御を途切れることなく実施することができる。 According to the configuration of the second invention, when the unmanned aerial vehicle descends while controlling the outer floor sign so that it is positioned within the shooting range, it already recognizes the inner floor sign, and before the outer floor sign becomes unrecognizable, the control is switched to descending while controlling the inner floor sign so that it is positioned within the shooting range, so that shooting position control can be carried out without interruption.

第三の発明は、第一の発明または第二の発明のいずれかの構成において、最も内側の前記階層標識は、前記無人飛行体が着陸したときにおいても、前記無人飛行体が前記撮影範囲内において認識可能な外形の大きさに規定されている、降下システムである。 The third invention is a descent system in which, in the configuration of either the first or second invention, the innermost level sign is sized to have an external shape that can be recognized within the shooting range of the unmanned aerial vehicle even when the unmanned aerial vehicle has landed.

第三の発明の構成によれば、着陸する瞬間まで、撮影位置制御を継続することができるから、確実に目標位置に着陸することができる。 The configuration of the third invention allows for continuous control of the shooting position until the moment of landing, ensuring that the drone lands at the target position.

第四の発明は、第一の発明乃至第三の発明のいずれかの構成において前記複数段階の前記階層標識は複数の要素標識から構成され、前記相対情報は、各前記要素標識を基準とする前記目標位置の方向及び距離を示す情報であり、前記無人飛行体は、前記要素標識に示される前記目標位置の方向及び距離に基づいて、前記無人飛行体自体の機首方向を所定方向に制御する、降下システムである。 The fourth invention is a descent system in which, in the configuration of any one of the first to third inventions, the multi-stage hierarchical markers are composed of multiple element markers, the relative information is information indicating the direction and distance of the target position based on each of the element markers, and the unmanned aerial vehicle controls the nose direction of the unmanned aerial vehicle itself in a predetermined direction based on the direction and distance of the target position indicated by the element markers.

第四の発明の構成によれば、無人飛行体は、要素標識を認識することによって、機首方向を所定方向に制御しつつ、目標位置に向かって降下することができる。 According to the fourth aspect of the invention, the unmanned aerial vehicle can recognize the element marker and control the nose direction to a specified direction while descending toward the target position.

第五の発明は、第四の発明の構成において、前記無人飛行体は、前記階層標識の一部の前記要素標識によって、前記階層標識の全体を推定する推定手段を有し、推定した前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する、降下システムである。 The fifth invention is a descent system in which, in the configuration of the fourth invention, the unmanned aerial vehicle has an estimation means for estimating the entirety of the hierarchical marker based on the element marker that is a part of the hierarchical marker, and descends while controlling the estimated hierarchical marker so that it is positioned within the shooting range.

第五の発明の構成によれば、階層標識の一部が影などによって認識できない場合であっても、階層標識の全体を推定し、撮影位置制御を実施しつつ、降下することができる。 According to the configuration of the fifth invention, even if part of a floor sign cannot be recognized due to a shadow or the like, the entire floor sign can be estimated and the shooting position control can be performed while descending.

第六の発明は、第四の発明または第五の発明の構成において、前記目標位置を含む領域には、前記無人飛行体の充電可能な電源を充電するための充電装置が配置され、前記無人飛行体は、前記目標位置に、前記機首方向を前記所定方向に向けた状態において着陸し、前記充電装置によって前記無人飛行体の電源を充電するように構成されている、降下システムである。 The sixth invention is a descent system in the configuration of the fourth or fifth invention, in which a charging device for charging a rechargeable power source of the unmanned aerial vehicle is arranged in an area including the target position, the unmanned aerial vehicle lands at the target position with the nose facing the specified direction, and the charging device is configured to charge the power source of the unmanned aerial vehicle.

第六の発明の構成によれば、無人飛行体は、機首方向を所定方向に制御しつつ着陸することができるから、例えば、充電装置の充電用端子が特定の位置に設定されている場合において、無人飛行体側の充電用端子を充電装置側の充電用端子と接続させることができる。 According to the configuration of the sixth invention, the unmanned aerial vehicle can land while controlling the nose direction in a specified direction, so that, for example, when the charging terminal of the charging device is set to a specific position, the charging terminal on the unmanned aerial vehicle can be connected to the charging terminal on the charging device.

第七の発明は、第一の発明乃至第六の発明のいずれかの構成において、前記降下システムは、複数の前記無人飛行体と複数の前記目標標識を有し、各前記無人飛行体には、異なる前記目標標識が割り当てられ、各前記無人飛行体は、割り当てられた前記目標標識が示す前記目標位置に向かって降下するように構成されている、降下システムである。 The seventh invention is a descent system having a configuration of any one of the first to sixth inventions, the descent system having a plurality of the unmanned aerial vehicles and a plurality of the target markers, each of the unmanned aerial vehicles being assigned a different target marker, and each of the unmanned aerial vehicles being configured to descend toward the target position indicated by the assigned target marker.

第七の発明の構成によれば、複数の無人飛行体が、それぞれの目標位置に精度良く降下することができる。 According to the seventh aspect of the invention, multiple unmanned aerial vehicles can descend to their respective target positions with high accuracy.

第八の発明は、第一の発明乃至第七の発明のいずれかの構成において、前記無人飛行体は、予め有している前記目標標識の特徴を示すデータと、前記画像取得手段によって取得した画像データにおける画像から抽出した特徴データとの相関度に基づいて、前記目標標識を認識するように構成されており、前記目標標識の特徴を示すデータは、深層学習(ディープラーニング)によって生成されたデータを含む請求項1乃至請求項7のいずれかに記載の降下システムである。 The eighth invention is a descent system according to any one of claims 1 to 7, in which the unmanned aerial vehicle is configured to recognize the target sign based on the degree of correlation between data indicating the characteristics of the target sign that it has in advance and characteristic data extracted from an image in the image data acquired by the image acquisition means, and the data indicating the characteristics of the target sign includes data generated by deep learning.

同一の目標標識であっても、環境の光の強さなどによって、様々が外観を呈する。この点、第八の発明の構成によれば、同一の目標標識について様々な外観を深層学習し、その結果として生成された目標標識の特徴を示すデータを利用して目標標識を認識することができるから、環境の変化の影響があっても、精度良く目標標識を認識することができる。 Even the same target sign can have a variety of appearances depending on factors such as the intensity of light in the environment. In this regard, according to the configuration of the eighth invention, various appearances of the same target sign can be learned through deep learning, and the target sign can be recognized using the data that indicates the characteristics of the target sign generated as a result. Therefore, the target sign can be recognized with high accuracy even when influenced by changes in the environment.

本発明によれば、正確な目標位置に着陸することができる。 The present invention allows for accurate landing at the target location.

本発明の第一の実施形態に係る降下システムの運用の一例を示す概略図である。A schematic diagram showing an example of operation of the descent system related to the first embodiment of the present invention. 無人飛行体を示す概略斜視図である。1 is a schematic perspective view showing an unmanned aerial vehicle. 無人飛行体の機能ブロックを概略図である。1 is a schematic diagram showing the functional blocks of an unmanned aerial vehicle. 目標標識の一例を示す概略平面図である。FIG. 2 is a schematic plan view showing an example of a target marker. 外側の階層標識を示す概略平面図である。FIG. 13 is a schematic plan view showing the outer level markers. 内側の階層標識を示す概略平面図である。FIG. 13 is a schematic plan view showing inner level indicators. 無人飛行体が記憶する目標標識に関するデータの構造を示す概念図である。A conceptual diagram showing the structure of data related to target markers stored by an unmanned aerial vehicle. 階層標識と画像取得手段の撮影範囲の関係を示す概略平面図である。10 is a schematic plan view showing the relationship between floor signs and the imaging range of an image acquisition means. FIG. 外側の階層標識と画像取得手段の撮影範囲の関係を示す概略平面図である。13 is a schematic plan view showing the relationship between the outer floor signs and the shooting range of the image acquisition means. FIG. 内側の階層標識と画像取得手段の撮影範囲の関係を示す概略平面図である。13 is a schematic plan view showing the relationship between the inner floor signs and the shooting range of the image capture means. FIG. 無人飛行体の高度と撮影範囲の関係を示す概略図である。1 is a schematic diagram showing the relationship between the altitude of an unmanned aerial vehicle and the shooting range. 無人飛行体の高度と撮影範囲の関係を示す概略図である。1 is a schematic diagram showing the relationship between the altitude of an unmanned aerial vehicle and the shooting range. 無人飛行体が降下する軌跡の一例を示す概略図である。A schematic diagram showing an example of a descending trajectory of an unmanned aerial vehicle. 無人飛行体の動作を説明するための概略フローチャートである。1 is a schematic flowchart for explaining the operation of an unmanned aerial vehicle. 本発明の第二の実施形態の無人飛行体の動作を説明するための概略フローチャートである。11 is a schematic flowchart for explaining the operation of an unmanned aerial vehicle according to a second embodiment of the present invention. 本発明の第三の実施形態の無人飛行体の動作を説明するための概略フローチャートである。11 is a schematic flowchart for explaining the operation of an unmanned aerial vehicle according to a third embodiment of the present invention. 本発明の第四の実施形態に係る降下システムの運用の一例を示す概略図である。FIG. 11 is a schematic diagram showing an example of operation of a descent system according to a fourth embodiment of the present invention. 降下システムの運用の一例を示す概略図である。FIG. 1 is a schematic diagram showing an example of operation of the descent system. 画像推定の一例を示す概略図である。FIG. 2 is a schematic diagram illustrating an example of image estimation. 画像推定の一例を示す概略図である。FIG. 2 is a schematic diagram illustrating an example of image estimation. 本発明の第五の実施形態に係る降下システムの運用の一例を示す概略図である。A schematic diagram showing an example of operation of a descent system according to a fifth embodiment of the present invention. 本発明の第六の実施形態に係る無人飛行体が記憶する目標標識に関するデータの構造を示す概念図である。A conceptual diagram showing the structure of data regarding target markers stored in an unmanned aerial vehicle in accordance with the sixth embodiment of the present invention. 本発明の技術思想を説明するための概念図である。FIG. 1 is a conceptual diagram for explaining the technical idea of the present invention. 本発明の技術思想を説明するための概念図である。FIG. 1 is a conceptual diagram for explaining the technical idea of the present invention. 本発明の技術思想を説明するための概念図である。FIG. 1 is a conceptual diagram for explaining the technical idea of the present invention.

以下、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。 The following provides a detailed description of the form for implementing the present invention (hereinafter, "embodiment"). In the following description, the same components are given the same reference numerals, and their description will be omitted or simplified. Descriptions of components that can be implemented appropriately by a person skilled in the art will be omitted, and only the basic components of the present invention will be described.

図1に示す無人機1は、プロペラの回転によって推力を得て、所定の経路を自律飛行することができるように構成されている。無人機1は無人飛行体の一例である。 The drone 1 shown in FIG. 1 is configured to obtain thrust from the rotation of a propeller and fly autonomously along a predetermined route. The drone 1 is an example of an unmanned flying vehicle.

無人機1は、所定領域300を経路R1に従って自律飛行する。無人機1は、GPS衛星(Global Positioning System)等の航法衛星からの測位用電波を受信し、無人機1自体の位置を測位しつつ、経路R1に従って自律飛行することができる。 The drone 1 flies autonomously along route R1 in the specified area 300. The drone 1 can fly autonomously along route R1 while receiving positioning radio waves from navigation satellites such as GPS satellites (Global Positioning System) and determining the position of the drone 1 itself.

所定領域300は、山200A乃至200F、ゴルフ場202、動物園204、田畑206、池208、道路210などの構成物が存在する。無人機1は、所定領域300を撮影しつつ、飛行する。無人機1は、発着領域90から発進し、発着領域90に帰還する。無人機1が着陸するための目標位置CP0は、発着領域90内に位置する。 The specified area 300 includes structures such as mountains 200A to 200F, a golf course 202, a zoo 204, a field 206, a pond 208, and a road 210. The drone 1 flies while photographing the specified area 300. The drone 1 takes off from the take-off and landing area 90 and returns to the take-off and landing area 90. The target position CP0 for the drone 1 to land is located within the take-off and landing area 90.

図2に示すように、無人機1は、筐体2を有する。筐体2には、無人機1の各部を制御するコンピュータ、自律飛行装置、無線通信装置、GPS(Global Positioning System)などの航法衛星システムからの測位用電波を利用する測位装置、バッテリー等が配置されている。また、筐体2には、固定装置12を介して、カメラ14が配置されている。カメラ14は、画像取得手段の一例である。 As shown in FIG. 2, the drone 1 has a housing 2. The housing 2 contains a computer that controls each part of the drone 1, an autonomous flight device, a wireless communication device, a positioning device that uses positioning radio waves from a navigation satellite system such as GPS (Global Positioning System), a battery, etc. In addition, a camera 14 is disposed in the housing 2 via a fixing device 12. The camera 14 is an example of an image acquisition means.

無人機1は、カメラ14によって、外部領域(下方の領域)の画像を取得する。無人機1は、カメラ14によって、無人機1の真下の方向も撮影することができる。カメラ14は、可視光カメラであるが、これとは異なり、可視光カメラと近赤外線カメラとを切り替え可能なハイブリッドカメラであってもよい。ただし、無人機1は、目標位置CP0へ向かって降下する際には、可視光カメラを使用する。以下、カメラ14によって撮影して得た画像を「カメラ画像」と呼ぶ。 Uranium 1 acquires images of the external area (area below) using camera 14. Uranium 1 can also capture images of the direction directly below it using camera 14. Camera 14 is a visible light camera, but may alternatively be a hybrid camera that can switch between a visible light camera and a near-infrared camera. However, drone 1 uses the visible light camera when descending toward target position CP0. Hereinafter, the image captured by camera 14 will be referred to as the "camera image."

固定装置12は、カメラ画像のぶれを最小化し、かつ、カメラ14の光軸を任意の方向に制御することができる3軸の固定装置(いわゆる、ジンバル)である。 The fixing device 12 is a three-axis fixing device (a so-called gimbal) that minimizes camera image blur and can control the optical axis of the camera 14 in any direction.

筐体2には、丸棒状のアーム4が接続されている。各アーム4にはモーター6が接続されており、各モーター6にはプロペラ8が接続されている。各モーター6は、直流モーター(ブラシレスDCモーター)である。各モーター6は、それぞれ独立して制御され、無人機1を上下水平方向の移動や空中での停止(ホバリング)及び機首方向の変更を自在に行うことができるようになっている。無人機1は、前後左右へ移動する場合には、進行方向に対して後方側の2つのモーター6の回転数を進行方向側の2つのモーター6の回転数よりも多くする。無人機1は、水平方向の位置を維持しつつ機首方向を変更する場合には、対角線上の2つのモーター6の回転数をもう一組の対角線状の2つのモーター6の回転数よりも多くする。無人機1は、隣り合うモーター6を反対方向に回転し、反力を相殺するように構成されている。無人機1は、水平方向の位置を維持しつつ機首方向を変更する場合には、反力を相殺せずに利用する。無人機1は、すべてのモーター6の回転数を徐々に減少させることによって、鉛直方向に降下することができる。 A round-rod-shaped arm 4 is connected to the housing 2. A motor 6 is connected to each arm 4, and a propeller 8 is connected to each motor 6. Each motor 6 is a direct current motor (brushless DC motor). Each motor 6 is independently controlled, and the drone 1 can be freely moved up and down and horizontally, stopped in the air (hovering), and changed in nose direction. When the drone 1 moves forward, backward, left, or right, the number of rotations of the two motors 6 on the rear side of the traveling direction is made greater than the number of rotations of the two motors 6 on the traveling direction side. When the drone 1 changes the nose direction while maintaining the horizontal position, the number of rotations of the two diagonal motors 6 is made greater than the number of rotations of another set of two diagonal motors 6. The drone 1 is configured to rotate the adjacent motors 6 in opposite directions to cancel out the reaction force. When the drone 1 changes the nose direction while maintaining the horizontal position, it uses the reaction force without canceling it out. The drone 1 can descend vertically by gradually reducing the rotation speed of all motors 6.

アーム4には保護枠10が接続され、プロペラ8が外部の物体に直接接触することを防止している。アーム4及び保護枠10は、例えば、炭素繊維強化プラスチックで形成されており、強度を保ちつつ、軽量に構成されている。 A protective frame 10 is connected to the arm 4 to prevent the propeller 8 from coming into direct contact with external objects. The arm 4 and protective frame 10 are made of, for example, carbon fiber reinforced plastic, and are constructed to be lightweight while maintaining strength.

図3は、無人機1の機能構成を示す図である。図3に示すように、無人機1は、CPU(Central Processing Unit)50、記憶部52、無線通信部54、衛星測位部56、慣性センサー部58、駆動制御部60、画像処理部62、及び、電源部64を有する。 Figure 3 is a diagram showing the functional configuration of the drone 1. As shown in Figure 3, the drone 1 has a CPU (Central Processing Unit) 50, a memory unit 52, a wireless communication unit 54, a satellite positioning unit 56, an inertial sensor unit 58, a drive control unit 60, an image processing unit 62, and a power supply unit 64.

無人機1は、無線通信部54によって、無人機1に発進等の指示を無線送信する制御装置(図示せず)と通信可能になっている。制御装置は、無人機1の管理者が操作するコンピュータであり、無線通信が可能なコンピュータである。 UAV 1 is capable of communicating with a control device (not shown) that wirelessly transmits instructions such as launch to UAV 1 via wireless communication unit 54. The control device is a computer operated by an administrator of UAV 1, and is capable of wireless communication.

無人機1は、衛星測位部56によって、無人機1自体の位置を測定することができる。衛星測位部56は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機1の位置を計測する。上述のように、無人機1は、計測した位置に基づいて、経路R1を自律飛行する。慣性センサー部58は、例えば、加速度センサー及びジャイロセンサーによって、無人機1の動きを出力する。慣性センサー部58からの情報は自律飛行装置に出力され、無人機1の姿勢制御に利用される。姿勢制御とは、無人機1が予定した傾斜と乖離した場合に修正することを意味する。例えば、無人機1の4つのプロペラ8の回転面の高さが同一であるときを水平状態とすれば、傾斜とは、水平状態からの乖離である。例えば、無人機1が空中停止(ホバリング)しているときや、鉛直方向の降下するときの予定の傾斜は0であり、無人機1は水平状態を維持する。 UAV 1 can measure its own position by satellite positioning unit 56. Satellite positioning unit 56 basically receives positioning radio waves from four or more navigation satellites to measure the position of drone 1. As described above, drone 1 autonomously flies route R1 based on the measured position. Inertial sensor unit 58 outputs the movement of drone 1 by, for example, an acceleration sensor and a gyro sensor. Information from inertial sensor unit 58 is output to an autonomous flight device and used for attitude control of drone 1. Attitude control means correcting the drone 1 when it deviates from the planned inclination. For example, if the height of the rotation plane of the four propellers 8 of drone 1 is the same, the horizontal state, then the inclination is the deviation from the horizontal state. For example, when drone 1 is stopping in the air (hovering) or descending vertically, the planned inclination is 0, and drone 1 maintains the horizontal state.

駆動制御部60によって、無人機1は各モーター6(図2参照)に接続されたプロペラ8(図2参照)の回転を制御し、上下水平移動や空中停止、及び、機首方向を制御するようになっている。 The drive control unit 60 controls the rotation of the propellers 8 (see Figure 2) connected to each motor 6 (see Figure 2) of the drone 1, thereby controlling vertical and horizontal movement, airborne stopping, and nose direction.

画像処理部62によって、無人機1はカメラ14(図2参照)を作動させて外部の画像(カメラ画像)を取得することができる。カメラ14の光軸は、無人機1が目標位置CP0に向かって降下するときには、鉛直方向における下方に固定される。 The image processing unit 62 enables the drone 1 to operate the camera 14 (see FIG. 2) to acquire an external image (camera image). When the drone 1 descends toward the target position CP0, the optical axis of the camera 14 is fixed vertically downward.

電源部64は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。 The power supply unit 64 is, for example, a replaceable rechargeable battery, and is configured to supply power to each part of the drone 1.

記憶部52には、出発点から目的位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、目標標識100に関するデータ、及び、着陸プログラムを格納している。CPU50と着陸プログラムは着陸制御手段の一例である。 The memory unit 52 stores various data and programs necessary for autonomous movement, such as data showing a movement plan for autonomously moving from a starting point to a destination position, as well as data related to the target marker 100 and a landing program. The CPU 50 and the landing program are an example of a landing control means.

着陸プログラムは、無人機1が、飛行高度を下げて、目標位置CP0に向かって降下するための制御を行うためのプログラムである。無人機1は、衛星測位部56による現在位置の測位によって、目標位置CP0の上空に到達したと判断すると、着陸プログラムによって、駆動制御部60を介してモーター6の回転を制御し、徐々に高度を下げて、目標位置CP0に向かって降下する。 The landing program is a program for controlling the drone 1 to lower its flight altitude and descend toward the target position CP0. When the drone 1 determines, based on its current position determined by the satellite positioning unit 56, that it has reached the sky above the target position CP0, the landing program controls the rotation of the motor 6 via the drive control unit 60, gradually lowering its altitude and descending toward the target position CP0.

ここで、図4乃至図8を参照して、着陸領域90に配置される目標標識100について説明する。着陸領域90には、図4に示す目標標識100が配置されている。目標標識100は目標標識の一例である。着陸領域90は、目標位置CP0を含む領域の一例である。無人機1と目標標識100によって降下システムが構成される。 Now, with reference to Figures 4 to 8, the target sign 100 placed in the landing area 90 will be described. The target sign 100 shown in Figure 4 is placed in the landing area 90. The target sign 100 is an example of a target sign. The landing area 90 is an example of an area that includes the target position CP0. The drone 1 and the target sign 100 form a descent system.

図4に示すように、目標標識100は、水平方向における外形の大きさが異なる複数段階の階層標識102及び104から構成される。内側の階層標識104は、外側の階層標識102よりも水平方向における外形が小さい。内側の階層標識104は、外側の階層標識102の内側に配置されている。外側の階層標識102の外形は正方形であり、一辺の長さL1は、例えば、130cm(センチメートル)である。内側の階層標識104の外形は正方形であり、一辺の長さL2は、例えば、20cm(センチメートル)である。内側の階層標識104は、無人機1が着陸したときにおいても、その全体がカメラ14の撮影範囲内に入り、無人機1において認識可能な外形の大きさに規定されている。具体的には、内側の階層標識104は、無人機1が着陸したときにおいて、その全体がカメラ14の撮影範囲内に入る限界の外形の大きさに規定されている。本実施形態においては、内側の階層標識104の正方形の外形104out(図6参照)の対角線の長さは、無人機1の着陸時におけるカメラ14の撮影範囲である円の直径と等しい。 As shown in FIG. 4, the target sign 100 is composed of multiple levels of hierarchical signs 102 and 104 with different external sizes in the horizontal direction. The inner hierarchical sign 104 has a smaller external size in the horizontal direction than the outer hierarchical sign 102. The inner hierarchical sign 104 is arranged inside the outer hierarchical sign 102. The outer hierarchical sign 102 has a square external shape, and the length L1 of one side is, for example, 130 cm (centimeters). The inner hierarchical sign 104 has a square external shape, and the length L2 of one side is, for example, 20 cm (centimeters). The inner hierarchical sign 104 is regulated to a size of an external shape that is entirely within the shooting range of the camera 14 and recognizable by the unmanned aircraft 1 even when the unmanned aircraft 1 lands. Specifically, the inner hierarchical sign 104 is regulated to a size of an external shape that is entirely within the shooting range of the camera 14 when the unmanned aircraft 1 lands. In this embodiment, the length of the diagonal of the square outline 104out of the inner floor sign 104 (see FIG. 6) is equal to the diameter of the circle that is the shooting range of the camera 14 when the drone 1 lands.

無人機1が着陸するための目標位置CP0は、階層標識102及び104の内側に位置する。すなわち、階層標識102及び104は、それぞれの内側に目標位置CP0を含む。目標位置CP0は、特定の緯度及び経度で示される座標である。本実施形態において、目標位置CP0は、階層標識102の外形102outの中心位置である(図5参照)。また、目標位置CP0は、階層標識104の外形104outの中心位置でもある(図6参照)。 The target position CP0 for the drone 1 to land is located inside the hierarchy signs 102 and 104. That is, the hierarchy signs 102 and 104 each include a target position CP0 inside. The target position CP0 is a coordinate indicated by a specific latitude and longitude. In this embodiment, the target position CP0 is the center position of the outer shape 102out of the hierarchy sign 102 (see FIG. 5). The target position CP0 is also the center position of the outer shape 104out of the hierarchy sign 104 (see FIG. 6).

階層標識102及び104は、それぞれ、複数の要素標識から構成される。図4及び図5に示すように、外側の階層標識102は、要素標識102a乃至102h及び102inで構成される。要素標識102inは正方形の輪郭として構成され、要素標識102inの外周に接して要素標識102a乃至102hが形成されている。図6に示すように、内側の階層標識104は、部分標識104a乃至104iから構成される。 The hierarchical markers 102 and 104 are each composed of a number of element markers. As shown in Figures 4 and 5, the outer hierarchical marker 102 is composed of element markers 102a to 102h and 102in. The element marker 102in is configured as a square outline, and the element markers 102a to 102h are formed adjacent to the outer periphery of the element marker 102in. As shown in Figure 6, the inner hierarchical marker 104 is composed of part markers 104a to 104i.

図7は、目標標識100に関するデータの一例を説明するための概念図である。図7においては、目標標識を目標標識X1とし、目標標識X1が外側の階層標識A及び内側の階層標識Bから構成され、階層標識Aは要素標識Aa及びAbから構成され、階層標識Bは要素標識Ba及びBbから構成されるものとしている。 Figure 7 is a conceptual diagram for explaining an example of data related to the target marker 100. In Figure 7, the target marker is designated as target marker X1, which is composed of an outer hierarchical marker A and an inner hierarchical marker B, with hierarchical marker A composed of element markers Aa and Ab, and hierarchical marker B composed of element markers Ba and Bb.

目標標識X1に関するデータは、目標標識X1の座標を示す位置データ、目標標識X1の識別データ、目標標識X1の特徴を示す特徴データ、及び、目標標識X1と目標位置との関係を示すデータを含む。目標標識X1の位置データに示される位置は目標位置の位置と同一である。特徴データは、対象物の特徴点、輪郭や個々の構成の方向といった特徴を示すデータである。特徴データは、KLT(Kanada-Lucas-Tomasi)法、SIFT(Scale INvariant Feature Transform)などの特徴点ベースの画像に基づく追跡方法において使用されるデータである。目標標識X1の特徴データは、例えば、目標標識X1全体としての特徴点、輪郭や個々の構成の方向といった特徴を示すデータである。 The data related to the target marker X1 includes position data indicating the coordinates of the target marker X1, identification data of the target marker X1, feature data indicating the features of the target marker X1, and data indicating the relationship between the target marker X1 and the target position. The position indicated in the position data of the target marker X1 is the same as the position of the target position. The feature data is data indicating features such as the feature points of the object, the contour, and the direction of each component. The feature data is data used in tracking methods based on feature-point-based images such as the KLT (Kanada-Lucas-Tomasi) method and SIFT (Scale Invariant Feature Transform). The feature data of the target marker X1 is data indicating features such as the feature points of the target marker X1 as a whole, the contour, and the direction of each component.

階層標識Aに関するデータは、階層標識Aの位置データ、階層標識Aの識別データ、階層標識Aの特徴データ、及び、階層標識Aと目標位置との関係を示すデータを含む。特徴データの内容は、上述の目標標識X1の特徴データと同様である。階層標識Aの位置データに示される位置は、目標位置の位置と同一である。階層標識Bに関するデータの構成は以上の階層標識Aのデータ構成と同様である。 The data relating to hierarchy marker A includes position data of hierarchy marker A, identification data of hierarchy marker A, feature data of hierarchy marker A, and data indicating the relationship between hierarchy marker A and the target position. The content of the feature data is the same as the feature data of target marker X1 described above. The position indicated in the position data of hierarchy marker A is the same as the position of the target position. The structure of the data relating to hierarchy marker B is the same as the data structure of hierarchy marker A described above.

要素標識Aaに関するデータは、要素標識Aaの位置データ、要素標識Aaの識別データ、要素標識Aaの特徴データ、及び、要素標識Aaと目標位置との関係を示すデータを含む。要素標識Aaの位置データは、要素標識Aa自体の基準位置を示すデータであり、目標位置とは異なる。要素標識Aaの基準位置は、例えば、要素標識Aaの水平方向における中心位置とする。要素標識Aaの位置データと目標位置との関係を示すデータは、要素標識Aaの基準位置を基準として、目標位置の方向及び距離を示すデータである。他の要素標識Ab,Ba及びBbの構成は以上と同様である。すなわち、無人機1は、記憶部52に、各要素標識を基準とする目標位置の方向及び距離を示す情報を格納している。各要素標識を基準とする目標位置の方向及び距離を示す情報は、相対情報の一例である。 The data related to the element sign Aa includes position data of the element sign Aa, identification data of the element sign Aa, characteristic data of the element sign Aa, and data indicating the relationship between the element sign Aa and the target position. The position data of the element sign Aa is data indicating the reference position of the element sign Aa itself, and is different from the target position. The reference position of the element sign Aa is, for example, the center position of the element sign Aa in the horizontal direction. The data indicating the relationship between the position data of the element sign Aa and the target position is data indicating the direction and distance of the target position based on the reference position of the element sign Aa. The configurations of the other element signs Ab, Ba, and Bb are similar to those described above. That is, the drone 1 stores information indicating the direction and distance of the target position based on each element sign in the memory unit 52. The information indicating the direction and distance of the target position based on each element sign is an example of relative information.

着陸プログラムは、認識対象決定プログラム及び目標標識認識プログラムを含む。認識対象決定プログラムとCPU50は認識対象決定手段の一例であり、目標標識認識プログラムとCPU50は目標標識認識手段の一例である。認識対象決定プログラムは、無人機1がカメラ画像において認識すべき認識対象を決定するためのプログラムである。本実施形態において、無人機1は、認識対象決定プログラムによって、階層標識102と104のいずれかを認識対象とする。目標標識認識プログラムは、無人機1が認識対象を認識するためのプログラムである。 The landing program includes a recognition target determination program and a target sign recognition program. The recognition target determination program and CPU 50 are an example of a recognition target determination means, and the target sign recognition program and CPU 50 are an example of a target sign recognition means. The recognition target determination program is a program for the drone 1 to determine the recognition target to be recognized in the camera image. In this embodiment, the drone 1 uses the recognition target determination program to determine either the hierarchical signs 102 or 104 as the recognition target. The target sign recognition program is a program for the drone 1 to recognize the recognition target.

無人機1は、目標位置CP0の上空に到達したと判断すると、カメラ14によって鉛直方向における下方を撮影する。そして、無人機1は、認識対象決定プログラムによって、外側の階層標識102を認識対象として設定する。後述のように、無人機1は、降下した結果、外側の階層標識102がカメラ画像から外れ、認識できなくなった場合には、内側の階層標識104を認識対象として設定する。 When the drone 1 determines that it has reached the sky above the target position CP0, it uses the camera 14 to capture an image of the vertical downward direction. The drone 1 then uses a recognition target determination program to set the outer hierarchical sign 102 as the recognition target. As described below, if the drone 1 descends and the outer hierarchical sign 102 falls out of the camera image and cannot be recognized, it sets the inner hierarchical sign 104 as the recognition target.

無人機1は、目標標識認識プログラムによって、カメラ画像中の特徴を抽出し、予め記憶部52に格納している階層標識102及び104の特徴データに基づいて、カメラ画像中において、認識対象として設定された階層標識102または104を認識する。具体的には、無人機1は、カメラ画像中の特徴と、記憶部52に記憶されている特徴データとを対比して、相関性(相関度)を判断することによって、階層標識102または104を認識する。また、無人機1は、目標標識認識プログラムによって、認識対象として設定された階層標識102または104を構成する要素標識を認識する。 The drone 1 uses a target sign recognition program to extract features in the camera image, and recognizes the hierarchical sign 102 or 104 set as the recognition target in the camera image based on the feature data of the hierarchical signs 102 and 104 previously stored in the memory unit 52. Specifically, the drone 1 recognizes the hierarchical sign 102 or 104 by comparing the features in the camera image with the feature data stored in the memory unit 52 and determining the correlation (degree of correlation). The drone 1 also uses the target sign recognition program to recognize the element signs that make up the hierarchical sign 102 or 104 set as the recognition target.

無人機1は、目標標識認識プログラムによって、特徴点ベースにおける追跡方法を実施する。例えば、無人機1は、カメラ画像について、輪郭や個々の構成の方向といった特徴を多数抽出し、カメラ画像に投影された物体の特徴(以下、「カメラ画像の特徴」という。)を認識する。無人機1は、カメラ画像の特徴と記憶部52に格納された特徴データと対比して、相関性(相関度)を判断する。相関度が高いほど、カメラ画像中の物体が、階層標識102及び104、あるいは、特定の要素標識である可能性が高い。例えば、相関度が0の場合には、カメラ画像中の領域が特定の階層標識あるいは要素標識である可能性(以下、「カテゴリー共通確率」と呼ぶ。)は0%として、相関度が最大値を示すときに、カテゴリー共通確率が100%であると定義する。無人機1は、カテゴリー共通確率が所定の基準値である、例えば、95%以上であるときに、カメラ画像中の物体が、特定の階層標識、あるいは、要素標識であると判断する。 The drone 1 performs a feature-based tracking method using a target sign recognition program. For example, the drone 1 extracts a large number of features from the camera image, such as the contour and the direction of each component, and recognizes the features of the object projected on the camera image (hereinafter referred to as the "camera image features"). The drone 1 compares the features of the camera image with the feature data stored in the memory unit 52 to determine the correlation (degree of correlation). The higher the degree of correlation, the more likely it is that the object in the camera image is the hierarchical signs 102 and 104, or a specific element sign. For example, when the degree of correlation is 0, the possibility that the area in the camera image is a specific hierarchical sign or element sign (hereinafter referred to as the "category common probability") is 0%, and when the degree of correlation is at its maximum, the category common probability is defined as 100%. The drone 1 determines that the object in the camera image is a specific hierarchical sign or element sign when the category common probability is a predetermined reference value, for example, 95% or more.

図8に、無人機1のカメラ14の撮影範囲と階層標識102及び104との関係を示す。無人機1がカメラ14の撮影方向を鉛直方向における下方に向けた状態で降下すると、無人機1の高度が低下するに連れて、カメラ14の撮影範囲内の地表の領域が狭くなる。なお、カメラ14の画角は一定とする。また、カメラ14の光軸は鉛直下方に固定する。例えば、無人機1の高度が低下するに連れて、カメラ14の撮影範囲内の地表の領域は、円S1の範囲内、円S2の範囲内、円S3の範囲内、円S4の範囲内、円S5の範囲内というように狭くなっていく。そして、無人機1の高度が低下するに連れて、階層標識102及び104のカメラ画像中の大きさが大きくなっていく。別の観点では、無人機1の高度が低下するにつれて、カメラ画像中の画素に占める階層標識102及び104の割合が大きくなることを意味する。 Figure 8 shows the relationship between the shooting range of the camera 14 of the drone 1 and the hierarchy markers 102 and 104. When the drone 1 descends with the shooting direction of the camera 14 facing vertically downward, the area of the ground surface within the shooting range of the camera 14 becomes narrower as the altitude of the drone 1 decreases. The angle of view of the camera 14 is constant. The optical axis of the camera 14 is fixed vertically downward. For example, as the altitude of the drone 1 decreases, the area of the ground surface within the shooting range of the camera 14 becomes narrower, such as within the range of circle S1, the range of circle S2, the range of circle S3, the range of circle S4, and the range of circle S5. And as the altitude of the drone 1 decreases, the size of the hierarchy markers 102 and 104 in the camera image increases. From another perspective, this means that as the altitude of the drone 1 decreases, the proportion of the hierarchy markers 102 and 104 in the pixels in the camera image increases.

無人機1の高度が低下するに連れて、外側の階層標識102と内側の階層標識104の双方がカメラ14の撮影範囲内に入る状態から、外側の階層標識102は撮影範囲の外側に外れ、内側の階層標識104のみが撮影範囲内に入る状態に移行する。 As the altitude of the drone 1 decreases, the state changes from one in which both the outer hierarchical sign 102 and the inner hierarchical sign 104 are within the camera 14's shooting range to one in which the outer hierarchical sign 102 falls outside the shooting range and only the inner hierarchical sign 104 is within the shooting range.

無人機1は、着陸プログラムによって、外側の階層標識102が撮影範囲に入り、その全体が認識可能な場合には、階層標識102がカメラ画像内に位置するように無人機1の位置を制御しつつ降下する。言い換えると、無人機1は、階層標識102に基づく撮影位置制御を実施しつつ降下する。そして、無人機1が降下した結果、階層標識102がカメラ画像内に収まらなくなり、階層標識102の全体が認識できなくなった場合には、無人機1は、内側の階層標識104がカメラ画像内に位置するように無人機1の位置を制御しつつ降下するように構成されている。すなわち、無人機1は、まず、階層標識102に基づく撮影位置制御を実施しつつ降下し、階層標識102が撮影範囲の外側に外れると、階層標識104に基づく撮影位置制御に切り替える。ただし、無人機1は、風などの影響によって姿勢や位置が変動するから、図8のように、階層標識102及び104の中心位置である目標位置CP0が、常にカメラ画像の中心に位置するわけではない。 When the landing program causes the outer hierarchical sign 102 to enter the shooting range and the entirety of the hierarchical sign 102 can be recognized, the drone 1 descends while controlling the position of the drone 1 so that the hierarchical sign 102 is located within the camera image. In other words, the drone 1 descends while performing shooting position control based on the hierarchical sign 102. Then, when the drone 1 descends and the hierarchical sign 102 does not fit within the camera image and the entirety of the hierarchical sign 102 cannot be recognized, the drone 1 is configured to descend while controlling the position of the drone 1 so that the inner hierarchical sign 104 is located within the camera image. That is, the drone 1 first descends while performing shooting position control based on the hierarchical sign 102, and when the hierarchical sign 102 falls outside the shooting range, it switches to shooting position control based on the hierarchical sign 104. However, since the attitude and position of the drone 1 fluctuate due to the influence of wind, etc., the target position CP0, which is the center position of the hierarchical signs 102 and 104, is not always located at the center of the camera image, as shown in FIG. 8.

図9及び10図を参照して、無人機1が、降下する制御を具体的に説明する。図9に示すように、無人機1は、外側の階層標識102がカメラ画像内に入るように無人機1の位置を制御しつつ降下する。相対的に高度が高い状態においては、例えば、図9に示すように、カメラ画像の撮影範囲S11において、階層標識102の中心位置は左に寄っていても、無人機1が高度を下げて、撮影範囲S12、S13、S14、S15となるにつれて、階層標識102の中心位置はカメラ画像の中心に近づいたり遠ざかったりしつつも、全体的には徐々に中心に寄っていき、最終的に、中心に近い状態になる。このように、撮影位置制御を実施しつつ降下することによって、降下接近効果を奏する。 The control of the drone 1's descent will be specifically described with reference to Figures 9 and 10. As shown in Figure 9, the drone 1 descends while controlling its position so that the outer hierarchical sign 102 is within the camera image. At a relatively high altitude, for example, as shown in Figure 9, in the shooting range S11 of the camera image, the center position of the hierarchical sign 102 is shifted to the left, but as the drone 1 lowers in altitude and reaches shooting ranges S12, S13, S14, and S15, the center position of the hierarchical sign 102 approaches and moves away from the center of the camera image, but overall gradually approaches the center, and finally reaches a state close to the center. In this way, a descent approach effect is achieved by descending while performing shooting position control.

内側の階層標識104においても同様であり、例えば、図10に示すように、カメラ画像の撮影範囲S21において、階層標識104の中心位置は右に寄っていても、無人機1が高度を下げて、撮影範囲S22、S23、S24、S25となるにつれて、カメラ画像における階層標識104の中心位置はカメラ画像の中央に近づいたり遠ざかったりしつつも、全体的には徐々に中央に寄っていき、最終的に、階層標識104の中心位置はカメラ画像の中心に近くなる。すなわち、降下接近効果を奏する。 The same is true for the inner hierarchical sign 104. For example, as shown in FIG. 10, even if the center position of the hierarchical sign 104 is shifted to the right in the shooting range S21 of the camera image, as the drone 1 descends in altitude and moves to shooting ranges S22, S23, S24, and S25, the center position of the hierarchical sign 104 in the camera image moves closer to and further away from the center of the camera image, but overall it gradually moves closer to the center, and finally the center position of the hierarchical sign 104 becomes closer to the center of the camera image. In other words, a descending approach effect is achieved.

無人機1は、認識対象である階層標識102または104がカメラ画像内に入れば降下を継続し、カメラ画像の中心に階層標識102の中心位置が位置するように無人機1の水平方向の位置を制御する。これに対して、無人機1は、認識対象である階層標識102または104がカメラ画像に入らない場合には、下降を停止、あるいは、下降速度を低下して、認識対象である階層標識102または104がカメラ画像に入るように無人機1の水平方向の位置を調整し、認識対象である階層標識102または104がカメラ画像に入った時点で撮影位置制御を実施しつつ下降を再開する。 If the hierarchical sign 102 or 104 to be recognized is included in the camera image, the drone 1 continues to descend and controls the horizontal position of the drone 1 so that the center position of the hierarchical sign 102 is located at the center of the camera image. In contrast, if the hierarchical sign 102 or 104 to be recognized is not included in the camera image, the drone 1 stops descending or reduces the descent speed to adjust the horizontal position of the drone 1 so that the hierarchical sign 102 or 104 to be recognized is included in the camera image, and resumes descent while controlling the shooting position at the point when the hierarchical sign 102 or 104 to be recognized is included in the camera image.

図11に示すように、無人機1は、着陸領域90の上空に到達すると、カメラ14によって、矢印Z1に示す方向である鉛直方向における下方を撮影する。カメラ14の撮影範囲は、例えば、画角θ1で示される。図11の状態においては、画角θ1の撮影範囲は円S31の範囲であり、階層標識102及び階層標識104の双方が認識可能である。しかし、無人機1は、認識対象決定プログラムによって、外側の階層標識102のみを認識するように構成されている。無人機1は、階層標識102及び要素標識102a乃至102h及び102inを認識する。 As shown in FIG. 11, when the drone 1 reaches the sky above the landing area 90, the camera 14 captures an image of the vertical direction downward, which is the direction indicated by the arrow Z1. The imaging range of the camera 14 is indicated, for example, by the angle of view θ1. In the state of FIG. 11, the imaging range of the angle of view θ1 is within the circle S31, and both the hierarchical sign 102 and the hierarchical sign 104 are recognizable. However, the drone 1 is configured to recognize only the outer hierarchical sign 102 by the recognition target determination program. The drone 1 recognizes the hierarchical sign 102 and the element signs 102a to 102h and 102in.

無人機1は、記憶部52に格納している階層標識102の位置データ及び、要素標識102a乃至102hの目標位置CP0との関係を示すデータを参照し、機首方向を所定の方向に制御する。そして、無人機1は、カメラ画像に階層標識102の外形102outの全体が入るように、撮影位置制御を実施しつつ、降下する。 The drone 1 controls the nose direction to a specified direction by referring to the position data of the hierarchy sign 102 stored in the memory unit 52 and the data showing the relationship of the element signs 102a to 102h to the target position CP0. The drone 1 then descends while controlling the shooting position so that the entire outer shape 102out of the hierarchy sign 102 is included in the camera image.

図12に示すように、無人機1が降下した結果、階層標識102がカメラ画像の外側に外れ、カメラ14の撮影範囲に階層標識102の全体が認識できない状態になると、認識対象決定プログラムによって認識する対象を内側の階層標識104に切り替える。そして、無人機1は、目標標識認識プログラムによって、階層標識104及び要素標識104a乃至104iを認識し、記憶部52に格納している階層標識104の位置データ及び、要素標識104a乃至104iの目標位置との関係を示すデータを参照し、機首方向を所定の方向に制御する。そして、無人機1は、カメラ画像に階層標識104の外形104outが入るように、撮影位置制御を実施しつつ、降下する。 As shown in FIG. 12, when the drone 1 descends and the hierarchical sign 102 falls outside the camera image, and the entire hierarchical sign 102 cannot be recognized within the shooting range of the camera 14, the recognition target determination program switches the recognition target to the inner hierarchical sign 104. The drone 1 then recognizes the hierarchical sign 104 and the element signs 104a to 104i using the target sign recognition program, and controls the nose direction to a specified direction by referring to the position data of the hierarchical sign 104 stored in the memory unit 52 and the data showing the relationship between the element signs 104a to 104i and the target positions. The drone 1 then descends while controlling the shooting position so that the outline 104out of the hierarchical sign 104 is included in the camera image.

階層標識102及び104の外形102out及び104outがカメラ画像の撮影範囲内に入るように、撮影位置制御を実施しつつ降下することによって、図13に示すように、無人機1は、目標位置CP0の水平方向の位置に徐々に近づきながら降下することができる。図13に、目標位置の鉛直線上の空中に架空の枠として枠102air及び枠104airを示す。枠102airは外側の階層標識102に対応し、枠104airは内側の階層標識104に対応する。階層標識102及び104に基づいて撮影位置制御を実施しつつ降下することは、無人機1が枠102airを通過し、枠104airを通過することを目指して降下することと技術的概念として等価である。このため、無人機1が、複数段階の階層標識102及び104に基づいて撮影位置制御を実施しつつ降下することによって、無人機1が降下するに連れて、無人機1の水平方向の位置は目標位置CP0を含む鉛直線上に近づく降下接近効果を奏する。これにより、無人機1は、目標標識100を参照して、正確な目標位置CP0に降下することができる。また、無人機1は、相対情報を有しているから、機首方向を所定の方向に維持しつつ降下することができる。 By descending while performing shooting position control so that the outer shapes 102out and 104out of the hierarchy signs 102 and 104 are within the shooting range of the camera image, as shown in FIG. 13, the drone 1 can descend while gradually approaching the horizontal position of the target position CP0. In FIG. 13, the frame 102air and the frame 104air are shown as imaginary frames in the air on the vertical line of the target position. The frame 102air corresponds to the outer hierarchy sign 102, and the frame 104air corresponds to the inner hierarchy sign 104. Descending while performing shooting position control based on the hierarchy signs 102 and 104 is technically equivalent to the drone 1 descending with the aim of passing through the frame 102air and the frame 104air. Therefore, as the drone 1 descends while controlling the shooting position based on the multi-stage hierarchical markers 102 and 104, a descent approach effect is achieved in which the horizontal position of the drone 1 approaches a vertical line including the target position CP0 as the drone 1 descends. This allows the drone 1 to descend to the exact target position CP0 by referring to the target marker 100. Furthermore, because the drone 1 has relative information, it can descend while maintaining the nose direction in a specified direction.

以下、図14のフローチャートを参照して、無人機1の動作の概略を説明する。無人機1が、目標位置CP0の上空に到達すると(図14のステップST1)、着陸プログラム
による降下制御を開始する。無人機1は、鉛直方向における下方を撮影し、認識対象決定プログラムによって、外側の階層標識102を認識対象として設定する(ステップST2)。続いて、無人機1は、目標標識認識プログラムによって、外側の階層標識102を認識すると(ステップST3)、階層標識102の全体をカメラ画像に投影するように無人機1の水平方向の位置を制御しつつ降下する(ステップST4)。無人機1の高度が下がり、階層標識102がカメラ14の撮影範囲から外れると(ステップST5)、認識対象決定プログラムによって、認識対象を内側の階層標識104に変更し(ステップST6)、目標標識認識プログラムによって階層標識104を認識し、階層標識104の全体をカメラ画像に投影するように無人機1の水平方向の位置を制御しつつ降下し(ステップST7)、着陸したと判断すると(ステップST8)、停止する。着陸の判断は、例えば、慣性センサー部58(図3参照)の出力から、下方への移動が停止したことを判断することによって行ってもよい。
Below, an outline of the operation of the drone 1 will be described with reference to the flowchart in Fig. 14. When the drone 1 reaches the sky above the target position CP0 (step ST1 in Fig. 14), descent control by the landing program is started. The drone 1 photographs the vertical downward direction, and sets the outer layer sign 102 as the recognition target by the recognition target determination program (step ST2). Next, when the drone 1 recognizes the outer layer sign 102 by the target sign recognition program (step ST3), it descends while controlling the horizontal position of the drone 1 so as to project the entire layer sign 102 onto the camera image (step ST4). When the altitude of the drone 1 decreases and the hierarchical sign 102 goes out of the shooting range of the camera 14 (step ST5), the recognition target determination program changes the recognition target to the inner hierarchical sign 104 (step ST6), the target sign recognition program recognizes the hierarchical sign 104, and the drone 1 descends while controlling its horizontal position so as to project the entire hierarchical sign 104 onto the camera image (step ST7), and when it is determined that it has landed (step ST8), it stops. The landing may be determined, for example, by determining that the downward movement has stopped from the output of the inertial sensor unit 58 (see FIG. 3).

本実施形態において、階層標識は、階層標識102及び104の2段階とした。本発明は、複数段階の階層標識を使用することを特徴とするから、本実施形態とは異なり、階層標識は2階層に限らず、例えば、3階層以上の階層にしてもよい。また、本実施形態とは異なり、姿勢制御と撮影位置制御において、優先順位をつけてもよい。例えば、姿勢制御によって階層標識102または104がカメラ画像の中心に近づかない場合に、撮影位置制御を実施するようにしてもよい。あるいは、本実施形態とは異なり、撮影位置制御は、姿勢制御の時間間隔よりも長い時間間隔において実施するようにしてもよい。例えば、姿勢制御を1000分の1秒ごとに実施するとすれば、撮影位置制御は10分の1秒ごとに実施する。また、本実施形態とは異なり、階層標識102及び104の全体をカメラ画像に投影するように無人機1の水平位置を制御しつつ降下するのではなく、階層標識102及び104の中心位置がカメラ画像の中心位置に位置するように無人機1の水平方向の位置を制御しつつ降下するようにしてもよい。この場合、階層標識102及び104の中心位置は、階層標識102及び104の全体を認識することによって認識する。また、階層標識102及び104をカメラ画像に投影することによって降下方向を制御する技術は、以上に限定されない。例えば、無人機1の水平方向の位置制御に階層標識102を採用する場合には、カメラ画像中における階層標識102の画素数が増加するように制御し、階層標識104を採用する場合には、カメラ画像中における階層標識104の画素数が増加するように制御するようにしてもよい。 In this embodiment, the hierarchical markers are two levels, hierarchical markers 102 and 104. Since the present invention is characterized by using hierarchical markers of multiple levels, unlike this embodiment, the hierarchical markers are not limited to two levels, and may be, for example, three or more levels. Also, unlike this embodiment, a priority order may be given to the attitude control and the shooting position control. For example, if the hierarchical marker 102 or 104 does not approach the center of the camera image due to the attitude control, the shooting position control may be performed. Alternatively, unlike this embodiment, the shooting position control may be performed at a time interval longer than the time interval of the attitude control. For example, if the attitude control is performed every 1/1000th of a second, the shooting position control is performed every 1/10th of a second. Also, unlike this embodiment, instead of descending while controlling the horizontal position of the drone 1 so that the entire hierarchical markers 102 and 104 are projected onto the camera image, the drone 1 may descend while controlling the horizontal position so that the center positions of the hierarchical markers 102 and 104 are located at the center position of the camera image. In this case, the center positions of the hierarchical signs 102 and 104 are recognized by recognizing the entirety of the hierarchical signs 102 and 104. Furthermore, the technique for controlling the descent direction by projecting the hierarchical signs 102 and 104 onto the camera image is not limited to the above. For example, when the hierarchical sign 102 is used to control the horizontal position of the drone 1, the number of pixels of the hierarchical sign 102 in the camera image may be controlled to increase, and when the hierarchical sign 104 is used, the number of pixels of the hierarchical sign 104 in the camera image may be controlled to increase.

<第二の実施形態>
次に、図15を参照して、第二の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第二の実施形態においては、図15のステップST4A及びST7Aに示すように、無人機1は、階層標識102及び104の中心位置をカメラ画像の中心位置に投影するように無人機1の水平位置を制御しつつ降下する。
Second Embodiment
Next, a second embodiment will be described with reference to Fig. 15. Explanations of matters common to the first embodiment will be omitted, and explanations will be focused on matters different from the first embodiment. In the second embodiment, as shown in steps ST4A and ST7A in Fig. 15, the drone 1 descends while controlling the horizontal position of the drone 1 so that the center positions of the hierarchical signs 102 and 104 are projected onto the center position of the camera image.

<第三の実施形態>
次に、図16を参照して、第三の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第三の実施形態においては、無人機1は、目標位置CP0の上空に到達すると、外側の階層標識102を認識し、階層標識102の外形102outの全体がカメラ画像に投影されるように水平方向の位置を制御しつつ降下するのであるが、このとき、内側の階層標識104も認識している。そして、外側の階層標識102の外形102outの全体がカメラ画像に投影できなくなる直前に、内側の階層標識104の外形104outの全体をカメラ画像に投影しつつ降下する制御に切り替える。外側の階層標識102の外形102outの全体がカメラ画像に投影できなくなる直前は、例えば、外形102outの一部がカメラ画像の最も外側に達したときとするが、これに限定されない。
Third Embodiment
Next, the third embodiment will be described with reference to FIG. 16. Explanation of matters common to the first embodiment will be omitted, and explanation will be focused on matters different from the first embodiment. In the third embodiment, when the drone 1 reaches the sky above the target position CP0, it recognizes the outer hierarchy sign 102, and descends while controlling the horizontal position so that the entire outer shape 102out of the hierarchy sign 102 is projected onto the camera image, but at this time, it also recognizes the inner hierarchy sign 104. Then, just before the entire outer shape 102out of the outer hierarchy sign 102 can no longer be projected onto the camera image, it switches to control to descend while projecting the entire outer shape 104out of the inner hierarchy sign 104 onto the camera image. Just before the entire outer shape 102out of the outer hierarchy sign 102 can no longer be projected onto the camera image, it is, for example, when a part of the outer shape 102out reaches the outermost part of the camera image, but is not limited thereto.

図16のステップST4Bに示すように、無人機は、階層標識102の全体をカメラ画像に投影するように水平方向の位置を制御しつつ降下するときに、並行して、内側の階層標識104を認識している。ただし、内側の階層標識104は、撮影位置制御には使用しない。無人機1は、外側の階層標識102の外形102outの一部がカメラ画像から外れる直前であると判断すると(ステップST5B)、内側の階層標識104の外形104outをカメラ画像に投影するように無人機1の水平位置を制御しつつ降下する制御に切り替える(ステップST6)。この制御によれば、無人機1は、途切れることなく撮影位置制御を実施しつつ降下することができる。 As shown in step ST4B of FIG. 16, when the drone descends while controlling its horizontal position so as to project the entire hierarchical sign 102 onto the camera image, it simultaneously recognizes the inner hierarchical sign 104. However, the inner hierarchical sign 104 is not used for shooting position control. When the drone 1 determines that a part of the outline 102out of the outer hierarchical sign 102 is about to go out of the camera image (step ST5B), it switches to control to descend while controlling the horizontal position of the drone 1 so as to project the outline 104out of the inner hierarchical sign 104 onto the camera image (step ST6). This control allows the drone 1 to descend while performing shooting position control without interruption.

<第四の実施形態>
次に、図17乃至20を参照して、第四の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第四の実施形態においては、図17及び18に示すように、目標標識100は、充電基地400に配置される。充電基地400は、基部402、及び、左右の移動筐体404A及び404Bから構成される。
<Fourth embodiment>
Next, a fourth embodiment will be described with reference to Figs. 17 to 20. Explanations of matters common to the first embodiment will be omitted, and differences from the first embodiment will be mainly described. In the fourth embodiment, as shown in Figs. 17 and 18, the target marker 100 is disposed in a charging base 400. The charging base 400 is composed of a base 402 and left and right movable housings 404A and 404B.

左右の移動筐体404A及び404Bは、図17及び18に示すように、矢印X1方向及び矢印X2方向に示すように、水平方向に往復移動可能であり、図17に示す開放状態及び図18に示す閉鎖状態を形成する。 The left and right movable housings 404A and 404B can move back and forth horizontally in the directions of arrows X1 and X2 as shown in Figures 17 and 18, forming the open state shown in Figure 17 and the closed state shown in Figure 18.

目標標識100は、基部402の水平方向における中央部に配置されており、図17に示す開放状態においては外部に露出し、図18に示す閉鎖状態においては移動筐体404A及び404Bによって覆われるように構成されている。 The target marker 100 is located in the horizontal center of the base 402, and is configured to be exposed to the outside in the open state shown in FIG. 17, and to be covered by the movable housings 404A and 404B in the closed state shown in FIG. 18.

無人機1は、充電基地400が開放状態において、目標標識100に示される目標位置に向かって降下する。無人機1が基部402に着陸すると、充電基地400は閉鎖し、無人機1に対する充電が実施される。 With the charging base 400 open, the drone 1 descends toward the target position indicated by the target marker 100. When the drone 1 lands on the base 402, the charging base 400 closes and charging of the drone 1 is carried out.

無人機1の記憶部52には、形状推定プログラムが格納されている。無人機1は、形状推定プログラムによって、階層標識102の一部のみが認識できる場合において、階層標識102の全体形状を推定することができる。そして、無人機1は、着陸プログラムによって、推定した階層標識102がカメラ画像の撮影範囲内に入る状態を維持し、かつ、推定した階層標識102の全体がカメラ画像内に入るように撮影位置制御を実施しつつ、降下する。以上の制御は、階層標識104についても同様である。形状推定プログラムとCPU50は、形状推定手段の一例である。 A shape estimation program is stored in the memory unit 52 of the drone 1. The shape estimation program allows the drone 1 to estimate the overall shape of the hierarchical sign 102 when only a portion of the hierarchical sign 102 can be recognized. The drone 1 then descends while maintaining the estimated hierarchical sign 102 within the shooting range of the camera image using a landing program, and controlling the shooting position so that the entire estimated hierarchical sign 102 is within the camera image. The above control is also similar for the hierarchical sign 104. The shape estimation program and CPU 50 are an example of a shape estimation means.

例えば、図19及び図20に示すように、階層標識102及び104の一部が、影SD1及びSD2によって認識が困難な場合がある。 For example, as shown in Figures 19 and 20, parts of the hierarchical signs 102 and 104 may be difficult to recognize due to shadows SD1 and SD2.

無人機1は、目標標識認識プログラムによって、階層標識102及び階層標識104の要素標識を認識し、認識した要素標識に基づいて、階層標識102及び階層標識104の全体形状を推定することができる。 UAV 1 can recognize the element signs of hierarchical signs 102 and 104 using a target sign recognition program, and estimate the overall shapes of hierarchical signs 102 and 104 based on the recognized element signs.

例えば、図19に示すように、外側の階層標識102の要素標識のうち、要素標識102a、102b、102g及び102hが認識可能であり、他の要素標識102c等は認識不可能な場合、認識可能な要素標識102a、102b、102g及び102hから外層標識102の全体形状を推定する。このことは、図20に示すように、内側の階層標識104の一部の要素標識が認識可能な場合においても同様である。 For example, as shown in FIG. 19, if element markers 102a, 102b, 102g, and 102h of the element markers of the outer hierarchical marker 102 are recognizable, while other element markers such as 102c are not recognizable, the overall shape of the outer layer marker 102 is estimated from the recognizable element markers 102a, 102b, 102g, and 102h. This is also true in the case where some element markers of the inner hierarchical marker 104 are recognizable, as shown in FIG. 20.

そして、無人機1は、着陸プログラムによって、推定した階層標識102または階層標識104がカメラ画像の撮影範囲内に位置するように、撮影位置制御を実施しつつ、降下する。 Then, the drone 1 descends while performing shooting position control by the landing program so that the estimated hierarchical sign 102 or hierarchical sign 104 is located within the shooting range of the camera image.

なお、本実施形態において、人工知能の使用は必須ではないが、無人機1は、様々な環境条件において撮影した画像データを使用した機械学習の結果を利用して、階層標識102及び階層標識104の一部から、階層標識102及び104を認識するように構成してもよい。目標標識100について、様々な見え方の画像を学習することによって、所定の部分の特徴を抽出し、どのような見え方であっても、所定の部分を識別するための学習結果データを生成することができる。特徴データに示される特徴は、様々な環境条件においても不変の特徴と、様々な環境条件ごとの特徴の双方を含む。この場合、無人機1は、学習結果データを記憶部52に格納している。 In this embodiment, the use of artificial intelligence is not essential, but the drone 1 may be configured to recognize the hierarchical signs 102 and 104 from parts of the hierarchical signs 102 and 104 using the results of machine learning using image data captured under various environmental conditions. By learning images of the target sign 100 in various appearances, it is possible to extract features of a specific part and generate learning result data for identifying the specific part regardless of how it appears. The features shown in the feature data include both features that are constant under various environmental conditions and features for each of the various environmental conditions. In this case, the drone 1 stores the learning result data in the memory unit 52.

機械学習は、無人機1自体が実施する必要はなく、外部のコンピュータが実施し、無人機1はその学習結果を利用するようにしてもよい。機械学習の方式は、例えば、深層学習(ディープラーニング)を採用する。深層学習とは、多層構造のニューラルネットワークを用いた機械学習であり、画像認識の分野が有力な活用分野の一つである。ニューラルネットワークは、例えば、畳み込みニューラルネットワーク(CNN:Conlolutional Neural Network)である。畳み込みニューラルネットワークは、入力層(input layer)、畳み込み層(convolution layer)、プーリング層(pooling layer)、全結合層(fully connetced layer)、出力層(output layer)から構成され、畳み込み層とプーリング層は複数回繰り返して深い層を形成し、その後の全結合層も複数層続く。無人機1は、ディープラーニングによって生成した学習結果データを使用することによって、階層標識102または104がどのような見え方であっても識別することができる。 Machine learning does not have to be performed by the drone 1 itself; it may be performed by an external computer, with the drone 1 using the learning results. For example, deep learning is used as the machine learning method. Deep learning is machine learning that uses a multi-layered neural network, and image recognition is one of the most promising fields of application. The neural network is, for example, a convolutional neural network (CNN). The convolutional neural network is composed of an input layer, a convolution layer, a pooling layer, a fully connected layer, and an output layer, and the convolutional layer and the pooling layer are repeated multiple times to form a deep layer, followed by multiple fully connected layers. By using the learning result data generated by deep learning, the drone 1 can identify the hierarchical sign 102 or 104 no matter how it appears.

<第五の実施形態>
次に、図21を参照して、第五の実施形態について説明する。第一の実施形態または第二の実施形態と共通する事項の説明は省略し、異なる事項を中心に説明する。第五の実施形態においては、図21に示すように、複数の無人機1A,1B及び1Cが運用され、各無人機1A等について、それぞれ、目標標識100A,100B及び100Cが割り当てられている。
Fifth embodiment
Next, the fifth embodiment will be described with reference to Fig. 21. Explanations of matters common to the first and second embodiments will be omitted, and differences will be mainly described. In the fifth embodiment, as shown in Fig. 21, a plurality of drones 1A, 1B, and 1C are operated, and target markers 100A, 100B, and 100C are assigned to each drone 1A, etc., respectively.

各無人機1A等は、着陸プログラムによって、それぞれに割り当てられた目標標識100A等が示す目標位置に向かって降下するように構成されている。 Each drone 1A, etc. is configured to descend toward a target position indicated by a target marker 100A, etc., assigned to it, by a landing program.

<第六の実施形態>
次に、図22を参照して、第六の実施形態について説明する。第五の実施形態と共通する事項の説明は省略し、異なる事項を中心に説明する。第六の実施形態においては、複数の無人機1A,1B及び1Cには、特定の目標標識が割り当てられているのであるが、無人機1A等の管理者によって変更可能に構成されている。
Sixth Embodiment
Next, a sixth embodiment will be described with reference to Fig. 22. Explanations of matters common to the fifth embodiment will be omitted, and differences will be mainly described. In the sixth embodiment, specific target markers are assigned to the multiple drones 1A, 1B, and 1C, but the target markers can be changed by the administrator of the drone 1A, etc.

例えば、図22に示すように、無人機1Aの記憶部には、複数の目標標識として、目標標識X1及びX2についてのデータが格納されている。無人機1Bの記憶部にも、無人機1Aと同様に、複数の目標標識として、目標標識X1及びX2についてのデータが格納されている。無人機1Aに当初割り当てられた目標標識が目標標識X1であり、無人機1Bに当初割り当てられた目標標識が目標標識X2であるとする。本実施形態においては、管理者によって、無人機1A等に当初割り当てられた目標標識を他の目標標識に変更することができる。これにより、例えば、無人機1Aが故障した場合において、無人機1Bの目標標識を目標標識X1に変更し、無人機1Aの任務を実施させるという運用が可能となる。 For example, as shown in FIG. 22, the memory unit of drone 1A stores data on target markers X1 and X2 as multiple target markers. The memory unit of drone 1B also stores data on target markers X1 and X2 as multiple target markers, similar to drone 1A. Assume that the target marker initially assigned to drone 1A is target marker X1, and the target marker initially assigned to drone 1B is target marker X2. In this embodiment, the administrator can change the target marker initially assigned to drone 1A, etc., to another target marker. This makes it possible to operate drone 1B in the event of a breakdown in drone 1A, for example, by changing the target marker of drone 1B to target marker X1 and having drone 1A carry out its mission.

なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。また、上述の各実施形態は、適宜、組み合わせることができる。 The present invention is not limited to the above-mentioned embodiments, and any modifications or improvements that can achieve the object of the present invention are included in the present invention. In addition, the above-mentioned embodiments can be combined as appropriate.

1,1A,1B,1C 無人機
2 筐体
6 モーター
14 カメラ
52 記憶部
56 衛星測位部
90 発着領域
100 目標標識
102,104 階層標識
102a,102b,102c,102d,102e,102f,102g,102h,102in,104a,104b,104c,104d,104e,104f,104g,104h,104i 要素標識
1, 1A, 1B, 1C drone 2 housing 6 motor 14 camera 52 memory unit 56 satellite positioning unit 90 take-off and landing area 100 target sign 102, 104 hierarchical sign 102a, 102b, 102c, 102d, 102e, 102f, 102g, 102h, 102in, 104a, 104b, 104c, 104d, 104e, 104f, 104g, 104h, 104i element sign

Claims (8)

複数のモーターの回転軸にそれぞれ接続されたプロペラの回転を制御して飛行する無人飛行体を目標位置に着陸させるための降下システムであって、
前記目標位置を含む領域に配置される目標標識を有し、
前記目標標識は、水平方向における外形の大きさが異なる複数段階の階層標識から構成され、
相対的に外形が小さな前記階層標識は、相対的に外形が大きな前記階層標識の内側に配置され、
前記複数段階の前記階層標識は水平方向における内側に前記目標位置を含み、
前記無人飛行体は、
前記階層標識を構成する各部の相対的な位置関係を示す情報である相対情報と、
下方を撮影可能な画像取得手段と、
を有し、
前記画像取得手段の撮影範囲内において相対的に外形が大きな前記階層標識を認識可能な場合には、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、
前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になった場合には、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、
前記無人飛行体は、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下するときに、相対的に外形が小さな前記階層標識も認識し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になる前に、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する制御に切り替える、
降下システム。
A descent system for landing an unmanned aerial vehicle at a target position by controlling the rotation of propellers connected to the rotation shafts of a plurality of motors,
a target marker disposed in an area including the target position;
The target sign is composed of a plurality of hierarchical signs having different external dimensions in the horizontal direction,
The hierarchy sign having a relatively small outer shape is disposed inside the hierarchy sign having a relatively large outer shape,
The hierarchical markers of the plurality of stages include the target position on the inside in the horizontal direction,
The unmanned aerial vehicle is
Relative information indicating a relative positional relationship between each part constituting the hierarchy sign;
An image acquisition means capable of photographing an area below;
having
When the floor sign having a relatively large outer shape can be recognized within the photographing range of the image acquisition means, the unmanned aerial vehicle is controlled to descend so that the floor sign having a relatively large outer shape is positioned within the photographing range,
When the floor sign having a relatively large outline becomes unrecognizable within the shooting range as a result of the descent of the unmanned aerial vehicle, the unmanned aerial vehicle is controlled to descend so that the floor sign having a relatively small outline is positioned within the shooting range ;
When the unmanned aerial vehicle descends while controlling the unmanned aerial vehicle so that the relatively large-sized floor level sign is positioned within the shooting range, the unmanned aerial vehicle also recognizes the relatively small-sized floor level sign, and before the unmanned aerial vehicle descends and the relatively large-sized floor level sign becomes unrecognizable within the shooting range, the control is switched to descending while controlling the relatively small-sized floor level sign to be positioned within the shooting range.
Descent system.
外側の前記階層標識の外形の全体が前記画像取得手段によって取得するカメラ画像に投影できなくなる直前に、内側の前記階層標識の外形の全体を前記カメラ画像に投影しつつ降下する制御に切り替える、immediately before the entire outer shape of the outer floor sign can no longer be projected onto the camera image acquired by the image acquisition means, a control is switched to descending while the entire outer shape of the inner floor sign is projected onto the camera image.
請求項1に記載の降下システム。The descent system of claim 1 .
最も内側の前記階層標識は、前記無人飛行体が着陸したときにおいても、前記無人飛行体が前記撮影範囲内において認識可能な外形の大きさに規定されている、
請求項1または請求項2に記載の降下システム。
The innermost level sign is defined to have an outer size that allows the unmanned aerial vehicle to be recognized within the shooting range even when the unmanned aerial vehicle lands,
A descent system according to claim 1 or claim 2.
前記複数段階の前記階層標識は複数の要素標識から構成され、
前記相対情報は、各前記要素標識を基準とする前記目標位置の方向及び距離を示す情報であり、
前記無人飛行体は、前記要素標識に示される前記目標位置の方向及び距離に基づいて、前記無人飛行体自体の機首方向を所定方向に制御する、
請求項1または請求項2のいずれかに記載の降下システム。
The hierarchical indicator of the plurality of stages is composed of a plurality of element indicators,
the relative information is information indicating a direction and a distance of the target position based on each of the element markers;
The unmanned aerial vehicle controls the nose direction of the unmanned aerial vehicle itself in a predetermined direction based on the direction and distance of the target position indicated by the element marker.
A descent system according to claim 1 or claim 2 .
前記無人飛行体は、
前記階層標識の一部の前記要素標識によって、前記階層標識の全体を推定する推定手段を有し、
推定した前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する、
請求項4に記載の降下システム。
The unmanned aerial vehicle is
an estimation means for estimating the entirety of the hierarchical label based on the element labels of a part of the hierarchical label;
and descending while controlling the vehicle so that the estimated floor sign is positioned within the shooting range.
5. A descent system as claimed in claim 4.
前記目標位置を含む領域には、前記無人飛行体の充電可能な電源を充電するための充電装置が配置され、
前記無人飛行体は、前記目標位置に、前記機首方向を前記所定方向に向けた状態において着陸し、前記充電装置によって前記無人飛行体の電源を充電するように構成されている、
請求項5に記載の降下システム。
A charging device for charging a rechargeable power source of the unmanned aerial vehicle is disposed in an area including the target position;
The unmanned aerial vehicle is configured to land at the target position with the nose facing the predetermined direction, and to charge the power source of the unmanned aerial vehicle by the charging device.
6. A descent system as claimed in claim 5 .
前記降下システムは、複数の前記無人飛行体と複数の前記目標標識を有し、
各前記無人飛行体には、異なる前記目標標識が割り当てられ、
各前記無人飛行体は、割り当てられた前記目標標識が示す前記目標位置に向かって降下するように構成されている、
請求項1または請求項2のいずれかに記載の降下システム。
the descent system includes a plurality of the unmanned air vehicles and a plurality of the target markers;
Each of the unmanned air vehicles is assigned a different target signature;
Each of the unmanned air vehicles is configured to descend toward the target location indicated by the assigned target marker.
A descent system according to claim 1 or claim 2 .
前記無人飛行体は、
予め有している前記目標標識の特徴を示すデータと、前記画像取得手段によって取得した画像データにおける画像から抽出した特徴データとの相関度に基づいて、前記目標標識を認識するように構成されており、
前記目標標識の特徴を示すデータは、深層学習(ディープラーニング)によって生成されたデータを含む請求項1または請求項2のいずれかに記載の降下システム。
The unmanned aerial vehicle is
The target marker is recognized based on a degree of correlation between data indicating the characteristics of the target marker that is stored in advance and characteristic data extracted from an image in the image data acquired by the image acquisition means,
The descent system of claim 1 or claim 2 , wherein the data indicative of the characteristics of the target marker includes data generated by deep learning.
JP2020080714A 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system Active JP7539688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080714A JP7539688B2 (en) 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080714A JP7539688B2 (en) 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system

Publications (2)

Publication Number Publication Date
JP2021172318A JP2021172318A (en) 2021-11-01
JP7539688B2 true JP7539688B2 (en) 2024-08-26

Family

ID=78279456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080714A Active JP7539688B2 (en) 2020-04-30 2020-04-30 Unmanned aerial vehicle descent system

Country Status (1)

Country Link
JP (1) JP7539688B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102579913B1 (en) * 2021-11-11 2023-09-15 한국전력 국제원자력대학원대학교 산학협력단 A guided landing method of drone using multiple landing marks
CN114044158B (en) * 2021-11-29 2024-06-04 浙江图盛输变电工程有限公司温州科技分公司 Unmanned aerial vehicle automatic driving system based on artificial intelligent image recognition
IL289357B1 (en) * 2021-12-23 2025-12-01 Ariel Scient Innovations Ltd Unmanned aerial vehicle and method for landing it
JP2024000767A (en) 2022-06-21 2024-01-09 パナソニックホールディングス株式会社 Mobile body and movement control method
JP2024000773A (en) * 2022-06-21 2024-01-09 パナソニックホールディングス株式会社 Mobile body and movement control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170045894A1 (en) 2015-08-12 2017-02-16 Qualcomm Incorporated Autonomous Landing and Control
US20170225800A1 (en) 2016-02-05 2017-08-10 Jordan Holt Visual landing aids for unmanned aerial systems
JP2018124718A (en) 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
WO2019175993A1 (en) 2018-03-13 2019-09-19 日本電気株式会社 Target member
WO2019175994A1 (en) 2018-03-13 2019-09-19 日本電気株式会社 Moving body guidance device, moving body guidance method, and computer readable recording medium
US10479528B1 (en) 2018-11-06 2019-11-19 Ping Liang Network of distributed drone system and parking pads

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170045894A1 (en) 2015-08-12 2017-02-16 Qualcomm Incorporated Autonomous Landing and Control
US20170225800A1 (en) 2016-02-05 2017-08-10 Jordan Holt Visual landing aids for unmanned aerial systems
JP2018124718A (en) 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
WO2019175993A1 (en) 2018-03-13 2019-09-19 日本電気株式会社 Target member
WO2019175994A1 (en) 2018-03-13 2019-09-19 日本電気株式会社 Moving body guidance device, moving body guidance method, and computer readable recording medium
US10479528B1 (en) 2018-11-06 2019-11-19 Ping Liang Network of distributed drone system and parking pads

Also Published As

Publication number Publication date
JP2021172318A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
JP7539688B2 (en) Unmanned aerial vehicle descent system
US11604479B2 (en) Methods and system for vision-based landing
US12130636B2 (en) Methods and system for autonomous landing
US11745899B2 (en) Adhoc geo-fiducial mats for landing UAVs
US10778967B2 (en) Systems and methods for improving performance of a robotic vehicle by managing on-board camera defects
KR102018892B1 (en) Method and apparatus for controlling take-off and landing of unmanned aerial vehicle
US9346560B2 (en) Systems and methods for UAV battery exchange
US20190068829A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Obstructions
CN108292140A (en) System and method for automatic return to home
WO2019040179A1 (en) Controlling landings of an aerial robotic vehicle using three-dimensional terrain maps generated using visual-inertial odometry
US12412481B2 (en) Context-based navigation of uncrewed vehicles using relative position markers
CN113495569A (en) Unmanned aerial vehicle accurate landing method based on autonomous identification
WO2025221725A1 (en) Generating aerial paths based on properties of aerial image data
US20230316741A1 (en) Method for Semantic Localization of an Unmanned Aerial Vehicle
KR101796478B1 (en) Unmanned air vehicle capable of 360 degree picture shooting
JP2019188965A (en) Unmanned flight body, learning result information, unmanned flight method and unmanned flight program
CN114296471B (en) A UAV precise landing control method based on fully strapdown downward-looking camera
CN115981355A (en) A UAV automatic cruise method and system capable of fast and accurate landing
CN112198894B (en) Rotor UAV autonomous mobile landing guidance method and system
CN117799724A (en) A split panoramic detection robot based on intelligent interaction and its method
KR102571330B1 (en) Control apparatus for subject tracking shooting, drone and operation method thereof
US20240428696A1 (en) Correcting erroneous uav positioning information using semantically segmented images
CN119902540A (en) Method, device, equipment and medium for fixed-point return of unmanned aerial vehicle for mobile platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240806

R150 Certificate of patent or registration of utility model

Ref document number: 7539688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150