JP2021172318A - Descending system for unmanned flight body - Google Patents
Descending system for unmanned flight body Download PDFInfo
- Publication number
- JP2021172318A JP2021172318A JP2020080714A JP2020080714A JP2021172318A JP 2021172318 A JP2021172318 A JP 2021172318A JP 2020080714 A JP2020080714 A JP 2020080714A JP 2020080714 A JP2020080714 A JP 2020080714A JP 2021172318 A JP2021172318 A JP 2021172318A
- Authority
- JP
- Japan
- Prior art keywords
- sign
- hierarchical
- unmanned
- target
- outer shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000003550 marker Substances 0.000 claims abstract description 56
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 13
- 238000013459 approach Methods 0.000 description 11
- 230000007423 decrease Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- IWEDIXLBFLAXBO-UHFFFAOYSA-N dicamba Chemical compound COC1=C(Cl)C=CC(Cl)=C1C(O)=O IWEDIXLBFLAXBO-UHFFFAOYSA-N 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 101100421903 Arabidopsis thaliana SOT10 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000004918 carbon fiber reinforced polymer Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、無人飛行体の降下システムに関する。 The present invention relates to a descent system for an unmanned aircraft.
従来、小型無人飛行体(「ドローン」とも呼ばれる。)の利用が提案されている。このようなドローンが着陸する際に、地上に配置した目標物(「マーカー」とも呼ばれる。)を目指して降下する技術が提案されている(例えば、特許文献1)。 Conventionally, the use of small unmanned aerial vehicles (also called "drones") has been proposed. When such a drone lands, a technique has been proposed in which the drone descends toward a target (also referred to as a "marker") placed on the ground (for example, Patent Document 1).
上述の技術においては、ドローンはカメラで目標物を撮影し、目標物に向かって降下する。カメラには、撮影可能な範囲(例えば、「画角」で規定される。以下、「撮影範囲」と呼ぶ。)があり、ドローンの飛行高度が下がるほど、撮影範囲内の地上の領域は狭くなる。このため、ドローンが高度を下げると、いずれ、マーカーの一部または全部が撮影範囲を外れるから、ドローンが所定の着陸位置に正確に着陸することができない場合がある。 In the techniques described above, the drone shoots the target with a camera and descends towards the target. The camera has a shooting range (for example, defined by the "angle of view"; hereinafter referred to as the "shooting range"), and the lower the flight altitude of the drone, the narrower the ground area within the shooting range. Become. Therefore, when the drone lowers the altitude, part or all of the markers will eventually go out of the shooting range, and the drone may not be able to land accurately at the predetermined landing position.
本発明はかかる問題の解決を試みたものであり、正確な目標位置に降下することができる無人飛行体の降下システムを提供することを目的とする。 The present invention has attempted to solve such a problem, and an object of the present invention is to provide a descent system for an unmanned aircraft capable of descending to an accurate target position.
第一の発明は、複数のモーターの回転軸にそれぞれ接続されたプロペラの回転を制御して飛行する無人飛行体を目標位置に着陸させるための降下システムであって、前記目標位置を含む領域に配置される目標標識を有し、前記目標標識は、水平方向における外形の大きさが異なる複数段階の階層標識から構成され、相対的に外形が小さな前記階層標識は、相対的に外形が大きな前記階層標識の内側に配置され、前記複数段階の前記階層標識は水平方向における内側に前記目標位置を含み、前記無人飛行体は、前記階層標識を構成する各部の相対的な位置関係を示す情報である相対情報と、下方を撮影可能な画像取得手段と、を有し、前記画像取得手段の撮影範囲内において相対的に外形が大きな前記階層標識を認識可能な場合には、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になった場合には、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下する、降下システムである。 The first invention is a descent system for landing an unmanned vehicle that flies by controlling the rotation of propellers connected to the rotation axes of a plurality of motors at a target position, in a region including the target position. The target marker having a target marker to be arranged, the target marker is composed of a plurality of stages of hierarchical markers having different outer dimensions in the horizontal direction, and the hierarchical marker having a relatively small outer shape has a relatively large outer shape. Arranged inside the hierarchical sign, the multi-stage hierarchical sign includes the target position inside in the horizontal direction, and the unmanned vehicle is information indicating the relative positional relationship of each part constituting the hierarchical sign. When the hierarchical sign having a relatively large outer shape can be recognized within the shooting range of the image acquisition means, which has a certain relative information and an image acquisition means capable of photographing the lower part, the relatively outer shape is said. The unmanned aviator descends while controlling the unmanned aviator so that the hierarchical sign having a large size is located within the imaging range, and as a result of the unmanned aviation descending, the hierarchical sign having a relatively large outer shape within the imaging range. Is a descent system in which the unmanned vehicle is controlled and descended so that the hierarchical sign having a relatively small outer shape is located within the photographing range when the unmanned vehicle becomes unrecognizable.
まず、図23乃至25を参照して、本発明の技術思想を説明する。図23に示すように、空中に位置する無人飛行体1の位置から目標位置CP0までの間の空中に、中空のチューブ状の枠部材W1を配置すれば、無人飛行体1が枠部材W1内を通過するように位置を制御しつつ降下することにより、正確に目標位置CP0に着陸することができる。また、枠部材W1に替えて、図24に示すように、上方から下方に向かって次第に内形が小さくなる枠部材W2を配置すれば、無人飛行体1が枠部材W2内を通過するように位置を制御しつつ降下することにより、降下するに連れて、水平方向の位置が目標位置CP0の鉛直方向に近づく。さらに、図25に示すように、1つの枠部材W2に替えて、複数の枠W2a乃至W2dを空中に配置しても同様であり、上方の枠W2aから下方の枠W2dに向かうに連れて、枠の大きさを小さくしていくことによって、無人飛行体1は、下降するに連れて、目標位置CP0に近づく。しかし、任意の空中に枠部材W1、W2やW2a乃至W2dを配置することは現実的ではない。この点、本発明は、複数段階の階層標識を認識しつつ、降下することによって、複数の枠W2a等を通過するのと技術的に等価である効果を奏するように構成される。すなわち、第一の発明の構成によれば、無人飛行体1は、相対的に飛行高度が高く、外側の階層標識を撮影範囲内において認識可能な場合には、外側の階層標識を撮影範囲内に維持しつつ降下し、無人飛行体が降下した結果、撮影範囲内において外側の階層標識が認識できなくなった場合には、内側の階層標識を撮影範囲内に維持しつつ降下することができる。無人飛行体1は、階層標識が撮影範囲内に入るように無人飛行体1の位置を制御する(以下、「撮影位置制御」と呼ぶ。)。撮影位置制御をしつつ降下する技術は、複数の枠W2a等を通過しつつ降下するのと技術的に等価である。さらに、相対的に高い高度においては外側の階層標識に基づいて降下し、相対的に低い高度においては内側の階層標識に基づいて降下することにより、無人飛行体が降下するに連れて、無人飛行体の水平方向の位置は目標位置を通る鉛直線上に近づく(以下、「降下接近効果」と呼ぶ。)。これにより、目標標識を参照して、正確な目標位置に降下することができる。また、無人飛行体は、相対情報を有しているから、機首方向を所定の方向に調整しつつ降下することができる。
First, the technical idea of the present invention will be described with reference to FIGS. 23 to 25. As shown in FIG. 23, if the hollow tubular frame member W1 is arranged in the air between the position of the
第二の発明は、第一の発明の構成において、前記無人飛行体は、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下するときに、相対的に外形が小さな前記階層標識も認識し、前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になる前に、前記相対的に前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する制御に切り替える、降下システムである。 In the second aspect of the invention, in the configuration of the first invention, the unmanned vehicle descends while controlling the unmanned vehicle so that the hierarchical sign having a relatively large outer shape is located within the photographing range. Occasionally, the hierarchical sign having a relatively small outer shape is also recognized, and as a result of the unmanned vehicle descending, the hierarchical sign having a relatively large outer shape becomes unrecognizable within the photographing range. It is a descent system that switches to a descent control while controlling the hierarchical sign having a relatively small outer shape to be located within the photographing range.
第二の発明の構成によれば、無人飛行体は、外側の階層標識が撮影範囲内に位置するように制御しつつ降下するときに、既に内側の階層標識も認識しており、外側の階層標識が認識不可能になる前に、内側の階層標識が撮影範囲内に位置するように制御しつつ降下する制御に切り替えるから、撮影位置制御を途切れることなく実施することができる。 According to the configuration of the second invention, when the unmanned air vehicle descends while controlling the outer hierarchical sign to be located within the shooting range, the unmanned air vehicle is already aware of the inner hierarchical sign, and the outer hierarchical sign is also recognized. Since the control is switched to the descent control while controlling the inner hierarchical sign to be located within the shooting range before the sign becomes unrecognizable, the shooting position control can be performed without interruption.
第三の発明は、第一の発明または第二の発明のいずれかの構成において、最も内側の前記階層標識は、前記無人飛行体が着陸したときにおいても、前記無人飛行体が前記撮影範囲内において認識可能な外形の大きさに規定されている、降下システムである。 The third invention is the configuration of either the first invention or the second invention, in which the innermost layered marker is within the imaging range of the unmanned vehicle even when the unmanned vehicle lands. It is a descent system specified in the size of the outer shape that can be recognized in.
第三の発明の構成によれば、着陸する瞬間まで、撮影位置制御を継続することができるから、確実に目標位置に着陸することができる。 According to the configuration of the third invention, since the shooting position control can be continued until the moment of landing, it is possible to surely land at the target position.
第四の発明は、第一の発明乃至第三の発明のいずれかの構成において前記複数段階の前記階層標識は複数の要素標識から構成され、前記相対情報は、各前記要素標識を基準とする前記目標位置の方向及び距離を示す情報であり、前記無人飛行体は、前記要素標識に示される前記目標位置の方向及び距離に基づいて、前記無人飛行体自体の機首方向を所定方向に制御する、降下システムである。 In the fourth invention, in any of the configurations of the first invention to the third invention, the hierarchical label having a plurality of stages is composed of a plurality of element labels, and the relative information is based on each element label. Information indicating the direction and distance of the target position, and the unmanned vehicle controls the nose direction of the unmanned vehicle itself in a predetermined direction based on the direction and distance of the target position indicated on the element sign. It is a descent system.
第四の発明の構成によれば、無人飛行体は、要素標識を認識することによって、機首方向を所定方向に制御しつつ、目標位置に向かって降下することができる。 According to the configuration of the fourth invention, the unmanned air vehicle can descend toward the target position while controlling the nose direction in a predetermined direction by recognizing the element sign.
第五の発明は、第四の発明の構成において、前記無人飛行体は、前記階層標識の一部の前記要素標識によって、前記階層標識の全体を推定する推定手段を有し、推定した前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する、降下システムである。 In the fifth aspect of the invention, in the configuration of the fourth invention, the unmanned vehicle has an estimation means for estimating the whole of the layered label by the elemental markers of a part of the layered indicator, and the estimated layer. It is a descent system that descends while controlling the sign to be located within the imaging range.
第五の発明の構成によれば、階層標識の一部が影などによって認識できない場合であっても、階層標識の全体を推定し、撮影位置制御を実施しつつ、降下することができる。 According to the configuration of the fifth invention, even if a part of the hierarchical sign cannot be recognized due to a shadow or the like, the entire hierarchical sign can be estimated and the shooting position can be controlled while descending.
第六の発明は、第四の発明または第五の発明の構成において、前記目標位置を含む領域には、前記無人飛行体の充電可能な電源を充電するための充電装置が配置され、前記無人飛行体は、前記目標位置に、前記機首方向を前記所定方向に向けた状態において着陸し、前記充電装置によって前記無人飛行体の電源を充電するように構成されている、降下システムである。 In the sixth invention, in the configuration of the fourth invention or the fifth invention, a charging device for charging the rechargeable power source of the unmanned vehicle is arranged in the region including the target position, and the unmanned vehicle is described. The aircraft is a descent system configured to land at the target position with the nose direction facing the predetermined direction and to charge the power supply of the unmanned aircraft by the charging device.
第六の発明の構成によれば、無人飛行体は、機首方向を所定方向に制御しつつ着陸することができるから、例えば、充電装置の充電用端子が特定の位置に設定されている場合において、無人飛行体側の充電用端子を充電装置側の充電用端子と接続させることができる。 According to the configuration of the sixth invention, the unmanned aircraft can land while controlling the nose direction in a predetermined direction. Therefore, for example, when the charging terminal of the charging device is set to a specific position. In, the charging terminal on the unmanned vehicle side can be connected to the charging terminal on the charging device side.
第七の発明は、第一の発明乃至第六の発明のいずれかの構成において、前記降下システムは、複数の前記無人飛行体と複数の前記目標標識を有し、各前記無人飛行体には、異なる前記目標標識が割り当てられ、各前記無人飛行体は、割り当てられた前記目標標識が示す前記目標位置に向かって降下するように構成されている、降下システムである。 A seventh invention, in any of the configurations of the first to sixth inventions, the descent system has a plurality of the unmanned vehicle and a plurality of target markers, each of the unmanned vehicle. , Different target markers are assigned, and each said unmanned vehicle is a descent system configured to descend towards the target position indicated by the assigned target marker.
第七の発明の構成によれば、複数の無人飛行体が、それぞれの目標位置に精度良く降下することができる。 According to the configuration of the seventh invention, a plurality of unmanned aircraft can accurately descend to their respective target positions.
第八の発明は、第一の発明乃至第七の発明のいずれかの構成において、前記無人飛行体は、予め有している前記目標標識の特徴を示すデータと、前記画像取得手段によって取得した画像データにおける画像から抽出した特徴データとの相関度に基づいて、前記目標標識を認識するように構成されており、前記目標標識の特徴を示すデータは、深層学習(ディープラーニング)によって生成されたデータを含む請求項1乃至請求項7のいずれかに記載の降下システムである。
The eighth invention, in any of the configurations of the first invention to the seventh invention, is obtained by the data indicating the characteristics of the target marker which the unmanned vehicle has in advance and the image acquisition means. It is configured to recognize the target marker based on the degree of correlation with the feature data extracted from the image in the image data, and the data showing the feature of the target marker is generated by deep learning. The descent system according to any one of
同一の目標標識であっても、環境の光の強さなどによって、様々が外観を呈する。この点、第八の発明の構成によれば、同一の目標標識について様々な外観を深層学習し、その結果として生成された目標標識の特徴を示すデータを利用して目標標識を認識することができるから、環境の変化の影響があっても、精度良く目標標識を認識することができる。 Even with the same target sign, various appearances are exhibited depending on the intensity of light in the environment. In this regard, according to the configuration of the eighth invention, it is possible to deeply learn various appearances of the same target marker and recognize the target marker by using the data showing the characteristics of the target marker generated as a result. Therefore, it is possible to accurately recognize the target marker even if it is affected by changes in the environment.
本発明によれば、正確な目標位置に着陸することができる。 According to the present invention, it is possible to land at an accurate target position.
以下、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。 Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail. In the following description, the same reference numerals are given to similar configurations, and the description thereof will be omitted or abbreviated. The description of the configuration that can be appropriately implemented by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.
図1に示す無人機1は、プロペラの回転によって推力を得て、所定の経路を自律飛行することができるように構成されている。無人機1は無人飛行体の一例である。
The unmanned
無人機1は、所定領域300を経路R1に従って自律飛行する。無人機1は、GPS衛星(Global Positioning System)等の航法衛星からの測位用電波を受信し、無人機1自体の位置を測位しつつ、経路R1に従って自律飛行することができる。
The unmanned
所定領域300は、山200A乃至200F、ゴルフ場202、動物園204、田畑206、池208、道路210などの構成物が存在する。無人機1は、所定領域300を撮影しつつ、飛行する。無人機1は、発着領域90から発進し、発着領域90に帰還する。無人機1が着陸するための目標位置CP0は、発着領域90内に位置する。
The
図2に示すように、無人機1は、筐体2を有する。筐体2には、無人機1の各部を制御するコンピュータ、自律飛行装置、無線通信装置、GPS(Global Positioning System)などの航法衛星システムからの測位用電波を利用する測位装置、バッテリー等が配置されている。また、筐体2には、固定装置12を介して、カメラ14が配置されている。カメラ14は、画像取得手段の一例である。
As shown in FIG. 2, the unmanned
無人機1は、カメラ14によって、外部領域(下方の領域)の画像を取得する。無人機1は、カメラ14によって、無人機1の真下の方向も撮影することができる。カメラ14は、可視光カメラであるが、これとは異なり、可視光カメラと近赤外線カメラとを切り替え可能なハイブリッドカメラであってもよい。ただし、無人機1は、目標位置CP0へ向かって降下する際には、可視光カメラを使用する。以下、カメラ14によって撮影して得た画像を「カメラ画像」と呼ぶ。
The unmanned
固定装置12は、カメラ画像のぶれを最小化し、かつ、カメラ14の光軸を任意の方向に制御することができる3軸の固定装置(いわゆる、ジンバル)である。
The fixing
筐体2には、丸棒状のアーム4が接続されている。各アーム4にはモーター6が接続されており、各モーター6にはプロペラ8が接続されている。各モーター6は、直流モーター(ブラシレスDCモーター)である。各モーター6は、それぞれ独立して制御され、無人機1を上下水平方向の移動や空中での停止(ホバリング)及び機首方向の変更を自在に行うことができるようになっている。無人機1は、前後左右へ移動する場合には、進行方向に対して後方側の2つのモーター6の回転数を進行方向側の2つのモーター6の回転数よりも多くする。無人機1は、水平方向の位置を維持しつつ機首方向を変更する場合には、対角線上の2つのモーター6の回転数をもう一組の対角線状の2つのモーター6の回転数よりも多くする。無人機1は、隣り合うモーター6を反対方向に回転し、反力を相殺するように構成されている。無人機1は、水平方向の位置を維持しつつ機首方向を変更する場合には、反力を相殺せずに利用する。無人機1は、すべてのモーター6の回転数を徐々に減少させることによって、鉛直方向に降下することができる。
A round bar-shaped
アーム4には保護枠10が接続され、プロペラ8が外部の物体に直接接触することを防止している。アーム4及び保護枠10は、例えば、炭素繊維強化プラスチックで形成されており、強度を保ちつつ、軽量に構成されている。
A
図3は、無人機1の機能構成を示す図である。図3に示すように、無人機1は、CPU(Central Processing Unit)50、記憶部52、無線通信部54、衛星測位部56、慣性センサー部58、駆動制御部60、画像処理部62、及び、電源部64を有する。
FIG. 3 is a diagram showing a functional configuration of the unmanned
無人機1は、無線通信部54によって、無人機1に発進等の指示を無線送信する制御装置(図示せず)と通信可能になっている。制御装置は、無人機1の管理者が操作するコンピュータであり、無線通信が可能なコンピュータである。
The unmanned
無人機1は、衛星測位部56によって、無人機1自体の位置を測定することができる。衛星測位部56は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機1の位置を計測する。上述のように、無人機1は、計測した位置に基づいて、経路R1を自律飛行する。慣性センサー部58は、例えば、加速度センサー及びジャイロセンサーによって、無人機1の動きを出力する。慣性センサー部58からの情報は自律飛行装置に出力され、無人機1の姿勢制御に利用される。姿勢制御とは、無人機1が予定した傾斜と乖離した場合に修正することを意味する。例えば、無人機1の4つのプロペラ8の回転面の高さが同一であるときを水平状態とすれば、傾斜とは、水平状態からの乖離である。例えば、無人機1が空中停止(ホバリング)しているときや、鉛直方向の降下するときの予定の傾斜は0であり、無人機1は水平状態を維持する。
The unmanned
駆動制御部60によって、無人機1は各モーター6(図2参照)に接続されたプロペラ8(図2参照)の回転を制御し、上下水平移動や空中停止、及び、機首方向を制御するようになっている。
The
画像処理部62によって、無人機1はカメラ14(図2参照)を作動させて外部の画像(カメラ画像)を取得することができる。カメラ14の光軸は、無人機1が目標位置CP0に向かって降下するときには、鉛直方向における下方に固定される。
The
電源部64は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。
The
記憶部52には、出発点から目的位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、目標標識100に関するデータ、及び、着陸プログラムを格納している。CPU50と着陸プログラムは着陸制御手段の一例である。
The
着陸プログラムは、無人機1が、飛行高度を下げて、目標位置CP0に向かって降下するための制御を行うためのプログラムである。無人機1は、衛星測位部56による現在位置の測位によって、目標位置CP0の上空に到達したと判断すると、着陸プログラムによって、駆動制御部60を介してモーター6の回転を制御し、徐々に高度を下げて、目標位置CP0に向かって降下する。
The landing program is a program for controlling the unmanned
ここで、図4乃至図8を参照して、着陸領域90に配置される目標標識100について説明する。着陸領域90には、図4に示す目標標識100が配置されている。目標標識100は目標標識の一例である。着陸領域90は、目標位置CP0を含む領域の一例である。無人機1と目標標識100によって降下システムが構成される。
Here, the
図4に示すように、目標標識100は、水平方向における外形の大きさが異なる複数段階の階層標識102及び104から構成される。内側の階層標識104は、外側の階層標識102よりも水平方向における外形が小さい。内側の階層標識104は、外側の階層標識102の内側に配置されている。外側の階層標識102の外形は正方形であり、一辺の長さL1は、例えば、130cm(センチメートル)である。内側の階層標識104の外形は正方形であり、一辺の長さL2は、例えば、20cm(センチメートル)である。内側の階層標識104は、無人機1が着陸したときにおいても、その全体がカメラ14の撮影範囲内に入り、無人機1において認識可能な外形の大きさに規定されている。具体的には、内側の階層標識104は、無人機1が着陸したときにおいて、その全体がカメラ14の撮影範囲内に入る限界の外形の大きさに規定されている。本実施形態においては、内側の階層標識104の正方形の外形104out(図6参照)の対角線の長さは、無人機1の着陸時におけるカメラ14の撮影範囲である円の直径と等しい。
As shown in FIG. 4, the
無人機1が着陸するための目標位置CP0は、階層標識102及び104の内側に位置する。すなわち、階層標識102及び104は、それぞれの内側に目標位置CP0を含む。目標位置CP0は、特定の緯度及び経度で示される座標である。本実施形態において、目標位置CP0は、階層標識102の外形102outの中心位置である(図5参照)。また、目標位置CP0は、階層標識104の外形104outの中心位置でもある(図6参照)。
The target position CP0 for the
階層標識102及び104は、それぞれ、複数の要素標識から構成される。図4及び図5に示すように、外側の階層標識102は、要素標識102a乃至102h及び102inで構成される。要素標識102inは正方形の輪郭として構成され、要素標識102inの外周に接して要素標識102a乃至102hが形成されている。図6に示すように、内側の階層標識104は、部分標識104a乃至104iから構成される。
The
図7は、目標標識100に関するデータの一例を説明するための概念図である。図7においては、目標標識を目標標識X1とし、目標標識X1が外側の階層標識A及び内側の階層標識Bから構成され、階層標識Aは要素標識Aa及びAbから構成され、階層標識Bは要素標識Ba及びBbから構成されるものとしている。
FIG. 7 is a conceptual diagram for explaining an example of data relating to the
目標標識X1に関するデータは、目標標識X1の座標を示す位置データ、目標標識X1の識別データ、目標標識X1の特徴を示す特徴データ、及び、目標標識X1と目標位置との関係を示すデータを含む。目標標識X1の位置データに示される位置は目標位置の位置と同一である。特徴データは、対象物の特徴点、輪郭や個々の構成の方向といった特徴を示すデータである。特徴データは、KLT(Kanada−Lucas−Tomasi)法、SIFT(Scale INvariant Feature Transform)などの特徴点ベースの画像に基づく追跡方法において使用されるデータである。目標標識X1の特徴データは、例えば、目標標識X1全体としての特徴点、輪郭や個々の構成の方向といった特徴を示すデータである。 The data relating to the target marker X1 includes position data indicating the coordinates of the target indicator X1, identification data of the target indicator X1, feature data indicating the features of the target indicator X1, and data indicating the relationship between the target indicator X1 and the target position. .. The position shown in the position data of the target sign X1 is the same as the position of the target position. The feature data is data showing features such as feature points, contours, and directions of individual configurations of an object. Feature data is data used in feature point-based image-based tracking methods such as the KLT (Canada-Lucas-Tomasi) method and SIFT (Scale INvariant Feature Transfer Transfer). The feature data of the target sign X1 is, for example, data showing features such as feature points, contours, and directions of individual configurations of the target sign X1 as a whole.
階層標識Aに関するデータは、階層標識Aの位置データ、階層標識Aの識別データ、階層標識Aの特徴データ、及び、階層標識Aと目標位置との関係を示すデータを含む。特徴データの内容は、上述の目標標識X1の特徴データと同様である。階層標識Aの位置データに示される位置は、目標位置の位置と同一である。階層標識Bに関するデータの構成は以上の階層標識Aのデータ構成と同様である。 The data relating to the hierarchical indicator A includes the position data of the hierarchical indicator A, the identification data of the hierarchical indicator A, the feature data of the hierarchical indicator A, and the data showing the relationship between the hierarchical indicator A and the target position. The content of the feature data is the same as the feature data of the target marker X1 described above. The position shown in the position data of the hierarchical sign A is the same as the position of the target position. The structure of the data relating to the hierarchical indicator B is the same as the above data structure of the hierarchical indicator A.
要素標識Aaに関するデータは、要素標識Aaの位置データ、要素標識Aaの識別データ、要素標識Aaの特徴データ、及び、要素標識Aaと目標位置との関係を示すデータを含む。要素標識Aaの位置データは、要素標識Aa自体の基準位置を示すデータであり、目標位置とは異なる。要素標識Aaの基準位置は、例えば、要素標識Aaの水平方向における中心位置とする。要素標識Aaの位置データと目標位置との関係を示すデータは、要素標識Aaの基準位置を基準として、目標位置の方向及び距離を示すデータである。他の要素標識Ab,Ba及びBbの構成は以上と同様である。すなわち、無人機1は、記憶部52に、各要素標識を基準とする目標位置の方向及び距離を示す情報を格納している。各要素標識を基準とする目標位置の方向及び距離を示す情報は、相対情報の一例である。
The data relating to the element marker Aa includes the position data of the element indicator Aa, the identification data of the element indicator Aa, the feature data of the element indicator Aa, and the data showing the relationship between the element indicator Aa and the target position. The position data of the element marker Aa is data indicating the reference position of the element marker Aa itself, and is different from the target position. The reference position of the element marker Aa is, for example, the center position of the element marker Aa in the horizontal direction. The data indicating the relationship between the position data of the element marker Aa and the target position is data indicating the direction and distance of the target position with reference to the reference position of the element indicator Aa. The configurations of the other element labels Ab, Ba and Bb are the same as described above. That is, the unmanned
着陸プログラムは、認識対象決定プログラム及び目標標識認識プログラムを含む。認識対象決定プログラムとCPU50は認識対象決定手段の一例であり、目標標識認識プログラムとCPU50は目標標識認識手段の一例である。認識対象決定プログラムは、無人機1がカメラ画像において認識すべき認識対象を決定するためのプログラムである。本実施形態において、無人機1は、認識対象決定プログラムによって、階層標識102と104のいずれかを認識対象とする。目標標識認識プログラムは、無人機1が認識対象を認識するためのプログラムである。
The landing program includes a recognition target determination program and a target sign recognition program. The recognition target determination program and the
無人機1は、目標位置CP0の上空に到達したと判断すると、カメラ14によって鉛直方向における下方を撮影する。そして、無人機1は、認識対象決定プログラムによって、外側の階層標識102を認識対象として設定する。後述のように、無人機1は、降下した結果、外側の階層標識102がカメラ画像から外れ、認識できなくなった場合には、内側の階層標識104を認識対象として設定する。
When the unmanned
無人機1は、目標標識認識プログラムによって、カメラ画像中の特徴を抽出し、予め記憶部52に格納している階層標識102及び104の特徴データに基づいて、カメラ画像中において、認識対象として設定された階層標識102または104を認識する。具体的には、無人機1は、カメラ画像中の特徴と、記憶部52に記憶されている特徴データとを対比して、相関性(相関度)を判断することによって、階層標識102または104を認識する。また、無人機1は、目標標識認識プログラムによって、認識対象として設定された階層標識102または104を構成する要素標識を認識する。
The
無人機1は、目標標識認識プログラムによって、特徴点ベースにおける追跡方法を実施する。例えば、無人機1は、カメラ画像について、輪郭や個々の構成の方向といった特徴を多数抽出し、カメラ画像に投影された物体の特徴(以下、「カメラ画像の特徴」という。)を認識する。無人機1は、カメラ画像の特徴と記憶部52に格納された特徴データと対比して、相関性(相関度)を判断する。相関度が高いほど、カメラ画像中の物体が、階層標識102及び104、あるいは、特定の要素標識である可能性が高い。例えば、相関度が0の場合には、カメラ画像中の領域が特定の階層標識あるいは要素標識である可能性(以下、「カテゴリー共通確率」と呼ぶ。)は0%として、相関度が最大値を示すときに、カテゴリー共通確率が100%であると定義する。無人機1は、カテゴリー共通確率が所定の基準値である、例えば、95%以上であるときに、カメラ画像中の物体が、特定の階層標識、あるいは、要素標識であると判断する。
The
図8に、無人機1のカメラ14の撮影範囲と階層標識102及び104との関係を示す。無人機1がカメラ14の撮影方向を鉛直方向における下方に向けた状態で降下すると、無人機1の高度が低下するに連れて、カメラ14の撮影範囲内の地表の領域が狭くなる。なお、カメラ14の画角は一定とする。また、カメラ14の光軸は鉛直下方に固定する。例えば、無人機1の高度が低下するに連れて、カメラ14の撮影範囲内の地表の領域は、円S1の範囲内、円S2の範囲内、円S3の範囲内、円S4の範囲内、円S5の範囲内というように狭くなっていく。そして、無人機1の高度が低下するに連れて、階層標識102及び104のカメラ画像中の大きさが大きくなっていく。別の観点では、無人機1の高度が低下するにつれて、カメラ画像中の画素に占める階層標識102及び104の割合が大きくなることを意味する。
FIG. 8 shows the relationship between the shooting range of the
無人機1の高度が低下するに連れて、外側の階層標識102と内側の階層標識104の双方がカメラ14の撮影範囲内に入る状態から、外側の階層標識102は撮影範囲の外側に外れ、内側の階層標識104のみが撮影範囲内に入る状態に移行する。
As the altitude of the
無人機1は、着陸プログラムによって、外側の階層標識102が撮影範囲に入り、その全体が認識可能な場合には、階層標識102がカメラ画像内に位置するように無人機1の位置を制御しつつ降下する。言い換えると、無人機1は、階層標識102に基づく撮影位置制御を実施しつつ降下する。そして、無人機1が降下した結果、階層標識102がカメラ画像内に収まらなくなり、階層標識102の全体が認識できなくなった場合には、無人機1は、内側の階層標識104がカメラ画像内に位置するように無人機1の位置を制御しつつ降下するように構成されている。すなわち、無人機1は、まず、階層標識102に基づく撮影位置制御を実施しつつ降下し、階層標識102が撮影範囲の外側に外れると、階層標識104に基づく撮影位置制御に切り替える。ただし、無人機1は、風などの影響によって姿勢や位置が変動するから、図8のように、階層標識102及び104の中心位置である目標位置CP0が、常にカメラ画像の中心に位置するわけではない。
The
図9及び10図を参照して、無人機1が、降下する制御を具体的に説明する。図9に示すように、無人機1は、外側の階層標識102がカメラ画像内に入るように無人機1の位置を制御しつつ降下する。相対的に高度が高い状態においては、例えば、図9に示すように、カメラ画像の撮影範囲S11において、階層標識102の中心位置は左に寄っていても、無人機1が高度を下げて、撮影範囲S12、S13、S14、S15となるにつれて、階層標識102の中心位置はカメラ画像の中心に近づいたり遠ざかったりしつつも、全体的には徐々に中心に寄っていき、最終的に、中心に近い状態になる。このように、撮影位置制御を実施しつつ降下することによって、降下接近効果を奏する。
The control of the unmanned
内側の階層標識104においても同様であり、例えば、図10に示すように、カメラ画像の撮影範囲S21において、階層標識104の中心位置は右に寄っていても、無人機1が高度を下げて、撮影範囲S22、S23、S24、S25となるにつれて、カメラ画像における階層標識104の中心位置はカメラ画像の中央に近づいたり遠ざかったりしつつも、全体的には徐々に中央に寄っていき、最終的に、階層標識104の中心位置はカメラ画像の中心に近くなる。すなわち、降下接近効果を奏する。
The same applies to the inner
無人機1は、認識対象である階層標識102または104がカメラ画像内に入れば降下を継続し、カメラ画像の中心に階層標識102の中心位置が位置するように無人機1の水平方向の位置を制御する。これに対して、無人機1は、認識対象である階層標識102または104がカメラ画像に入らない場合には、下降を停止、あるいは、下降速度を低下して、認識対象である階層標識102または104がカメラ画像に入るように無人機1の水平方向の位置を調整し、認識対象である階層標識102または104がカメラ画像に入った時点で撮影位置制御を実施しつつ下降を再開する。
The
図11に示すように、無人機1は、着陸領域90の上空に到達すると、カメラ14によって、矢印Z1に示す方向である鉛直方向における下方を撮影する。カメラ14の撮影範囲は、例えば、画角θ1で示される。図11の状態においては、画角θ1の撮影範囲は円S31の範囲であり、階層標識102及び階層標識104の双方が認識可能である。しかし、無人機1は、認識対象決定プログラムによって、外側の階層標識102のみを認識するように構成されている。無人機1は、階層標識102及び要素標識102a乃至102h及び102inを認識する。
As shown in FIG. 11, when the unmanned
無人機1は、記憶部52に格納している階層標識102の位置データ及び、要素標識102a乃至102hの目標位置CP0との関係を示すデータを参照し、機首方向を所定の方向に制御する。そして、無人機1は、カメラ画像に階層標識102の外形102outの全体が入るように、撮影位置制御を実施しつつ、降下する。
The
図12に示すように、無人機1が降下した結果、階層標識102がカメラ画像の外側に外れ、カメラ14の撮影範囲に階層標識102の全体が認識できない状態になると、認識対象決定プログラムによって認識する対象を内側の階層標識104に切り替える。そして、無人機1は、目標標識認識プログラムによって、階層標識104及び要素標識104a乃至104iを認識し、記憶部52に格納している階層標識104の位置データ及び、要素標識104a乃至104iの目標位置との関係を示すデータを参照し、機首方向を所定の方向に制御する。そして、無人機1は、カメラ画像に階層標識104の外形104outが入るように、撮影位置制御を実施しつつ、降下する。
As shown in FIG. 12, as a result of the
階層標識102及び104の外形102out及び104outがカメラ画像の撮影範囲内に入るように、撮影位置制御を実施しつつ降下することによって、図13に示すように、無人機1は、目標位置CP0の水平方向の位置に徐々に近づきながら降下することができる。図13に、目標位置の鉛直線上の空中に架空の枠として枠102air及び枠104airを示す。枠102airは外側の階層標識102に対応し、枠104airは内側の階層標識104に対応する。階層標識102及び104に基づいて撮影位置制御を実施しつつ降下することは、無人機1が枠102airを通過し、枠104airを通過することを目指して降下することと技術的概念として等価である。このため、無人機1が、複数段階の階層標識102及び104に基づいて撮影位置制御を実施しつつ降下することによって、無人機1が降下するに連れて、無人機1の水平方向の位置は目標位置CP0を含む鉛直線上に近づく降下接近効果を奏する。これにより、無人機1は、目標標識100を参照して、正確な目標位置CP0に降下することができる。また、無人機1は、相対情報を有しているから、機首方向を所定の方向に維持しつつ降下することができる。
As shown in FIG. 13, the unmanned
以下、図14のフローチャートを参照して、無人機1の動作の概略を説明する。無人機1が、目標位置CP0の上空に到達すると(図14のステップST1)、着陸プログラム
による降下制御を開始する。無人機1は、鉛直方向における下方を撮影し、認識対象決定プログラムによって、外側の階層標識102を認識対象として設定する(ステップST2)。続いて、無人機1は、目標標識認識プログラムによって、外側の階層標識102を認識すると(ステップST3)、階層標識102の全体をカメラ画像に投影するように無人機1の水平方向の位置を制御しつつ降下する(ステップST4)。無人機1の高度が下がり、階層標識102がカメラ14の撮影範囲から外れると(ステップST5)、認識対象決定プログラムによって、認識対象を内側の階層標識104に変更し(ステップST6)、目標標識認識プログラムによって階層標識104を認識し、階層標識104の全体をカメラ画像に投影するように無人機1の水平方向の位置を制御しつつ降下し(ステップST7)、着陸したと判断すると(ステップST8)、停止する。着陸の判断は、例えば、慣性センサー部58(図3参照)の出力から、下方への移動が停止したことを判断することによって行ってもよい。
Hereinafter, the outline of the operation of the unmanned
本実施形態において、階層標識は、階層標識102及び104の2段階とした。本発明は、複数段階の階層標識を使用することを特徴とするから、本実施形態とは異なり、階層標識は2階層に限らず、例えば、3階層以上の階層にしてもよい。また、本実施形態とは異なり、姿勢制御と撮影位置制御において、優先順位をつけてもよい。例えば、姿勢制御によって階層標識102または104がカメラ画像の中心に近づかない場合に、撮影位置制御を実施するようにしてもよい。あるいは、本実施形態とは異なり、撮影位置制御は、姿勢制御の時間間隔よりも長い時間間隔において実施するようにしてもよい。例えば、姿勢制御を1000分の1秒ごとに実施するとすれば、撮影位置制御は10分の1秒ごとに実施する。また、本実施形態とは異なり、階層標識102及び104の全体をカメラ画像に投影するように無人機1の水平位置を制御しつつ降下するのではなく、階層標識102及び104の中心位置がカメラ画像の中心位置に位置するように無人機1の水平方向の位置を制御しつつ降下するようにしてもよい。この場合、階層標識102及び104の中心位置は、階層標識102及び104の全体を認識することによって認識する。また、階層標識102及び104をカメラ画像に投影することによって降下方向を制御する技術は、以上に限定されない。例えば、無人機1の水平方向の位置制御に階層標識102を採用する場合には、カメラ画像中における階層標識102の画素数が増加するように制御し、階層標識104を採用する場合には、カメラ画像中における階層標識104の画素数が増加するように制御するようにしてもよい。
In the present embodiment, the hierarchical marking has two stages of
<第二の実施形態>
次に、図15を参照して、第二の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第二の実施形態においては、図15のステップST4A及びST7Aに示すように、無人機1は、階層標識102及び104の中心位置をカメラ画像の中心位置に投影するように無人機1の水平位置を制御しつつ降下する。
<Second embodiment>
Next, a second embodiment will be described with reference to FIG. The description of the matters common to the first embodiment will be omitted, and the matters different from the first embodiment will be mainly described. In the second embodiment, as shown in steps ST4A and ST7A of FIG. 15, the unmanned
<第三の実施形態>
次に、図16を参照して、第三の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第三の実施形態においては、無人機1は、目標位置CP0の上空に到達すると、外側の階層標識102を認識し、階層標識102の外形102outの全体がカメラ画像に投影されるように水平方向の位置を制御しつつ降下するのであるが、このとき、内側の階層標識104も認識している。そして、外側の階層標識102の外形102outの全体がカメラ画像に投影できなくなる直前に、内側の階層標識104の外形104outの全体をカメラ画像に投影しつつ降下する制御に切り替える。外側の階層標識102の外形102outの全体がカメラ画像に投影できなくなる直前は、例えば、外形102outの一部がカメラ画像の最も外側に達したときとするが、これに限定されない。
<Third embodiment>
Next, a third embodiment will be described with reference to FIG. The description of the matters common to the first embodiment will be omitted, and the matters different from the first embodiment will be mainly described. In the third embodiment, when the
図16のステップST4Bに示すように、無人機は、階層標識102の全体をカメラ画像に投影するように水平方向の位置を制御しつつ降下するときに、並行して、内側の階層標識104を認識している。ただし、内側の階層標識104は、撮影位置制御には使用しない。無人機1は、外側の階層標識102の外形102outの一部がカメラ画像から外れる直前であると判断すると(ステップST5B)、内側の階層標識104の外形104outをカメラ画像に投影するように無人機1の水平位置を制御しつつ降下する制御に切り替える(ステップST6)。この制御によれば、無人機1は、途切れることなく撮影位置制御を実施しつつ降下することができる。
As shown in step ST4B of FIG. 16, when the unmanned aircraft descends while controlling the horizontal position so as to project the entire
<第四の実施形態>
次に、図17乃至20を参照して、第四の実施形態について説明する。第一の実施形態と共通する事項の説明は省略し、第一の実施形態と異なる事項を中心に説明する。第四の実施形態においては、図17及び18に示すように、目標標識100は、充電基地400に配置される。充電基地400は、基部402、及び、左右の移動筐体404A及び404Bから構成される。
<Fourth Embodiment>
Next, a fourth embodiment will be described with reference to FIGS. 17 to 20. The description of the matters common to the first embodiment will be omitted, and the matters different from the first embodiment will be mainly described. In a fourth embodiment, the
左右の移動筐体404A及び404Bは、図17及び18に示すように、矢印X1方向及び矢印X2方向に示すように、水平方向に往復移動可能であり、図17に示す開放状態及び図18に示す閉鎖状態を形成する。
The left and right
目標標識100は、基部402の水平方向における中央部に配置されており、図17に示す開放状態においては外部に露出し、図18に示す閉鎖状態においては移動筐体404A及び404Bによって覆われるように構成されている。
The
無人機1は、充電基地400が開放状態において、目標標識100に示される目標位置に向かって降下する。無人機1が基部402に着陸すると、充電基地400は閉鎖し、無人機1に対する充電が実施される。
The unmanned
無人機1の記憶部52には、形状推定プログラムが格納されている。無人機1は、形状推定プログラムによって、階層標識102の一部のみが認識できる場合において、階層標識102の全体形状を推定することができる。そして、無人機1は、着陸プログラムによって、推定した階層標識102がカメラ画像の撮影範囲内に入る状態を維持し、かつ、推定した階層標識102の全体がカメラ画像内に入るように撮影位置制御を実施しつつ、降下する。以上の制御は、階層標識104についても同様である。形状推定プログラムとCPU50は、形状推定手段の一例である。
The shape estimation program is stored in the
例えば、図19及び図20に示すように、階層標識102及び104の一部が、影SD1及びSD2によって認識が困難な場合がある。
For example, as shown in FIGS. 19 and 20, some of the
無人機1は、目標標識認識プログラムによって、階層標識102及び階層標識104の要素標識を認識し、認識した要素標識に基づいて、階層標識102及び階層標識104の全体形状を推定することができる。
The
例えば、図19に示すように、外側の階層標識102の要素標識のうち、要素標識102a、102b、102g及び102hが認識可能であり、他の要素標識102c等は認識不可能な場合、認識可能な要素標識102a、102b、102g及び102hから外層標識102の全体形状を推定する。このことは、図20に示すように、内側の階層標識104の一部の要素標識が認識可能な場合においても同様である。
For example, as shown in FIG. 19, among the element signs of the outer
そして、無人機1は、着陸プログラムによって、推定した階層標識102または階層標識104がカメラ画像の撮影範囲内に位置するように、撮影位置制御を実施しつつ、降下する。
Then, the
なお、本実施形態において、人工知能の使用は必須ではないが、無人機1は、様々な環境条件において撮影した画像データを使用した機械学習の結果を利用して、階層標識102及び階層標識104の一部から、階層標識102及び104を認識するように構成してもよい。目標標識100について、様々な見え方の画像を学習することによって、所定の部分の特徴を抽出し、どのような見え方であっても、所定の部分を識別するための学習結果データを生成することができる。特徴データに示される特徴は、様々な環境条件においても不変の特徴と、様々な環境条件ごとの特徴の双方を含む。この場合、無人機1は、学習結果データを記憶部52に格納している。
Although the use of artificial intelligence is not essential in the present embodiment, the
機械学習は、無人機1自体が実施する必要はなく、外部のコンピュータが実施し、無人機1はその学習結果を利用するようにしてもよい。機械学習の方式は、例えば、深層学習(ディープラーニング)を採用する。深層学習とは、多層構造のニューラルネットワークを用いた機械学習であり、画像認識の分野が有力な活用分野の一つである。ニューラルネットワークは、例えば、畳み込みニューラルネットワーク(CNN:Conlolutional Neural Network)である。畳み込みニューラルネットワークは、入力層(input layer)、畳み込み層(convolution layer)、プーリング層(pooling layer)、全結合層(fully connetced layer)、出力層(output layer)から構成され、畳み込み層とプーリング層は複数回繰り返して深い層を形成し、その後の全結合層も複数層続く。無人機1は、ディープラーニングによって生成した学習結果データを使用することによって、階層標識102または104がどのような見え方であっても識別することができる。
The machine learning does not have to be carried out by the unmanned
<第五の実施形態>
次に、図21を参照して、第五の実施形態について説明する。第一の実施形態または第二の実施形態と共通する事項の説明は省略し、異なる事項を中心に説明する。第五の実施形態においては、図21に示すように、複数の無人機1A,1B及び1Cが運用され、各無人機1A等について、それぞれ、目標標識100A,100B及び100Cが割り当てられている。
<Fifth Embodiment>
Next, a fifth embodiment will be described with reference to FIG. The explanation of the matters common to the first embodiment or the second embodiment will be omitted, and the explanation will be focused on different matters. In the fifth embodiment, as shown in FIG. 21, a plurality of unmanned
各無人機1A等は、着陸プログラムによって、それぞれに割り当てられた目標標識100A等が示す目標位置に向かって降下するように構成されている。
Each unmanned aerial vehicle 1A or the like is configured to descend toward the target position indicated by the
<第六の実施形態>
次に、図22を参照して、第六の実施形態について説明する。第五の実施形態と共通する事項の説明は省略し、異なる事項を中心に説明する。第六の実施形態においては、複数の無人機1A,1B及び1Cには、特定の目標標識が割り当てられているのであるが、無人機1A等の管理者によって変更可能に構成されている。
<Sixth Embodiment>
Next, a sixth embodiment will be described with reference to FIG. The explanation of the matters common to the fifth embodiment will be omitted, and the explanation will be focused on different matters. In the sixth embodiment, a specific target sign is assigned to the plurality of unmanned
例えば、図22に示すように、無人機1Aの記憶部には、複数の目標標識として、目標標識X1及びX2についてのデータが格納されている。無人機1Bの記憶部にも、無人機1Aと同様に、複数の目標標識として、目標標識X1及びX2についてのデータが格納されている。無人機1Aに当初割り当てられた目標標識が目標標識X1であり、無人機1Bに当初割り当てられた目標標識が目標標識X2であるとする。本実施形態においては、管理者によって、無人機1A等に当初割り当てられた目標標識を他の目標標識に変更することができる。これにより、例えば、無人機1Aが故障した場合において、無人機1Bの目標標識を目標標識X1に変更し、無人機1Aの任務を実施させるという運用が可能となる。
For example, as shown in FIG. 22, data about the target signs X1 and X2 are stored as a plurality of target signs in the storage unit of the unmanned machine 1A. Similar to the unmanned machine 1A, the storage unit of the
なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。また、上述の各実施形態は、適宜、組み合わせることができる。 The present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention. In addition, each of the above-described embodiments can be combined as appropriate.
1,1A,1B,1C 無人機
2 筐体
6 モーター
14 カメラ
52 記憶部
56 衛星測位部
90 発着領域
100 目標標識
102,104 階層標識
102a,102b,102c,102d,102e,102f,102g,102h,102in,104a,104b,104c,104d,104e,104f,104g,104h,104i 要素標識
1,1A, 1B,
Claims (8)
前記目標位置を含む領域に配置される目標標識を有し、
前記目標標識は、水平方向における外形の大きさが異なる複数段階の階層標識から構成され、
相対的に外形が小さな前記階層標識は、相対的に外形が大きな前記階層標識の内側に配置され、
前記複数段階の前記階層標識は水平方向における内側に前記目標位置を含み、
前記無人飛行体は、
前記階層標識を構成する各部の相対的な位置関係を示す情報である相対情報と、
下方を撮影可能な画像取得手段と、
を有し、
前記画像取得手段の撮影範囲内において相対的に外形が大きな前記階層標識を認識可能な場合には、前記相対的に外形が大きな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下し、
前記無人飛行体が降下した結果、前記撮影範囲内において前記相対的に外形が大きな前記階層標識が認識不可能になった場合には、前記相対的に外形が小さな前記階層標識が前記撮影範囲内に位置するように前記無人飛行体を制御しつつ降下する、
降下システム。 It is a descent system for landing an unmanned aircraft that flies by controlling the rotation of propellers connected to the rotation axes of multiple motors at a target position.
Having a target marker placed in the area containing the target position
The target sign is composed of a plurality of levels of hierarchical signs having different outer dimensions in the horizontal direction.
The hierarchical sign having a relatively small outer shape is arranged inside the hierarchical sign having a relatively large outer shape.
The plurality of stages of the hierarchical marker include the target position inside in the horizontal direction.
The unmanned aircraft
Relative information, which is information indicating the relative positional relationship of each part constituting the hierarchical sign, and
An image acquisition means that can take a picture of the bottom,
Have,
When the layered sign having a relatively large outer shape can be recognized within the photographing range of the image acquisition means, the unmanned flying object has the layered sign having a relatively large outer shape located within the photographing range. Descent while controlling
When the layered sign having a relatively large outer shape becomes unrecognizable as a result of the unmanned flying object descending, the layered sign having a relatively small outer shape is within the shooting range. Descent while controlling the unmanned aircraft so that it is located at
Descent system.
請求項1に記載の降下システム。 When the unmanned vehicle descends while controlling the unmanned vehicle so that the layered sign having a relatively large outer shape is located within the photographing range, the unmanned vehicle also recognizes the layered sign having a relatively small outer shape. Then, as a result of the unmanned flying object descending, the layered sign having a relatively small outer shape becomes unrecognizable before the layered sign having a relatively large outer shape becomes unrecognizable within the photographing range. Switch to descent control while controlling to be within the shooting range.
The descent system according to claim 1.
請求項1または請求項2に記載の降下システム。 The innermost hierarchical sign is defined by the size of the outer shape that the unmanned vehicle can recognize within the shooting range even when the unmanned vehicle lands.
The descent system according to claim 1 or 2.
前記相対情報は、各前記要素標識を基準とする前記目標位置の方向及び距離を示す情報であり、
前記無人飛行体は、前記要素標識に示される前記目標位置の方向及び距離に基づいて、前記無人飛行体自体の機首方向を所定方向に制御する、
請求項1乃至請求項3のいずれかに記載の降下システム。 The multi-stage hierarchical sign is composed of a plurality of element signs.
The relative information is information indicating the direction and distance of the target position with respect to each element marker.
The unmanned vehicle controls the nose direction of the unmanned vehicle itself in a predetermined direction based on the direction and distance of the target position indicated on the element marker.
The descent system according to any one of claims 1 to 3.
前記階層標識の一部の前記要素標識によって、前記階層標識の全体を推定する推定手段を有し、
推定した前記階層標識が前記撮影範囲内に位置するように制御しつつ降下する、
請求項4に記載の降下システム。 The unmanned aircraft
It has an estimation means for estimating the whole of the hierarchical label by the element label which is a part of the hierarchical label.
The estimated hierarchical sign descends while being controlled so as to be located within the shooting range.
The descent system according to claim 4.
前記無人飛行体は、前記目標位置に、前記機首方向を前記所定方向に向けた状態において着陸し、前記充電装置によって前記無人飛行体の電源を充電するように構成されている、
請求項4または5に記載の降下システム。 In the area including the target position, a charging device for charging the rechargeable power source of the unmanned vehicle is arranged.
The unmanned aircraft is configured to land at the target position with the nose direction facing the predetermined direction, and to charge the power supply of the unmanned aircraft by the charging device.
The descent system according to claim 4 or 5.
各前記無人飛行体には、異なる前記目標標識が割り当てられ、
各前記無人飛行体は、割り当てられた前記目標標識が示す前記目標位置に向かって降下するように構成されている、
請求項1乃至請求項6のいずれかに記載の降下システム。 The descent system has a plurality of the unmanned aircraft and a plurality of the target markers.
Each said unmanned vehicle is assigned a different said target marker.
Each unmanned vehicle is configured to descend towards the target position indicated by the assigned target sign.
The descent system according to any one of claims 1 to 6.
予め有している前記目標標識の特徴を示すデータと、前記画像取得手段によって取得した画像データにおける画像から抽出した特徴データとの相関度に基づいて、前記目標標識を認識するように構成されており、
前記目標標識の特徴を示すデータは、深層学習(ディープラーニング)によって生成されたデータを含む請求項1乃至7のいずれかに記載の降下システム。 The unmanned aircraft
It is configured to recognize the target marker based on the degree of correlation between the data indicating the characteristics of the target marker held in advance and the feature data extracted from the image in the image data acquired by the image acquisition means. Ori
The descent system according to any one of claims 1 to 7, wherein the data indicating the characteristics of the target marker includes data generated by deep learning.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020080714A JP7539688B2 (en) | 2020-04-30 | 2020-04-30 | Unmanned aerial vehicle descent system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020080714A JP7539688B2 (en) | 2020-04-30 | 2020-04-30 | Unmanned aerial vehicle descent system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021172318A true JP2021172318A (en) | 2021-11-01 |
JP7539688B2 JP7539688B2 (en) | 2024-08-26 |
Family
ID=78279456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080714A Active JP7539688B2 (en) | 2020-04-30 | 2020-04-30 | Unmanned aerial vehicle descent system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7539688B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114044158A (en) * | 2021-11-29 | 2022-02-15 | 浙江图盛输变电工程有限公司温州科技分公司 | Unmanned aerial vehicle autopilot system based on artificial intelligence image recognition |
KR20230068839A (en) * | 2021-11-11 | 2023-05-18 | 한국전력 국제원자력대학원대학교 산학협력단 | A guided landing method of drone using multiple landing marks |
WO2023119298A1 (en) * | 2021-12-23 | 2023-06-29 | Ariel Scientific Innovations Ltd. | Unmanned aerial vehicle and a method of landing same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170045894A1 (en) * | 2015-08-12 | 2017-02-16 | Qualcomm Incorporated | Autonomous Landing and Control |
US20170225800A1 (en) * | 2016-02-05 | 2017-08-10 | Jordan Holt | Visual landing aids for unmanned aerial systems |
JP2018124718A (en) * | 2017-01-31 | 2018-08-09 | イームズロボティクス株式会社 | Proxy device, base station, proxy method and program |
WO2019175993A1 (en) * | 2018-03-13 | 2019-09-19 | 日本電気株式会社 | Target member |
WO2019175994A1 (en) * | 2018-03-13 | 2019-09-19 | 日本電気株式会社 | Moving body guidance device, moving body guidance method, and computer readable recording medium |
US10479528B1 (en) * | 2018-11-06 | 2019-11-19 | Ping Liang | Network of distributed drone system and parking pads |
-
2020
- 2020-04-30 JP JP2020080714A patent/JP7539688B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170045894A1 (en) * | 2015-08-12 | 2017-02-16 | Qualcomm Incorporated | Autonomous Landing and Control |
US20170225800A1 (en) * | 2016-02-05 | 2017-08-10 | Jordan Holt | Visual landing aids for unmanned aerial systems |
JP2018124718A (en) * | 2017-01-31 | 2018-08-09 | イームズロボティクス株式会社 | Proxy device, base station, proxy method and program |
WO2019175993A1 (en) * | 2018-03-13 | 2019-09-19 | 日本電気株式会社 | Target member |
WO2019175994A1 (en) * | 2018-03-13 | 2019-09-19 | 日本電気株式会社 | Moving body guidance device, moving body guidance method, and computer readable recording medium |
US10479528B1 (en) * | 2018-11-06 | 2019-11-19 | Ping Liang | Network of distributed drone system and parking pads |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230068839A (en) * | 2021-11-11 | 2023-05-18 | 한국전력 국제원자력대학원대학교 산학협력단 | A guided landing method of drone using multiple landing marks |
KR102579913B1 (en) * | 2021-11-11 | 2023-09-15 | 한국전력 국제원자력대학원대학교 산학협력단 | A guided landing method of drone using multiple landing marks |
CN114044158A (en) * | 2021-11-29 | 2022-02-15 | 浙江图盛输变电工程有限公司温州科技分公司 | Unmanned aerial vehicle autopilot system based on artificial intelligence image recognition |
CN114044158B (en) * | 2021-11-29 | 2024-06-04 | 浙江图盛输变电工程有限公司温州科技分公司 | Unmanned aerial vehicle automatic driving system based on artificial intelligent image recognition |
WO2023119298A1 (en) * | 2021-12-23 | 2023-06-29 | Ariel Scientific Innovations Ltd. | Unmanned aerial vehicle and a method of landing same |
Also Published As
Publication number | Publication date |
---|---|
JP7539688B2 (en) | 2024-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11604479B2 (en) | Methods and system for vision-based landing | |
US11332033B2 (en) | Systems and methods for UAV battery exchange | |
US10611252B2 (en) | Systems and methods for UAV battery power backup | |
CN108453738B (en) | Control method for four-rotor aircraft aerial autonomous grabbing operation based on Opencv image processing | |
CN110062919B (en) | Drop-off location planning for delivery vehicles | |
JP7539688B2 (en) | Unmanned aerial vehicle descent system | |
JP2019520719A (en) | Vision based calibration system for unmanned aerial vehicles | |
WO2019040254A1 (en) | Systems and methods for improving performance of a robotic vehicle by managing on-board camera defects | |
CN106054929A (en) | Unmanned plane automatic landing guiding method based on optical flow | |
US11745899B2 (en) | Adhoc geo-fiducial mats for landing UAVs | |
US20230419843A1 (en) | Unmanned aerial vehicle dispatching method, server, base station, system, and readable storage medium | |
CN113495569A (en) | Unmanned aerial vehicle accurate landing method based on autonomous identification | |
JP2020149640A (en) | Flight system and landing control method | |
WO2023080950A1 (en) | Automated assignment of uavs to staging pads | |
KR102231574B1 (en) | Unmanned Aerial Vehicle landing method that can safely land on a moving landing pad and Unmanned Aerial Vehicle landing system using the same | |
CN115981355A (en) | Unmanned aerial vehicle automatic cruise method and system capable of landing quickly and accurately | |
JP2019188965A (en) | Unmanned flight body, learning result information, unmanned flight method and unmanned flight program | |
CN215813349U (en) | Unmanned aerial vehicle formation target real-time tracking and modeling system | |
CN112198894B (en) | Autonomous moving landing guidance method and system for rotor unmanned aerial vehicle | |
CN112313599B (en) | Control method, device and storage medium | |
CN221214317U (en) | Split type panorama detection robot based on intelligent interaction | |
KR102571330B1 (en) | Control apparatus for subject tracking shooting, drone and operation method thereof | |
US20240194081A1 (en) | Context-Based Navigation of Uncrewed Vehicles Using Relative Position Markers | |
US20230316741A1 (en) | Method for Semantic Localization of an Unmanned Aerial Vehicle | |
JP2023175386A (en) | flight system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7539688 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |