JP2018069961A - Device arrangement device, device arrangement method, and device arrangement program - Google Patents

Device arrangement device, device arrangement method, and device arrangement program Download PDF

Info

Publication number
JP2018069961A
JP2018069961A JP2016212929A JP2016212929A JP2018069961A JP 2018069961 A JP2018069961 A JP 2018069961A JP 2016212929 A JP2016212929 A JP 2016212929A JP 2016212929 A JP2016212929 A JP 2016212929A JP 2018069961 A JP2018069961 A JP 2018069961A
Authority
JP
Japan
Prior art keywords
aptitude
target area
image
area
device placement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212929A
Other languages
Japanese (ja)
Inventor
智幸 伊豆
Tomoyuki Izu
智幸 伊豆
軍 呉
Jun Wu
軍 呉
開 顔
Kai Kao
開 顔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Enroute Co Ltd
EnrouteMS Co Ltd
Original Assignee
Enroute Co Ltd
EnrouteMS Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Enroute Co Ltd, EnrouteMS Co Ltd filed Critical Enroute Co Ltd
Priority to JP2016212929A priority Critical patent/JP2018069961A/en
Publication of JP2018069961A publication Critical patent/JP2018069961A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a flight controller and a flight control method, which enable avoidance of harm to humans and animals upon descent.SOLUTION: A flight controller includes: image acquisition means for acquiring an image of a drop target zone; object recognition means for recognizing an object image included in the image; safety determination means for determining safety indicating drop compatibility, on the basis of the object recognized by the object recognition means; and airframe control means for dropping an airframe on the basis of the safety.SELECTED DRAWING: Figure 1

Description

本発明は、デバイス配置装置、デバイス配置方法及びデバイス配置プログラムに関する。   The present invention relates to a device placement apparatus, a device placement method, and a device placement program.

従来、無人航空機を使用して、無人地上センサーなどのデバイスを配置する方法が提案されている(特許文献1)。   Conventionally, a method for arranging devices such as unmanned ground sensors using an unmanned aerial vehicle has been proposed (Patent Document 1).

特開2008―150028号公報JP 2008-150028 A

しかし、上述の技術においては、デバイスを配置する投下地点の評価を無人航空機からの画像に基づいて、遠隔地に位置する人間が行う必要がある。このため、投下地点の評価に時間を要する場合があるうえに、画像が複雑な場合に、投下地点を正しく評価することができない場合がある。   However, in the above-described technology, it is necessary for a person located at a remote place to evaluate a drop point where the device is placed based on an image from an unmanned aircraft. For this reason, it may take time to evaluate the drop point, and when the image is complicated, the drop point may not be correctly evaluated.

本発明はかかる問題の解決を試みたものであり、デバイスの配置の際に、人間を介さずに、迅速かつ正確に、デバイスの配置位置を評価して、デバイスを配置することができるデバイス配置装置の提供を目的とする。   The present invention is an attempt to solve such a problem, and can arrange a device by arranging the device by evaluating the arrangement position of the device quickly and accurately without human intervention when arranging the device. The purpose is to provide a device.

第一の発明は、デバイスを配置する領域である目標領域に向かって自律移動するための自律移動手段と、
前記目標領域の画像を取得する画像取得手段と、
前記画像に含まれる物体を認識する物体認識手段と、
前記物体認識手段によって認識した物体に基づいて、前記デバイスを配置する位置としての適性を示す適性度を算出する適性度算出手段と、
前記適性度に基づいて、前記目標領域において、前記デバイスを配置するデバイス配置手段と、
を有するデバイス配置装置である。
The first invention is an autonomous movement means for autonomously moving toward a target area which is an area in which a device is arranged;
Image acquisition means for acquiring an image of the target area;
Object recognition means for recognizing an object included in the image;
Based on the object recognized by the object recognition means, aptitude degree calculating means for calculating aptitude degree indicating the aptitude as the position where the device is disposed;
Device placement means for placing the device in the target area based on the suitability level;
Is a device placement apparatus.

第一の発明の構成によれば、デバイス配置装置は、目標領域に向かって自律移動し、画像を取得し、画像中の物体を認識し、デバイスを配置するための適性度を算出したうえで、デバイスを配置する。このため、デバイスの配置の際に、人間を介さずに、迅速かつ正確に、デバイスの配置位置を評価して、デバイスを配置することができる。   According to the configuration of the first aspect of the invention, the device placement apparatus autonomously moves toward the target area, acquires an image, recognizes an object in the image, and calculates the suitability for placing the device. Place the device. For this reason, when the device is arranged, the device can be arranged by evaluating the arrangement position of the device quickly and accurately without using a human.

第二の発明は、第一の発明の構成において、前記物体認識手段は、深層学習(ディープラーニング)によって生成された特徴データを参照するデバイス配置装置である。   According to a second aspect of the present invention, in the configuration of the first aspect of the invention, the object recognition means refers to a device placement device that refers to feature data generated by deep learning.

第三の発明は、第一または第二のいずれかの発明の構成において、前記適性度算出手段は、前記目標領域を細分化して小領域とし、前記小領域ごとに前記適性度を算出し、
前記デバイス配置手段は、前記小領域の前記適性度に基づいて、前記デバイスを配置するようになっているデバイス配置装置である。
According to a third aspect of the present invention, in the configuration of the first or second aspect, the aptitude degree calculating unit subdivides the target area into small areas, and calculates the aptitude degree for each small area,
The device placement unit is a device placement device configured to place the device based on the suitability degree of the small area.

第四の発明は、第一乃至第三のいずれかの発明の構成において、前記デバイス配置装置は、隣接する前記小領域を小領域群とし、各前記小領域の前記適性度及び前記小領域群の前記適性度に基づいて、前記デバイスを配置するようになっているデバイス配置装置である。   According to a fourth aspect of the present invention, in the configuration according to any one of the first to third aspects, the device placement apparatus sets the adjacent small regions as small region groups, the suitability degree of each of the small regions, and the small region group. The device placement apparatus is adapted to place the device on the basis of the suitability degree.

第五の発明は、第一乃至第四のいずれかの発明の構成において、前記デバイス配置装置は、各前記目標領域の近傍において、前記画像取得手段によって、前記目標領域の周辺部を含む全体画像を取得し、
前記周辺部の前記適性度を参照して、前記デバイスを配置するようになっているデバイス配置装置である。
According to a fifth invention, in the configuration according to any one of the first to fourth inventions, the device placement apparatus includes a whole image including a peripheral portion of the target area by the image acquisition means in the vicinity of each target area. Get
The device placement apparatus is configured to place the device with reference to the suitability of the peripheral portion.

第六の発明は、自律移動可能なデバイス配置装置が実施するデバイス配置方法であって、
デバイスを配置する領域である目標領域に向かって自律移動する自律移動ステップと、
前記目標領域の画像を取得する画像取得ステップと、
前記画像に含まれる物体を認識する物体認識ステップと、
前記物体認識ステップにおいて認識した物体に基づいて、デバイスを配置する位置としての適性を示す適性度を算出する適性度算出ステップと、
前記適性度に基づいて、前記目標領域において、前記デバイスを配置するデバイス配置ステップと、
を含むデバイス配置方法である。
A sixth invention is a device placement method implemented by a device placement device capable of autonomous movement,
An autonomous movement step for autonomously moving toward a target area, which is an area where devices are arranged,
An image acquisition step of acquiring an image of the target area;
An object recognition step for recognizing an object contained in the image;
Based on the object recognized in the object recognition step, an aptitude degree calculating step for calculating an aptitude degree indicating aptitude as a position where the device is arranged;
A device placement step of placing the device in the target area based on the suitability level;
Is a device placement method.

第七の発明は、デバイス配置装置を制御するコンピュータを、
デバイスを配置する領域である目標領域に向かって自律移動するための自律移動手段、
前記目標領域の画像を取得する画像取得手段、
前記画像に含まれる物体を認識する物体認識手段、
前記物体認識手段によって認識した物体に基づいて、デバイスを配置する位置としての適性を示す適性度を算出する適性度算出手段、
前記適性度に基づいて、前記目標領域において、前記デバイスを配置するデバイス配置手段、
として機能させるためのデバイス配置プログラムである。
The seventh invention provides a computer for controlling the device placement apparatus,
An autonomous movement means for autonomously moving toward a target area, which is an area where devices are arranged,
Image acquisition means for acquiring an image of the target area;
Object recognition means for recognizing an object included in the image;
Based on the object recognized by the object recognition means, aptitude degree calculating means for calculating aptitude degree indicating aptitude as a position where the device is arranged,
Device placement means for placing the device in the target area based on the suitability level;
It is a device arrangement program for making it function as.

以上のように、本発明によれば、デバイスの配置の際に、人間を介さずに、迅速かつ正確に、デバイスの配置位置を評価して、デバイスを配置することができる。   As described above, according to the present invention, a device can be placed by evaluating the placement position of the device quickly and accurately without using a person when placing the device.

本発明の実施形態の作用の概略を示す図である。It is a figure which shows the outline of an effect | action of embodiment of this invention. 本発明の実施形態の作用の概略を示す図である。It is a figure which shows the outline of an effect | action of embodiment of this invention. デバイスを配置する目標領域の座標を示す概念図である。It is a conceptual diagram which shows the coordinate of the target area | region which arrange | positions a device. 本発明の実施形態の無人飛行体の機能構成を示す概略図である。It is the schematic which shows the function structure of the unmanned air vehicle of embodiment of this invention. デバイスを配置する目標領域の座標を示す概念図である。It is a conceptual diagram which shows the coordinate of the target area | region which arrange | positions a device. 本発明の実施形態のフローチャートである。It is a flowchart of an embodiment of the present invention. デバイスを配置する目標領域の座標を示す概念図である。It is a conceptual diagram which shows the coordinate of the target area | region which arrange | positions a device. デバイスを配置する目標領域の座標を示す概念図である。It is a conceptual diagram which shows the coordinate of the target area | region which arrange | positions a device.

本発明の実施形態を、図面を参照して説明する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。   Embodiments of the present invention will be described with reference to the drawings. Note that description of configurations that can be appropriately implemented by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.

<第一の実施形態>
図1及び図2に示す無人飛行体1(以下、「無人機1」という。)は、自律飛行可能な、いわゆる、ドローン、あるいは、マルチコプターある。無人機1は、デバイス配置装置の一例である。無人機1は、本体3及び4つの回転翼5を有する。各回転翼5は、それぞれ、モーターに連結されている。本体3には、無人機1の各部を制御するコンピュータ、自律飛行制御装置、無線通信装置、GPS(Global Positioning System)を利用した測位装置、加速度センサーやジャイロセンサーなどの慣性センサー、磁気センサー、気圧センサー、バッテリー等が配置されている。また、本体3には、カメラ7が接続されている。カメラ7は、デジタル画像を撮像するデジタルカメラ、あるいは、ビデオカメラ等である。無人機1は、通信装置によって、基地局50(図4参照)と通信可能になっている。
<First embodiment>
The unmanned aerial vehicle 1 (hereinafter referred to as “unmanned aircraft 1”) shown in FIGS. 1 and 2 is a so-called drone or multicopter capable of autonomous flight. The drone 1 is an example of a device placement device. The drone 1 has a main body 3 and four rotating blades 5. Each rotary blade 5 is connected to a motor. The main body 3 includes a computer that controls each part of the drone 1, an autonomous flight control device, a wireless communication device, a positioning device using GPS (Global Positioning System), an inertial sensor such as an acceleration sensor and a gyro sensor, a magnetic sensor, an atmospheric pressure Sensors, batteries, etc. are arranged. A camera 7 is connected to the main body 3. The camera 7 is a digital camera that captures a digital image, a video camera, or the like. The drone 1 can communicate with the base station 50 (see FIG. 4) by a communication device.

大領域100中の各領域P1〜P9は、デバイスを配置する目標領域の一例である。無人機1は、領域P1〜P9に向かって自律移動する。無人機1は、領域P1〜P9の座標データを有している。図3に、座標データの一例を概念的に示す。無人機1は、例えば、最初に領域1に向かい、領域1における作業が完了した後は、領域2に向かうというように、順々に作業を行うように構成されている。領域P1〜P9において、デバイスを配置する適性を有する位置がある場合には、図2に示すようにデバイスSを各領域P1〜P9に配置する。デバイスSは、例えば、環境を調査するためのセンサーまたは計測機器であって、振動を計測する振動センサー、放射線を測定する放射線センサー、風速センサー、湿度センサー、温度センサー等である。例えば、特定の集落に、デバイスSを配置することによって、その地域の地盤の状況を観測できる。   Each of the areas P1 to P9 in the large area 100 is an example of a target area in which devices are arranged. The drone 1 autonomously moves toward the areas P1 to P9. The drone 1 has coordinate data of the areas P1 to P9. FIG. 3 conceptually shows an example of coordinate data. The drone 1 is configured to work in sequence, for example, heading first to the region 1 and then heading to the region 2 after the work in the region 1 is completed. In the areas P1 to P9, when there is a position having the aptitude for arranging the device, the device S is arranged in each of the areas P1 to P9 as shown in FIG. The device S is, for example, a sensor or measurement device for investigating the environment, and is a vibration sensor that measures vibration, a radiation sensor that measures radiation, a wind speed sensor, a humidity sensor, a temperature sensor, or the like. For example, by arranging the device S in a specific village, the state of the ground in the area can be observed.

大領域100に示す地域200は、山202,204及び206を背景とし、前方に湖208がある。山206と湖208の間には、道路210が配置され、自動車214が通行している。山206の山裾と道路210の間には、複数の家屋からなる集落212が形成されている。無人機1は、地域200の中の大領域100に複数のデバイスSを配置するときに、集落212や道路210の近傍は回避し、また、デバイスSの種類によっては、湖208の近傍を回避するようになっている。さらに、無人機1は、デバイスSを配置するときに、例えば、領域1内において、デバイスSが最も性能を発揮できる場所を選択して配置するように構成されている。   A region 200 shown in the large region 100 has mountains 202, 204, and 206 as a background, and a lake 208 in the front. A road 210 is disposed between the mountain 206 and the lake 208, and an automobile 214 is passing therethrough. A village 212 made up of a plurality of houses is formed between the foot of the mountain 206 and the road 210. When the drone 1 places a plurality of devices S in the large area 100 in the region 200, the drone avoids the vicinity of the village 212 and the road 210, and depending on the type of the device S, avoids the vicinity of the lake 208. It is supposed to be. Furthermore, the drone 1 is configured to select and arrange a place where the device S can exhibit the most performance in the region 1 when the device S is arranged.

図4に示すように、無人機1は、CPU(Central Processing Unit)10、記憶部12、無線通信部14、GPS(Global Positioning System)部16、慣性センサー部18、画像処理部20、駆動制御部22、デバイス配置制御部24、及び、電源部26を有する。   4, the drone 1 includes a CPU (Central Processing Unit) 10, a storage unit 12, a wireless communication unit 14, a GPS (Global Positioning System) unit 16, an inertial sensor unit 18, an image processing unit 20, and drive control. Section 22, device arrangement control section 24, and power supply section 26.

無線通信部14によって、無人機1は基地局50と通信可能になっている。基地局50は、無人機1の離陸及び着陸を監視及び管理する管理装置の一例であり、適宜、飛行に関する指示を与えるようになっている。   The wireless communication unit 14 enables the drone 1 to communicate with the base station 50. The base station 50 is an example of a management device that monitors and manages take-off and landing of the drone 1 and appropriately gives instructions regarding flight.

GPS部16と慣性センサー部18によって、無人機1は機体の位置を測定することができる。GPS部16は、基本的に、3つ以上のGPS衛星からの電波を受信して無人飛行体1の位置を計測する。慣性センサー部18は、例えば、加速度センサー及びジャイロセンサーによって、出発点からの無人機1の移動を積算して、無人機1の位置を計測する。   The drone 1 can measure the position of the airframe by the GPS unit 16 and the inertial sensor unit 18. The GPS unit 16 basically receives radio waves from three or more GPS satellites and measures the position of the unmanned air vehicle 1. The inertial sensor unit 18 measures the position of the drone 1 by accumulating the movement of the drone 1 from the starting point using, for example, an acceleration sensor and a gyro sensor.

画像処理部20によって、無人機1は、カメラ7を作動させて画像を取得することができる。   By the image processing unit 20, the drone 1 can acquire an image by operating the camera 7.

駆動制御部22によって、無人機1は、各回転翼5の回転を制御するようになっている。   The drone 1 controls the rotation of each rotary blade 5 by the drive control unit 22.

デバイス配置制御部24によって、無人機1は、その機体に搭載したデバイスを領域P1〜P9に配置するようになっている。   The device placement control unit 24 causes the drone 1 to place devices mounted on the machine body in the areas P1 to P9.

電源部26は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。   The power supply unit 26 is, for example, a replaceable rechargeable battery, and supplies power to each unit of the drone 1.

記憶部12には、出発点から目的位置まで自律飛行するための飛行計画を示すデータ等の無人飛行に必要な各種データ及びプログラムや、以下の各プログラムが格納されている。   The storage unit 12 stores various data and programs necessary for unmanned flight such as data indicating a flight plan for autonomous flight from a starting point to a target position, and the following programs.

記憶部12には、画像取得プログラム、物体認識プログラム、適性度算出プログラム、デバイス配置プログラムが格納されている。   The storage unit 12 stores an image acquisition program, an object recognition program, an aptitude degree calculation program, and a device arrangement program.

CPU10及び画像取得プログラムは、画像処理部20を作動させて、画像を取得するための画像取得手段の一例である。無人機1は、画像取得プログラムによって、領域P1〜P9の各領域の画像を取得する。無人機1は、目標領域として、例えば、領域P1の近傍に至ったと判断した場合に、領域P1全体の画像を取得する。例えば、無人機1は、領域P1の中心座標から水平面における距離が100m(メートル)以内に入った場合に、領域P1の近傍に至ったと判断し、領域P1の画像取得を開始する。無人機1は、領域P1に接近すると、図5に示すように、領域P1を小領域a〜pに分割し、各小領域a〜pに焦点を当てた画像取得を行う。   The CPU 10 and the image acquisition program are an example of image acquisition means for operating the image processing unit 20 and acquiring an image. The drone 1 acquires images of the areas P1 to P9 by the image acquisition program. For example, when the drone 1 determines that the target region has reached the vicinity of the region P1, the drone 1 acquires an image of the entire region P1. For example, when the distance on the horizontal plane is within 100 m (meters) from the center coordinate of the region P1, the drone 1 determines that the vicinity of the region P1 has been reached and starts acquiring an image of the region P1. When the drone 1 approaches the area P1, as shown in FIG. 5, the area P1 is divided into small areas a to p, and image acquisition focusing on the small areas a to p is performed.

CPU10及び物体認識プログラムは、物体認識手段の一例である。無人機1は、物体認識プログラムによって、深層学習(ディープラーニング)によって生成された特徴データを参照するようになっており、取得した画像に含まれる物体の特徴を識別して、物体を認識できるようになっている。なお、深層学習(ディープラーニング)とは、多層構造のニューラルネットワークの機械学習であり、画像認識の分野が有力な活用分野の一つである。物体認識プログラムは、地形の凹凸なども物体として認識する。   The CPU 10 and the object recognition program are examples of object recognition means. The drone 1 refers to feature data generated by deep learning (deep learning) by the object recognition program, and can recognize the feature by identifying the feature of the object included in the acquired image. It has become. Note that deep learning is machine learning of a neural network having a multilayer structure, and the field of image recognition is one of the promising fields of use. The object recognition program recognizes terrain irregularities as objects.

無人機1は、例えば、小領域a,b,c,d,e,f,i,j,m,n,o及びpは、凹凸が激しい地形であると認識する。そして、例えば、小領域g及びhは比較的平坦であるが植物が多い地形、小領域k及びlは、非常に平坦で乾燥していると認識する。   The drone 1 recognizes that, for example, the small areas a, b, c, d, e, f, i, j, m, n, o, and p are terrain with severe irregularities. Then, for example, it is recognized that the small areas g and h are relatively flat but have a lot of plants, and the small areas k and l are very flat and dry.

CPU10と適性度算出プログラムは適性度算出手段の一例である。適性度算出プログラムは、物体認識プログラムによって認識した物体に基づいて、デバイスを配置する位置としての適性を示す適性度を算出するためのプログラムである。適性度算出プログラムは、デバイスの種類ごとに、適性度定義データを有する。適性度定義データは、デバイスが有効に機能する環境に応じて、適性度を規定している。例えば、家屋に近い場合、自動車が通行する道路に近い場合、あるいは、凹凸が激しい地形で、デバイスを安定して配置できない場合には、適性度は低い。水没に適さないデバイスついては、水溜まりであって、デバイスが水没する場合には、適性度が低い。これに対して、平坦な地形であって、乾燥している場合には、適性度が高い。適性度は、例えば、低い方から高い方へ、5段階で評価するものとする。最も低い適性度は適性度1であり、最も適性度が高い場合には適性度5である。適性度定義データは、例えば、家屋近傍や水溜まりは適性度1、道路近傍は適性度2、凹凸の激しい地形は適性度3、平坦で乾燥した場所の適性度5というように、物体の種類と適性度を関連付けたデータである。無人機1は、適性度算出プログラムの適性度定義データを参照して、デバイスを配置する位置の適性度を判断するようになっている。   The CPU 10 and the aptitude degree calculation program are examples of aptitude degree calculation means. The aptitude degree calculation program is a program for calculating an aptitude degree indicating aptitude as a position where the device is arranged based on the object recognized by the object recognition program. The aptitude degree calculation program has aptitude degree definition data for each type of device. The aptitude degree definition data defines aptitude degrees according to the environment in which the device functions effectively. For example, the suitability is low when it is close to a house, close to a road on which an automobile passes, or when a device cannot be stably placed on a rough terrain. A device that is not suitable for submersion is a puddle, and if the device is submerged, its suitability is low. On the other hand, when the land is flat and dry, the suitability is high. For example, the aptitude is evaluated in five stages from low to high. The lowest aptitude is aptitude 1, and aptitude 5 is the highest aptitude. The aptitude degree definition data includes, for example, the aptitude level 1 for the vicinity of a house and a puddle, the aptitude level 2 for a road area, the aptitude level 3 for rugged terrain, and the aptitude level 5 for a flat and dry place. It is data associated with aptitude. The drone 1 refers to the aptitude degree definition data of the aptitude degree calculation program to determine the aptitude degree of the position where the device is arranged.

例えば、小領域k及びlは、非常に平坦で乾燥しており、デバイスが有効に機能する可能性が高いから、適性度が最も高く、適性度は5である。小領域g及びhは比較的平坦であるが植物が多い地形であり、適性度は3である。小領域a,b,c,d,e,f,i,j,m,n,o及びpは、凹凸が激しい地形であるから、適性度は1である。   For example, the small areas k and l are very flat and dry and have the highest suitability and 5 suitability because the device is likely to function effectively. The small areas g and h are relatively flat but have a lot of plants, and the suitability is 3. The small areas a, b, c, d, e, f, i, j, m, n, o, and p are terrain with severe irregularities, and therefore the suitability is 1.

CPU10とデバイス配置プログラムは機体制御手段の一例である。デバイス配置プログラムは、適性度に基づいて、デバイスを配置するためのプログラムである。無人機1は、小領域k及びlが適性度5であり、小領域g及びhが適性度が3であり、小領域a,b,c,d,e,f,i,j,m,n,o及びpは適性度1であることに基づいて、適性度が高い小領域k及びlを選択して、小領域kまたはlのいずれかにデバイスを配置する。   The CPU 10 and the device arrangement program are examples of machine control means. The device placement program is a program for placing devices based on suitability. In the drone 1, the small areas k and l have aptitude 5, the small areas g and h have aptitude 3, and the small areas a, b, c, d, e, f, i, j, m, Based on the fact that n, o, and p have aptitude 1, the small areas k and l having high aptitude are selected, and the device is placed in either the subarea k or l.

以下、無人機1の動作をフローチャートで説明する。図6に示すように、無人機1は、出発点から目標領域に向かって自律飛行し、目標領域である、例えば、領域P1の近傍に到達したか否かを判断し(ステップST1)、目標領域近傍に到達したと判断した場合には、カメラ7を作動させて画像取得を開始する(ステップST2)。続いて、無人機1は、最初にデバイスを配置する領域上空、例えば、領域P1の上空に到達したか否かを判断し(ステップST3)、当該領域上空に到達したと判断した場合には、各小領域a等に焦点を合わせて画像を取得し、画像に基づいて、各小領域ごとの適性度を算出する(ステップST4)。続いて、デバイスを配置する基準以上の適性度の小領域があるか否か、すなわち、適性地点があるか否かを判断し(ステップST5)、適性地点があれば、デバイスを配置し(ステップST6)、適性地点がない場合には、デバイスを配置しない(ステップST7)。続いて、無人機1は、すべての領域P1〜P9についての作業が完了したと判断した場合には(ステップST8)、画像取得を停止し、基地局に帰還する(ステップST9)。一方、無人機1は、すべての領域についての作業が完了していない判断した場合には(ステップST8)、次の領域へ移動する(ステップST10)。   Hereinafter, the operation of the drone 1 will be described with reference to a flowchart. As shown in FIG. 6, the drone 1 autonomously flies from the starting point toward the target area, determines whether or not the target area, for example, the vicinity of the area P1, has been reached (step ST1), If it is determined that the vicinity of the area has been reached, the camera 7 is operated to start image acquisition (step ST2). Subsequently, the drone 1 determines whether or not it has reached the sky above the area where the device is initially placed, for example, the sky above the area P1 (step ST3). An image is acquired by focusing on each small region a and the like, and the suitability degree for each small region is calculated based on the image (step ST4). Subsequently, it is determined whether or not there is a small area having an aptitude degree equal to or higher than a reference for arranging the device, that is, whether or not there is an aptitude point (step ST5). ST6) If there is no suitable point, no device is placed (step ST7). Subsequently, when the drone 1 determines that the operations for all the regions P1 to P9 have been completed (step ST8), it stops image acquisition and returns to the base station (step ST9). On the other hand, when it is determined that the operations for all the areas have not been completed (step ST8), the drone 1 moves to the next area (step ST10).

<第二の実施形態>
第二の実施形態においては、無人機1は、適性度算出プログラムによって、隣接する小領域を小領域群とし、各小領域の適性度及び小領域群の適性度に基づいて、デバイスを配置するようになっている。
<Second Embodiment>
In the second embodiment, the drone 1 arranges devices based on the suitability degree of each small area and the suitability degree of the small area group by setting the adjacent small areas as small area groups by the suitability degree calculation program. It is like that.

図7を参照して説明する。例えば、小領域gとkを小領域群とすると、その平均の適性度は4である。同様に、領域hと領域lからなる小領域群の平均の適性度は4であり、小領域kとoからなる小領域群の平均の適性度は3であり、小領域lとpからなる小領域群の平均の適性度は3であり、小領域kとlからなる小領域群の平均の適性度は5である。このように計算すると、小領域kとlの境界の平均の適性度が5であり最高値であるが、無人機1は、小領域kとlの境界の中でも、平均適性度が3の小領域o及びp側との境界側ではなくて、適性度が4の小領域g及びh側との境界側の方が適性が高いと判断するようになっている。すなわち、各小領域についての適性度に加えて、隣接する小領域からなる小領域群の適性度を使用することで、デバイスを配置するための一層適切な位置を判断することができる。   This will be described with reference to FIG. For example, if the small regions g and k are small region groups, the average suitability is 4. Similarly, the average suitability of the small region group composed of the regions h and l is 4, and the average suitability of the small region group composed of the small regions k and o is 3, which is composed of the small regions l and p. The average suitability of the small area group is 3, and the average suitability of the small area group consisting of the small areas k and l is 5. When calculated in this way, the average aptitude of the boundary between the small areas k and l is 5 and the highest value, but the drone 1 has a small average aptitude of 3 among the boundaries of the small areas k and l. It is determined that the suitability is higher on the boundary side with the small regions g and h side having aptitude degree 4 than on the border side with the regions o and p side. That is, in addition to the suitability degree for each small area, the suitability degree of the small area group composed of the adjacent small areas can be used to determine a more appropriate position for arranging the device.

<第三の実施形態>
第三の実施形態においては、無人機1は、画像取得プログラムによって、
各目標領域P1等の近傍において、目標領域P1等の周辺部を含む全体画像を取得し、周辺部の適性度を参照して、デバイスを配置するようになっている。
<Third embodiment>
In the third embodiment, the drone 1 is executed by an image acquisition program.
In the vicinity of each target area P1, etc., an entire image including the peripheral part of the target area P1, etc. is acquired, and the device is arranged with reference to the suitability degree of the peripheral part.

図8を参照して説明する。無人機1は、小領域及び小領域群の適性度を踏まえた段階では、小領域k及びlの境界線であって、かつ、小領域g及びhとの境界線近傍が最も適切であると判断する。ここで、例えば、周辺領域P1outにおいて、小領域l近傍の適性度が4であるとする。一方、領域P1内において小領域kに隣接する小領域jの適性度は1である。小領域jとkからなる小領域群の平均の適性度は3であり、小領域lと周辺領域P1outのうち小領域lの近傍からなる領域の平均の適性度は4.5である。無人機1は、最も適切なデバイスの配置位置を小領域kとlとの境界線ではなくて、矢印X1方向に移動させた部分であると判断するようになっている。これにより、デバイスを配置するためのさらに一層適切な位置を判断することができる。   This will be described with reference to FIG. In the stage where the drone 1 is based on the suitability of the small area and the small area group, the boundary line between the small areas k and l and the vicinity of the boundary line with the small areas g and h are most appropriate. to decide. Here, for example, it is assumed that the aptitude degree in the vicinity of the small region 1 is 4 in the peripheral region P1out. On the other hand, the suitability degree of the small region j adjacent to the small region k in the region P1 is 1. The average suitability of the small region group consisting of the small regions j and k is 3, and the average suitability of the region composed of the small region 1 and the peripheral region P1out in the vicinity of the small region 1 is 4.5. The drone 1 determines that the most appropriate device arrangement position is not the boundary between the small areas k and l but the part moved in the direction of the arrow X1. Thereby, it is possible to determine an even more appropriate position for arranging the device.

上述の実施形態1乃至実施形態3においては、無人飛行体1の記憶部12に、画像取得プログラム、物体認識プログラム、適性度算出プログラム、デバイス配置プログラムが格納されているものとして説明したが、物体認識プログラム及び/または適性度算出プログラムを基地局50のサーバ内の記憶部に格納し、基地局50で処理した結果を無人機1に送信することによって、無人機1を制御するように構成してもよい。この場合、無人機1の記憶部12は、基地局50からの指示を処理する処理プログラムを格納すれば足りる。 In the first to third embodiments described above, the storage unit 12 of the unmanned air vehicle 1 has been described as storing an image acquisition program, an object recognition program, an aptitude degree calculation program, and a device arrangement program. The recognition program and / or the suitability calculation program is stored in a storage unit in the server of the base station 50, and the result of processing in the base station 50 is transmitted to the drone 1, thereby controlling the drone 1. May be. In this case, the storage unit 12 of the drone 1 only needs to store a processing program for processing an instruction from the base station 50.

なお、本発明のデバイス配置装置及びデバイス配置方法は、上記実施形態に限らず、本発明の要旨を逸脱しない範囲内において種々変更を加えることができる。 The device placement apparatus and the device placement method of the present invention are not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.

1 無人飛行体(無人機)
10 CPU
14 無線通信部
16 GPS部
18 慣性センサー部
20 画像処理部
22 駆動制御部
24 デバイス配置制御部
26 電源部

1 Unmanned flying vehicle (unmanned aircraft)
10 CPU
14 wireless communication unit 16 GPS unit 18 inertial sensor unit 20 image processing unit 22 drive control unit 24 device arrangement control unit 26 power supply unit

Claims (7)

デバイスを配置する領域である目標領域に向かって自律移動するための自律移動手段と、
前記目標領域の画像を取得する画像取得手段と、
前記画像に含まれる物体を認識する物体認識手段と、
前記物体認識手段によって認識した物体に基づいて、前記デバイスを配置する位置としての適性を示す適性度を算出する適性度算出手段と、
前記適性度に基づいて、前記目標領域において、前記デバイスを配置するデバイス配置手段と、
を有するデバイス配置装置。
An autonomous movement means for autonomously moving toward a target area, which is an area where devices are arranged,
Image acquisition means for acquiring an image of the target area;
Object recognition means for recognizing an object included in the image;
Based on the object recognized by the object recognition means, aptitude degree calculating means for calculating aptitude degree indicating the aptitude as the position where the device is disposed;
Device placement means for placing the device in the target area based on the suitability level;
A device placement apparatus.
前記物体認識手段は、深層学習(ディープラーニング)によって生成された特徴データを参照する請求項1に記載のデバイス配置装置。   The device placement apparatus according to claim 1, wherein the object recognition unit refers to feature data generated by deep learning. 前記適性度算出手段は、前記目標領域を細分化して小領域とし、前記小領域ごとに前記適性度を算出し、
前記デバイス配置手段は、前記小領域の前記適性度に基づいて、前記デバイスを配置するようになっている請求項1または請求項2のいずれかに記載のデバイス配置装置。
The aptitude degree calculating means subdivides the target area into small areas, calculates the aptitude degree for each small area,
The device placement apparatus according to claim 1, wherein the device placement unit places the device based on the suitability degree of the small area.
前記デバイス配置装置は、隣接する前記小領域を小領域群とし、各前記小領域の前記適性度及び前記小領域群の前記適性度に基づいて、前記デバイスを配置するようになっている請求項1乃至請求項3のいずれかに記載のデバイス配置装置。   The device placement apparatus arranges the devices based on the suitability degree of each small area and the suitability degree of the small area group, with the small areas adjacent to each other being a small area group. The device placement apparatus according to any one of claims 1 to 3. 前記デバイス配置装置は、各前記目標領域の近傍において、前記画像取得手段によって、前記目標領域の周辺部を含む全体画像を取得し、
前記周辺部の前記適性度を参照して、前記デバイスを配置するようになっている請求項1乃至請求項4のいずれかに記載のデバイス配置装置。
In the vicinity of each target area, the device arrangement apparatus acquires an entire image including a peripheral portion of the target area by the image acquisition unit,
The device placement apparatus according to any one of claims 1 to 4, wherein the device is placed with reference to the suitability degree of the peripheral portion.
自律移動可能なデバイス配置装置が実施するデバイス配置方法であって、
デバイスを配置する領域である目標領域に向かって自律移動する自律移動ステップと、
前記目標領域の画像を取得する画像取得ステップと、
前記画像に含まれる物体を認識する物体認識ステップと、
前記物体認識ステップにおいて認識した物体に基づいて、デバイスを配置する位置としての適性を示す適性度を算出する適性度算出ステップと、
前記適性度に基づいて、前記目標領域において、前記デバイスを配置するデバイス配置ステップと、
を含むデバイス配置方法。
A device placement method implemented by a device placement apparatus capable of autonomous movement,
An autonomous movement step for autonomously moving toward a target area, which is an area where devices are arranged,
An image acquisition step of acquiring an image of the target area;
An object recognition step for recognizing an object contained in the image;
Based on the object recognized in the object recognition step, an aptitude degree calculating step for calculating an aptitude degree indicating aptitude as a position where the device is arranged;
A device placement step of placing the device in the target area based on the suitability level;
Device placement method including:
デバイス配置装置を制御するコンピュータを、
デバイスを配置する領域である目標領域に向かって自律移動するための自律移動手段、
前記目標領域の画像を取得する画像取得手段、
前記画像に含まれる物体を認識する物体認識手段、
前記物体認識手段によって認識した物体に基づいて、デバイスを配置する位置としての適性を示す適性度を算出する適性度算出手段、
前記適性度に基づいて、前記目標領域において、前記デバイスを配置するデバイス配置手段、
として機能させるためのプログラム。


A computer that controls the device placement device,
An autonomous movement means for autonomously moving toward a target area, which is an area where devices are arranged,
Image acquisition means for acquiring an image of the target area;
Object recognition means for recognizing an object included in the image;
Based on the object recognized by the object recognition means, aptitude degree calculating means for calculating aptitude degree indicating aptitude as a position where the device is arranged,
Device placement means for placing the device in the target area based on the suitability level;
Program to function as.


JP2016212929A 2016-10-31 2016-10-31 Device arrangement device, device arrangement method, and device arrangement program Pending JP2018069961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212929A JP2018069961A (en) 2016-10-31 2016-10-31 Device arrangement device, device arrangement method, and device arrangement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212929A JP2018069961A (en) 2016-10-31 2016-10-31 Device arrangement device, device arrangement method, and device arrangement program

Publications (1)

Publication Number Publication Date
JP2018069961A true JP2018069961A (en) 2018-05-10

Family

ID=62113664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212929A Pending JP2018069961A (en) 2016-10-31 2016-10-31 Device arrangement device, device arrangement method, and device arrangement program

Country Status (1)

Country Link
JP (1) JP2018069961A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0656100A (en) * 1992-08-12 1994-03-01 Ishikawajima Harima Heavy Ind Co Ltd Geology sampling device in celestial body except earth
JP2001328600A (en) * 2000-05-19 2001-11-27 Fuji Heavy Ind Ltd Landing point searching device, flying object using therewith and landing point evaluating device
JP2008150028A (en) * 2006-09-21 2008-07-03 Honeywell Internatl Inc Unmanned sensor placement in cluttered terrain
KR20130133480A (en) * 2012-05-29 2013-12-09 서울대학교산학협력단 Method and apparatus for searching a landing site of aircraft using a depth map
US20140303814A1 (en) * 2013-03-24 2014-10-09 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
JP2016048238A (en) * 2014-08-25 2016-04-07 国立大学法人 鹿児島大学 Navigation system, navigation method, and program
US20160109000A1 (en) * 2013-05-28 2016-04-21 Honda Motor Co., Ltd. Continuously variable transmission
US20160114905A1 (en) * 2014-06-24 2016-04-28 Sikorsky Aircraft Corporation Probabilistic safe landing area determination
CN105955289A (en) * 2015-03-10 2016-09-21 李军 Unmanned plane automatic landing system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0656100A (en) * 1992-08-12 1994-03-01 Ishikawajima Harima Heavy Ind Co Ltd Geology sampling device in celestial body except earth
JP2001328600A (en) * 2000-05-19 2001-11-27 Fuji Heavy Ind Ltd Landing point searching device, flying object using therewith and landing point evaluating device
JP2008150028A (en) * 2006-09-21 2008-07-03 Honeywell Internatl Inc Unmanned sensor placement in cluttered terrain
KR20130133480A (en) * 2012-05-29 2013-12-09 서울대학교산학협력단 Method and apparatus for searching a landing site of aircraft using a depth map
US20140303814A1 (en) * 2013-03-24 2014-10-09 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US20160109000A1 (en) * 2013-05-28 2016-04-21 Honda Motor Co., Ltd. Continuously variable transmission
US20160114905A1 (en) * 2014-06-24 2016-04-28 Sikorsky Aircraft Corporation Probabilistic safe landing area determination
JP2016048238A (en) * 2014-08-25 2016-04-07 国立大学法人 鹿児島大学 Navigation system, navigation method, and program
CN105955289A (en) * 2015-03-10 2016-09-21 李军 Unmanned plane automatic landing system

Similar Documents

Publication Publication Date Title
US11604479B2 (en) Methods and system for vision-based landing
US11776413B2 (en) Aerial vehicle flight control method and device thereof
US11059581B2 (en) Method for adaptive mission execution on an unmanned aerial vehicle
US11086337B2 (en) Systems and methods for charging unmanned aerial vehicles on a moving platform
US20200344464A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Defects
US9429953B1 (en) Autonomously landing an unmanned aerial vehicle
US20190068829A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Obstructions
US20200012296A1 (en) Unmanned aerial vehicle landing area detection
US10937325B2 (en) Collision avoidance system, depth imaging system, vehicle, obstacle map generator, and methods thereof
CN111801717A (en) Automatic exploration control for robotic vehicles
US20190315486A1 (en) Adaptive Voxels for Aerial Light Shows
CN112789672A (en) Control and navigation system, attitude optimization, mapping and positioning technology
CN116830057A (en) Unmanned Aerial Vehicle (UAV) cluster control
CN109792694A (en) Transmitting power control for wireless communication system
JP6960519B2 (en) Control devices, mobiles, programs and control methods
JP2017206072A (en) Flight control device and flight control method
KR102486769B1 (en) Unmanned drone for automatically setting moving path according to detection situation, and operating method thereof
JP2018069961A (en) Device arrangement device, device arrangement method, and device arrangement program
JP7166587B2 (en) Monitoring system
CN111052028B (en) System and method for automatic surface and sky detection
JP2024021143A (en) Three-dimensional data generation system and three-dimensional data generation method
JP2018072206A (en) Measurement device, measurement method and measurement program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302