JP2018068221A - Unmanned device for harmful animal extermination, harmful animal extermination method, and program - Google Patents

Unmanned device for harmful animal extermination, harmful animal extermination method, and program Download PDF

Info

Publication number
JP2018068221A
JP2018068221A JP2016212838A JP2016212838A JP2018068221A JP 2018068221 A JP2018068221 A JP 2018068221A JP 2016212838 A JP2016212838 A JP 2016212838A JP 2016212838 A JP2016212838 A JP 2016212838A JP 2018068221 A JP2018068221 A JP 2018068221A
Authority
JP
Japan
Prior art keywords
drone
target
image
pest control
removal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212838A
Other languages
Japanese (ja)
Inventor
智幸 伊豆
Tomoyuki Izu
智幸 伊豆
軍 呉
Jun Wu
軍 呉
開 顔
Kai Kao
開 顔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Enroute Co Ltd
EnrouteMS Co Ltd
Original Assignee
Enroute Co Ltd
EnrouteMS Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Enroute Co Ltd, EnrouteMS Co Ltd filed Critical Enroute Co Ltd
Priority to JP2016212838A priority Critical patent/JP2018068221A/en
Publication of JP2018068221A publication Critical patent/JP2018068221A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a harmful animal extermination device for exterminating a harmful animal intruding into a farm and a ranch.SOLUTION: An unmanned device 1 for harmful animal extermination includes autonomous moving means that moves autonomously, image acquisition means for acquiring an image of an intrusion prohibition area, determination means for recognizing whether or not an object in the image is an extermination target, and determining whether or not the extermination target has intruded into the intrusion prohibition area, and extermination means for exterminating the extermination target.SELECTED DRAWING: Figure 1

Description

本発明は、害獣駆除用無人機、害獣駆除方法及びプログラムに関する。   The present invention relates to a pest control drone, a pest control method, and a program.

従来、シカやイノシシなどの害獣から農作物を保護するために、侵入防止柵の工夫が提案されている。   Conventionally, invasion prevention fences have been proposed in order to protect crops from pests such as deer and wild boar.

特開2009−11280号公報JP 2009-11280 A

ところで、侵入防止柵は、害獣が農場や牧場に侵入することを防止するためには有効であるが、侵入した害獣を駆除することはできない。   By the way, the intrusion prevention fence is effective for preventing the invading pests from entering the farm or ranch, but cannot intrude the invading pests.

本発明はかかる問題の解決を試みたものであり、農場や牧場に侵入した害獣を駆除する害獣駆除用無人機を提供することを目的とする。   The present invention is an attempt to solve such a problem, and an object of the present invention is to provide a pest-control drone that controls a pest that has invaded a farm or ranch.

第一の発明は、自律移動するための自律移動手段と、侵入禁止領域内の画像を取得する画像取得手段と、前記画像中の物体が駆除対象か否かを認識し、前記侵入禁止領域に前記駆除対象が侵入したか否かを判断する判断手段と、前記駆除対象を駆除する駆除手段と、
を有する害獣駆除用無人機である。
The first invention recognizes whether or not an autonomous moving means for autonomously moving, an image acquiring means for acquiring an image in an intrusion prohibited area, and an object in the image is a target for removal, Determination means for determining whether or not the removal target has entered; a removal means for removing the removal target;
An unmanned aerial vehicle for pest control.

第一の発明の構成によれば、害獣駆除用無人機は、自律移動しつつ、侵入禁止領域に侵入した駆除対象を駆除することができる。すなわち、農場や牧場に侵入した害獣を駆除することができる。   According to the configuration of the first aspect of the invention, the pest control drone can control the control target that has entered the intrusion prohibited area while autonomously moving. That is, pests that have invaded farms and ranches can be eliminated.

第二の発明は、第一の発明の構成において、前記駆除手段は、前記駆除対象を捕獲する捕獲手段、及び/または、前記駆除対象を前記侵入禁止領域から排除する排除手段を含む害獣駆除用無人機である。   According to a second invention, in the configuration of the first invention, the pest control means includes a capture means for capturing the control target and / or an exclusion means for removing the control target from the intrusion prohibited area. It is a drone for use.

第二の発明の構成によれば、害獣駆除装置は、捕獲及び/または排除を実施することができる。   According to the structure of 2nd invention, the pest control apparatus can implement capture and / or exclusion.

第三の発明は、第二の発明の構成において、前記排除手段が実施する排除方法は、音の発生、光の照射、匂いの発生、特定の移動態様における移動、または、それらの組合せを含む害獣駆除用無人機である。   According to a third invention, in the configuration of the second invention, the exclusion method performed by the exclusion means includes sound generation, light irradiation, odor generation, movement in a specific movement mode, or a combination thereof. An unmanned aerial vehicle for pest control.

第三の発明の構成によれば、複数の排除方法の中から、適切な排除方法を実施することができる。   According to the configuration of the third invention, an appropriate exclusion method can be implemented from among a plurality of exclusion methods.

第四の発明は、第三の発明の構成において、前記排除方法は、前記駆除対象の種類ごとに規定され、前記害獣駆除用無人機は、前記駆除対象を追跡しつつ、前記駆除対象の種類に応じて前記駆除手段を作動させる、害獣駆除用無人機である。   According to a fourth aspect of the present invention, in the configuration of the third aspect, the exclusion method is defined for each type of the target to be controlled, and the drone controlling drone tracks the target to be controlled while tracking the target to be controlled. A pest control drone that operates the control means according to the type.

第四の発明の構成によれば、駆除対象を追跡しつつ、駆除対象の種類に応じて、適切な駆除を実施することができる。   According to the configuration of the fourth aspect of the invention, it is possible to perform appropriate removal according to the type of the removal target while tracking the removal target.

第五の発明は、第三または第四のいずれかの発明の構成において、前記排除方法は、昼間用の排除方法と夜間用の排除方法に区別して規定され、
前記排除手段は、前記昼間用の排除方法と前記夜間用の排除方法とを使い分けるように構成されている害獣駆除用無人機である。
In a fifth aspect of the invention according to any one of the third and fourth aspects, the exclusion method is defined by distinguishing between a daytime exclusion method and a nighttime exclusion method,
The exclusion means is a pest-control drone configured to selectively use the daytime exclusion method and the nighttime exclusion method.

第五の発明の構成によれば、昼間か夜間に応じて、適切な排除方法を実施することができる。   According to the configuration of the fifth aspect of the invention, an appropriate exclusion method can be implemented according to daytime or nighttime.

第六の発明は、第一乃至第五のいずれかの発明の構成において、前記画像取得手段は、周囲の光の強度に応じて、可視光における画像または赤外線における画像を取得するように構成されている害獣駆除用無人機である。   According to a sixth invention, in the configuration of any one of the first to fifth inventions, the image acquisition means is configured to acquire an image in visible light or an image in infrared according to the intensity of ambient light. It is a drone for pest control.

第六の発明の構成によれば、周囲の光の強度に応じて、駆除対象か否かを判別するための画像を取得することができる。   According to the configuration of the sixth aspect of the invention, it is possible to acquire an image for determining whether or not it is a target for removal according to the intensity of ambient light.

第七の発明は、第一乃至第六のいずれかの発明の構成において、前記判断手段は、前記画像中の物体が前記駆除対象か否かを認識するために、深層学習(ディープラーニング)によって生成されたデータを参照する害獣駆除用無人機である。   According to a seventh invention, in the configuration of any one of the first to sixth inventions, the determination means uses deep learning to recognize whether or not the object in the image is the removal target. It is an unmanned aerial vehicle for pest control that refers to the generated data.

第七の発明の構成によれば、深層学習(ディープラーニング)によって生成されたデータによって、駆除対象か否かを精度良く認識することができる。   According to the configuration of the seventh aspect of the invention, it is possible to accurately recognize whether or not it is a target for removal based on data generated by deep learning.

第八の発明は、第二乃至第七のいずれかの発明の構成において、前記画像取得手段によって取得した画像に基づいて、前記駆除対象の捕獲が成功したか否かを判断し、前記捕獲が成功しなかったと判断した場合には、再度の捕獲を行った場合の成功確率を計算し、前記駆除手段は、前記成功確率が所定値以上であれば、前記駆除対象の再度の捕獲を実施し、前記成功確率が前記所定値未満であれば、前記駆除対象の排除を実施する害獣駆除用無人機である。   According to an eighth aspect of the present invention, in the configuration of any one of the second to seventh aspects, based on the image acquired by the image acquisition means, it is determined whether or not the capture of the removal target has been successful, If it is determined that it has not succeeded, it calculates the success probability when the capture is performed again, and if the success probability is equal to or greater than a predetermined value, the removal means performs the capture of the removal target again. If the success probability is less than the predetermined value, the pest control drone implements exclusion of the control target.

第九の発明は、自律移動可能な害獣駆除用無人機が実施する害獣駆除方法であって、侵入禁止領域内の画像を取得する画像取得ステップと、前記画像中の物体が駆除対象か否かを認識し、前記侵入禁止領域に前記駆除対象が侵入したか否かを判断する判断ステップと、前記駆除対象を駆除する駆除ステップと、を含む害獣駆除方法である。 The ninth invention is a pest control method implemented by an autonomously movable pest control drone, an image acquisition step of acquiring an image in an intrusion prohibited area, and whether an object in the image is a target to be controlled A pest control method comprising: a determination step of recognizing whether or not the control object has entered the intrusion prohibited area; and a control step of controlling the control target.

第十の発明は、自律移動可能な害獣駆除用無人機を制御するコンピュータを、侵入禁止領域内の画像を取得する画像取得手段、前記画像中の物体が駆除対象か否かを認識し、前記侵入禁止領域に前記駆除対象が侵入したか否かを判断する判断手段、前記駆除対象を駆除する駆除手段、として機能させるためのプログラムである。   A tenth aspect of the invention is a computer that controls an autonomously movable pest control drone, an image acquisition unit that acquires an image in an intrusion prohibited area, recognizes whether an object in the image is a target for control, A program for functioning as a determination unit that determines whether or not the removal target has entered the intrusion prohibited area and a removal unit that removes the removal target.

本発明によれば、農場や牧場に侵入した害獣を駆除することができる。   ADVANTAGE OF THE INVENTION According to this invention, the pest which invaded the farm and the ranch can be exterminated.

本発明の実施形態に係る害獣駆除用無人機の作用を示す概略図である。It is the schematic which shows the effect | action of the unmanned aircraft for pest control which concerns on embodiment of this invention. 害獣駆除用無人機の作用を示す概略図である。It is the schematic which shows the effect | action of the drone for pest extermination. 害獣駆除用無人機の作用を示す概略図である。It is the schematic which shows the effect | action of the drone for pest extermination. 害獣駆除用無人機の作用を示す概略図である。It is the schematic which shows the effect | action of the drone for pest extermination. 害獣駆除用無人機の構成を示す図である。It is a figure which shows the structure of the drone for pest extermination. 捕獲網を示す概略図である。It is the schematic which shows a capture net. 害獣駆除用無人機の機能構成を示す図である。It is a figure which shows the function structure of the drone for pest extermination. 特徴データベースを示す図である。It is a figure which shows the characteristic database. 排除方法データベースを示す図である。It is a figure which shows the exclusion method database. 排除方法組合せデータベースを示す図である。It is a figure which shows the exclusion method combination database. 害獣駆除用無人機の動作を示す概略フローチャートである。It is a schematic flowchart which shows operation | movement of the unmanned aircraft for pest extermination. 害獣駆除用無人機の動作を示す概略フローチャートである。It is a schematic flowchart which shows operation | movement of the unmanned aircraft for pest extermination. 害獣駆除用無人機の構成を示す図である。It is a figure which shows the structure of the drone for pest extermination. 特徴データベースを示す図である。It is a figure which shows the characteristic database. 排除方法組合せデータベースを示す図である。It is a figure which shows the exclusion method combination database. 害獣駆除用無人機の動作を示す概略フローチャートである。It is a schematic flowchart which shows operation | movement of the unmanned aircraft for pest extermination.

以下、本発明を実施するための形態(以下、「実施形態」という。)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described in detail. In the following description, the same reference numerals are given to the same components, and the description thereof is omitted or simplified. Note that description of configurations that can be appropriately implemented by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described.

<第一の実施形態>
図1乃至図4は、本発明の実施形態に係る害獣駆除用無人機(以下、「無人機」という。)の作用を示す概略図である。図1等に示す無人機1は、害獣駆除用無人機の一例である。無人機1は地面を走行する無人車両である。無人機1は、領域F内に配置されている。領域Fは、侵入禁止領域の一例である。無人機1は、基地局100と通信可能に構成されており、適宜、基地局100と通信し、基地局100の指示に従う。無人機1は、基地局100と領域Fの間及び領域F内においてのみ、移動可能なように、移動領域が制限されている。無人機1は、バッテリー残量が所定基準値以下になった場合には、基地局100において、充電、または、バッテリーの交換を行うようになっている。また、無人機1は、他の物に所定の距離以内に近づかないように制御されており、他の物との衝突を回避するように構成されている。
<First embodiment>
FIG. 1 to FIG. 4 are schematic views showing the operation of the unmanned aerial vehicle for pest control (hereinafter referred to as “unmanned aircraft”) according to an embodiment of the present invention. A drone 1 shown in FIG. 1 and the like is an example of a drone extermination drone. The drone 1 is an unmanned vehicle that travels on the ground. The drone 1 is disposed in the area F. Area F is an example of an intrusion prohibited area. The drone 1 is configured to be able to communicate with the base station 100, and appropriately communicates with the base station 100 and follows instructions from the base station 100. The moving area of the drone 1 is limited so that it can move only between the base station 100 and the area F and within the area F. The drone 1 is configured to charge or replace the battery at the base station 100 when the remaining battery level is equal to or lower than a predetermined reference value. The drone 1 is controlled so as not to approach another object within a predetermined distance, and is configured to avoid a collision with another object.

図1乃至図4において、領域Fは、小領域F1,F2,F3及びF4を含む。また、領域Fは、小領域F1,F2,F3及びF4を合わせた領域よりも一回り広い領域である。   1 to 4, the region F includes small regions F1, F2, F3, and F4. The region F is a region that is slightly wider than the region where the small regions F1, F2, F3, and F4 are combined.

無人機1は、シカ301やイノシシ303などの害獣が領域Fに侵入した場合に、領域Fから害獣を駆除するように構成されている。害獣は、駆除対象の一例である。小領域F1等は、例えば、農場である。   The drone 1 is configured to exterminate the harmful animals from the area F when the harmful animals such as the deer 301 and the wild boar 303 enter the area F. A pest is an example of an extermination target. The small area F1 is a farm, for example.

図2に示すように、例えば、シカ301が領域Fに侵入した場合に、無人機1は、シカ301を捕獲する(図3参照)、あるいは、シカ301を領域Fから排除する(外に出す)(図4参照)。本明細書において、「駆除」という用語は捕獲と排除を含むものとして使用する。   As shown in FIG. 2, for example, when the deer 301 enters the area F, the drone 1 captures the deer 301 (see FIG. 3) or excludes the deer 301 from the area F (takes out). (See FIG. 4). In this specification, the term “disinfect” is used to include capture and exclusion.

領域Fは、小領域F1等よりも広い面積の領域であるから、小領域F1等へ侵入した害獣を排除するだけではなく、害獣排除を迅速に実施する場合には、小領域F1等への侵入を防止することができるようになっている。なお、領域F1等は、害獣からの保護を要する領域であればよく、農場に限らず、例えば、牧場であってもよい。   Since the area F is an area having a larger area than the small area F1 or the like, not only the harmful animals that have entered the small area F1 and the like are excluded, but also when the pest elimination is performed quickly, the small area F1 and the like. Can be prevented from entering. Note that the area F1 and the like are not limited to farms and may be ranches, for example, as long as they are areas that require protection from harmful animals.

以下、無人機1の構成を説明する。   Hereinafter, the configuration of the drone 1 will be described.

図5に示すように、無人機1は、筐体10を有する。筐体10内部には、無人機1の各部を制御するコンピュータ、無線通信装置、GPS(Global Positioning System)を利用した測位装置、加速度センサー、ジャイロセンサー、磁気センサー、バッテリー等が配置されている。筐体
10には、4つの車輪12(前輪2輪、後輪2輪)が配置されている。筐体10内部には、モーター(図示せず)が配置されており、モーターの軸には4つの車輪12のうち後輪の2輪が接続されており、縦横自在に走行可能になっている。筐体10には、ヘッドランプ14、アンテナ16が付いている。ヘッドランプ14によって、無人機1の前方を照らすことができる。無線通信装置を構成するアンテナ16から電波を送受信し、基地局100と通信可能になっている。また、筐体10には、回転及び伸縮自在な軸部材18にカメラ20が配置されている。カメラ20は、可視光カメラであり、外部の画像を取得可能になっている。無人機1は、夜間においては、ヘッドランプ14で無人機1の前方を照らしたうえで、カメラ20で画像を取得する。筐体10には、回転及び伸縮自在な軸部材22に、発光装置24及び音声発生装置26が配置されている。また、筐体10には、捕獲網発射装置28が配置されている。無人機1は、カメラ20によって取得した画像中の物体が、駆除対象であるシカ301などであると判断した場合には、自律移動で駆除対象を追跡しつつ、捕獲網発射装置28を発射して駆除対象を捕獲するか、あるいは、発光装置24及び音声発生装置26を所定の態様で作動させることによって、駆除対象を領域Fから排除するようになっている。発光装置24及び音声発生装置26は害獣を排除するための構成であり、捕獲網発射装置28は害獣を捕獲するための構成である。
As shown in FIG. 5, the drone 1 has a housing 10. Arranged inside the housing 10 are a computer that controls each part of the drone 1, a wireless communication device, a positioning device using GPS (Global Positioning System), an acceleration sensor, a gyro sensor, a magnetic sensor, a battery, and the like. Four wheels 12 (two front wheels and two rear wheels) are arranged in the housing 10. A motor (not shown) is disposed inside the housing 10, and two rear wheels of the four wheels 12 are connected to the shaft of the motor, so that the vehicle can travel vertically and horizontally. . The housing 10 is provided with a headlamp 14 and an antenna 16. The front of the drone 1 can be illuminated by the headlamp 14. Radio waves are transmitted and received from an antenna 16 constituting the wireless communication device, and communication with the base station 100 is possible. In the housing 10, a camera 20 is disposed on a shaft member 18 that can rotate and extend. The camera 20 is a visible light camera and can acquire an external image. At night, the drone 1 illuminates the front of the drone 1 with the headlamp 14 and acquires an image with the camera 20. In the housing 10, a light emitting device 24 and a sound generating device 26 are arranged on a shaft member 22 that can rotate and extend. In addition, a capture net launching device 28 is disposed in the housing 10. When the drone 1 determines that the object in the image acquired by the camera 20 is the deer 301 or the like to be removed, it launches the capture net launching device 28 while tracking the removal target by autonomous movement. The removal target is excluded from the region F by capturing the removal target or operating the light emitting device 24 and the sound generation device 26 in a predetermined manner. The light emitting device 24 and the sound generation device 26 are configured to exclude harmful pests, and the capture net launching device 28 is configured to capture the pests.

捕獲網発射装置28には、図6に示す捕獲網30が折りたたまれた状態で装填されている。捕獲網30は、発射されると図6に示すように展開する。捕獲網30は、中央に小孔部30cを有する網本体30aと、網本体30aの周辺部に配置される重り30bから構成される。捕獲網30の発射の仕組みは、例えば、特開2010−48539号公報に記載のものを使用することができる。ただし、無人機1においては、捕獲網30は、無人機1自体による制御及びメカニズムによって発射する。   The capture net launcher 28 is loaded with the capture net 30 shown in FIG. 6 in a folded state. When fired, the capture net 30 expands as shown in FIG. The capture net 30 is composed of a net body 30a having a small hole 30c in the center and a weight 30b arranged at the periphery of the net body 30a. For example, the mechanism described in Japanese Patent Application Laid-Open No. 2010-48539 can be used as a mechanism for launching the capture net 30. However, in the drone 1, the capture net 30 is fired by the control and mechanism of the drone 1 itself.

図7は、無人機1の機能構成を示す図である。無人機1は、CPU(Central Processing Unit)50、記憶部52、無線通信部54、GPS(Global Positioning System)部56、慣性センサー部58、画像処理部60、駆動制御部62、駆除手段制御部64、距離センサー部66及び電源部68を有する。   FIG. 7 is a diagram illustrating a functional configuration of the drone 1. The drone 1 includes a CPU (Central Processing Unit) 50, a storage unit 52, a wireless communication unit 54, a GPS (Global Positioning System) unit 56, an inertial sensor unit 58, an image processing unit 60, a drive control unit 62, and a removal means control unit. 64, a distance sensor unit 66, and a power source unit 68.

無人機1は、無線通信部54によって、基地局100と通信可能になっている。無人機1は、無線通信部54によって、基地局100から各種指示を受信し、基地局100へ各種情報を送信する。   The drone 1 can communicate with the base station 100 by the wireless communication unit 54. The drone 1 receives various instructions from the base station 100 by the wireless communication unit 54 and transmits various information to the base station 100.

無人機1は、GPS部56と慣性センサー部58によって、無人機1自体の位置を測定することができる。GPS部56は、基本的に、3つ以上のGPS衛星からの電波を受信して無人機1の位置を計測する。慣性センサー部58は、例えば、加速度センサー及びジャイロセンサーによって、出発点からの無人機1の移動を積算して、無人機1の位置を計測する。無人機1は、無人機1自体の位置を、自律移動や駆除対象の位置の計測等のために使用する。   The drone 1 can measure the position of the drone 1 itself by the GPS unit 56 and the inertial sensor unit 58. The GPS unit 56 basically receives radio waves from three or more GPS satellites and measures the position of the drone 1. The inertial sensor unit 58 measures the position of the drone 1 by accumulating the movement of the drone 1 from the starting point using, for example, an acceleration sensor and a gyro sensor. The drone 1 uses the position of the drone 1 itself for autonomous movement, measurement of the position to be removed, and the like.

画像処理部60によって、無人機1はカメラ20を作動させて外部の画像を取得することができる。   The image processing unit 60 allows the drone 1 to operate the camera 20 and acquire an external image.

駆動制御部62によって、無人機1は4つの車輪12の動きを制御するようになっている。   The drone 1 controls the movement of the four wheels 12 by the drive control unit 62.

駆除手段制御部64は、捕獲網発射装置28、発光装置24及び音声発生装置26を制御して、駆除対象である害獣を捕獲する動作、あるいは、害獣を領域Fから排除するための動作を実施する。   The removal means control unit 64 controls the capture net launching device 28, the light emitting device 24, and the sound generation device 26 to capture the harmful beasts to be removed, or to remove the harmful beasts from the region F. To implement.

距離センサー部66は、無人機1と他の物体との距離を計測する。距離センサー部66は、例えば、レーザー距離計(レーザーレンジ)を含んで構成される。距離センサー部66は、無人機1と他の物体との距離を継続的に計測している。   The distance sensor unit 66 measures the distance between the drone 1 and another object. The distance sensor unit 66 includes, for example, a laser rangefinder (laser range). The distance sensor unit 66 continuously measures the distance between the drone 1 and other objects.

電源部68は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。   The power supply unit 68 is a replaceable rechargeable battery, for example, and supplies power to each unit of the drone 1.

記憶部52には、移動予定領域である領域F内において自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラム、及び、地形や構造物の位置や形状を示すデータを格納している。記憶部52には、さらに、以下のプログラムやデータが格納されている。   The storage unit 52 stores various data and programs necessary for autonomous movement, such as data indicating a movement plan for autonomous movement in the area F, which is a planned movement area, and data indicating the position and shape of topography and structures. Is stored. The storage unit 52 further stores the following programs and data.

記憶部52には、自律移動プログラム、画像取得プログラム、位置情報生成プログラム、判断プログラム、物体認識プログラム、駆除プログラム、完了確認プログラム、移動範囲規制プログラム、及び、衝突回避プログラムが格納されている。物体認識プログラムは判断プログラムの一部であり、画像中の物体のカテゴリーを認識する一般物体認識プログラムである。ここで、一般物体認識とは、物体のカテゴリーの認識を意味する。例えば、画像中の物体が、人なのか、シカなのか、イノシシなのかを認識することが、一般物体認識である。   The storage unit 52 stores an autonomous movement program, an image acquisition program, a position information generation program, a determination program, an object recognition program, a removal program, a completion confirmation program, a movement range restriction program, and a collision avoidance program. The object recognition program is a part of the determination program, and is a general object recognition program that recognizes a category of an object in an image. Here, general object recognition means recognition of an object category. For example, general object recognition is to recognize whether an object in an image is a person, a deer, or a wild boar.

CPU50及び自律移動プログラムは、自律移動手段の一例である。無人機1は、例えば、記憶部52に格納された領域F内の地形や構造物の位置を参照し、領域F内を巡回するなど、自律移動するようになっている。   The CPU 50 and the autonomous movement program are examples of autonomous movement means. The drone 1 moves autonomously, for example, refers to the terrain and the position of the structure in the region F stored in the storage unit 52 and circulates in the region F.

CPU50及び画像取得プログラムは、画像取得手段の一例である。無人機1は、カメラ20を作動させて領域F内の画像を継続的に取得している。   The CPU 50 and the image acquisition program are examples of image acquisition means. The drone 1 operates the camera 20 to continuously acquire images in the area F.

CPU50及び位置情報生成プログラムは、位置情報生成手段の一例である。位置情報は、無人機1自体の位置を示す情報及び侵入物の位置を示す情報である。無人機1は、GPS部56と慣性センサー部58によって無人機1の絶対位置や姿勢を示す情報を継続的に生成し、保持する。また、距離センサー部66によって、異なる複数の地点で、特定の物体との距離を測定することによって、例えば、小領域F1に侵入したシカ301について、無人機1との相対位置や、小領域F1内の構造物との相対位置を算出する。そして、無人機1は、無人機1自体の絶対位置や小領域F1内の構造物等の位置を参照して、シカ301の絶対位置を算出することができる。なお、位置計測についての詳細な説明は、省略する。   The CPU 50 and the position information generation program are examples of position information generation means. The position information is information indicating the position of the drone 1 itself and information indicating the position of the intruder. The drone 1 continuously generates and holds information indicating the absolute position and posture of the drone 1 by the GPS unit 56 and the inertial sensor unit 58. Further, by measuring the distance from a specific object at a plurality of different points by the distance sensor unit 66, for example, the deer 301 that has entered the small area F1 is positioned relative to the drone 1 or the small area F1. The relative position with the internal structure is calculated. Then, the drone 1 can calculate the absolute position of the deer 301 with reference to the absolute position of the drone 1 itself or the position of a structure or the like in the small area F1. Detailed description of position measurement is omitted.

CPU50及び判断プログラムは判断手段の一例である。判断プログラムは、物体認識プログラムを含む。無人機1は、物体認識プログラムによって、深層学習(ディープラーニング)によって生成された特徴データを参照する。特徴データは記憶部52に格納されている。深層学習(ディープラーニング)とは、多層構造のニューラルネットワークの機械学習であり、画像認識の分野が有力な活用分野の一つである。   The CPU 50 and the determination program are examples of determination means. The determination program includes an object recognition program. The drone 1 refers to the feature data generated by the deep learning by the object recognition program. The feature data is stored in the storage unit 52. Deep learning is machine learning of a neural network having a multi-layer structure, and the field of image recognition is one of the promising fields of use.

無人機1は、物体認識プログラムによって、図8に示す特徴データベースを参照する。特徴データベースは記憶部52に格納されている。特徴データベースに格納されている特徴データは、例えば、シカ、イノシシ、サル等の害獣の外観について、輪郭や個々の構成の方向といった多数の特徴を示すデータである。   The drone 1 refers to the feature database shown in FIG. 8 by the object recognition program. The feature database is stored in the storage unit 52. The feature data stored in the feature database is data indicating a large number of features such as contours and directions of individual components with respect to the appearance of harmful beasts such as deer, wild boar, and monkey.

無人機1は、カメラ20によって取得した画像に含まれる物体の特徴と、各カテゴリーの特徴情報を対比して、物体のカテゴリーを認識できるようになっている。ここで、カテゴリーとは、シカ、イノシシ、サル等の害獣の種類を意味する。   The drone 1 can recognize the category of the object by comparing the feature of the object included in the image acquired by the camera 20 with the feature information of each category. Here, the category means the kind of pests such as deer, wild boar and monkey.

具体的には、無人機1は、カメラ20で取得した画像について、例えば、輪郭や個々の構成の方向といった特徴を多数抽出する。そして、無人機1は、それらの特徴と、深層学習(ディープラーニング)で取得して記憶部52に格納している各カテゴリーの特徴データと対比して、相関性(相関度)を判断する。相関度が高いほど、取得した画像中の物体が特定のカテゴリーに属する可能性が高い。例えば、相関度が0の場合には、特定のカテゴリーに属する可能性(以下、「カテゴリー共通確率」と呼ぶ。)は0%として、相関度が最大値を示すときに、カテゴリー共通確率が100%であると定義する。無人機1は、カテゴリー共通確率が所定の基準値である、例えば、95%以上であるときに、取得した画像中の物体のカテゴリーが、特定のカテゴリーに属すると判断する。   Specifically, the drone 1 extracts a large number of features such as contours and directions of individual components from the image acquired by the camera 20. Then, the drone 1 determines the correlation (correlation degree) by comparing these features with the feature data of each category acquired by deep learning and stored in the storage unit 52. The higher the degree of correlation, the higher the possibility that an object in the acquired image belongs to a specific category. For example, when the degree of correlation is 0, the possibility of belonging to a specific category (hereinafter referred to as “category common probability”) is 0%, and when the degree of correlation shows the maximum value, the category common probability is 100. It is defined as%. The drone 1 determines that the category of the object in the acquired image belongs to a specific category when the category common probability is a predetermined reference value, for example, 95% or more.

無人機1は、物体認識プログラムによって、画像中の物体が特定の害獣のカテゴリーに属すると認識すると、判断プログラムによって、画像中の物体が駆除対象であると判断するようになっている。本実施形態において、駆除対象はシカ、イノシシ、サル等の害獣である。   When the drone 1 recognizes that the object in the image belongs to the category of a specific pest by the object recognition program, the drone 1 determines that the object in the image is an object to be exterminated by the determination program. In the present embodiment, the target for extermination is a pest such as a deer, a wild boar, or a monkey.

CUP50及び駆除プログラムは、駆除手段の一例であり、捕獲手段及び排除手段の一例でもある。無人機1は、駆除プログラムによって、駆除対象を追跡する。無人機1は、カメラ20で取得する画像中に常に駆除対象が含まれるように、無人機1の移動を制御する。すなわち、無人機1は、カメラ20によって継続的に取得する画像中における駆除対象の移動方向、距離センサー部66によって取得する駆除対象の移動速度を参照し、駆除対象がカメラ20の画像に捕捉されるように、移動を制御する。そして、無人機1は、例えば、駆除対象の捕獲が可能な場合、あるいは、基地局100から駆除対象を捕獲する指示を受信している場合には、捕獲網発射装置28を作動させて、駆除対象の捕獲を実施する。具体的には、無人機1は、上述の位置情報生成手段によって、無人機1と駆除対象との相対位置を計算し、捕獲網30を発射する上下方向及び水平方向の角度を算出し、駆除対象に対して捕獲網30を発射するように構成されている。距離センサー部66で制御されるレーザー距離計のレーザー光の照射目標を駆除対象に設定し、距離の測定を行うことによって、相対位置の精度を向上させることができる。   The CUP 50 and the removal program are examples of removal means, and are also examples of capture means and exclusion means. The drone 1 tracks a disinfection target by a disinfection program. The drone 1 controls the movement of the drone 1 so that an image to be removed is always included in an image acquired by the camera 20. That is, the drone 1 refers to the moving direction of the removal target in the image continuously acquired by the camera 20 and the movement speed of the removal target acquired by the distance sensor unit 66, and the removal target is captured in the image of the camera 20. To control the movement. Then, when the drone 1 can capture the removal target, or when receiving an instruction to capture the removal target from the base station 100, the drone 1 operates the capture net launching device 28 to remove the removal target. Perform subject capture. Specifically, the drone 1 calculates the relative position between the drone 1 and the removal target by the position information generation unit described above, calculates the vertical and horizontal angles at which the capture net 30 is fired, and removes it. It is configured to fire a capture net 30 against the subject. The accuracy of the relative position can be improved by setting the laser beam irradiation target of the laser rangefinder controlled by the distance sensor unit 66 as a target for removal and measuring the distance.

無人機1は、害獣の捕獲が不可能な場合、基地局100から捕獲する指示を受信していない場合、あるいは、捕獲が奏功しなかった場合には、発光装置24及び/または音声発生装置26を作動させて、害獣の排除を実施する。無人機1は、駆除プログラムによって、図9に示す排除方法データベースを参照する。排除方法データベースは記憶部52に格納されている。排除方法データベースには、複数の排除方法を示すデータが格納されている。例えば、音のデータとして、シカの警戒音(S1)、銃声(S2)、ゾウの鳴き声(S3)、オオカミの鳴き声(S4)等の音声データが、それぞれ、識別番号に紐づけされて格納されている。同様に、光、速度、移動経路についても、それぞれ、複数種類のものが格納されている。なお、無人機1に匂い発生装置を配置して、排除方法として、害獣が嫌う匂いを加えてもよい。   If the drone 1 cannot capture the pest, does not receive an instruction to capture from the base station 100, or if the capture is not successful, the light emitting device 24 and / or the sound generator 26 is activated to eliminate the pests. The drone 1 refers to the exclusion method database shown in FIG. 9 by the removal program. The exclusion method database is stored in the storage unit 52. Data indicating a plurality of exclusion methods is stored in the exclusion method database. For example, as sound data, voice data such as deer warning sound (S1), gunshot (S2), elephant cry (S3), wolf cry (S4), etc. are stored in association with the identification numbers. ing. Similarly, a plurality of types of light, speed, and movement path are stored. Note that an odor generating device may be arranged in the drone 1, and an odor that a harmful animal dislikes may be added as an elimination method.

無人機1は、駆除プログラムによって、図10に示す排除方法組合せデータベース(以下、「組合せデータベース」という。)を参照する。組合せデータベースは記憶部52に格納されている。組合せデータベースに格納されている組合せデータは、図9の排除方法を組み合わせたデータである。組合せデータは、例えば、シカの警戒音(S1)、速度5km/h(V1)及び直線の移動経路(R3)の組合せというように、図9の排除方法を様々に組み合わせたデータである。組合せデータは、排除方法の組合せの有効性を示す評価値を含む。評価値は、害獣の種類ごとに規定されている。無人機1は、害獣の種類ごとに、評価値の高い排除方法の組み合わせを優先的に採用するようになっている。   The drone 1 refers to the exclusion method combination database (hereinafter referred to as “combination database”) shown in FIG. 10 by the removal program. The combination database is stored in the storage unit 52. The combination data stored in the combination database is data obtained by combining the exclusion methods shown in FIG. The combination data is data obtained by variously combining the exclusion methods of FIG. 9 such as a combination of deer warning sound (S1), speed 5 km / h (V1), and linear movement path (R3). The combination data includes an evaluation value indicating the effectiveness of the combination of exclusion methods. Evaluation values are defined for each type of pest. The drone 1 preferentially adopts a combination of exclusion methods having a high evaluation value for each type of pest.

なお、無人機1が有する特徴データベース(図8)、排除方法データベース(図9)、組合せデータベース(図10)は、基地局100も有している。基地局100は、必要に応じてこれらのデータベース中のデータを更新し、あるいは、変更し、無人機1のデータベースを書き換えることができるようになっている。   The feature database (FIG. 8), the exclusion method database (FIG. 9), and the combination database (FIG. 10) included in the drone 1 also include the base station 100. The base station 100 can update or change the data in these databases as necessary to rewrite the database of the drone 1.

上述のように、無人機1は、判断プログラムによって、カメラ20によって取得した画像中の物体が駆除対象であると判断すると、位置情報生成プログラムによって生成した位置情報に基づいて、駆除対象の追跡を開始するとともに、駆除プログラムによって、駆除対象の捕獲または排除を実施するように構成されている。すなわち、無人機1は、侵入物が駆除対象であると判断すると、無人機1自身が生成した精度の高い位置情報に基づいて、ピンポイントで、駆除対象の種類に応じた有効な害獣駆除を実施することができる。   As described above, when the drone 1 determines that the object in the image acquired by the camera 20 is the object to be disinfected by the determination program, the drone 1 tracks the disinfection target based on the position information generated by the position information generation program. Upon start, the removal program is configured to capture or eliminate the removal object. That is, when the drone 1 determines that the intruder is a target for extermination, the drone 1 is effective based on the highly accurate position information generated by the drone 1 itself, and effective pest control according to the type of the target to be exterminated. Can be implemented.

CPU50及び完了判断プログラムは、完了判断手段の一例であり、判断プログラムの一部である。無人機1は、例えば、駆除対象で害獣であるシカ301に捕獲網30がからまった状態で、所定時間、所定範囲内に位置すると判断すれば、駆除対象の捕獲が完了したと判断する。所定時間は例えば、2分であり、所定範囲は、例えば、所定時間の最初における駆除対象の位置から半径5m以内である。無人機1は、カメラ20によって取得した画像に基づいて、上記判断を実施するようになっている。   The CPU 50 and the completion determination program are examples of completion determination means and are part of the determination program. For example, if the drone 1 is determined to be within a predetermined range for a predetermined time in a state where the capture net 30 is entangled in the deer 301 that is a pest that is the target of extermination, the drone 1 determines that the capture of the extermination target has been completed. . The predetermined time is, for example, 2 minutes, and the predetermined range is, for example, within a radius of 5 m from the position of the removal target at the beginning of the predetermined time. The drone 1 makes the above determination based on the image acquired by the camera 20.

一方、無人機1は、例えば、駆除対象が所定時間、領域F内に位置しないと判断すれば、駆除対象の排除が完了したと判断する。所定時間は、例えば、5分である。無人機1は、カメラ20によって取得した画像に基づいて、上記判断を実施するようになっている。   On the other hand, if the drone 1 determines that the removal target is not located in the region F for a predetermined time, for example, the drone 1 determines that the removal of the removal target is completed. The predetermined time is, for example, 5 minutes. The drone 1 makes the above determination based on the image acquired by the camera 20.

CPU50及び移動範囲規制プログラムは、移動範囲規制手段の一例である。無人機1は、記憶部52に記憶している領域Fの座標情報と、GPS部56と慣性センサー部58によって生成した無人機1自体の位置を示す位置情報を参照して、無人機1の位置が移動予定領域内である領域F内か否かを判断する。そして、無人機1は、無人機1の位置が領域F外であれば、無人機1を領域F内に戻すようになっている。   The CPU 50 and the movement range restriction program are examples of movement range restriction means. The drone 1 refers to the coordinate information of the area F stored in the storage unit 52 and the position information indicating the position of the drone 1 itself generated by the GPS unit 56 and the inertial sensor unit 58. It is determined whether or not the position is within the area F that is the area to be moved. If the position of the drone 1 is outside the region F, the drone 1 returns the drone 1 to the region F.

CPU50及び衝突回避プログラムは、衝突回避手段の一例である。無人機1は、距離センサー部66によって計測した無人機1と他の物体(「物体A」という。)との距離が、所定の距離以内になった場合には、駆動制御部62によって、無人機1と物体Aとの距離を所定距離よりも大きくするようになっている。これにより、無人機1が物体Aと衝突することを回避することができる。所定の距離は、例えば、2m(メートル)である。   The CPU 50 and the collision avoidance program are examples of collision avoidance means. When the distance between the drone 1 and another object (referred to as “object A”) measured by the distance sensor unit 66 is within a predetermined distance, the drone 1 is unmanned by the drive control unit 62. The distance between the machine 1 and the object A is made larger than a predetermined distance. Thereby, it is possible to avoid the drone 1 colliding with the object A. The predetermined distance is 2 m (meters), for example.

以下、図11及び図12を参照して、無人機1の動作を説明する。無人機1は、領域F内を自律移動によって巡回しており、継続的にカメラ20で画像を取得し、画像解析を行っている(図11のステップST1)。無人機1は、画像中の物体が駆除対象であると判断すると(ステップST2)、追跡及び駆除手段作動を実施する(ステップST3)。無人機1は、駆除対象の駆除が完了したと判断すると(ステップST4)、追跡を停止し、駆除手段を停止する(ステップST5)。そして、無人機1は、駆除が完了した旨の情報を基地局100へ送信し(ステップST6)、巡回を再開する(ステップST7)。   Hereinafter, the operation of the drone 1 will be described with reference to FIGS. 11 and 12. The drone 1 circulates in the area F by autonomous movement, continuously acquires images with the camera 20, and performs image analysis (step ST1 in FIG. 11). When the drone 1 determines that the object in the image is a target for removal (step ST2), the drone 1 performs tracking and removal means operation (step ST3). When the drone 1 determines that the removal of the removal target has been completed (step ST4), it stops tracking and stops the removal means (step ST5). Then, the drone 1 transmits information indicating that the removal has been completed to the base station 100 (step ST6), and resumes patrol (step ST7).

無人機1は、上述のステップST3において、駆除対象を捕獲する条件を満たすと判断すると(図12のステップST31)、駆除対象の位置を確認し(ステップST32)、捕獲網30の発射角度及び発射方向を算出し(ステップST33)、捕獲網30を発射する(ステップST34)。   If the drone 1 determines that the condition for capturing the removal target is satisfied in the above-described step ST3 (step ST31 in FIG. 12), the position of the removal target is confirmed (step ST32), and the launch angle and launch of the capture net 30 are confirmed. The direction is calculated (step ST33), and the capture net 30 is fired (step ST34).

無人機1は、捕獲する条件を満たさないと判断すると(ステップST31)、駆除対象である害獣の種類に応じて、評価値の高い排除方法の組み合わせを選択し(ステップST35)、排除方法の組み合わせによる排除を実施する(ステップST36)。   When the drone 1 determines that the conditions for capturing are not satisfied (step ST31), the unmanned aircraft 1 selects a combination of exclusion methods with a high evaluation value according to the type of the harmful animal to be exterminated (step ST35). Exclusion by combination is performed (step ST36).

<第二の実施形態>
次に、図13等を参照して、第二の実施形態について説明する。なお、第一の実施形態と共通する構成については説明を省略し、第一の実施形態と異なる部分を中心に説明する。
<Second Embodiment>
Next, a second embodiment will be described with reference to FIG. In addition, description is abbreviate | omitted about the structure which is common in 1st embodiment, and it demonstrates centering on a different part from 1st embodiment.

図13に示すように、無人機2は、カメラ20に加えて、カメラ21を有する。カメラ20は可視光カメラであり、カメラ21は近赤外線カメラである。画像処理部60は、無人機2に配置された光センサー(図示せず)によって感知した光の強度に基づいて、可視光カメラ20または近赤外線カメラ21を作動させるようになっている。光センサーは、例えば、フォトレジスタ(photoresister)で構成される。無人機2は、光の強度が昼間のレベルであれば、可視光カメラ20を作動させ、光の強度が昼間のレベル未満であれば、近赤外線カメラ21を作動させる。なお、本実施形態とは異なり、可視光カメラと近赤外線カメラの機能は、双方の機能を備え、双方の機能を切り替え可能なハイブリッドカメラによって実現してもよい。また、近赤外線カメラに替えて、あるいは、さらに追加して、遠赤外線カメラを備えるようにしてもよい。   As shown in FIG. 13, the drone 2 has a camera 21 in addition to the camera 20. The camera 20 is a visible light camera, and the camera 21 is a near infrared camera. The image processing unit 60 operates the visible light camera 20 or the near-infrared camera 21 based on the light intensity sensed by a light sensor (not shown) arranged in the drone 2. The optical sensor is composed of, for example, a photoresistor. The drone 2 activates the visible light camera 20 if the light intensity is at the daytime level, and activates the near-infrared camera 21 if the light intensity is less than the daytime level. Unlike the present embodiment, the functions of the visible light camera and the near-infrared camera may be realized by a hybrid camera that has both functions and is capable of switching both functions. Further, a far-infrared camera may be provided instead of or in addition to the near-infrared camera.

図14に示すように、特徴データべースには、可視光のもとにおける特徴データと近赤外線のもとにおける特徴データが含まれている。無人機2は、画像処理部60が可視光カメラ20を作動させているときには可視光特徴データを参照し、画像処理部60が近赤外線カメラ21を作動させているときには近赤外線特徴データを参照するようになっている。なお、本実施形態とは異なり、無人機2が遠赤外線カメラを有する場合には、特徴データには、遠赤外線のもとでの特徴データを含むように構成する。   As shown in FIG. 14, the feature database includes feature data under visible light and feature data under near infrared rays. The drone 2 refers to the visible light feature data when the image processing unit 60 operates the visible light camera 20, and refers to the near infrared feature data when the image processing unit 60 operates the near infrared camera 21. It is like that. Unlike the present embodiment, when the drone 2 has a far-infrared camera, the feature data is configured to include feature data under far-infrared rays.

図15に示すように、排除方法組み合わせデータベースには、排除方法の組み合わせが、害獣の種類別に加えて、昼間と夜間を区別して規定されている。例えば、S1、V1及びR3の組合せについて、昼間の評価値は、シカについては「8」であるが、イノシシについては「5」である。また、その組合せの夜間評価値は、シカについて、昼間評価値よりも高く、「9」である。無人機2は、可視光カメラ20を作動させている昼間であれば、害獣の種類によって、昼間評価値の高い排除方法の組合せを優先的に採用する。また、無人機2は、近赤外線カメラ21を作動させている夜間であれば、害獣の種類によって、夜間評価値の高い排除方法の組み合わせを優先的に採用するようになっている。   As shown in FIG. 15, in the exclusion method combination database, combinations of exclusion methods are defined separately for daytime and nighttime in addition to the types of harmful animals. For example, for the combination of S1, V1 and R3, the daytime evaluation value is “8” for deer but “5” for wild boar. The nighttime evaluation value of the combination is “9”, which is higher than the daytime evaluation value for deer. The drone 2 preferentially adopts a combination of exclusion methods having a high daytime evaluation value depending on the type of harmful animal during the daytime when the visible light camera 20 is operated. In addition, the drone 2 preferentially adopts a combination of exclusion methods having a high nighttime evaluation value depending on the kind of harmful animals at night when the near-infrared camera 21 is operated.

無人機2は、駆除プログラムによって選択した駆除方法を実施する。   The drone 2 carries out the removal method selected by the removal program.

<第三の実施形態>
次に、図16等を参照して、第三の実施形態について説明する。なお、第二の実施形態と共通する構成については説明を省略し、第二の実施形態と異なる部分を中心に説明する。
<Third embodiment>
Next, a third embodiment will be described with reference to FIG. In addition, description is abbreviate | omitted about the structure which is common in 2nd embodiment, and it demonstrates centering on a different part from 2nd embodiment.

第三の実施形態の無人機2の記憶部52には、捕獲成功確率判断プログラムを有している。捕獲成功確率判断プログラムは、判断プログラムの一部である。無人機2は、捕獲が成功しなかった場合には、再度の捕獲を行った場合の成功確率を計算する。無人機2は、カメラ20またはカメラ21によって取得した画像に基づいて、駆除対象の動作(移動速度や移動方向の変化率など)及び捕獲網発射装置28の性能(駆除対象の動きへの追従性能、捕獲網30の発射速度など)に基づいて、再度の捕獲を行った場合の成功確率を計算する。例えば、駆除対象の移動速度が、捕獲網発射装置28の追従性能よりも早く、しかも、駆除対象が移動方向を大きく変えながら移動している場合には、成功確率は低い。これに対して、駆除対象の動作が前回の捕獲時と同様あるいはより遅い場合であって、捕獲網30の発射条件を修正すれば捕獲できる可能性が高い場合には、成功確率は高い。無人機2は、成功確率を数値化する。   The storage unit 52 of the drone 2 of the third embodiment has a capture success probability determination program. The capture success probability judgment program is a part of the judgment program. If the capture is not successful, the drone 2 calculates a success probability when the capture is performed again. The drone 2 operates based on the image acquired by the camera 20 or the camera 21, the operation of the removal target (movement speed, rate of change of the movement direction, etc.) and the performance of the capture net launching device 28 (follow-up performance to the movement of the removal target). And the success rate when the capture is performed again is calculated based on the shooting speed of the capture net 30 and the like. For example, when the movement speed of the removal target is faster than the follow-up performance of the capture net launching device 28, and the removal target is moving while greatly changing the movement direction, the success probability is low. On the other hand, if the operation to be disinfected is the same as or slower than the previous capture, and the possibility of capture is high if the firing conditions of the capture net 30 are corrected, the success probability is high. The drone 2 quantifies the success probability.

そして、無人機2は、成功確率が所定値以上であれば、駆除プログラムによって、再度の捕獲を実施する。無人機2は、成功確率を算出したときの条件に基づいて、捕獲網30の発射角度、発射方向、発射速度を含む発射条件を算出する。一方、無人機2は、成功確率が所定値未満であれば、駆除対象の排除を実施する。所定値は、例えば、60%である。   If the success probability is equal to or higher than the predetermined value, the drone 2 performs the capture again by the removal program. The drone 2 calculates the launch conditions including the launch angle, launch direction, and launch speed of the capture net 30 based on the conditions when the success probability is calculated. On the other hand, if the success probability is less than a predetermined value, the drone 2 performs removal of the removal target. The predetermined value is, for example, 60%.

以下、図16等を参照して、無人機2の動作を説明する。無人機2は、駆除対象の駆除を実施した場合において、駆除が完了していないと判断した場合(図11のステップST4)、捕獲成功確率が基準値以上か否かを判断する(図16のステップST41)。捕獲成功確率が基準値以上であれば、駆除対象の位置を確認し(ステップST42)、捕獲網30の発射角度・方向及び発射速度の補正値を算出し(ステップST43)、捕獲網30を発射する(ステップST44)。   Hereinafter, the operation of the drone 2 will be described with reference to FIG. When the drone 2 determines that the removal has not been completed in the case where the removal target is removed (step ST4 in FIG. 11), it determines whether the capture success probability is equal to or higher than a reference value (FIG. 16). Step ST41). If the capture success probability is equal to or higher than the reference value, the position of the extermination target is confirmed (step ST42), the correction value of the launch angle / direction and launch speed of the capture net 30 is calculated (step ST43), and the capture net 30 is fired. (Step ST44).

一方、捕獲成功確率が基準値以上ではない場合には、排除方法の組合せを選択し(ステップST45)、その排除方法の組合せによる排除を実施する(ステップST46)。   On the other hand, if the capture success probability is not equal to or higher than the reference value, a combination of exclusion methods is selected (step ST45), and exclusion by the combination of exclusion methods is performed (step ST46).

なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、本実施形態において無人機1(2)が実施する処理の一部を基地局100が実施するようにしてもよい。また、上述の実施形態1、2及び3の構成を、適宜、組み合わせてもよい。また、所定の方法で排除方法組合せの評価値を更新するようにしてもよい。また、有効な排除方法組合せを所定の基準によって、切り替えるようにしてもよい。あるいは、無人機1(2)を単体で出動させるほか、複数の無人機1(2)で編隊を組んで出動させるパターンや、無人機1(2)と無人飛行体を併用するパターンも排除方法の一つとしてもよい。また、無人機1(2)を無人飛行体としてもよいし、無人船舶としてもよい。   Note that the present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within a scope in which the object of the present invention can be achieved are included in the present invention. For example, the base station 100 may perform part of the processing performed by the unmanned aircraft 1 (2) in the present embodiment. Moreover, you may combine the structure of the above-mentioned Embodiment 1, 2, and 3 suitably. Further, the evaluation value of the exclusion method combination may be updated by a predetermined method. Further, effective exclusion method combinations may be switched according to a predetermined standard. Alternatively, the drone 1 (2) can be dispatched as a single unit, a pattern in which a plurality of unmanned aircraft 1 (2) form a formation, or a pattern in which the drone 1 (2) is used in combination with an unmanned aerial vehicle is also excluded. It is good also as one of these. The unmanned aerial vehicle 1 (2) may be an unmanned air vehicle or an unmanned ship.

1,2 無人機
20 カメラ(可視光カメラ)
21 カメラ(近赤外線カメラ)
24 発光装置
26 音声発生装置
28 捕獲網発射装置
301 シカ
1, 2 drone 20 camera (visible light camera)
21 camera (near infrared camera)
24 light emitting device 26 sound generating device 28 capture net launching device 301 deer

Claims (10)

自律移動するための自律移動手段と、
侵入禁止領域内の画像を取得する画像取得手段と、
前記画像中の物体が駆除対象か否かを認識し、前記侵入禁止領域に前記駆除対象が侵入したか否かを判断する判断手段と、
前記駆除対象を駆除する駆除手段と、
を有する害獣駆除用無人機。
Autonomous movement means for autonomous movement;
Image acquisition means for acquiring an image in the intrusion prohibited area;
Determining means for recognizing whether an object in the image is a disinfection target, and determining whether the disinfection target has entered the intrusion prohibited area;
A disinfecting means for exterminating the disinfectant;
An unmanned aerial vehicle for pest control.
前記駆除手段は、前記駆除対象を捕獲する捕獲手段、及び/または、前記駆除対象を前記侵入禁止領域から排除する排除手段を含む請求項1に記載の害獣駆除用無人機。   The pest control drone according to claim 1, wherein the extinguishing means includes a capturing means for capturing the extinguishing target and / or an excluding means for excluding the extinguishing target from the intrusion prohibited area. 前記排除手段が実施する排除方法は、音の発生、光の照射、匂いの発生、特定の移動態様における移動、または、それらの組合せを含む、
請求項2に記載の害獣駆除用無人機。
The exclusion method performed by the exclusion means includes sound generation, light irradiation, odor generation, movement in a specific movement mode, or a combination thereof.
An unmanned aerial vehicle for pest control according to claim 2.
前記排除方法は、前記駆除対象の種類ごとに規定され、
前記害獣駆除用無人機は、前記駆除対象を追跡しつつ、前記駆除対象の種類に応じて前記駆除手段を作動させる、請求項3に記載の害獣駆除用無人機。
The exclusion method is defined for each type of the removal target,
The unmanned aircraft for pest control according to claim 3, wherein the unmanned aircraft for pest control activates the control means according to the type of the control target while tracking the control target.
前記排除方法は、昼間用の排除方法と夜間用の排除方法に区別して規定され、
前記排除手段は、前記昼間用の排除方法と前記夜間用の排除方法とを使い分けるように構成されている請求項3または4のいずれかに記載の害獣駆除用無人機。
The exclusion method is defined by distinguishing between a daytime exclusion method and a nighttime exclusion method,
The pest control drone according to any one of claims 3 and 4, wherein the exclusion means is configured to selectively use the daytime exclusion method and the nighttime exclusion method.
前記画像取得手段は、周囲の光の強度に応じて、可視光における画像または赤外線における画像を取得するように構成されている請求項1乃至5のいずれかに記載の害獣駆除用無人機。   The pest control drone according to any one of claims 1 to 5, wherein the image acquisition means is configured to acquire an image in visible light or an image in infrared according to the intensity of ambient light. 前記判断手段は、前記画像中の物体が前記駆除対象か否かを認識するために、深層学習(ディープラーニング)によって生成されたデータを参照する請求項1乃至6のいずれかに記載の害獣駆除用無人機。   The pest according to any one of claims 1 to 6, wherein the determination unit refers to data generated by deep learning in order to recognize whether or not an object in the image is the target for extermination. A drone for disinfection. 前記判断手段は、前記画像取得手段によって取得した画像に基づいて、前記駆除対象の捕獲が成功したか否かを判断し、前記捕獲が成功しなかったと判断した場合には、再度の捕獲を行った場合の成功確率を計算し、
前記駆除手段は、前記成功確率が所定値以上であれば、前記駆除対象の再度の捕獲を実施し、前記成功確率が前記所定値未満であれば、前記駆除対象の排除を実施する請求項2乃至7のいずれかに記載の害獣駆除用無人機。
The determination unit determines whether the capture of the extermination target is successful based on the image acquired by the image acquisition unit. If it is determined that the capture is not successful, the determination unit performs the capture again. The probability of success
The said removal means performs the capture of the said removal object again if the success probability is more than a predetermined value, and implements the removal of the removal object if the success probability is less than the predetermined value. An unmanned aerial vehicle for pest control according to any one of 7 to 7.
自律移動可能な害獣駆除用無人機が実施する害獣駆除方法であって、
侵入禁止領域内の画像を取得する画像取得ステップと、
前記画像中の物体が駆除対象か否かを認識し、前記侵入禁止領域に前記駆除対象が侵入したか否かを判断する判断ステップと、
前記駆除対象を駆除する駆除ステップと、
を含む害獣駆除方法。
A pest control method implemented by an autonomously movable pest control drone,
An image acquisition step of acquiring an image in the intrusion prohibited area;
Recognizing whether or not the object in the image is a removal target, and determining whether or not the removal target has entered the intrusion prohibited area; and
A disinfecting step for disinfecting the disinfectant;
Pest control methods including:
自律移動可能な害獣駆除用無人機を制御するコンピュータを、
侵入禁止領域内の画像を取得する画像取得手段、
前記画像中の物体が駆除対象か否かを認識し、前記侵入禁止領域に前記駆除対象が侵入したか否かを判断する判断手段、
前記駆除対象を駆除する駆除手段、
として機能させるためのプログラム。

A computer that controls an autonomously movable pest control drone,
Image acquisition means for acquiring an image in the intrusion prohibited area;
Recognizing means for recognizing whether an object in the image is a disinfection target and determining whether the disinfection target has entered the intrusion prohibited area;
A disinfecting means for exterminating the disinfectant;
Program to function as.

JP2016212838A 2016-10-31 2016-10-31 Unmanned device for harmful animal extermination, harmful animal extermination method, and program Pending JP2018068221A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212838A JP2018068221A (en) 2016-10-31 2016-10-31 Unmanned device for harmful animal extermination, harmful animal extermination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212838A JP2018068221A (en) 2016-10-31 2016-10-31 Unmanned device for harmful animal extermination, harmful animal extermination method, and program

Publications (1)

Publication Number Publication Date
JP2018068221A true JP2018068221A (en) 2018-05-10

Family

ID=62112309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212838A Pending JP2018068221A (en) 2016-10-31 2016-10-31 Unmanned device for harmful animal extermination, harmful animal extermination method, and program

Country Status (1)

Country Link
JP (1) JP2018068221A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020021954A1 (en) * 2018-07-26 2020-01-30 ソニー株式会社 Information processing device, information processing method, and program
JP2020162438A (en) * 2019-03-28 2020-10-08 セコム株式会社 Monitoring system and flying robot
JP2021106530A (en) * 2019-12-27 2021-07-29 株式会社クボタ Field water management system
JP2021106529A (en) * 2019-12-27 2021-07-29 株式会社クボタ Field water management system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355323A (en) * 2001-05-31 2002-12-10 Nichimo Co Ltd Protecting/catching apparatus
US20060106496A1 (en) * 2004-11-18 2006-05-18 Tamao Okamoto Method of controlling movement of mobile robot
JP2008000072A (en) * 2006-06-22 2008-01-10 Fujifilm Corp Bird injury-preventing device
JP2011138310A (en) * 2009-12-28 2011-07-14 Nagaoka Univ Of Technology Method of determining number and perching position of harmful bird and apparatus therefor, and method of expelling harmful bird
JP2011160706A (en) * 2010-02-08 2011-08-25 Asahi Denshi Kenkyusho:Kk Wild animal capturing apparatus
JP2011250745A (en) * 2010-06-03 2011-12-15 Aanetto:Kk Method and system for threatening harmful animal
JP2013059296A (en) * 2011-09-14 2013-04-04 Chugoku Electric Power Co Inc:The Method and system for managing farmland
JP2013135644A (en) * 2011-12-28 2013-07-11 Ikari Shodoku Kk Communication device, communication method and program
JP2015228803A (en) * 2014-06-03 2015-12-21 みこらった株式会社 Pest insect capture-accommodation device and pest insect insecticidal device
JP2016077241A (en) * 2014-10-20 2016-05-16 ヤンマー株式会社 Field management vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355323A (en) * 2001-05-31 2002-12-10 Nichimo Co Ltd Protecting/catching apparatus
US20060106496A1 (en) * 2004-11-18 2006-05-18 Tamao Okamoto Method of controlling movement of mobile robot
JP2008000072A (en) * 2006-06-22 2008-01-10 Fujifilm Corp Bird injury-preventing device
JP2011138310A (en) * 2009-12-28 2011-07-14 Nagaoka Univ Of Technology Method of determining number and perching position of harmful bird and apparatus therefor, and method of expelling harmful bird
JP2011160706A (en) * 2010-02-08 2011-08-25 Asahi Denshi Kenkyusho:Kk Wild animal capturing apparatus
JP2011250745A (en) * 2010-06-03 2011-12-15 Aanetto:Kk Method and system for threatening harmful animal
JP2013059296A (en) * 2011-09-14 2013-04-04 Chugoku Electric Power Co Inc:The Method and system for managing farmland
JP2013135644A (en) * 2011-12-28 2013-07-11 Ikari Shodoku Kk Communication device, communication method and program
JP2015228803A (en) * 2014-06-03 2015-12-21 みこらった株式会社 Pest insect capture-accommodation device and pest insect insecticidal device
JP2016077241A (en) * 2014-10-20 2016-05-16 ヤンマー株式会社 Field management vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020021954A1 (en) * 2018-07-26 2020-01-30 ソニー株式会社 Information processing device, information processing method, and program
JP2020162438A (en) * 2019-03-28 2020-10-08 セコム株式会社 Monitoring system and flying robot
JP7155062B2 (en) 2019-03-28 2022-10-18 セコム株式会社 Surveillance system and flying robot
JP2021106530A (en) * 2019-12-27 2021-07-29 株式会社クボタ Field water management system
JP2021106529A (en) * 2019-12-27 2021-07-29 株式会社クボタ Field water management system
JP7366740B2 (en) 2019-12-27 2023-10-23 株式会社クボタ Field water management system

Similar Documents

Publication Publication Date Title
JP6921494B2 (en) Pest control device, its method and program
JP2018068221A (en) Unmanned device for harmful animal extermination, harmful animal extermination method, and program
US10514237B2 (en) Public safety smart belt
AU2010300068C1 (en) Methods and systems for use in training armed personnel
US20210051836A1 (en) Autonomous unmanned ground vehicle for pest control
US20190069535A1 (en) Robotic agriculture protection system
US10043263B1 (en) Mobile system for explosive device detection and instant active response
CN110238837B (en) Autonomous moving apparatus, autonomous moving method, and storage medium
US11636745B2 (en) Detection of animal intrusions and control of a repellent mechanism for detected animal intrusions
US10046732B2 (en) Public safety smart belt
US20200355463A1 (en) Public Safety Smart Belt
CN112513880A (en) System and method for locating and eliminating insects
US10112575B2 (en) Public safety smart belt
US10757379B2 (en) Public safety smart belt
US10650284B2 (en) Induction system for product authentication
KR20210123076A (en) Method for operation unmanned moving vehivle based on binary 3d space map
AU2016302398B2 (en) Device for proximal targeting of animals
US20210272437A1 (en) Public Safety Smart Belt
Wang et al. Autonomous bird deterrent system for vineyards using multiple bio-inspired unmanned aerial vehicle
US10959058B1 (en) Object tracking systems and methods
JP7155062B2 (en) Surveillance system and flying robot
Wang Intelligent UAVs for Pest Bird Control in Vineyards
US20220214702A1 (en) Systems and methods enabling evasive uav movements during hover and flight
US20230329219A1 (en) System and Methods for Mitigation of Dangerous Wildlife
JP7228852B6 (en) Bird and beast intimidation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210330