JP2024024586A - Wildlife damage countermeasure device - Google Patents

Wildlife damage countermeasure device Download PDF

Info

Publication number
JP2024024586A
JP2024024586A JP2023096478A JP2023096478A JP2024024586A JP 2024024586 A JP2024024586 A JP 2024024586A JP 2023096478 A JP2023096478 A JP 2023096478A JP 2023096478 A JP2023096478 A JP 2023096478A JP 2024024586 A JP2024024586 A JP 2024024586A
Authority
JP
Japan
Prior art keywords
bird
unit
control device
audio data
species
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023096478A
Other languages
Japanese (ja)
Inventor
幸彦 ▲徳▼永
Yukihiko Tokunaga
遼太郎 岡本
Ryotaro Okamoto
美由希 益子
Miyuki Masuko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Agriculture and Food Research Organization
University of Tsukuba NUC
Original Assignee
National Agriculture and Food Research Organization
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Agriculture and Food Research Organization, University of Tsukuba NUC filed Critical National Agriculture and Food Research Organization
Publication of JP2024024586A publication Critical patent/JP2024024586A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Catching Or Destruction (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wildlife damage countermeasure device that can efficiently drive off wildlife of offending species that attacks an object.
SOLUTION: A wildlife damage countermeasure device (10) uses voice data output by a sound collector (1) that collects sounds in an object region and a classifier generated using noise data that indicates environmental sounds to determine whether the sounds collected by the sound collector includes calls of wildlife of offending species. The wildlife damage countermeasure device includes a voice discrimination and light irradiation part (2) for controlling a light irradiation part to irradiate the object region with light when the sounds collected by the sound collector (1) includes the calls.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、鳥獣害対策の技術に関する。 The present invention relates to techniques for preventing damage to birds and animals.

鳥獣による被害が種々報告されている。例えば、鳥類による農作物被害は全国で約30.2億円(2020年度)が報告されている。鳥の種類別では、カラス類(約13.8億円)が最多で、次いでカモ類(約5.1億円)が多くなっている(非特許文献1)。 Various types of damage caused by birds and animals have been reported. For example, approximately 3.02 billion yen (in 2020) was reported as damage to crops caused by birds nationwide. By type of bird, crows (approximately 1.38 billion yen) were the most common, followed by ducks (approximately 510 million yen) (Non-Patent Document 1).

農耕地や養魚場等への鳥の侵入と食害を防ぐため、鳥と対象物を物理的に遮断する防鳥網が最も有効な方策として広く使用されている。しかし、圃場等の対象となる領域が広い場合には全体を覆う防鳥網の設置は容易でない。また、目合いの大きな網の使用や、一部が破損、又は継ぎ目や地面との間に隙間があるまま網を敷設しているなど、不適切な管理状況となる例も散見され、防鳥網での野鳥の羅網死が多発し問題化している地域もある(非特許文献2)。 In order to prevent bird invasion and feeding damage to agricultural land, fish farms, etc., bird nets that physically isolate birds from objects are widely used as the most effective measure. However, if the target area is large, such as a farm field, it is not easy to install bird nets that cover the entire area. In addition, there have been some cases of inappropriate management, such as using nets with large mesh sizes, partially damaged nets, or nets being laid with gaps between seams and the ground. In some areas, the death of wild birds in nets has become a serious problem (Non-Patent Document 2).

防鳥網以外に、鳥獣を威嚇することで農耕地等の特定の領域から排除する装置やシステムが考案されている。光を用いるものとして、種レンコンの植え付け時、夜間のカモの食害から守るため、レーザー光線を圃場に照射する有害鳥獣追払い装置が提案されている(特許文献1)。また、有害鳥獣が接近した時を狙って、発砲音を鳴らしたり、レーザー光線を照射したりして効果的、効率的に威嚇し追払う装置が提案されている(特許文献2)。特許文献2には、カメラが撮影した映像に基づき有害鳥獣の接近と判断したときに、威嚇装置を発動することが記載されている。 In addition to bird nets, devices and systems have been devised to scare birds and beasts away from specific areas such as agricultural land. As a device that uses light, a harmful bird and beast extermination device has been proposed that irradiates a field with a laser beam to protect the field from eating damage by ducks at night when planting lotus seeds (Patent Document 1). Furthermore, a device has been proposed that effectively and efficiently intimidates and drives away harmful birds and beasts by emitting gunshot sounds or irradiating laser beams when they approach (Patent Document 2). Patent Document 2 describes that a threatening device is activated when it is determined that a harmful bird or beast is approaching based on images taken by a camera.

さらに、既存の害鳥獣駆逐装置を補助し効果の減衰しづらい駆逐装置を実現するものとして、害鳥獣の侵入、飛来を特定の固定周波数の音声により察知認識しうる音源認識識別装置が考案されている(特許文献3)。ほかに、鳥獣被害対策以外の分野において、動物等の鳴き声から当該動物等の種類の特定を行う装置・システムが考案されている(特許文献4)。 Furthermore, in order to support existing pest and beast extermination devices and realize a pest control device whose effectiveness is unlikely to diminish, a sound source recognition and identification device has been devised that can detect and recognize the intrusion and incoming pests using sounds at a specific fixed frequency. (Patent Document 3). In addition, in fields other than bird and beast damage countermeasures, devices and systems have been devised that identify the type of animal based on its sound (Patent Document 4).

実用新案登録第3217837号公報Utility model registration No. 3217837 実用新案登録第3213836号公報Utility model registration No. 3213836 実用新案登録第3219134号公報Utility model registration No. 3219134 特開2002-304191号公報Japanese Patent Application Publication No. 2002-304191

農林水産省「全国の野生鳥獣による農作物被害状況について(令和2年度)」農村振興局農村政策部鳥獣対策・農村環境課,2021(オンライン)https: //www.maff.go.jp/j/seisan/tyozyu/higai/hogai_zyoukyou/index.htmlMinistry of Agriculture, Forestry and Fisheries “Situation of crop damage caused by wild birds and animals nationwide (2020)” Rural Development Bureau, Rural Policy Department, Bird and Beast Countermeasures and Rural Environment Division, 2021 (online) https: //www.maff.go.jp/j /seisan/tyozyu/higai/hogai_zyoukyou/index.html 明日香治彦・池野 進・渡辺朝一「茨城県下のハス田における防鳥ネットによる野鳥羅網被害の状況」Strix Vol.27,113-124,2011Haruhiko Asuka, Susumu Ikeno, and Choichi Watanabe, “Status of damage caused by bird netting in lotus fields in Ibaraki Prefecture,” Strix Vol. 27, 113-124, 2011

しかしながら、上記特許文献1に記載の技術では、加害種の鳥だけでなく加害しない他の野鳥等も追払いの対象となってしまうという問題がある。また、特許文献2に記載の技術では、映像に基づき有害鳥獣の接近を判断するため、夜間等では加害種であるかの判断が困難であるという問題がある。また、特許文献3に記載の技術では、感知した周辺の音声のうち環境音がノイズとなり、対象となる加害種の鳥獣の音声を感知しにくいという問題がある。このように、上記のような従来技術は、加害種の鳥獣をより効率的に追払うという観点において改善の余地がある。 However, the technique described in Patent Document 1 has a problem in that not only the inflicting bird species but also other non-inflicting wild birds are subject to expulsion. Furthermore, the technique described in Patent Document 2 judges the approach of harmful birds and beasts based on images, so there is a problem that it is difficult to judge whether it is a harmful species at night or the like. Furthermore, the technique described in Patent Document 3 has a problem in that environmental sounds among the sensed surrounding sounds become noise, making it difficult to detect the sounds of the target harmful species of birds and beasts. As described above, the above-mentioned conventional techniques have room for improvement in terms of more efficiently driving away harmful species of birds and beasts.

本発明の一態様は、対象物に対して加害する加害種の鳥獣をより効率的に追払うことのできる鳥獣害対策装置を実現することを目的とする。 An object of one aspect of the present invention is to realize a bird and beast damage control device that can more efficiently drive away harmful birds and beasts that cause harm to a target object.

上記の課題を解決するために、本発明の態様1に係る鳥獣害対策装置は、対象領域において集音する集音部が出力する音声データと、環境音を表すノイズデータを用いて生成された分類器とを用いて、前記集音部が集音した音に加害種の鳥獣の鳴き声が含まれるかを判別する判別部と、前記集音部が集音した音に前記鳴き声が含まれる場合、光照射部を制御して前記対象領域に対し光を照射させる照射制御部と、を有する。 In order to solve the above-mentioned problems, the bird and beast damage control device according to aspect 1 of the present invention is provided using sound data output by a sound collection unit that collects sound in a target area and noise data representing environmental sounds. a discriminating unit that uses a classifier to determine whether the sound collected by the sound collection unit includes the cry of a bird or beast of a perpetrating species; and an irradiation control section that controls the light irradiation section to irradiate the target area with light.

上記の構成によれば、環境音を表すノイズデータを用いて生成された分類器を用いて集音された音声に加害種の鳴き声が含まれるかを判別し、集音された音声に加害種の鳴き声が含まれる場合に対象領域に光を照射する。これにより、加害種の鳥獣をより効率的に追払うことができる。 According to the above configuration, a classifier generated using noise data representing environmental sounds is used to determine whether the collected sounds include the calls of the perpetrator species. irradiates the target area with light when the sound of a voice is included. This makes it possible to drive away harmful species of birds and beasts more efficiently.

本発明の態様2に係る鳥獣害対策装置は、前記態様1において、前記照射制御部は、前記光の照射方向を所定の速度又は所定の角速度で変更してもよい。上記の構成によれば、対象領域に侵入した加害種をより効果的に追払うことができる。 In the wildlife damage control device according to aspect 2 of the present invention, in aspect 1, the irradiation control section may change the irradiation direction of the light at a predetermined speed or a predetermined angular velocity. According to the above configuration, harmful species that have invaded the target area can be more effectively expelled.

本発明の態様3に係る鳥獣害対策装置は、前記態様2において、前記照射制御部は、前記鳴き声の音源の方向を推定し、前記光の照射方向を、前記光の照射位置が前記音源に近づく方向に移動させてもよい。照射位置を音源、すなわち対象領域に侵入した加害種の位置に近づけていくことにより、対象領域に侵入した加害種をより効果的に追払うことができる。 In the bird and beast damage control device according to aspect 3 of the present invention, in the aspect 2, the irradiation control unit estimates the direction of the sound source of the cry, and adjusts the irradiation direction of the light so that the irradiation position of the light is located at the sound source. It may be moved in the direction closer to it. By bringing the irradiation position closer to the sound source, that is, the position of the harmful species that has invaded the target area, the harmful species that have invaded the target area can be more effectively driven away.

本発明の態様4に係る鳥獣害対策装置は、前記態様1から3のいずれかにおいて、自立電源を含む電源部、を更に有し、前記判別部、及び前記照射制御部は、前記電源部が供給する電力により動作してもよい。 The bird and beast damage control device according to aspect 4 of the present invention, in any one of aspects 1 to 3, further includes a power supply section including an independent power source, and the discrimination section and the irradiation control section are configured such that the power supply section It may be operated by supplied power.

自立電源を含む電源部を備えることにより、電源のない耕作地等にも設置することができる。また設置や持運びが容易であり、対象領域内において農水産物の収穫が終了するなど追払いの必要が無くなった際には、取り外して他の対象領域に移設し使用することができる。 By being equipped with a power supply section that includes an independent power source, it can be installed even in cultivated land where there is no power source. Furthermore, it is easy to install and carry, and when there is no longer a need for expulsion, such as when the harvest of agricultural and marine products is completed within the target area, it can be removed and moved to another target area for use.

本発明の態様5に係る鳥獣害対策装置は、前記態様1から4のいずれかにおいて、前記集音部が集音した音声と前記光照射部が前記光を照射した日時とを記録する記録部、を更に有してもよい。上記の構成によれば、記録されたデータを用いた効果の検証、分析及び分類器23の再学習等が可能になる。 Aspect 5 of the present invention provides a bird and animal damage control device according to any one of aspects 1 to 4, wherein the recording unit records the sound collected by the sound collection unit and the date and time when the light irradiation unit irradiated the light. You may further have. According to the above configuration, it becomes possible to verify the effect, analyze, retrain the classifier 23, etc. using recorded data.

本発明の態様6に係る鳥獣害対策装置は、前記態様1から5のいずれかにおいて、前記対象領域は、レンコンが栽培されるハス田であってもよい。上記の構成によれば、ハス田に侵入して加害する加害種をより効果的に追払うことができる。 In the bird and animal damage control device according to aspect 6 of the present invention, in any one of aspects 1 to 5, the target area may be a lotus field where lotus root is cultivated. According to the above configuration, harmful species that invade lotus fields and cause harm can be more effectively expelled.

本発明の態様7に係る鳥獣害対策装置は、前記態様1から6のいずれかにおいて、前記加害種の鳥獣は、前記対象領域において夜間に採食を行う種(オカヨシガモ、ヨシガモ、ヒドリガモ、マガモ、カルガモ、ハシビロガモ、オナガガモ、コガモ、ホシハジロ、オオバン、アオサギ、ゴイサギ、及びタシギ等)の少なくともいずれかを含んでもよい。上記の構成によれば、上記の鳥による加害を効果的に抑制することができる。 In the bird and beast damage control device according to aspect 7 of the present invention, in any one of the aspects 1 to 6, the inflicting species of birds and beasts are species that feed at night in the target area (reed duck, reed duck, wigeon, mallard duck, etc.). It may include at least one of the following: spot-billed duck, shovel duck, pintail duck, teal, white-billed duck, coot, gray heron, night heron, sandpiper, etc.). According to the above configuration, the damage caused by the birds can be effectively suppressed.

本発明の態様8に係る鳥獣害対策装置は、前記態様7において、前記対象領域は、レンコンが栽培されるハス田であり、前記加害種の鳥獣は、マガモ及びオオバンの少なくともいずれか一方を含んでもよい。上記の構成によれば、ハス田に侵入するマガモ及びオオバンの少なくともいずれか一方をより効果的に追払うことができる。 In the bird and beast damage control device according to aspect 8 of the present invention, in the aspect 7, the target area is a lotus field where lotus root is cultivated, and the damaging species of birds and beasts include at least one of a mallard duck and a coot. But that's fine. According to the above configuration, it is possible to more effectively drive away at least one of mallard ducks and coots that invade the lotus fields.

本発明の態様9に係る鳥獣害対策装置は、前記態様1から8のいずれかにおいて、前記判別部は、前記音声データを分析して当該音声データの特徴量を表す複数のパラメータを生成し、生成した複数のパラメータが示す特徴量空間内の位置に基づき、前記判別を行ってもよい。上記の構成によれば、音声データの分析結果である複数のパラメータを用いて上記判別を行うことにより、加害種であるかを精度よく判別することができる。 A bird and beast damage control device according to aspect 9 of the present invention is provided in any one of aspects 1 to 8, wherein the discrimination unit analyzes the audio data and generates a plurality of parameters representing feature amounts of the audio data, The above-mentioned discrimination may be performed based on the position in the feature amount space indicated by the plurality of generated parameters. According to the above configuration, by performing the above discrimination using a plurality of parameters that are the analysis results of audio data, it is possible to accurately discriminate whether it is a harmful species.

本発明の態様10に係る鳥獣害対策装置は、前記態様9において、前記複数のパラメータは、線形予測符号化(linear predictive coding,LPC)により算出される線形予測係数を含んでもよい。 In the bird and beast damage control device according to aspect 10 of the present invention, in aspect 9, the plurality of parameters may include linear predictive coefficients calculated by linear predictive coding (LPC).

LPCの係数を算出するための演算量は、例えば畳み込みニューラルネット(convolutional neural network,CNN)の演算量と比較すると小さいため、ハードウェアを簡易な構成とすることができる。そのため、本実施形態によれば、簡易な構成で、鳥獣害の対策を効果的に行うことができる。 Since the amount of calculation for calculating the coefficients of LPC is small compared to the amount of calculation of, for example, a convolutional neural network (CNN), the hardware can be configured with a simple structure. Therefore, according to the present embodiment, countermeasures against damage from birds and animals can be effectively taken with a simple configuration.

本発明の態様11に係る鳥獣害対策装置は、前記態様10において、前記複数のパラメータは、前記音声データの自己相関係数を含んでもよい。LPCのパラメータだけでなく自己相関係数を分類器23の入力に含めることにより、簡易な構成で、加害種の判別をより精度よく行うことができる。 In the bird and beast damage control device according to aspect 11 of the present invention, in aspect 10, the plurality of parameters may include an autocorrelation coefficient of the audio data. By including not only the LPC parameters but also the autocorrelation coefficient in the input of the classifier 23, the injurious species can be determined more accurately with a simple configuration.

本発明の態様12に係る鳥獣害対策装置は、前記態様9から11のいずれかにおいて、前記判別部は、前記複数のパラメータを入力として判別結果を出力する機械学習モデルを用いて前記判別を行ってもよい。上記の構成によれば、機械学習モデルを用いて上記判別を行うことにより、加害種の判別を精度よく行うことができる。 In the bird and beast damage control device according to aspect 12 of the present invention, in any one of aspects 9 to 11, the discrimination section performs the discrimination using a machine learning model that receives the plurality of parameters as input and outputs a discrimination result. It's okay. According to the above configuration, by performing the above discrimination using a machine learning model, it is possible to accurately discriminate the perpetrator type.

本発明の態様13に係る鳥獣害対策装置は、前記態様12において、前記機械学習モデルは、ランダムフォレストの学習により構築されるモデルであってもよい。上記の構成によれば、ランダムフォレストの学習により構築されるモデルを用いて上記判別を行うことにより、加害種の判別を精度よく行うことができる。 In the bird and beast damage control device according to aspect 13 of the present invention, in aspect 12, the machine learning model may be a model constructed by random forest learning. According to the above configuration, by performing the above discrimination using a model constructed by random forest learning, it is possible to accurately discriminate the perpetrator species.

本発明の態様14に係る鳥獣害対策装置は、前記態様12又は13において、前記機械学習モデルは、前記環境音を表す音声データに加害種の鳥獣の鳴き声を表す音声を埋め込んだ教師データを用いて機械学習された学習済みモデルであってもよい。 Aspect 14 of the bird and beast damage control device of the present invention is the above aspect 12 or 13, wherein the machine learning model uses teacher data in which a voice representing the cry of a pest species of bird or beast is embedded in the voice data representing the environmental sound. It may also be a trained model that has been machine learned.

上記の構成によれば、環境音を表す音声データに加害種の鳴き声を埋め込んだ教師データを用いることにより、対象領域で集音される音声に環境音(ノイズ)が含まれる場合であっても、加害種の鳴き声をより精度よく判別できる。 According to the above configuration, by using the teacher data in which the calls of the perpetrator species are embedded in the audio data representing environmental sounds, even if the sounds collected in the target area include environmental sounds (noise), , it is possible to more accurately identify the calls of inflicting species.

本発明の態様15に係る鳥獣害対策装置は、前記態様1から14のいずれかにおいて、前記集音部と、前記光照射部と、を更に有してもよい。上記の構成によれば、環境音を表すノイズデータを用いて生成された分類器を用いて集音された音声に加害種の鳴き声が含まれるかを判別し、集音された音声に加害種の鳴き声が含まれる場合に対象領域に光を照射する。これにより、加害種の鳥獣をより効率的に追払うことができる。 The wildlife damage control device according to aspect 15 of the present invention may further include the sound collection section and the light irradiation section in any one of the aspects 1 to 14. According to the above configuration, a classifier generated using noise data representing environmental sounds is used to determine whether the collected sounds include the calls of the perpetrator species. irradiates the target area with light when the sound of a voice is included. This makes it possible to drive away harmful species of birds and beasts more efficiently.

本発明の態様16に係る鳥獣害対策装置は、前記態様1から15のいずれかにおいて、前記光照射部は、レーザー光を照射してもよい。 In the bird and beast damage control device according to aspect 16 of the present invention, in any one of aspects 1 to 15, the light irradiation section may irradiate laser light.

レーザー光は特に夜間において鳥獣の追払いに効果的である。そのため、レーザー光を照射することにより、対象領域に侵入した加害種をより効果的に追払うことができる。 Laser light is effective at driving away birds and beasts, especially at night. Therefore, by irradiating the laser beam, harmful species that have invaded the target area can be more effectively expelled.

本発明の態様17に係る学習装置は、加害種の鳥獣の鳴き声を表す音声データを、環境音を表す音声データに埋め込んだ学習用音声データを生成する生成部と、前記生成部が生成した学習用音声データを音声分析して特徴量を表す複数のパラメータを生成するパラメータ生成部と、前記パラメータ生成部が生成した複数のパラメータと前記加害種の鳴き声を含むか否かを示すラベルとを含む学習用データを用いて、音声データの特徴量を表す複数のパラメータを入力として当該音声データに加害種の鳥獣の鳴き声が含まれるかを判別する機械学習モデルを生成する学習部と、を含む。 A learning device according to aspect 17 of the present invention includes a generation unit that generates learning audio data in which audio data representing the cry of a perpetrating bird or beast is embedded in audio data representing an environmental sound, and a learning device generated by the generation unit. a parameter generation unit that generates a plurality of parameters representing feature quantities by voice analyzing voice data for use in the field, and a label indicating whether or not the plurality of parameters generated by the parameter generation unit and the cry of the perpetrating species are included. A learning unit that uses the learning data to generate a machine learning model that inputs a plurality of parameters representing feature quantities of the audio data and determines whether the audio data includes the cry of a bird or beast of a perpetrating species.

上記学習装置が生成した機械学習モデルを用いることで、加害種の鳴き声を精度よく判別することができる。 By using the machine learning model generated by the learning device, it is possible to accurately identify the calls of the injurious species.

本発明の態様18に係るプログラムは、コンピュータを、対象領域において集音する集音部が出力する音声データと、環境音を表すノイズデータを用いて生成された分類器とを用いて、前記集音部が集音した音に加害種の鳥獣の鳴き声が含まれるかを判別する判別部と、前記集音部が集音した音に前記鳴き声が含まれる場合、光照射部を制御して前記対象領域に対し光を照射させる照射制御部と、として機能させるためのプログラムである。 A program according to aspect 18 of the present invention causes a computer to use sound data output by a sound collection unit that collects sound in a target area and a classifier generated using noise data representing environmental sounds to a determination unit that determines whether the sound collected by the sound unit includes the cry of a bird or beast of an inflicting species; This is a program for functioning as an irradiation control unit that irradiates light onto a target area.

本発明の態様19に係る鳥獣害対策装置は、前記態様1又は2において、前記光の照射方向を撮影し、撮影画像を表す画像データを出力する撮影装置、を更に有してもよい。上記の構成によれば、撮影画像を鳥獣害対策装置による鳥獣の追払いの効果の検証等に用いることができる。 The bird and beast damage control device according to aspect 19 of the present invention may further include a photographing device that photographs the irradiation direction of the light and outputs image data representing the photographed image in the aspect 1 or 2. According to the above configuration, the photographed image can be used for verifying the effectiveness of driving away birds and beasts by the bird and beast damage prevention device.

本発明の態様20に係る鳥獣害対策装置は、前記態様19において、前記判別部は、前記集音部が出力する音声データに加えて前記撮影装置が撮影する撮影画像の画像データを用いて前記加害種が前記対象領域に飛来したかを判別してもよい。上記の構成によれば、音声による加害種の検知に加えて画像データを用いた検知を行うことにより、検知精度をより高くすることができる。 In the bird and beast damage control device according to aspect 20 of the present invention, in the aspect 19, the discrimination section uses image data of the photographed image photographed by the photographing device in addition to the audio data outputted by the sound collection section. It may be determined whether a harmful species has flown into the target area. According to the above configuration, detection accuracy can be made higher by performing detection using image data in addition to detection of the injurious species using audio.

本発明の態様21に係る鳥獣害対策装置は、前記態様12において、前記機械学習モデルは、環境音を表す音声データのセットで事前訓練された後、前記加害種の鳴き声を含む音声データから生成されたパラメータを含む教師データを用いて再訓練された学習済モデルであってもよい。上記の構成によれば、大規模な環境音データセットで判別モデルを事前訓練した後、加害種の鳴き声を判別するためのデータセットで判別モデルを再訓練(ファインチューニング)することにより、少ない教師データ(加害種の鳴き声を含む音声データ)で判別精度の高い判別モデルを生成することができる。 Aspect 21 of the present invention provides a bird and beast damage control device according to aspect 12, in which the machine learning model is pre-trained with a set of audio data representing environmental sounds, and then generated from audio data including the calls of the perpetrating species. The model may be a trained model that has been retrained using training data that includes parameters that have been trained. According to the above configuration, after pre-training a discrimination model on a large-scale environmental sound dataset, the discrimination model is retrained (fine-tuning) on a dataset for discriminating the calls of the perpetrator species. It is possible to generate a discrimination model with high discrimination accuracy using data (audio data including the calls of the offending species).

本発明の態様22に係る鳥獣害対策装置は、前記態様12において、前記機械学習モデルは、量子化、及び圧縮、の少なくともいずれか一方により軽量化されたモデルであってもよい。上記の構成によれば、量子化及び圧縮の少なくともいずれか一方により判別モデルを軽量化することにより、モデル実行に要する計算量を小さくすることができる。 In the bird and beast damage control device according to aspect 22 of the present invention, in aspect 12, the machine learning model may be a model whose weight is reduced by at least one of quantization and compression. According to the above configuration, by reducing the weight of the discriminant model through at least one of quantization and compression, the amount of calculation required for model execution can be reduced.

本発明の各態様に係る鳥獣害対策装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記鳥獣害対策装置が備える各部(ソフトウェア要素)として動作させることにより前記鳥獣害対策装置をコンピュータにて実現させる鳥獣害対策装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The bird and beast damage control device according to each aspect of the present invention may be realized by a computer, and in this case, the bird and beast damage control device is operated by operating the computer as each part (software element) included in the bird and beast damage control device. A control program for a bird and beast damage prevention device that is realized by a computer, and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.

本発明の一態様によれば、対象物に対して加害する加害種の鳥獣をより効果的に追払うことができる。 According to one aspect of the present invention, it is possible to more effectively drive away harmful species of birds and animals that cause harm to a target object.

実施形態1に係る鳥獣害対策装置の設置状態を概略的に示す図である。1 is a diagram schematically showing an installed state of the wildlife damage control device according to the first embodiment; FIG. 実施形態1に係る集音部を下面から見た外観図である。FIG. 3 is an external view of the sound collecting section according to the first embodiment, viewed from the bottom. 実施形態1に係る音声識別・光照射部のケース外部を下面から見た外観図である。FIG. 2 is an external view of the outside of the case of the voice identification/light irradiation unit according to the first embodiment, viewed from the bottom. 実施形態1に係る音声識別・光照射部のケース内部を上面から見た図である。FIG. 3 is a top view of the inside of the case of the voice identification/light irradiation unit according to the first embodiment. 実施形態1に係る音声識別・光照射部のケース内部に収容される部品の接続の様子を示す図である。FIG. 3 is a diagram showing how components housed inside the case of the voice identification/light irradiation unit according to the first embodiment are connected. 実施形態1に係る音声識別・光照射部を上面から見た模式図である。FIG. 3 is a schematic diagram of the voice identification/light irradiation unit according to the first embodiment, viewed from above. 実施形態1に係る音声識別・光照射部を側面から見た模式図である。FIG. 3 is a schematic side view of the voice identification/light irradiation unit according to the first embodiment. 実施形態1に係る電源部の構成を示す図である。FIG. 3 is a diagram showing the configuration of a power supply unit according to the first embodiment. 実施形態1に係る音声識別・光照射部の機能構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a functional configuration of a voice identification/light irradiation unit according to the first embodiment. 定点カメラに映った加害種の個体数の推移を示すグラフである。This is a graph showing changes in the number of injurious species captured by fixed-point cameras. 実施形態1に係る学習装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of a configuration of a learning device according to a first embodiment. FIG. 実施形態1に係る教師データの生成処理の具体例を説明するための図である。FIG. 3 is a diagram for explaining a specific example of the teacher data generation process according to the first embodiment. 変形例に係る鳥獣害対策装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the wildlife damage prevention device based on a modification. 変形例に係る音声識別・光照射部の構成を示す図である。It is a figure which shows the structure of the voice identification/light irradiation part based on a modification. 変形例に係る鳥獣害対策装置の構成を示す図である。It is a figure which shows the structure of the wildlife damage prevention device based on a modification. 変形例に係る鳥獣害対策装置の構成を示す図である。It is a figure which shows the structure of the wildlife damage prevention device based on a modification. 変形例に係る判別モデルの訓練に用いる教師データの具体例を示す図である。FIG. 7 is a diagram showing a specific example of teacher data used for training a discriminant model according to a modification. 変形例に係る判別モデルの生成及びコンピュータへの実装の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of generation of a discriminant model and implementation on a computer according to a modification.

〔実施形態1〕
以下、本発明の一実施形態について、詳細に説明する。
[Embodiment 1]
Hereinafter, one embodiment of the present invention will be described in detail.

<鳥獣害対策装置の構成>
本実施形態に係る鳥獣害対策装置10は、対象領域における鳥獣害の対策を行うための装置である。鳥獣害対策装置10は、本明細書に係る鳥獣害対策システムの一例である。以下では、鳥獣害対策装置10をカモ類等による夜間のレンコン食害の対策に用いる態様について説明する。本実施形態において、対象領域は、レンコンが栽培されるハス田である。対象領域は特に、湛水された収穫前のハス田である。例えば、全国のレンコン出荷量の54%(2020年度)を生産する茨城県下のハス田では、夜間に採食する鳥類は少なくとも13種類確認されており(オカヨシガモ、ヨシガモ、ヒドリガモ、マガモ、カルガモ、ハシビロガモ、オナガガモ、コガモ、ホシハジロ、オオバン、アオサギ、ゴイサギ、タシギ)、種ごとに特徴のある声で鳴く。これらのうち、泥中に着生するレンコンを食害することが確かめられている加害種は2種(マガモ、オオバン)である(益子美由希・山口恭弘・吉田保志子,「泥中のレンコンはカモ類等の食害を受ける:実地試験による確認」日本鳥学会誌71,(2), 153-169,2022)。本実施形態において、鳥獣害の対策の対象である加害種は、マガモ及びオオバンの少なくともいずれか一方を含む。
<Configuration of bird and beast damage control device>
The bird and beast damage control device 10 according to the present embodiment is a device for taking measures against bird and beast damage in a target area. The bird and beast damage control device 10 is an example of the bird and beast damage control system according to the present specification. In the following, a mode in which the bird and animal damage prevention device 10 is used to prevent damage caused by ducks and the like from eating lotus roots at night will be described. In this embodiment, the target area is a lotus field where lotus roots are cultivated. The target area is particularly flooded lotus fields before harvest. For example, in the lotus fields in Ibaraki Prefecture, which produce 54% of the total lotus root shipments nationwide (in 2020), at least 13 species of birds that feed at night have been confirmed (evil duck, reed duck, wigeon, mallard, spot-billed duck, and shovel duck). , pintail duck, teal, white-winged duck, coot, gray heron, night heron, sandpiper), each species has a distinctive vocalization. Among these, two species (mallard and coot) have been confirmed to damage lotus roots growing in mud (Miyuki Mashiko, Yasuhiro Yamaguchi, Yoshiko Yoshida, ``Lotus roots in mud are eaten by ducks''). "Suffering from feeding damage from other species: Confirmation through field tests" Journal of the Ornithological Society of Japan 71, (2), 153-169, 2022). In the present embodiment, the offending species targeted for countermeasures against wildlife damage include at least one of mallard ducks and coots.

図1は、鳥獣害対策装置10の設置状態を概略的に示す図である。図1において、鳥獣害対策装置10は、被害を防ぎたい耕作地(収穫前のハス田)付近に設置される。なお、ハス田内は湛水され、泥中にはレンコンが栽培されており立ち入りできないため、立入可能な周囲の畦畔や農道沿いに存在する既設の柱(電柱、過去に防鳥網を設置していた際の支柱となっていた単管パイプ等)に取り付ける。その際、鳥獣害対策装置10の光線照射により追払われた加害種が飛去する際に羅網することを避けるため、防鳥網の無い場所を選定し、農家等と調整の上で設置を行う。 FIG. 1 is a diagram schematically showing the installed state of the wildlife damage control device 10. As shown in FIG. In FIG. 1, a wildlife damage control device 10 is installed near cultivated land (lotus fields before harvest) where damage is to be prevented. Please note that the lotus field is flooded and lotus roots are grown in the mud, making it impossible to enter. Attach it to a single pipe, etc. that was used as a support when it was installed. At that time, in order to avoid enveloping the injurious species that were expelled by the light irradiation of the bird and beast damage prevention device 10 when they fly away, we selected a place without a bird net and installed it after coordinating with farmers etc. conduct.

鳥獣害対策装置10は、基本構成として、図1に示すように集音部1と、音声識別・光照射部2と、これらに電力を供給する電源部3とを備える。電源部3は、家庭用電源を用いてもよいが、電源が無い耕作地等においては太陽光パネル31と、この太陽光パネル31で発電した電力を蓄えるバッテリ等を収納するプラスチック製のケース33を備える。以下、図1の矢印に示すように、鳥獣害対策装置10の上下方向を定義する。 As shown in FIG. 1, the bird and beast damage prevention device 10 includes, as a basic configuration, a sound collection section 1, a voice identification/light irradiation section 2, and a power supply section 3 that supplies power to these sections. The power supply section 3 may use a household power source, but in cultivated areas where there is no power source, a plastic case 33 that houses the solar panel 31 and a battery that stores the electric power generated by the solar panel 31 is used. Equipped with Hereinafter, as shown by the arrows in FIG. 1, the vertical direction of the wildlife damage prevention device 10 will be defined.

(集音部)
図2は、集音部1を下面から見た外観図である。集音部1は、対象領域において集音する。図2の例で、マイクロフォンアレイ11の上部に、マイクロフォンアレイ11よりも直径が2倍以上ある大きさの雨除け皿12を下向きに取り付けて雨避けを設ける。雨除け皿は、例えばプラスチック製の皿であり、より具体的には、一例として、植木鉢用台皿である。さらに、マイクロフォンアレイ11及び雨除け皿12をカバー13で覆う。カバー13は、防雨・防風用の布製のカバーである。カバー13は、伸縮性と吸水速乾性に優れたナイロン又はポリウレタン素材の薄いものが好ましい。マイクロフォンアレイ11は、USBケーブル14により音声識別・光照射部2へ接続する。これらを集音部支持棒15に固定した上で、集音部固定具16を用いて、地面と水平になるよう集音部1を柱に固定する。
(Sound collection section)
FIG. 2 is an external view of the sound collecting section 1 viewed from the bottom. The sound collection unit 1 collects sound in the target area. In the example of FIG. 2, a rain shield plate 12 having a diameter twice or more larger than that of the microphone array 11 is attached downward to the top of the microphone array 11 to provide rain protection. The rain shield plate is, for example, a plastic plate, and more specifically, as an example, is a flower pot stand plate. Furthermore, the microphone array 11 and the rain shield plate 12 are covered with a cover 13. The cover 13 is a rainproof/windproof cloth cover. The cover 13 is preferably made of a thin nylon or polyurethane material that has excellent elasticity and water absorption and quick drying properties. The microphone array 11 is connected to the voice identification/light irradiation unit 2 via a USB cable 14 . After fixing these to the sound collecting part support rod 15, the sound collecting part 1 is fixed to the pillar using a sound collecting part fixing tool 16 so as to be parallel to the ground.

マイクロフォンアレイ11は、音のした方向を4方向から推定可能な4つのマイクロフォンアレイを備える。マイクロフォンアレイ11は、周囲約100mの範囲内における音を集音する。マイクロフォンアレイ11の4つのマイクの穴は通気性のある防水シールで覆う。単独マイクを使用した場合には、集音した音が背景の長波ダイナミクスにより大幅に改変されることにより、加害種の鳴き声検知精度が大きく低下する。それに対し本実施形態によれば、マイクロフォンアレイ11では制御チップによってノイズ低減、及びエコーが削除された音が得られるため、鳴き声検知の精度向上が可能となる。 The microphone array 11 includes four microphone arrays that can estimate the direction of sound from four directions. The microphone array 11 collects sounds within a range of about 100 meters around it. The four microphone holes of the microphone array 11 are covered with a breathable waterproof seal. When a single microphone is used, the accuracy of detecting the calls of the offending species is greatly reduced because the collected sounds are significantly modified by the long-wave dynamics of the background. On the other hand, according to the present embodiment, since the control chip of the microphone array 11 produces sounds with noise reduction and echoes removed, it is possible to improve the accuracy of cries detection.

(音声識別・光照射部)
図3は、音声識別・光照射部2のケース外部を下面から見た外観図である。音声識別・光照射部2は、本明細書に係る鳥獣害対策装置の一例である。ケース211は、プラスチック製の防水のケースである。ケース211の下部に、アクリル製の半球状のドーム212が設けられている。ドーム212は、音声識別・光照射部2の部品を収容する透明の部材である。ケース211の下部からドーム212が飛び出た形状であり、ドーム212内にレーザーハウジング221と接続線222、223が収納されている。ケース211を支持棒213に固定した上で、固定具214を用いて、音声識別・光照射部2を音声識別・光照射部2の下面が地面と水平になるよう柱に固定する。
(Voice identification/light irradiation part)
FIG. 3 is an external view of the outside of the case of the voice identification/light irradiation unit 2 viewed from below. The voice identification/light irradiation unit 2 is an example of the wildlife damage prevention device according to the present specification. The case 211 is a waterproof case made of plastic. A hemispherical dome 212 made of acrylic is provided at the bottom of the case 211. The dome 212 is a transparent member that accommodates the parts of the voice identification/light irradiation section 2. A dome 212 protrudes from the bottom of the case 211, and a laser housing 221 and connection wires 222, 223 are housed within the dome 212. After fixing the case 211 to the support rod 213, the voice identification/light irradiation unit 2 is fixed to the pillar using the fixture 214 so that the lower surface of the voice identification/light irradiation unit 2 is parallel to the ground.

図4は、ケース211の内部を上面からみた図であり、図5は、ケース211の内部に収容される部品の接続の様子を示す図である。鳴き声検出には、コンピュータ227を用いる。コンピュータ227は、例えばシングルボードコンピュータであり、一例として、CPU(central processing unit)等のプロセッサと、メモリとを備える。コンピュータ227は、例えば0.5秒毎の音声入力の処理に十分なCPUの処理能力を持ち、入力音を信号雑音比などを使って断片化した上で、断片化された音を対象に鳴き声検出を行う。拡張ボード228は、ステッピングモーター・レーザー制御用の拡張ボードである。コンピュータ227に付加した拡張ボード228により、汎用入出力を介して音声識別・光照射部2を制御できる。なお、コンピュータ227は、プロセッサとメモリとを備えるコンピュータに限定されるものではなく、例えばマイクロコントローラであってもよい。 FIG. 4 is a diagram showing the inside of the case 211 viewed from above, and FIG. 5 is a diagram showing how components housed inside the case 211 are connected. A computer 227 is used to detect the cry. The computer 227 is, for example, a single board computer, and includes, for example, a processor such as a CPU (central processing unit) and a memory. The computer 227 has sufficient CPU processing power to process audio input every 0.5 seconds, for example, and fragments the input sound using a signal-to-noise ratio, etc., and then generates a cry for the fragmented sound. Perform detection. The expansion board 228 is an expansion board for controlling the stepping motor and laser. An expansion board 228 added to the computer 227 allows the voice recognition/light irradiation unit 2 to be controlled via general-purpose input/output. Note that the computer 227 is not limited to a computer including a processor and a memory, and may be a microcontroller, for example.

また、効果検証を効率化するには、加害種の鳴き声を検知した日時、及び光照射の実施日時を正しく取得・保存する必要がある。コンピュータ227が自ら時刻補正を行うにはインターネット接続を要するため、代わりにGPS受信機224を設けることにより、インターネット接続のない場所においても随時時刻補正が行われ、正しい時刻を記録することができる。加えて、加害種の鳴き声を検知した際に集音された音声は、コンピュータ227に保存することができる。換言すると、鳥獣害対策装置10は、集音部1が集音した音声と、音声識別・光照射部2が光を照射した日時とを記録するコンピュータ227を有する。コンピュータ227は、本明細書に係る記録部の一例である。 In addition, in order to make effectiveness verification more efficient, it is necessary to correctly obtain and store the date and time when the calls of the offending species were detected and the date and time when light irradiation was performed. Since an Internet connection is required for the computer 227 to correct the time by itself, by providing a GPS receiver 224 instead, the time can be corrected at any time even in places without an Internet connection, and the correct time can be recorded. In addition, the sounds collected when the calls of the offending species are detected can be stored in the computer 227. In other words, the wildlife damage control device 10 includes a computer 227 that records the sound collected by the sound collection unit 1 and the date and time when the sound identification/light irradiation unit 2 irradiated light. The computer 227 is an example of a recording unit according to this specification.

図6は、音声識別・光照射部2を上面から見た模式図であり、図7は、音声識別・光照射部2を側面(上面と垂直な面)から見た模式図である。光線は、緑色のレーザー光線を約90°の扇状に照射するマーキングレーザーを備えたレーザーモジュール226より、ドーム212を通って発せられる。レーザーモジュール226は、本明細書に係る光照射部の一例である。レーザーモジュール226が照射する光線は、例えばクラス1、クラス1M、クラス2、又はクラス2Mである。レーザーモジュール226が照射する光線は、夜間に約50m先まで到達する。また、レーザーモジュール226を動かすためのパン機能を備えたステッピングモーター225をケース211の内部に取り付けておくことで、光線を360°旋回させることができる。レーザーモジュール226は、アルミニウム素材からなるレーザーハウジング221で覆い、その熱を放出しやすくすることができる。 FIG. 6 is a schematic diagram of the voice identification/light irradiation section 2 viewed from the top, and FIG. 7 is a schematic diagram of the voice identification/light irradiation section 2 viewed from the side (a surface perpendicular to the top surface). The light beam is emitted through the dome 212 by a laser module 226 that includes a marking laser that emits a green laser beam in an approximately 90 degree fan. The laser module 226 is an example of a light irradiation unit according to this specification. The light beam emitted by the laser module 226 is, for example, class 1, class 1M, class 2, or class 2M. The light beam emitted by the laser module 226 reaches approximately 50 meters away at night. Further, by attaching a stepping motor 225 with a panning function for moving the laser module 226 inside the case 211, the light beam can be rotated 360 degrees. The laser module 226 can be covered with a laser housing 221 made of aluminum material to facilitate dissipation of its heat.

ただし、レーザーモジュール226が照射するレーザー光は緑色に限られず、レーザーモジュール226は他の波長のレーザー光を照射してもよい。また、レーザーモジュール226が照射するレーザー光の形状は扇状に限られず、レーザーモジュール226はレーザー光を他の形状で照射してもよい。 However, the laser light emitted by the laser module 226 is not limited to green, and the laser module 226 may emit laser light of other wavelengths. Further, the shape of the laser light emitted by the laser module 226 is not limited to a fan shape, and the laser module 226 may emit laser light in other shapes.

点状のレーザー光線を用いて対象領域の全面へ照射する場合にはパン・チルト制御を要し、プラスチック製のパン・チルトユニットでは高熱となり損傷しやすいのに対して、扇状のレーザー光線を垂直方向へ照射するように設定することでチルト機能の必要がなくなるため、安価なステッピングモーター225を用いたパン機能のみで対応でき、消費電力を削減し長期間の安定した動作が可能となる。 Pan/tilt control is required when using point-shaped laser beams to irradiate the entire target area, and plastic pan/tilt units can easily become hot and damaged, whereas fan-shaped laser beams are directed vertically. Setting it to irradiate eliminates the need for a tilt function, so it can be handled using only a pan function using an inexpensive stepping motor 225, reducing power consumption and allowing stable operation over a long period of time.

ステッピングモーター225はモータードライバ229に、モータードライバ229は拡張ボード228に、それぞれ接続線で接続し、拡張ボード228はコンピュータ227の適切な汎用入出力へ接続する。 The stepping motor 225 is connected to a motor driver 229 and the motor driver 229 is connected to an expansion board 228 by connecting lines, and the expansion board 228 is connected to the appropriate general purpose input/output of the computer 227.

(電源部)
図8は、電源部3の構成を示す図である。電源部3は、電源が無い耕作地等において鳥獣害対策装置10へ給電する。太陽光パネル31により発電した電力は、ソーラー充電コントローラー35を介してバッテリ32に蓄えられ、DC/DCコンバータ36を介して音声識別・光照射部2へ接続線34より給電される。換言すると、鳥獣害対策装置10は、太陽電池を含む電源部3を有し、音声識別・光照射部2は、電源部3が供給する電力により動作する。
(Power supply part)
FIG. 8 is a diagram showing the configuration of the power supply section 3. As shown in FIG. The power supply unit 3 supplies power to the wildlife damage control device 10 in cultivated land or the like where there is no power supply. Electric power generated by the solar panel 31 is stored in a battery 32 via a solar charge controller 35, and is supplied to the voice identification/light irradiation unit 2 via a connecting line 34 via a DC/DC converter 36. In other words, the wildlife damage prevention device 10 has a power supply unit 3 including a solar cell, and the voice identification/light irradiation unit 2 operates with the power supplied by the power supply unit 3.

(音声識別・光照射部の機能的構成)
図9は、音声識別・光照射部2の機能構成の一例を示すブロック図である。図において、音声識別・光照射部2は、判別部21及び照射制御部22を備える。判別部21及び照射制御部22は、一例として、コンピュータ227のプロセッサがメモリに記憶されたコンピュータプログラムを読み出して実行することにより実現される。
(Functional configuration of voice identification/light irradiation unit)
FIG. 9 is a block diagram showing an example of the functional configuration of the voice identification/light irradiation section 2. As shown in FIG. In the figure, the voice identification/light irradiation section 2 includes a discrimination section 21 and an irradiation control section 22. The determination unit 21 and the irradiation control unit 22 are realized, for example, by a processor of the computer 227 reading and executing a computer program stored in a memory.

(判別部)
判別部21は、集音部1が出力する音声データ、並びに、分類器23_1及び分類器23_2を用いて、集音部1が集音した音に加害種の鳥獣の鳴き声が含まれるかを判別する。判別部21が一度の判別処理において判別の対象とする音声データは、一例として0.5秒の時間長の音声データである。この場合、判別部21は、0.5秒の時間長の音声データに対する判別処理を、鳥獣害対策装置10の稼働期間に亘って繰り返し実行する。
(Discrimination part)
The determination unit 21 uses the audio data output by the sound collection unit 1 and the classifiers 23_1 and 23_2 to determine whether the sounds collected by the sound collection unit 1 include the cries of a bird or beast of a perpetrating species. do. The audio data to be determined by the determining unit 21 in one determination process is, for example, audio data with a time length of 0.5 seconds. In this case, the determination unit 21 repeatedly performs the determination process on the audio data having a time length of 0.5 seconds over the operating period of the wildlife damage control device 10.

(分類器)
分類器23_1は、判別部21で得られた音声データにオオバンの鳴き声が含まれているかを判別するための分類器であり、分類器23_2は、判別部21で得られた音声データにマガモの鳴き声が含まれているかを判別するための分類器である。以下では、分類器23_1と分類器23_2とを各々区別する必要がない場合には、これらを「分類器23」と称する。分類器23は、教師あり機械学習により構築された学習済モデルである。本実施形態において、分類器23は、ランダムフォレストの手法により構築された学習済モデルである。分類器23の学習に用いられる学習用データは、環境音を表すノイズデータを含む。換言すると、分類器23は、環境音を表すノイズデータと対象種の音声データを用いて生成された分類器である。
(classifier)
The classifier 23_1 is a classifier for determining whether the sound data obtained by the discriminating unit 21 includes the call of a coot. This is a classifier for determining whether cries are included. Below, if there is no need to distinguish between the classifier 23_1 and the classifier 23_2, they will be referred to as the "classifier 23." The classifier 23 is a trained model constructed by supervised machine learning. In this embodiment, the classifier 23 is a trained model constructed using a random forest method. The learning data used for learning by the classifier 23 includes noise data representing environmental sounds. In other words, the classifier 23 is a classifier generated using noise data representing environmental sounds and audio data of the target species.

(分類器の入力)
分類器23の入力は一例として、音声データの特徴量を表す複数のパラメータを含む。ここで、複数のパラメータは、一例として、線形予測符号化(linear predictive coding,LPC)により算出される16個の線形予測係数と、自己相関係数と、の17個の係数を含む。LPCによれば、ひとつの音声データを多項式として表現できるため、音声データから複数のパラメータが得られる。ただし、特徴量を表す複数のパラメータはこれらに限られず、音声データの特徴量を表す他のパラメータを含んでもよい。
(classifier input)
The input of the classifier 23 includes, for example, a plurality of parameters representing feature amounts of the audio data. Here, the plurality of parameters include, for example, 16 linear predictive coefficients calculated by linear predictive coding (LPC) and 17 coefficients, including an autocorrelation coefficient. According to LPC, one piece of audio data can be expressed as a polynomial, so multiple parameters can be obtained from the audio data. However, the plurality of parameters representing the feature amount are not limited to these, and may include other parameters representing the feature amount of the audio data.

(分類器の出力)
また、分類器の出力は、一例として、音声データに加害種の鳴き声が含まれるか否かの判別結果を含む。換言すると、判別部21は、複数のパラメータを入力として判別結果を出力する機械学習モデルを用いて上記判別を行う。
(classifier output)
Further, the output of the classifier includes, for example, a determination result as to whether or not the audio data includes the cry of the perpetrator species. In other words, the discrimination unit 21 performs the above discrimination using a machine learning model that receives a plurality of parameters as input and outputs a discrimination result.

(判別部による判別処理の具体例)
判別部21は、一例として、以下の手順により判別処理を行う。まず、判別部21は、0.5秒の時間長の音声データのうち、ノイズ以外の音を含むデータを分析して当該音声データの特徴量を表す複数のパラメータを生成する。より具体的には、判別部21は、LPCにより音声データから16個の線形予測係数を算出する。また、判別部21は、音声データの自己相関係数を算出する。
(Specific example of discrimination processing by the discrimination unit)
As an example, the determining unit 21 performs the determining process according to the following procedure. First, the determination unit 21 analyzes data that includes sounds other than noise among audio data having a time length of 0.5 seconds, and generates a plurality of parameters representing feature amounts of the audio data. More specifically, the determination unit 21 calculates 16 linear prediction coefficients from the audio data using LPC. Further, the determining unit 21 calculates an autocorrelation coefficient of the audio data.

判別部21は、算出した17個のパラメータ(16個の線形予測関数と1個の自己相関係数)とを分類器23に入力して分類器23の出力を得ることにより、判別対象である音声データに加害種の鳴き声が含まれているかを判別する。 The discriminator 21 inputs the calculated 17 parameters (16 linear prediction functions and 1 autocorrelation coefficient) to the classifier 23 and obtains the output of the classifier 23, thereby determining the target for discrimination. Determine whether the audio data contains the calls of the invading species.

(照射制御部)
照射制御部22は、判別部21の判別結果に基づき、レーザー光の照射制御を行う。すなわち、照射制御部22は、集音部1が集音した音に上記鳴き声が含まれる場合、レーザーモジュール226を制御して上記対象領域に対し光を照射させる。本実施形態においては、照射制御部22は方角を定めず光線照射を行う。音声識別・光照射部2は、一例として、ステッピングモーター225を制御して光の照射方向を所定の速度又は所定の角速度で変更し、対象領域において光の照射位置を徐々に移動させる。
(irradiation control section)
The irradiation control unit 22 controls laser light irradiation based on the determination result of the determination unit 21. That is, when the sound collected by the sound collection unit 1 includes the cry, the irradiation control unit 22 controls the laser module 226 to irradiate the target area with light. In this embodiment, the irradiation control unit 22 performs light irradiation without determining a direction. For example, the voice identification/light irradiation unit 2 controls the stepping motor 225 to change the direction of light irradiation at a predetermined speed or a predetermined angular velocity, and gradually moves the light irradiation position in the target area.

音声識別・光照射部2が照射するレーザー光は、対象領域においてゆっくり移動し、対象領域で栽培される農作物の枯れ茎や枯れ葉、及び水面等を照らす。対象領域に侵入した加害種の鳥獣は、照射されるレーザー光、レーザー光により照らされる水面の揺れ、及びレーザー光の照射により発生する農作物の影等により、周囲を警戒し、対象領域の外に移動する。これにより、対象領域に侵入してきた加害種を追払うことができる。 The laser light emitted by the voice identification/light irradiation unit 2 moves slowly in the target area and illuminates withered stems and leaves of agricultural products grown in the target area, the water surface, and the like. Injury species of birds and animals that have invaded the target area will be alert to their surroundings due to the irradiated laser light, the shaking of the water surface illuminated by the laser light, and the shadows of crops caused by the laser light irradiation, and will be able to move out of the target area. Moving. This makes it possible to drive away harmful species that have invaded the target area.

このとき、音声識別・光照射部2は、光の照射位置を加害種に近づく方向に徐々に移動させてもよい。この場合、音声識別・光照射部2は、マイクロフォンアレイ11が出力する信号に基づき、加害種の方向(鳴き声の音源の方向)を推定し、光の照射方向を、光の照射位置が音源に近づく方向に移動させてもよい。 At this time, the voice identification/light irradiation unit 2 may gradually move the light irradiation position in a direction closer to the injurious species. In this case, the voice identification/light irradiation unit 2 estimates the direction of the inflicting species (the direction of the sound source of the sound) based on the signal output by the microphone array 11, and determines the direction of the light irradiation so that the light irradiation position is located at the sound source. It may be moved in the direction closer to it.

また、音声識別・光照射部2は、集音部1が集音した音声と、音声識別・光照射部2が光を照射した日時とを記録する。記録されたデータは、一例として、鳥獣害対策装置10による追払い効果の検証、分析、及び分類器23の再学習等に用いられる。 Further, the audio identification/light irradiation unit 2 records the audio collected by the sound collection unit 1 and the date and time when the audio identification/light irradiation unit 2 irradiated the light. The recorded data is used, for example, for verification and analysis of the expulsion effect by the wildlife damage control device 10, relearning of the classifier 23, and the like.

本出願人は、本実施形態に係る鳥獣害対策装置10をハス田に設置して実際に観測を行った。図10は、対象領域を撮影する定点カメラに映った加害種(マガモ)の個体数の推移を示すグラフである。図10のグラフにおいて、横軸は日付を示し、定点カメラに映った加害種の個体数を示す。この例で、日時t11において対象領域に鳥獣害対策装置10を設置した。設置前と設置後とを比較すると明らかなように、鳥獣害対策装置10の設置後、定点カメラに映った加害種の個体数が減少した。 The applicant installed the bird and animal damage control device 10 according to the present embodiment in a lotus field and actually conducted observation. FIG. 10 is a graph showing changes in the number of individuals of the offending species (mall duck) as seen by a fixed point camera photographing the target area. In the graph of FIG. 10, the horizontal axis indicates the date and the number of individuals of the offending species captured by the fixed point camera. In this example, the wildlife damage control device 10 was installed in the target area at date and time t11. As is clear from a comparison between before and after the installation, after the installation of the bird and animal damage control device 10, the number of individuals of the harmful species captured by the fixed-point camera decreased.

<鳥獣害対策装置10の効果>
以上説明したように本実施形態に係る鳥獣害対策装置10は、対象領域において集音する集音部1が出力する音声データと、環境音を表すノイズデータを用いて生成された分類器23とを用いて、集音部1が集音した音に加害種の鳥獣の鳴き声が含まれるかを判別する判別部21と、集音部1が集音した音に上記鳴き声が含まれる場合、上記対象領域に対し光を照射させる照射制御部22と、を有する。環境音を表すノイズデータを用いて生成された分類器23を用いることにより、加害種の判別をより精度よく行うことができ、これにより、加害種をより効率よく追払うことができる。
<Effects of the bird and beast damage control device 10>
As explained above, the bird and beast damage control device 10 according to the present embodiment uses the classifier 23 generated using the audio data output by the sound collection unit 1 that collects sounds in the target area and the noise data representing environmental sounds. A discriminating unit 21 determines whether the sound collected by the sound collecting unit 1 includes the cry of a bird or beast of an infringing species, and if the sound collected by the sound collecting unit 1 includes the above-mentioned cry, It has an irradiation control unit 22 that irradiates light onto a target area. By using the classifier 23 generated using noise data representing environmental sounds, it is possible to more accurately discriminate the harmful species, thereby making it possible to drive away the harmful species more efficiently.

また、本実施形態に係る鳥獣害対策装置10は、対象領域に飛来する加害種を鳴き声(音声)で判別し、加害種の存在を検知した時にのみ一時的に光線を照射する。これにより、加害種に対象を絞った効率的な追払いが可能である。加害種に対象を絞ることができるため、耕作地等を生息場とする他の鳥類との共存を図りつつ加害種による被害を軽減することができる。 Furthermore, the bird and animal damage control device 10 according to the present embodiment identifies the harmful species flying into the target area by the sound of their cries (voices), and temporarily irradiates the light beam only when the presence of the harmful species is detected. This makes it possible to efficiently expel harmful species by targeting them. Since it is possible to narrow down the target to harmful species, it is possible to reduce damage caused by harmful species while coexisting with other bird species that use cultivated land as their habitat.

また、本実施形態に係る鳥獣害対策装置10は、加害種を追払うための光線を常時照射したり周期的に照射したりするのではなく、加害種の鳴き声を検出したタイミングで光線を照射する。これにより、加害種の威嚇への慣れを回避できるため、追払い効果を長期間持続させることができる。 In addition, the bird and animal damage control device 10 according to the present embodiment does not constantly or periodically irradiate a light beam to drive away a harmful species, but irradiates a light beam at the timing when the cry of a harmful species is detected. do. This makes it possible to avoid the injurious species from becoming habituated to the threat, thereby making it possible to maintain the repelling effect for a long period of time.

また、鳥獣害対策装置10が照射する光線は、夜間に約50m先まで到達し、360°水平方向へ旋回可能である。そのため、被害を防ぎたい対象領域の中央に設置することで、その半径約50m内を追払い有効範囲とすることができる。また、鳥獣害対策装置10は、集音部1に用いるマイクロフォンアレイ11にて周囲約100mの範囲内における鳴き声を集音し、自動識別することができる。上述の光線照射による追払い有効範囲の外側において加害種の飛来又は存在を検知した場合にも光線を一時的に照射することで、追払い有効範囲内への侵入を防ぐ効果を有する。 Furthermore, the light rays emitted by the wildlife damage control device 10 can reach up to about 50 meters away at night and can rotate 360° horizontally. Therefore, by installing it in the center of the target area where you want to prevent damage, you can set the effective repelling range within a radius of about 50 meters. In addition, the bird and animal damage prevention device 10 can collect cries within a range of about 100 meters around the cries using the microphone array 11 used in the sound collection unit 1, and can automatically identify the cries. Even when the incoming or presence of a harmful species is detected outside the effective repelling range by the above-mentioned light irradiation, by temporarily irradiating the light beam, it has the effect of preventing intrusion into the effective repelling range.

また、鳥獣害対策装置10は、家庭用電源により安定動作するが、稼働時間は夜間の一時であり電力消費量は1日あたり100Wh程度と少なく、太陽電池からの給電でも動作可能であるため、電源のない耕作地等に設置することができる。また設置や持運びが容易であり、対象領域内において収穫が終了するなど追払いの必要が無くなった際には、取り外して他の対象領域に移設し使用することができる。 In addition, although the bird and beast damage prevention device 10 operates stably using a household power source, it only operates at one time during the night, and the power consumption is as low as about 100 Wh per day, and it can also operate with power supplied from solar cells. It can be installed in cultivated land etc. where there is no power supply. Furthermore, it is easy to install and carry, and when harvesting is finished within the target area and there is no longer a need for expulsion, it can be removed and moved to another target area for use.

また、鳥獣害対策装置10の判別部21は、音声データを分析して当該音声データの特徴量を表す複数のパラメータを生成し、生成した複数のパラメータが示す特徴量空間内の位置に基づき、上記判別を行う。音声データから加害種を判別する手法として、例えば畳み込みニューラルネットワーク(convolutional neural network;CNN)用いる手法が考えられる。より具体的には、例えば、音声のスペクトログラムの図を教師データに用いてトレーニングを行って分類器を生成することが考えられる。しかしながら、CNNを用いる手法は計算量が多くなってしまい処理負荷が大きくなってしまうという問題がある。また、計算量が多いことにより装置が高温になってしまうという問題もある。 Further, the discrimination unit 21 of the bird and beast damage prevention device 10 analyzes the audio data to generate a plurality of parameters representing the feature amount of the audio data, and based on the position in the feature amount space indicated by the generated plurality of parameters, Perform the above determination. As a method for determining the type of perpetrator from audio data, for example, a method using a convolutional neural network (CNN) can be considered. More specifically, for example, a classifier may be generated by training using a spectrogram of a sound as training data. However, the method using CNN has a problem in that the amount of calculation increases and the processing load increases. Another problem is that the device becomes hot due to the large amount of calculations.

それに対し本実施形態によれば、LPCのパラメータ及び自己相関係数等のパラメータを用いて判別を行うことにより、計算量を小さくすることができ、処理負荷を小さくできるという効果が得られる。また、鳥獣害対策装置10の構成を簡易にすることができ、装置を安価にすることができる。 In contrast, according to the present embodiment, by performing the determination using parameters such as LPC parameters and autocorrelation coefficients, it is possible to reduce the amount of calculation and reduce the processing load. Further, the configuration of the bird and beast damage prevention device 10 can be simplified, and the device can be made inexpensive.

<学習装置の構成>
次いで、上記分類器23_1及び23_2を構築する学習装置4について、図面を参照しつつ説明する。学習部413は、オオバンとマガモそれぞれに対して1つずつランダムフォレストにより分類器23_1、23_2を作成する。
<Configuration of learning device>
Next, the learning device 4 that constructs the classifiers 23_1 and 23_2 will be explained with reference to the drawings. The learning unit 413 creates classifiers 23_1 and 23_2 for each of the coot and mallard using random forest.

図11は、学習装置4の構成を示すブロック図である。学習装置4は、一例として汎用コンピュータである。学習装置4は、制御部41、記憶部42、通信部43及び入出力部44を備える。学習装置4は、鳥獣害対策装置10と異なる装置であってもよく、また、学習装置4と鳥獣害対策装置10とが一体の装置として構成されていてもよい。 FIG. 11 is a block diagram showing the configuration of the learning device 4. As shown in FIG. The learning device 4 is, for example, a general-purpose computer. The learning device 4 includes a control section 41, a storage section 42, a communication section 43, and an input/output section 44. The learning device 4 may be a different device from the wildlife damage prevention device 10, or the learning device 4 and the wildlife damage prevention device 10 may be configured as an integrated device.

(通信部)
通信部43は、学習装置4の外部の装置と通信回線を介して通信する。通信回線の具体的構成は本例示的実施形態を限定するものではないが、通信回線は一例として、無線LAN(local area network)、有線LAN、WAN(wide area network)、公衆回線網、モバイルデータ通信網、又は、これらの組み合わせである。通信部43は、制御部41から供給されたデータを他の装置に送信したり、他の装置から受信したデータを制御部41に供給したりする。なお、本明細書に係る学習装置4において通信部43は必須の構成ではなく、学習装置4は通信部43を備えない構成であってもよい。
(Communication Department)
The communication unit 43 communicates with a device external to the learning device 4 via a communication line. Although the specific configuration of the communication line does not limit this exemplary embodiment, examples of the communication line include a wireless LAN (local area network), wired LAN, WAN (wide area network), public line network, and mobile data. communication network, or a combination of these. The communication unit 43 transmits data supplied from the control unit 41 to other devices, and supplies data received from other devices to the control unit 41. Note that the communication unit 43 is not an essential configuration in the learning device 4 according to the present specification, and the learning device 4 may have a configuration that does not include the communication unit 43.

(入出力部)
入出力部44には、キーボード、マウス、ディスプレイ、プリンタ、タッチパネル等の入出力機器が接続される。入出力部40Aは、接続された入力機器から学習装置4に対する各種の情報の入力を受け付ける。また、入出力部44は、制御部41の制御の下、接続された出力機器に各種の情報を出力する。入出力部44としては、例えばUSB(universal serial bus)などのインタフェースが挙げられる。
(input/output section)
The input/output unit 44 is connected to input/output devices such as a keyboard, a mouse, a display, a printer, and a touch panel. The input/output unit 40A receives input of various information to the learning device 4 from connected input devices. Further, the input/output section 44 outputs various information to the connected output device under the control of the control section 41. Examples of the input/output unit 44 include an interface such as a USB (universal serial bus).

(制御部・教師データ生成部)
制御部41は、教師データ生成部411、パラメータ生成部412、及び学習部413を備える。教師データ生成部411は、本明細書に係る生成部の一例である。教師データ生成部411は、分類器23の学習のための音声データを生成する。なお、分類器23の学習には、音声データそのものではなく音声データから算出された複数のパラメータのセットが用いられる。
(Control unit/Teacher data generation unit)
The control unit 41 includes a teacher data generation unit 411, a parameter generation unit 412, and a learning unit 413. The teacher data generation unit 411 is an example of a generation unit according to this specification. The teacher data generation unit 411 generates audio data for learning of the classifier 23. Note that for the learning of the classifier 23, a set of a plurality of parameters calculated from the audio data is used instead of the audio data itself.

教師データ生成部411は、サンプル音データから、オオバンとマガモの2種の鳴き声を含む音声データを抽出する。ここで、サンプル音データは、0.5秒の時間長の音声データであり、一例として、ハス田で実際に録音した鳴き声のデータ、又は、ウェブ上で公開されているオオバン又はマガモの鳴き声の音データである。オオバンとマガモの両種とも、複数パターンの鳴き声が知られているが、本実施形態では、教師データ生成部411は、一例として、冬のハス田で最も頻繁に聞かれる典型的な鳴き声パターンを抽出する。典型的な鳴き声とは、マガモは「グェーグェーグェーグェー」と繰り返しのあるものであり、オオバンは「クッ」と短いひと声である。ここで、マガモでは繰り返しフレーズを分解した「グェー」の1回が約0.3秒であり、オオバンでは「クッ」の1回はマガモの1回のフレーズよりもはるかに短い。よって、特徴ある声のフレーズ全体又は一部分を感知できるようにするため、抽出する音の長さを0.5秒とし、教師データ生成部411は、0.5秒間のサンプルを連続的に行う。 The teacher data generation unit 411 extracts audio data including two types of calls, a coot and a mallard, from the sample sound data. Here, the sample sound data is audio data with a time length of 0.5 seconds, and as an example, data of a call actually recorded in a lotus field, or data of a call of a coot or mallard published on the web. It is sound data. Both coot and mallard species are known to have multiple patterns of calls, but in this embodiment, the teacher data generation unit 411 uses, as an example, a typical call pattern that is most frequently heard in lotus fields in winter. Extract. Typical calls for mallards include a repetitive ``GwaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaA'', a coot has a short ``aaaaaaaaaaaaaaaaaaaaaaaaa''. Here, in a mallard duck, one ``guh'', which breaks down the repeated phrase, takes about 0.3 seconds, and in a coot, one ``kuh'' is much shorter than a single phrase in a mallard duck. Therefore, in order to be able to detect the entire or part of a characteristic voice phrase, the length of the sound to be extracted is set to 0.5 seconds, and the teacher data generation unit 411 continuously samples samples for 0.5 seconds.

教師データ生成部411は、サンプル音データから抽出した音声データを用いて、加害種の鳥獣の鳴き声を表す音声データを、環境音を表す音声データに埋め込んだ教師データを生成する。教師データは、本明細書に係る学習用音声データの一例である。 The teacher data generation unit 411 uses the audio data extracted from the sample sound data to generate teacher data in which audio data representing the cries of the offending species of birds and beasts is embedded in audio data representing environmental sounds. The teacher data is an example of learning audio data according to this specification.

図12は、教師データ生成部411が行う教師データの生成処理の具体例を説明するための図である。教師データ生成部411は、シグナル(加害種の鳴き声)とノイズ(環境音)との両方を含む音声データ、及び、シグナルを含まないノイズのみの音声データ、を教師データとして生成する。以下では、シグナルを含む音声データを「シグナルデータ」ともいう。また、シグナルを含まない音声データを「ノイズデータ」ともいう。 FIG. 12 is a diagram for explaining a specific example of the teacher data generation process performed by the teacher data generator 411. The teacher data generation unit 411 generates, as teacher data, audio data that includes both a signal (the cry of an infringing species) and noise (environmental sound), and audio data that does not include a signal and includes only noise. In the following, audio data including signals will also be referred to as "signal data." In addition, audio data that does not include a signal is also called "noise data."

図12の例で、教師データ生成部411は以下の(i)~(iv)の処理を行う。(i)まず、教師データ生成部411は、サンプル音データの中で、シグナル・ノイズ比の閾値を5として、シグナルの音節(加害種の鳴き声を含む音節)を検出する。なお、シグナル・ノイズ比の閾値は任意であり、他の値であってもよい。 In the example of FIG. 12, the teacher data generation unit 411 performs the following processes (i) to (iv). (i) First, the teacher data generation unit 411 detects a signal syllable (a syllable including the cry of the perpetrator species) in the sample sound data by setting the signal-to-noise ratio threshold to 5. Note that the signal-to-noise ratio threshold is arbitrary and may be any other value.

教師データ生成部411は、検出した音節を、それぞれwav形式のファイルに保存する。1つのサンプル音から複数のシグナル音節が検出された場合は、教師データ生成部411は、複数のシグナル音節をそれぞれ1つのwavファイルに保存する。今回はマガモとオオバンを対象としているので、シグナルの長さは最長でも0.3秒である。教師データ生成部411は、1つのサンプルにシグナルが複数回入っていた場合、その回数分のwavファイルを保存する。図12の例では、教師データ生成部411は、サンプル音データs1、s2から、シグナル音節のwavファイルであるシグナルデータs11、s12、s21を生成する。ここで、保存されたwavファイルの音声を鳥獣害対策装置10の管理者等が確認し、加害種の鳴き声が含まれていないものは破棄する。 The teacher data generation unit 411 saves each detected syllable in a wav format file. If a plurality of signal syllables are detected from one sample sound, the teacher data generation unit 411 saves each of the plurality of signal syllables in one wav file. Since we are targeting mallards and coots this time, the maximum length of the signal is 0.3 seconds. When a signal is included multiple times in one sample, the teacher data generation unit 411 stores WAV files corresponding to the number of times. In the example of FIG. 12, the teacher data generation unit 411 generates signal data s11, s12, and s21, which are WAV files of signal syllables, from sample sound data s1 and s2. At this point, the administrator of the bird and animal damage prevention device 10 confirms the sound of the saved wav file, and discards the sound that does not contain the sound of the inflicting species.

(ii)次いで、教師データ生成部411は、サンプル音データのうち残りの領域(シグナルの音節を含んでいない部分)を寄り集めて連結し、ノイズ(環境音)を表すノイズデータとする。図12の例では、教師データ生成部411は、サンプル音データs1、s2からノイズデータn11、n12を生成する。 (ii) Next, the teacher data generation unit 411 collects and connects the remaining regions (portions that do not include the syllables of the signal) of the sample sound data to generate noise data representing noise (environmental sound). In the example of FIG. 12, the teacher data generation unit 411 generates noise data n11 and n12 from sample sound data s1 and s2.

(iii)次いで、教師データ生成部411は、上記(i)で生成したシグナルデータの時間長を測定する。なお、上述したとおり、1つのシグナルは最長でも0.3秒である。 (iii) Next, the teacher data generation unit 411 measures the time length of the signal data generated in (i) above. Note that, as described above, one signal has a maximum duration of 0.3 seconds.

(iv)教師データ生成部411は、上記(ii)で生成した複数のノイズデータからいずれか1つをランダムに選択し、選択したノイズデータのコピーデータを2つ作成する。教師データ生成部411は、生成した2つのコピーデータのうち、一方はそのままノイズの教師データとする。また、教師データは、もう一方のコピーデータから(iii)で測定した時間分のデータを任意の位置から除いたノイズデータを生成する。 (iv) The teacher data generation unit 411 randomly selects any one of the plurality of noise data generated in (ii) above, and creates two copy data of the selected noise data. The teacher data generation unit 411 uses one of the two generated copy data as noise teacher data as it is. Further, as the teacher data, noise data is generated by removing the data for the time measured in (iii) from the other copy data at an arbitrary position.

(v)また、教師データ生成部411は、上記(iv)で生成したノイズデータの任意の位置に、上記(iii)のシグナルデータを埋め込むことにより、シグナル(加害種の鳴き声)を含む教師データを生成する。教師データ生成部411が生成した教師データは、分類器23の学習のために用いられる。換言すると、分類器23は、環境音を表す音声データに加害種の鳥獣の鳴き声を表す音声を埋め込んだ教師データを用いて機械学習されたモデルであると言うこともできる。 (v) In addition, the teacher data generation unit 411 embeds the signal data of (iii) above in an arbitrary position of the noise data generated in (iv) above, thereby generating teacher data including a signal (the cry of the offending species). generate. The teacher data generated by the teacher data generation unit 411 is used for learning of the classifier 23. In other words, the classifier 23 can be said to be a model that has been machine-learned using teacher data in which sounds representing the cries of birds and animals of the offending species are embedded in audio data representing environmental sounds.

図12の例では、上記(iv)及び(v)において、教師データ生成部411は、ノイズデータn11のコピーデータn11_1及びn11_2を生成する。また、教師データ生成部411は、ノイズデータn21のコピーデータn21_1及びn21_2を生成する。コピーデータn11_2、n21_2は、ノイズの教師データとなる。一方、コピーデータn11_1とn21_2にはそれぞれ、シグナルデータs21、s11が任意の位置に埋め込まれ、シグナルの教師データとなる。以上のようにして、教師データ生成部411は、シグナルを含む教師データと、シグナルを含まない教師データとが生成する。 In the example of FIG. 12, in (iv) and (v) above, the teacher data generation unit 411 generates copy data n11_1 and n11_2 of the noise data n11. Further, the teacher data generation unit 411 generates copy data n21_1 and n21_2 of the noise data n21. The copy data n11_2 and n21_2 serve as noise teacher data. On the other hand, signal data s21 and s11 are embedded in arbitrary positions in the copy data n11_1 and n21_2, respectively, and serve as training data for the signal. As described above, the teacher data generation unit 411 generates teacher data including signals and teacher data not including signals.

(パラメータ生成部)
パラメータ生成部412は、教師データ生成部411が生成した教師データを音声分析し、音声の特徴量を表す複数のパラメータを生成する。本実施形態では、画像ではなく、時系列を備えた数値データとして音声解析を行うための方策として、発声システムの物理的特徴に基づいて人の声を識別するために用いられた古典的な方法を適用する。そのひとつがLPCである。LPCは、ひとつの音を多項式として表現できるため、複数のパラメータが得られる。得られたパラメータの数と同数の次元に張られた超空間において、ランダムフォレストを用いることによって、シグナルとノイズを区別することができる。
(Parameter generation part)
The parameter generation unit 412 performs voice analysis on the teacher data generated by the teacher data generation unit 411, and generates a plurality of parameters representing voice feature amounts. In this embodiment, we will use a classical method used to identify human voices based on the physical characteristics of the vocal system as a strategy for performing voice analysis as numerical data with time series rather than images. apply. One of them is LPC. Since LPC can express one sound as a polynomial, multiple parameters can be obtained. By using random forest in a hyperspace with the same number of dimensions as the obtained parameters, it is possible to distinguish between signals and noise.

また、パラメータ生成部412は、教師データのうち、ノイズデータに対しても、同じ手順で音節を抽出する。パラメータ生成部412は、音節の抽出、及び上記17個の係数の算出に成功した場合は、ノイズとしてラベルする。 Furthermore, the parameter generation unit 412 extracts syllables from noise data in the teacher data using the same procedure. If the parameter generation unit 412 succeeds in extracting a syllable and calculating the 17 coefficients, it labels it as noise.

(学習部)
学習部413は、パラメータ生成部412が生成した複数のパラメータと上記加害種の鳴き声を含むか否かを示すラベルとを含む教師データを用いて、音声データの特徴量を表す複数のパラメータを入力として当該音声データに加害種の鳥獣の鳴き声が含まれるかを判別する分類器23_1、23_2を生成する。
(Study Department)
The learning unit 413 inputs a plurality of parameters representing feature quantities of the audio data using teacher data including a plurality of parameters generated by the parameter generation unit 412 and a label indicating whether or not the cry of the above-mentioned perpetrator species is included. As a result, classifiers 23_1 and 23_2 are generated that determine whether the audio data includes the cry of a bird or beast that is an infringing species.

<学習装置の効果>
以上説明したように本実施形態に係る学習装置4は、加害種の鳥獣の鳴き声を表す音声データを、環境音を表す音声データに埋め込んだ学習用音声データを生成する教師データ生成部411と、教師データ生成部411が生成した学習用音声データを音声分析して特徴量を表す複数のパラメータを生成するパラメータ生成部412と、パラメータ生成部412が生成した複数のパラメータと前記加害種を示すラベルとを含む学習用データを用いて分類器23を学習させる学習部413と、を備える。学習装置4が生成した分類器23を用いることで、加害種の鳴き声をより精度よく判別できる。
<Effects of learning devices>
As explained above, the learning device 4 according to the present embodiment includes a teacher data generation unit 411 that generates learning audio data in which audio data representing the cries of the inflicting bird and beast species is embedded in audio data representing environmental sounds; a parameter generation unit 412 that performs audio analysis on the learning audio data generated by the teacher data generation unit 411 to generate a plurality of parameters representing feature quantities; and a label indicating the plurality of parameters generated by the parameter generation unit 412 and the type of perpetrator. and a learning unit 413 that causes the classifier 23 to learn using learning data including the following. By using the classifier 23 generated by the learning device 4, the calls of the injurious species can be discriminated with higher accuracy.

〔変形例〕
(鳥獣害)
上述の実施形態では、鳥獣害対策装置10をレンコンが栽培されるハス田におけるレンコン食害の対策に用いる場合について説明した。本明細書に係る鳥獣害対策装置10の鳥獣害対策の対象は、上述した例に限られない。鳥獣害対策装置10の鳥獣害対策の対象は、レンコン以外の農水産物に対する食害、鳥獣の鳴き声による騒音、又は、鳥獣のフンによる衛生面の被害、等を含む。すなわち、本明細書に係る鳥獣害対策装置10は、農水産物の食害の軽減だけでなく、住宅地におけるハト類やムクドリなど糞や鳴き声による生活被害が生じている鳥類への追払い対策にも応用可能である。
[Modified example]
(Bird and animal damage)
In the above-described embodiment, a case has been described in which the bird and animal damage control device 10 is used to prevent lotus root damage in a lotus field where lotus root is cultivated. The object of the bird and beast damage control device 10 according to the present specification is not limited to the above-mentioned example. The targets of the bird and beast damage control device 10 include feeding damage to agricultural and marine products other than lotus root, noise caused by the cries of birds and beasts, sanitary damage caused by bird and beast feces, and the like. In other words, the bird and animal damage control device 10 according to the present specification is not only effective in reducing feeding damage to agricultural and marine products, but also as a measure to drive away birds such as pigeons and starlings that cause damage to people's lives with their droppings and cries in residential areas. It is applicable.

(対象領域)
また、上述の実施形態では、対象領域が湛水された収穫前のハス田である場合を説明したが、対象領域は上述した例に限られず、例えば、他の農水産物が栽培される畑、養殖場、駅等の施設の周辺、であってもよい。
(Target area)
Further, in the above-described embodiment, a case has been described in which the target area is a flooded lotus field before harvesting, but the target area is not limited to the above-mentioned example. For example, the target area is a field where other agricultural and marine products are cultivated, It may be around facilities such as aquaculture farms or stations.

(加害種)
また、上述の実施形態では、加害種がマガモとオオバンである場合について説明したが、加害種は上述の実施形態で示した例に限られない。対象領域において調査を行い、新たな種による食害が明らかとなった場合は、鳥獣害の対策の対象である加害種に追加してもよい。また、加害種は鳥に限られず、例えばイノシシ等の動物であってもよい。
(perpetrating species)
Further, in the above-described embodiment, a case has been described in which the harmful species are mallard ducks and coots, but the harmful species are not limited to the examples shown in the above-mentioned embodiments. If a survey is conducted in the target area and feeding damage caused by a new species is found, it may be added to the list of damaging species that are subject to countermeasures against wildlife damage. Moreover, the offending species is not limited to birds, but may also be animals such as wild boars.

(照射光の波長・照射方向)
上述の実施形態では、音声識別・光照射部2が緑色のレーザー光を照射する場合を例示したが、音声識別・光照射部2が照射する光は、上述した例に限られない。音声識別・光照射部2は、他の波長の光を照射してもよい。また、上述の実施形態では、音声識別・光照射部2は、光線の照射方向を所定の速度又は所定の角速度で変更したが、照射方向を変更する手法は上述した例に限られない。例えば、音声識別・光照射部2は、光の照射方向を変更しない構成であってもよい。この場合、音声識別・光照射部2は例えば、シグナルの音源の方向を推定して、音源の方向に対して光照射を行ってもよい。また、上述の実施形態では、音声識別・光照射部2がレーザー光を照射する場合を例示したが、音声識別・光照射部2が照射する光はレーザー光に限られず、レーザー光以外の光であってもよい。
(wavelength and direction of irradiation light)
In the above-mentioned embodiment, the case where the voice identification/light irradiation unit 2 irradiates green laser light is illustrated, but the light that the voice identification/light irradiation unit 2 irradiates is not limited to the example described above. The voice identification/light irradiation section 2 may irradiate light of other wavelengths. Further, in the above-described embodiment, the voice identification/light irradiation unit 2 changes the irradiation direction of the light beam at a predetermined speed or a predetermined angular velocity, but the method of changing the irradiation direction is not limited to the above-mentioned example. For example, the voice identification/light irradiation unit 2 may have a configuration in which the direction of light irradiation is not changed. In this case, the audio identification/light irradiation unit 2 may, for example, estimate the direction of the sound source of the signal and irradiate light in the direction of the sound source. Further, in the above-described embodiment, the case where the voice identification/light irradiation section 2 irradiates laser light is illustrated, but the light irradiated by the voice identification/light irradiation section 2 is not limited to laser light, and may be any light other than laser light. It may be.

(照射パターン)
また、上述の実施形態において、音声識別・光照射部2は、レーザー光を照射したにも関わらず加害種が逃げ出さない場合に、加害種を追払うための別の処理を行ってもよい。例えば、音声識別・光照射部2は、レーザー光を照射した後も加害種の鳴き声が検出された場合、レーザー光の照射パターンを変更する制御を行ってもよい。ここで、照射パターンは一例として、レーザー光の照射方向、照射位置、レーザー光の色、強さ、点滅パターン、照射方向の移動速度、角速度、の少なくともいずれかひとつを含む。様々な照射パターンでレーザー光を照射することにより、加害種がレーザー光に慣れてしまうことを防ぐことができる。
(irradiation pattern)
Furthermore, in the above-described embodiment, the voice identification/light irradiation unit 2 may perform another process for driving away the harmful species when the harmful species does not escape despite irradiation with laser light. For example, the voice identification/light irradiation unit 2 may perform control to change the laser light irradiation pattern if the cry of the injurious species is detected even after the laser light is irradiated. Here, the irradiation pattern includes, for example, at least one of the irradiation direction of the laser beam, the irradiation position, the color and intensity of the laser beam, the blinking pattern, the moving speed in the irradiation direction, and the angular velocity. By irradiating laser light with various irradiation patterns, it is possible to prevent harmful species from becoming accustomed to laser light.

(電源部)
上述の実施形態では、電源部3は太陽電池を含んでいたが、これに限られない。電源部3は、太陽電池以外の自立電源を含んでいてもよい。ここで、自立電源とは、自立して電力供給が可能な電源であり、一例として、太陽電池、蓄電池、動力発電機若しくは風力発電機等の発電機、空間伝送無線給電、または熱電変換素子を用いた電源、等を含む。また、鳥獣害対策装置10は、自立電源を備える装置に限られず、例えば家庭用電源を用いて動作する構成であってもよい。
(Power supply part)
In the above-described embodiment, the power supply section 3 includes a solar cell, but is not limited to this. The power supply section 3 may include an independent power source other than a solar cell. Here, an independent power source is a power source that can supply power independently, and includes, for example, a solar cell, a storage battery, a power generator such as a power generator or a wind power generator, a space transmission wireless power supply, or a thermoelectric conversion element. Including the power supply used, etc. Further, the wildlife damage control device 10 is not limited to a device equipped with an independent power source, and may be configured to operate using a household power source, for example.

(分類器)
上述の実施形態では、分類器23として、ランダムフォレストの手法により構築される学習済モデルを用いた。分類器23は、上述した実施形態で示した例に限定される。分類器23は、一例として、サポートベクターマシン(support vector machine,SVM)の手法により学習された学習済みモデルであってもよい。ランダムフォレスト又はサポートベクターマシンの場合、判別部21は、複数のパラメータが示す特徴量空間内の位置に基づき、加害種の鳴き声が音声データに含まれるかの判定を行う、と言うこともできる。
(classifier)
In the above-described embodiment, a trained model constructed by a random forest method was used as the classifier 23. The classifier 23 is limited to the example shown in the embodiment described above. The classifier 23 may be, for example, a trained model trained by a support vector machine (SVM) technique. In the case of a random forest or a support vector machine, it can also be said that the determination unit 21 determines whether the voice data includes the cry of the injurious species, based on the position in the feature space indicated by a plurality of parameters.

(データの記録)
上述の実施形態では、鳥獣害対策装置10は、対象領域において集音された音声と光の照射日時とを記録した。これに加えて、赤外線カメラにより対象領域を撮像し、撮像により得られた画像を、音声及び照射日時と紐付けて記録する構成としてもよい。
(Data recording)
In the above-described embodiment, the wildlife damage control device 10 recorded the sound collected in the target area and the date and time of light irradiation. In addition to this, a configuration may be adopted in which an infrared camera images the target area, and the image obtained by the imaging is recorded in association with the audio and the date and time of irradiation.

(再学習)
また、鳥獣害対策装置10が記録したデータを分類器23の再学習に用いてもよい。例えば、判別部21は、音声データに加害種の鳴き声が含まれていると判別した場合、その音声データにシグナルのラベルを付与し、分類器23を再学習させるための学習用データとする。一方、判別部21は、音声データに加害種の鳴き声が含まれていないと判別した場合、その音声データにノイズのラベルを付与し、分類器23を再学習させるための学習用データとする。また、判別部21は、加害種の鳴き声が検出された場合であっても、上記17個の係数を算出する関数の戻り値のいずれかがnullだった場合、ノイズのラベル付けを行って、分類器23を再学習させるための学習用データを生成してもよい。
(Relearning)
Further, the data recorded by the wildlife damage prevention device 10 may be used for relearning the classifier 23. For example, when the determining unit 21 determines that the audio data includes the cry of a perpetrator species, the determining unit 21 attaches a signal label to the audio data, and uses the audio data as learning data for relearning the classifier 23. On the other hand, when determining that the audio data does not include the cry of the perpetrator species, the determining unit 21 assigns a noise label to the audio data and uses it as learning data for relearning the classifier 23. In addition, even if the cry of the perpetrator species is detected, if any of the return values of the function that calculates the 17 coefficients is null, the discrimination unit 21 labels it as noise. Learning data for relearning the classifier 23 may be generated.

学習部413は、生成された学習用データを用いて、分類器23の再学習を行う。分類器23の再学習を行うことにより、鳥獣害対策装置10を使用しながら、分類器23の分類に係る精度を高くすることができる。 The learning unit 413 re-trains the classifier 23 using the generated learning data. By relearning the classifier 23, it is possible to improve the classification accuracy of the classifier 23 while using the bird and animal damage control device 10.

(集音部について)
上述の実施形態では集音部1がマイクロフォンアレイ11を備える構成について説明したが、集音部1は、マイクロフォンアレイ11に代えて小型の防水のモノラルマイクを備えてもよい。図13は本変形例に係る鳥獣害対策装置10Aの構成の一例を示す図である。図13の例で、鳥獣害対策装置10Aは、上述の実施形態に係る鳥獣害対策装置10が備える集音部1に代えて、集音部1Aを備える。集音部1Aは、小型で防水のモノラルマイクを含み、音声識別・光照射部2に備え付けられている。図13の例では、集音部1Aと音声識別・光照射部2とが一体化したものを柱等に取り付ければよく、集音部1Aを音声識別・光照射部2とは別に柱等に固定する必要がない。このため、資材コスト及び設営の際の労力を抑えることができる。
(About the sound collection section)
In the above-described embodiment, a configuration in which the sound collection unit 1 includes the microphone array 11 has been described, but the sound collection unit 1 may include a small waterproof monaural microphone instead of the microphone array 11. FIG. 13 is a diagram showing an example of the configuration of a wildlife damage control device 10A according to this modification. In the example of FIG. 13, the bird and beast damage control device 10A includes a sound collection unit 1A instead of the sound collection unit 1 included in the bird and beast damage control device 10 according to the above-described embodiment. The sound collection section 1A includes a small and waterproof monaural microphone, and is installed in the voice identification/light irradiation section 2. In the example of FIG. 13, the sound collection section 1A and the voice identification/light irradiation section 2 may be integrated together and attached to a pillar, etc.; No need to fix. Therefore, the cost of materials and labor during construction can be reduced.

ところで、マイクロフォンアレイは音源定位でき、かつノイズ除去機能を副次的に有するため音質がよい一方、小型のモノラルマイクはノイズ除去機能がなく音質が悪い。そこで、小型のモノラルマイクを備える集音部1Aを用いる場合、学習部413は、集音される音声の音質が悪いことを加味した再学習を分類器23に対して行ってもよい。一例として、学習部413は、分類器23を、小型のモノラルマイクで録音した音声データを用いて再学習させてもよい。この場合、再学習に用いられる教師データは、一例として、小型のモノラルマイクにより集音された音声データから得られる複数のパラメータと、加害種の鳴き声が含まれるか否かを示すラベルとを含む。この場合、分類器23(機械学習モデル)は、事前に訓練された学習済モデルを、モノラルマイクで集音された音声データから生成されたパラメータを含む教師データを用いて再訓練された学習済モデルである、ということもできる。 By the way, a microphone array can localize a sound source and has a noise removal function as a secondary feature, so the sound quality is good, whereas a small monaural microphone does not have a noise removal function and has poor sound quality. Therefore, when using the sound collection section 1A including a small monaural microphone, the learning section 413 may perform re-learning on the classifier 23, taking into account the poor sound quality of the collected sound. As an example, the learning unit 413 may retrain the classifier 23 using audio data recorded with a small monaural microphone. In this case, the training data used for relearning includes, for example, a plurality of parameters obtained from audio data collected by a small monaural microphone and a label indicating whether or not the cry of the perpetrator species is included. . In this case, the classifier 23 (machine learning model) converts a pre-trained learned model into a trained model that is retrained using teacher data including parameters generated from audio data collected by a monaural microphone. It can also be said that it is a model.

音質の悪いマイクで録音した音声データを用いて分類器23を再学習させることにより、音質のよいマイクを使った場合と同等程度の鳴き声識別能力を保つことができる。これにより、本変形例に係る構成によれば、鳥獣害対策装置に安価で音質に劣るモノラルマイクを用いることができ、鳥獣害対策装置の汎用性を拡大できる。 By retraining the classifier 23 using voice data recorded with a microphone with poor sound quality, it is possible to maintain the same level of cry recognition ability as when using a microphone with good sound quality. As a result, according to the configuration according to this modification, a monaural microphone which is inexpensive and has poor sound quality can be used in the bird and beast damage prevention device, and the versatility of the bird and beast damage prevention device can be expanded.

(音声識別・光照射部の電源制御について)
上述の実施形態において、鳥獣害対策装置10が、判別部21及び照射制御部22の電源を制御する電源制御部、を更に有してもよい。図14は本変形例に係る音声識別・光照射部2Aの構成の一例を示す図である。図14の例で、音声識別・光照射部2Aは、上述した実施形態の音声識別・光照射部2が備える判別部21、照射制御部22、分類器23_1、分類器23_2に加えて、電源制御部24を備える。電源制御部24は、音声識別・光照射部2の電源を昼間はOFFにし、対策が必要となる夜間にのみ起動する。この構成によれば、音声識別・光照射部2の電源制御を行わない場合に比べて消費電力を抑制でき、例えば30Wのソーラーパネルで安定して長期稼動できる。
(About voice recognition/light irradiation unit power control)
In the embodiment described above, the wildlife damage control device 10 may further include a power supply control unit that controls the power supply of the determination unit 21 and the irradiation control unit 22. FIG. 14 is a diagram showing an example of the configuration of the voice identification/light irradiation section 2A according to this modification. In the example of FIG. 14, the voice identification/light irradiation unit 2A includes a power source in addition to the discrimination unit 21, the irradiation control unit 22, the classifier 23_1, and the classifier 23_2 included in the voice recognition/light irradiation unit 2 of the embodiment described above. A control section 24 is provided. The power supply control unit 24 turns off the power to the voice identification/light irradiation unit 2 during the day, and activates it only at night when countermeasures are required. According to this configuration, power consumption can be suppressed compared to the case where the power supply control of the voice identification/light irradiation unit 2 is not performed, and stable long-term operation can be achieved with a 30W solar panel, for example.

(画像取得部の追加)
上述の実施形態において、追払い効果の検証等に用いる画像を収集するため、音声識別・光照射部2を撮影装置(ネットワークカメラ等)と連動させてもよい。すなわち、鳥獣害対策装置が、光の照射方向を撮影し、撮影した撮影画像を表す画像データを出力する撮影装置を更に有してもよい。本開示において撮像画像とは動画及び静止画を含む。また、本開示において静止画は、1回の光照射に対応して撮像された1枚の静止画であってもよいし、1回の光照射を含む所定の時間内において連続的に撮像された複数の静止画であってもよい。この複数の静止画は、各静止画が時系列に連なる静止画列である。撮像画像として動画及び静止画の何れを選択するかは、鳥獣害対策装置10Aが設置されているネットワークにおける帯域あるいは通信速度や、撮像画像の用途などに応じて、適宜選択することができる。撮影装置が撮影した撮影画像は、追払い効果の検証等に用いられてもよく、また、加害種の飛来の検知に用いられてもよい。後者の場合、判別部21は、集音部1が出力する音声データに加えて撮影装置5が撮影する撮影画像の画像データを用いて、加害種が対象領域に飛来したかを判別する。前者の場合、照射された光に対する加害種の反応を把握する必要があり、且つ、撮影画像をリアルタイムで処理する必要がないため、撮像画像として動画を用いることが好ましい。後者の場合、光に対する加害種の反応を把握する必要はないため、撮像画像として静止画を採用してもよい。ただし、プログラムを実行することにより判別部21を実現するコンピュータ227の処理能力に余裕がある場合には、撮像画像として動画を採用してもよい。
(Addition of image acquisition section)
In the above-described embodiment, the voice identification/light irradiation unit 2 may be linked with a photographing device (such as a network camera) in order to collect images used for verifying the expulsion effect and the like. That is, the wildlife damage control device may further include a photographing device that photographs the direction of light irradiation and outputs image data representing the photographed image. In the present disclosure, captured images include moving images and still images. Furthermore, in the present disclosure, a still image may be a single still image captured in response to one light irradiation, or may be a still image captured continuously within a predetermined time period including one light irradiation. It may also be a plurality of still images. The plurality of still images is a still image sequence in which each still image is connected in chronological order. Whether a moving image or a still image is selected as the captured image can be appropriately selected depending on the band or communication speed of the network in which the wildlife damage prevention device 10A is installed, the use of the captured image, and the like. The photographed image taken by the photographing device may be used for verifying the repelling effect, etc., or may be used for detecting the arrival of harmful species. In the latter case, the determining unit 21 determines whether a harmful species has flown into the target area, using image data of a photographed image photographed by the photographing device 5 in addition to the audio data output by the sound collecting unit 1. In the former case, it is necessary to understand the reaction of the harmful species to the irradiated light, and it is not necessary to process the captured images in real time, so it is preferable to use a moving image as the captured image. In the latter case, since it is not necessary to understand the reaction of the harmful species to light, a still image may be used as the captured image. However, if the computer 227 that realizes the determination unit 21 by executing a program has sufficient processing power, a moving image may be used as the captured image.

図15は、本変形例に係る鳥獣害対策装置の構成例を示す図である。図15に例示する鳥獣害対策装置10Bは、上述の実施形態1の鳥獣害対策装置10に係る集音部1、音声識別・光照射部2、及び電源部3に加えて、撮影装置5を備える。撮影装置5は例えばネットワークカメラである。この例で、音声識別・光照射部2と撮影装置5とは別体であり、それぞれ別に柱6に取り付けられる。撮影装置5は、音声識別・光照射部2の首振り・光照射と連動して首振りし、音声識別・光照射部2による照射の前後を録画する。録画された画像により、追払いシーンを効率よく確認できる。また、鳥獣害対策装置10Bのユーザとなる農家の方にとって効果検証は必須でない。そのため、鳥獣害対策装置10Bの効果を検証することよりも、鳥獣害対策装置10Bの製造コストを抑制することを重視する場合には、撮影装置5を省略した鳥獣害対策装置10の構成が好ましい。なお、本発明の一態様においては、鳥獣害対策装置10Bの代わりに図13に示す鳥獣害対策装置10Aに撮影装置5を追加することもできる。 FIG. 15 is a diagram illustrating a configuration example of a wildlife damage control device according to this modification. The bird and beast damage prevention device 10B illustrated in FIG. Be prepared. The photographing device 5 is, for example, a network camera. In this example, the voice identification/light irradiation unit 2 and the photographing device 5 are separate bodies, and are each attached to a pillar 6 separately. The photographing device 5 oscillates in conjunction with the oscillation and light irradiation of the voice identification/light irradiation unit 2 and records before and after the irradiation by the voice identification/light irradiation unit 2 . The recorded images allow you to efficiently check the chase scene. Further, effectiveness verification is not essential for farmers who are users of the bird and beast damage control device 10B. Therefore, if it is more important to suppress the manufacturing cost of the bird and beast damage control device 10B than to verify the effectiveness of the bird and beast damage control device 10B, it is preferable to configure the bird and beast damage control device 10 in which the photographing device 5 is omitted. . In addition, in one aspect of the present invention, the photographing device 5 can be added to the bird and beast damage control device 10A shown in FIG. 13 instead of the bird and beast damage control device 10B.

また、図16は、本変形例に係る鳥獣害対策装置の他の構成例を示す図である。図16に例示する鳥獣害対策装置10Cは、撮影装置5Cにレーザーハウジング221Cが取り付けられている。レーザーハウジング221Cは上述の実施形態で説明したレーザーハウジング221と同様である。この場合、撮影装置5Cの首振り機能を用いてレーザーハウジング221Cも首振りし光照射を行う。これにより、レーザーハウジング221Cの首振りに必要な部品を割愛でき、資材コストが削減される。 Moreover, FIG. 16 is a diagram showing another configuration example of the wildlife damage control device according to this modification. In the wildlife damage prevention device 10C illustrated in FIG. 16, a laser housing 221C is attached to a photographing device 5C. The laser housing 221C is similar to the laser housing 221 described in the above embodiment. In this case, the laser housing 221C also oscillates using the oscillating function of the imaging device 5C to emit light. As a result, parts necessary for swinging the laser housing 221C can be omitted, and material costs can be reduced.

撮影画像を加害種の飛来の検知に用いる場合、音声識別・光照射部2は、例えば、分類器23を用いた音声による加害種の検出結果と、撮影装置5が撮影した撮像画像の画像データを解析することにより得られる検出結果と、の両方を用いて加害種が飛来したかの判別を行ってもよい。より具体的には、例えば、音声識別・光照射部2は、分類器23を用いて音声による加害種が検出され、かつ、画像解析により加害種の飛来が検出された場合に、対象領域にレーザー光を照射してもよい。 When using a photographed image to detect an incoming harmful species, the audio identification/light irradiation unit 2 uses, for example, the detection results of the harmful species by sound using the classifier 23 and the image data of the captured image captured by the photographing device 5. It may be determined whether a harmful species has arrived using both the detection results obtained by analyzing the . More specifically, for example, when a harmful species is detected by sound using the classifier 23 and an incoming harmful species is detected by image analysis, the audio identification/light irradiation unit 2 detects a harmful species in the target area. Laser light may be irradiated.

また、音声識別・光照射部2は一例として、集音部1が集音した音声データから得られるパラメータと、撮影装置5が撮影した画像データと、を分類器23(機械学習モデル)に入力して得られる出力に基づき、加害種が飛来したかの判別を行ってもよい。この場合、分類器23の学習に用いられる教師データは一例として、音声データから得られるパラメータと、撮影装置が撮影した画像データと、加害種が飛来したかを示すラベルと、を含む。また、分類器23の入力は一例として、集音部1が集音した音声データから得られるパラメータと、撮影装置5が撮影した画像データとを含み、分類器23の出力は一例として、加害種が対象領域に飛来したか否かを示す情報を含む。 In addition, the voice identification/light irradiation unit 2 inputs, for example, parameters obtained from the voice data collected by the sound collection unit 1 and image data photographed by the photographing device 5 to the classifier 23 (machine learning model). Based on the output obtained, it may be determined whether a harmful species has arrived. In this case, the teacher data used for the learning of the classifier 23 includes, for example, parameters obtained from audio data, image data taken by a photographing device, and a label indicating whether a harmful species has arrived. In addition, the input of the classifier 23 includes, for example, parameters obtained from the audio data collected by the sound collection unit 1 and the image data captured by the imaging device 5, and the output of the classifier 23 includes, for example, the perpetrator species. Contains information indicating whether or not the object has flown into the target area.

加害種の飛来(存在)の検知に際し、音声による検知に加えて画像を用いた検知を行うことにより、検知精度を高くすることができる。 When detecting the arrival (presence) of harmful species, detection accuracy can be increased by performing detection using images in addition to audio detection.

(判別部について)
集音した音に加害種の鳴き声が含まれるかを判別する判別部21のアルゴリズムについて、AI(Artificial Intelligence)の手法を用いてもよい。AIを用いた判別モデルの一例として、畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))を用いて生成される学習済モデルを分類器23として用いる例を説明する。
(About the discrimination part)
An AI (Artificial Intelligence) method may be used for the algorithm of the determining unit 21 that determines whether the collected sounds include the cries of the perpetrator species. As an example of a discriminant model using AI, an example will be described in which a trained model generated using a convolutional neural network (CNN) is used as the classifier 23.

図17は、本変形例に係る判別モデルの訓練に用いる教師データの具体例を示す図である。図17の例で、判別モデルである分類器23Cは、メルスペクトログラムに変換された0.96秒の音声断片を入力とし、その音声が加害種の鳴き声であるかの推論結果を出力する学習済モデルである。CNNのアーキテクチャには、例えばYAMNetが使用されるが、これに限定されない。この例で、分類器23Cの学習に用いられる教師データは、音声データを分析することにより得られる、音声データの特徴を現すパラメータと、加害種の鳴き声が含まれるか否かを示すラベル(例えば、「オオバン」)とを含む。学習フェーズにおいて、学習部413は、教師データに含まれるパラメータを分類器23Cに入力し(S101)、分類器23Cはラベルを推論する(S102)。学習部413は、分類器23Cによる推論の誤差を小さくするように分類器23Cのモデルパラメータを更新することにより分類器23Cを訓練する。 FIG. 17 is a diagram showing a specific example of teacher data used for training the discriminant model according to this modification. In the example of FIG. 17, the classifier 23C, which is a discrimination model, is trained to input a 0.96-second audio fragment converted into a mel spectrogram and output an inference result as to whether the audio is the cry of a perpetrator species. It's a model. For example, YAMNet is used as the CNN architecture, but is not limited thereto. In this example, the training data used for the learning of the classifier 23C is a parameter representing the characteristics of the audio data obtained by analyzing the audio data, and a label (e.g. , "coot"). In the learning phase, the learning unit 413 inputs parameters included in the teacher data to the classifier 23C (S101), and the classifier 23C infers a label (S102). The learning unit 413 trains the classifier 23C by updating the model parameters of the classifier 23C so as to reduce the error of inference by the classifier 23C.

図17に例示したような判別モデルを加害種の鳴き声の判別に用いる場合、(i)少ない教師データでの訓練の難しさ、(ii)モデル実行に要する計算量の多さ、が課題として挙げられる。本変形例では、(i)大規模環境音データセットでの事前訓練、(ii)量子化と圧縮によるモデルの軽量化、を用いることで上記課題を解決する。 When using a discrimination model such as the one illustrated in Figure 17 to discriminate the calls of invading species, challenges include (i) difficulty in training with a small amount of training data, and (ii) large amount of calculations required to run the model. It will be done. In this modification, the above problem is solved by using (i) pre-training with a large-scale environmental sound dataset and (ii) reducing the weight of the model by quantization and compression.

図18は、本変形例に係る判別モデルの生成及びコンピュータ227への実装の具体例を示す図である。まず、少ない教師データで良い性能を得るために、学習部413は、判別モデルを既存の大規模な環境音のデータセットで事前訓練する(S201)。事前訓練には、例えばAudioSet-YouTube(登録商標)コーパスが用いられる。その後、学習部413は、加害種の鳴き声を判別するためのデータセットで学習済モデルを再訓練(ファインチューニング)する(S202)。再訓練に用いられる教師データは一例として、加害種の鳴き声が含まれる音声データを分析することにより得られる複数のパラメータと、加害種の鳴き声が含まれるか否かを示すラベルとを含む。換言すると、判別部21が用いる機械学習モデルは、環境音を表す音声データのセットで事前訓練された後、加害種の鳴き声を含む音声データから生成されたパラメータを含む教師データを用いて再訓練された学習済モデルである。 FIG. 18 is a diagram showing a specific example of generation of a discriminant model and implementation in the computer 227 according to this modification. First, in order to obtain good performance with a small amount of training data, the learning unit 413 pre-trains a discriminant model on an existing large-scale environmental sound dataset (S201). For example, the AudioSet-YouTube (registered trademark) corpus is used for pre-training. After that, the learning unit 413 retrains (fine-tunes) the learned model using the data set for identifying the calls of the perpetrator species (S202). The teacher data used for retraining includes, for example, a plurality of parameters obtained by analyzing audio data that includes the calls of the perpetrator species, and a label indicating whether or not the calls of the perpetrator species are included. In other words, the machine learning model used by the discrimination unit 21 is pre-trained with a set of audio data representing environmental sounds, and then retrained using training data that includes parameters generated from audio data that includes the calls of the perpetrator species. This is a trained model.

次に、訓練の終わったモデルを計算能力の低いコンピュータ227に実装するために、学習部413は、量子化と圧縮を行う(S203)。量子化では、学習部413は、計算精度を落とすことでモデルを軽量化する。圧縮では、学習部413は、モデルをより軽量な形式に変換する。このような形式の一例として、TensorFlowLite(tflite)形式が挙げられる。換言すると、判別部21が用いる機械学習モデルは、量子化、及び圧縮、の少なくともいずれか一方により軽量化されたモデルである。圧縮により得られた軽量なモデルファイルが、コンピュータ等に実装される(S204)。 Next, in order to implement the trained model on the computer 227 with low computing power, the learning unit 413 performs quantization and compression (S203). In quantization, the learning unit 413 reduces the weight of the model by reducing calculation accuracy. In compression, the learning unit 413 converts the model into a more lightweight format. An example of such a format is the TensorFlowLite (tflite) format. In other words, the machine learning model used by the determining unit 21 is a model whose weight has been reduced by at least one of quantization and compression. The lightweight model file obtained by compression is mounted on a computer or the like (S204).

本変形例に係る構成によれば、ノイズや歪みの大きいマイクを用いた実環境においても誤判別を大きく減らし、ランダムフォレストを用いた判別モデルと比較しても少ない計算量での実行が可能になる。また、圧縮された判別モデルはマイクロコントローラへの実装も可能なため、本装置の小型化や可搬性の向上につながる。 According to the configuration according to this modified example, misclassifications can be greatly reduced even in a real environment using a microphone with large noise and distortion, and execution can be performed with a small amount of calculation compared to a discrimination model using a random forest. Become. Additionally, the compressed discriminant model can be implemented in a microcontroller, leading to miniaturization and improved portability of the device.

このように、判別部21のアルゴリズムにAIの手法を用いることにより、判別部21の判別の精度を高くすることができる。また、上記構成によれば、マイコン(小型集積回路)上で動作可能な言語でも実装できるため、本装置の小型化や可搬性の向上につながる。本発明者が上述の手法によりCNNを再学習させた後に量子化及び圧縮して分類器23を生成し、生成した分類器23を用いて判別率の計測を行った結果、誤判別率は20%程度となり、従来の手法を用いた場合よりも誤判別の割合が大幅に低下した。 In this way, by using the AI method for the algorithm of the discrimination unit 21, the accuracy of the discrimination by the discrimination unit 21 can be increased. Further, according to the above configuration, it is possible to implement a language that can be operated on a microcomputer (small integrated circuit), which leads to miniaturization and improved portability of the present device. The inventor generated a classifier 23 by quantizing and compressing the CNN after retraining using the method described above, and measured the classification rate using the generated classifier 23. As a result, the misclassification rate was 20. %, significantly lowering the rate of misclassification than when using conventional methods.

〔ソフトウェアによる実現例〕
鳥獣害対策装置10、及び学習装置4(以下、「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロックとしてコンピュータを機能させるためのプログラムにより実現することができる。
[Example of implementation using software]
The functions of the bird and beast damage control device 10 and the learning device 4 (hereinafter referred to as "devices") are programs for making a computer function as the devices, and programs for making the computer function as each control block of the device. This can be realized by a program.

この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。 In this case, the device includes a computer having at least one control device (for example, a processor) and at least one storage device (for example, a memory) as hardware for executing the program. By executing the above program using this control device and storage device, each function described in each of the above embodiments is realized.

上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。 The above program may be recorded on one or more computer-readable recording media instead of being temporary. This recording medium may or may not be included in the above device. In the latter case, the program may be supplied to the device via any transmission medium, wired or wireless.

また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。 Further, part or all of the functions of each of the control blocks described above can also be realized by a logic circuit. For example, an integrated circuit in which a logic circuit functioning as each of the control blocks described above is formed is also included in the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. are also included within the technical scope of the present invention.

10,10A,10B,10C 鳥獣害対策装置
1,1A 集音部
11 マイクロフォンアレイ
12 雨除け皿
13 カバー
14 USBケーブル
15 集音部支持棒
16 集音部固定具
2,2A 音声識別・光照射部
21 判別部
22 照射制御部
23,23_1,23_2,23C 分類器
24 電源制御部
211 ケース
212 ドーム
213 支持棒
214 固定具
221,221C レーザーハウジング
222 接続線(ステッピングモーター225)
223 接続線(レーザーモジュール226)
224 GPS受信機
225 ステッピングモーター
226 レーザーモジュール
227 コンピュータ
228 拡張ボード
229 モータードライバ
3 電源部
31 太陽光パネル
32 バッテリ
33 ケース
34 接続線
35 ソーラー充電コントローラー
36 DC/DCコンバータ
5,5C 撮影装置
10, 10A, 10B, 10C Bird and beast damage control device 1, 1A Sound collection section 11 Microphone array 12 Rain cover 13 Cover 14 USB cable 15 Sound collection section support rod 16 Sound collection section fixture 2, 2A Voice identification/light irradiation section 21 Discrimination section 22 Irradiation control section 23, 23_1, 23_2, 23C Classifier 24 Power supply control section 211 Case 212 Dome 213 Support rod 214 Fixture 221, 221C Laser housing 222 Connection line (stepping motor 225)
223 Connection line (laser module 226)
224 GPS receiver 225 Stepping motor 226 Laser module 227 Computer 228 Expansion board 229 Motor driver 3 Power supply unit 31 Solar panel 32 Battery 33 Case 34 Connection line 35 Solar charge controller 36 DC/DC converter 5, 5C Photography device

Claims (22)

対象領域において集音する集音部が出力する音声データと、環境音を表すノイズデータを用いて生成された分類器とを用いて、前記集音部が集音した音に加害種の鳥獣の鳴き声が含まれるかを判別する判別部と、
前記集音部が集音した音に前記鳴き声が含まれる場合、光照射部を制御して前記対象領域に対し光を照射させる照射制御部と、
を有する鳥獣害対策装置。
Using the audio data output by the sound collection unit that collects sound in the target area and a classifier generated using noise data representing environmental sounds, the sound collected by the sound collection unit is used to identify the harmful species of birds and animals. a determination unit that determines whether a cry is included;
an irradiation control unit that controls a light irradiation unit to irradiate light to the target area when the sound collected by the sound collection unit includes the cry;
A bird and beast damage control device with
前記照射制御部は、前記光の照射方向を所定の速度又は所定の角速度で変更する、
請求項1に記載の鳥獣害対策装置。
The irradiation control unit changes the irradiation direction of the light at a predetermined speed or a predetermined angular velocity.
The bird and animal damage control device according to claim 1.
前記照射制御部は、前記鳴き声の音源の方向を推定し、前記光の照射方向を、前記光の照射位置が前記音源に近づく方向に移動させる、
請求項2に記載の鳥獣害対策装置。
The irradiation control unit estimates the direction of the sound source of the cry, and moves the irradiation direction of the light in a direction in which the irradiation position of the light approaches the sound source.
The bird and beast damage control device according to claim 2.
自立電源を含む電源部、を更に有し、
前記判別部、及び前記照射制御部は、前記電源部が供給する電力により動作する、
請求項1又は2に記載の鳥獣害対策装置。
further comprising a power supply unit including a self-contained power supply;
The discrimination unit and the irradiation control unit are operated by power supplied by the power supply unit.
The bird and animal damage control device according to claim 1 or 2.
前記集音部が集音した音声と前記光照射部が前記光を照射した日時とを記録する記録部、を更に有する、
請求項1又は2に記載の鳥獣害対策装置。
further comprising a recording unit that records the sound collected by the sound collection unit and the date and time when the light irradiation unit irradiated the light;
The bird and animal damage control device according to claim 1 or 2.
前記対象領域は、レンコンが栽培されるハス田である、
請求項1又は2に記載の鳥獣害対策装置。
The target area is a lotus field where lotus root is cultivated.
The bird and animal damage control device according to claim 1 or 2.
前記加害種の鳥獣は、前記対象領域において夜間に採食を行う種の少なくともいずれかを含む、
請求項1又は2に記載の鳥獣害対策装置。
The harmful species of birds and animals includes at least one of the species that forage at night in the target area.
The bird and animal damage control device according to claim 1 or 2.
前記対象領域は、レンコンが栽培されるハス田であり、
前記加害種の鳥獣は、マガモ及びオオバンの少なくともいずれか一方を含む、
請求項7に記載の鳥獣害対策装置。
The target area is a lotus field where lotus root is cultivated,
The harmful species of birds and animals include at least one of a mallard and a coot;
The bird and beast damage control device according to claim 7.
前記判別部は、前記音声データを分析して当該音声データの特徴量を表す複数のパラメータを生成し、
生成した複数のパラメータが示す特徴量空間内の位置に基づき、前記判別を行う、
請求項1又は2に記載の鳥獣害対策装置。
The discrimination unit analyzes the audio data and generates a plurality of parameters representing feature amounts of the audio data,
performing the discrimination based on the position in the feature space indicated by the plurality of generated parameters;
The bird and animal damage control device according to claim 1 or 2.
前記複数のパラメータは、線形予測符号化(linear predictive coding,LPC)により算出される線形予測係数を含む、
請求項9に記載の鳥獣害対策装置。
The plurality of parameters include linear predictive coefficients calculated by linear predictive coding (LPC),
The bird and beast damage control device according to claim 9.
前記複数のパラメータは、前記音声データの自己相関係数を含む、
請求項10に記載の鳥獣害対策装置。
the plurality of parameters include an autocorrelation coefficient of the audio data;
The bird and animal damage control device according to claim 10.
前記判別部は、前記複数のパラメータを入力として判別結果を出力する機械学習モデルを用いて前記判別を行う、
請求項9に記載の鳥獣害対策装置。
The discrimination unit performs the discrimination using a machine learning model that receives the plurality of parameters as input and outputs a discrimination result.
The bird and beast damage control device according to claim 9.
前記機械学習モデルは、ランダムフォレストの学習により構築されるモデルである、
請求項12に記載の鳥獣害対策装置。
The machine learning model is a model constructed by random forest learning,
The bird and animal damage control device according to claim 12.
前記機械学習モデルは、前記環境音を表す音声データに加害種の鳥獣の鳴き声を表す音声を埋め込んだ教師データを用いて機械学習された学習済みモデルである、
請求項12に記載の鳥獣害対策装置。
The machine learning model is a trained model that has been machine learned using teacher data in which audio data representing the environmental sounds is embedded with audio representing the cries of bird and beast species.
The bird and animal damage control device according to claim 12.
前記集音部と、
前記光照射部と、
を更に有する請求項1又は2に記載の鳥獣害対策装置。
The sound collection section;
the light irradiation section;
The bird and animal damage control device according to claim 1 or 2, further comprising:
前記光照射部は、レーザー光を照射する、
請求項1又は2に記載の鳥獣害対策装置。
The light irradiation unit irradiates laser light.
The bird and animal damage control device according to claim 1 or 2.
加害種の鳥獣の鳴き声を表す音声データを、環境音を表す音声データに埋め込んだ学習用音声データを生成する生成部と、
前記生成部が生成した学習用音声データを音声分析して特徴量を表す複数のパラメータを生成するパラメータ生成部と、
前記パラメータ生成部が生成した複数のパラメータと前記加害種の鳴き声を含むか否かを示すラベルとを含む学習用データを用いて、音声データの特徴量を表す複数のパラメータを入力として当該音声データに加害種の鳥獣の鳴き声が含まれるかを判別する機械学習モデルを生成する学習部と、
を含む学習装置。
a generation unit that generates learning audio data in which audio data representing the cries of a harmful species of bird or beast is embedded in audio data representing environmental sounds;
a parameter generation unit that generates a plurality of parameters representing feature quantities by voice-analyzing the learning audio data generated by the generation unit;
Using learning data including a plurality of parameters generated by the parameter generation unit and a label indicating whether or not the cry of the perpetrator species is included, a plurality of parameters representing feature quantities of the audio data are input and the audio data is generated. a learning unit that generates a machine learning model that determines whether the song contains the sounds of a harmful species of bird or beast;
learning devices including;
コンピュータを、
対象領域において集音する集音部が出力する音声データと、環境音を表すノイズデータを用いて生成された分類器とを用いて、前記集音部が集音した音に加害種の鳥獣の鳴き声が含まれるかを判別する判別部と、
前記集音部が集音した音に前記鳴き声が含まれる場合、光照射部を制御して前記対象領域に対し光を照射させる照射制御部と、
として機能させるためのプログラム。
computer,
Using the audio data output by the sound collection unit that collects sound in the target area and a classifier generated using noise data representing environmental sounds, the sound collected by the sound collection unit is used to identify the harmful species of birds and animals. a determination unit that determines whether a cry is included;
an irradiation control unit that controls a light irradiation unit to irradiate light to the target area when the sound collected by the sound collection unit includes the cry;
A program to function as
前記光の照射方向を撮影し、撮影画像を表す画像データを出力する撮影装置、を更に有している、
請求項1又は2に記載の鳥獣害対策装置。
further comprising a photographing device that photographs the irradiation direction of the light and outputs image data representing the photographed image;
The bird and animal damage control device according to claim 1 or 2.
前記判別部は、前記集音部が出力する音声データに加えて前記撮影装置が撮影する撮影画像の画像データを用いて前記加害種が前記対象領域に飛来したかを判別する、
請求項19に記載の鳥獣害対策装置。
The determining unit determines whether the harmful species has flown into the target area using image data of a photographed image photographed by the photographing device in addition to audio data output by the sound collecting unit.
The bird and animal damage control device according to claim 19.
前記機械学習モデルは、環境音を表す音声データのセットで事前訓練された後、前記加害種の鳴き声を含む音声データから生成されたパラメータを含む教師データを用いて再訓練された学習済モデルである、
請求項12に記載の鳥獣害対策装置。
The machine learning model is a trained model that is pre-trained on a set of audio data representing environmental sounds and then retrained using training data that includes parameters generated from audio data that includes the calls of the perpetrator species. be,
The bird and animal damage control device according to claim 12.
前記機械学習モデルは、量子化及び圧縮の少なくともいずれか一方により軽量化されたモデルである、
請求項12に記載の鳥獣害対策装置。
The machine learning model is a model that has been reduced in weight by at least one of quantization and compression.
The bird and animal damage control device according to claim 12.
JP2023096478A 2022-08-09 2023-06-12 Wildlife damage countermeasure device Pending JP2024024586A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022127353 2022-08-09
JP2022127353 2022-08-09

Publications (1)

Publication Number Publication Date
JP2024024586A true JP2024024586A (en) 2024-02-22

Family

ID=89940052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023096478A Pending JP2024024586A (en) 2022-08-09 2023-06-12 Wildlife damage countermeasure device

Country Status (1)

Country Link
JP (1) JP2024024586A (en)

Similar Documents

Publication Publication Date Title
US11793190B1 (en) Automatic animal detection and deterrent system
US11659826B2 (en) Detection of arthropods
US11617353B2 (en) Animal sensing system
Kunz et al. Assessing impacts of wind‐energy development on nocturnally active birds and bats: a guidance document
KR102276944B1 (en) A System for Growth Control of Crops and Disease and Insect Pest Control of Crops
KR101740714B1 (en) Apparatus for prohibiting steeling corp produce and repelling animals of farm and the method thereof
KR20200096747A (en) Harmful wildlife eradicating equipment
CN106172358A (en) Drive the method for birds, server and information collecting device
JP2020058256A (en) Injurious bird repellent device
KR20170008489A (en) Robot system and operating method thereof for repelling harmful fur and feather
JP2024024586A (en) Wildlife damage countermeasure device
JP6183734B1 (en) Method and structure for preventing flight of harmful birds such as starlings and sparrows
Chan et al. The geckos of Hong Kong
KR102249642B1 (en) A method of exterminating harmful animals, and apparatuses performing the same
KR102092061B1 (en) Animal pest management system
ONeil Reducing bat fatalities using ultrasonic acoustic deterrent technology: a potential mechanism for conservation at offshore wind energy sites
Wang Intelligent UAVs for Pest Bird Control in Vineyards
Steen et al. An adaptive scaring device
JPS6314647A (en) Apparatus for excluding harmful animals
Kumar et al. Noxious beings Repulsion System Using Ultrasonic Transducers
Balamurugan et al. An internet of things based smart agriculture monitoring system using convolution neural network algorithm
Dadhich Increasing the accuracy of rodent detection and estimation of the population with sensor fusion
KR20230169695A (en) Harmful animal prevention system and method
Steen et al. Wildlife communication: Electrical and computer engineering
Dadhich Increasing the accuracy of rodent detection and estimation of the population with emerging sensor technology

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621