JP7075171B2 - Computer systems, pest detection methods and programs - Google Patents

Computer systems, pest detection methods and programs Download PDF

Info

Publication number
JP7075171B2
JP7075171B2 JP2021501481A JP2021501481A JP7075171B2 JP 7075171 B2 JP7075171 B2 JP 7075171B2 JP 2021501481 A JP2021501481 A JP 2021501481A JP 2021501481 A JP2021501481 A JP 2021501481A JP 7075171 B2 JP7075171 B2 JP 7075171B2
Authority
JP
Japan
Prior art keywords
pest
position information
pests
image
pesticide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021501481A
Other languages
Japanese (ja)
Other versions
JPWO2020174645A1 (en
Inventor
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Publication of JPWO2020174645A1 publication Critical patent/JPWO2020174645A1/en
Application granted granted Critical
Publication of JP7075171B2 publication Critical patent/JP7075171B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass

Description

本発明は、画像解析により病害虫を検出するコンピュータシステム、病害虫検出方法及びプログラムに関する。 The present invention relates to a computer system for detecting pests by image analysis, a pest detection method and a program.

従来、圃場に発生した病害虫をドローン等により駆除することが行われている。このような駆除方法として、圃場における病害虫の位置をリアルタイムに特定し、この特定した位置にドローンを移動させ、駆除を行う構成がある。 Conventionally, pests and pests generated in a field have been exterminated by a drone or the like. As such an extermination method, there is a configuration in which the position of a pest in a field is specified in real time, the drone is moved to the specified position, and the extermination is performed.

このような技術の例として、ドローンにより圃場をリアルタイムに撮影したライブ画像に基づいて、病害虫を駆除するシステムが開示されている(特許文献1参照)。このシステムは、このライブ画像と、このライブ画像の撮影地点の位置情報とを取得し、予め病害虫等を撮影した特定画像とライブ画像とを比較することにより、病害虫の有無を検出する。システムは、病害虫を検出した際、このライブ画像を撮影した撮影地点の位置情報を、ドローン等に出力し、病害虫の駆除を行う。 As an example of such a technique, a system for exterminating pests is disclosed based on a live image of a field taken in real time by a drone (see Patent Document 1). This system acquires the live image and the position information of the shooting point of the live image, and detects the presence or absence of the pest by comparing the specific image in which the pest or the like is taken in advance with the live image. When the system detects a pest, it outputs the position information of the shooting point where the live image was taken to a drone or the like to exterminate the pest.

特開2017-16271号公報Japanese Unexamined Patent Publication No. 2017-16271

しかしながら、特許文献1の構成では、病害虫の検出は、リアルタイムに撮影したライブ画像に限定されてしまっており、このようなライブ画像以外の撮影画像に対して有効でないおそれがあった。 However, in the configuration of Patent Document 1, the detection of pests is limited to live images taken in real time, and there is a possibility that it is not effective for captured images other than such live images.

本発明は、ライブ画像に限定されず、撮影画像に基づいた病害虫の検出及び駆除が容易なコンピュータシステム、病害虫検出方法及びプログラムを提供することを目的とする。 An object of the present invention is to provide a computer system, a pest detection method and a program that facilitate detection and extermination of pests based on captured images, not limited to live images.

本発明では、以下のような解決手段を提供する。 The present invention provides the following solutions.

本発明は、病害虫の特徴点や特徴量と前記病害虫の識別子とを対応付けて登録した病害虫データベースを備え、画像解析により病害虫を検出するコンピュータシステムであって、
圃場を撮影した撮影画像及び撮影地点の位置情報を取得する取得手段と、
取得した前記撮影画像を画像解析し、抽出した特徴点や特徴量を病害虫データベースと比較することで病害虫を検出して前記病害虫の識別子を判断する検出手段と、
前記病害虫を検出した撮影画像における前記撮影地点の位置情報を出力する位置情報出力手段と、
前記判断した病害虫の識別子と、前記出力した位置情報に基づいて、農薬散布又は施肥を行う機器や装置を特定し、当該病害虫に対して有効な農薬散布又は施肥の指示を出力する指示出力手段と、
を備えることを特徴とするコンピュータシステムを提供する。
The present invention is a computer system that includes a pest database in which feature points and amounts of pests are associated with and registered pest identifiers, and that pests are detected by image analysis.
An acquisition means for acquiring a photographed image of a field and position information of a photographing point, and
A detection means for detecting a pest by analyzing the acquired image and comparing the extracted feature points and feature amounts with a pest database to determine the identifier of the pest.
A position information output means for outputting the position information of the shooting point in the captured image in which the pest is detected, and
Based on the determined pest identifier and the output position information, the device or device for spraying or fertilizing the pesticide is specified, and the instruction output means for outputting the instruction for spraying or fertilizing the pesticide effective for the pest. ,
Provided is a computer system characterized by being provided with.

病害虫の特徴点や特徴量と前記病害虫の識別子とを対応付けて登録した病害虫データベースを備え、画像解析により病害虫を検出するコンピュータシステムは、圃場を撮影した撮影画像及び撮影地点の位置情報を取得し、取得した前記撮影画像を画像解析し、抽出した特徴点や特徴量を病害虫データベースと比較することで病害虫を検出して前記病害虫の識別子を判断し、前記病害虫を検出した撮影画像における前記撮影地点の位置情報を出力し、前記判断した病害虫の識別子と、前記出力した位置情報に基づいて、農薬散布又は施肥を行う機器や装置を特定し、当該病害虫に対して有効な農薬散布又は施肥の指示を出力する。 A computer system that has a pest database registered by associating the characteristic points and amounts of pests with the identifiers of the pests and detects the pests by image analysis acquires the captured images of the field and the position information of the captured points. , The acquired image is analyzed, and the extracted feature points and feature amounts are compared with the pest database to detect the pest and determine the identifier of the pest, and the shooting point in the captured image in which the pest is detected. Based on the determined pest identifier and the output position information, the device or device for spraying or fertilizing the pesticide is specified, and the instruction for spraying or fertilizing the pesticide is effective for the pest. Is output.

本発明は、システムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。 Although the present invention is in the category of systems, the same actions and effects are exhibited in other categories such as methods and programs according to the categories.

本発明によれば、ライブ画像に限定されず、撮影画像に基づいた病害虫の検出及び駆除が容易なコンピュータシステム、病害虫検出方法及びプログラムを提供することが可能となる。 According to the present invention, it is possible to provide a computer system, a pest detection method and a program that facilitate detection and extermination of pests based on captured images, not limited to live images.

図1は、病害虫検出システム1の概要を示す図である。FIG. 1 is a diagram showing an outline of a pest detection system 1. 図2は、病害虫検出システム1の全体構成図である。FIG. 2 is an overall configuration diagram of the pest detection system 1. 図3は、コンピュータ10が実行する位置情報出力処理のフローチャートを示す図である。FIG. 3 is a diagram showing a flowchart of position information output processing executed by the computer 10. 図4は、コンピュータ10が実行する指示出力処理のフローチャートを示す図である。FIG. 4 is a diagram showing a flowchart of an instruction output process executed by the computer 10. 図5は、コンピュータ10が作成する病害虫マップの一例を模式的に示す図である。FIG. 5 is a diagram schematically showing an example of a pest map created by the computer 10.

以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. It should be noted that this is just an example, and the technical scope of the present invention is not limited to this.

[病害虫検出システム1の概要]
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である病害虫検出システム1の概要を説明するための図である。病害虫検出システム1は、コンピュータ10から構成され、画像解析により病害虫を検出するコンピュータシステムである。
[Overview of pest detection system 1]
An outline of a preferred embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram for explaining an outline of a pest detection system 1 which is a preferred embodiment of the present invention. The pest detection system 1 is a computer system composed of a computer 10 and detecting pests by image analysis.

なお、病害虫検出システム1は、ドローン、農機具、高性能農業機械、作物を栽培する作業者が所持する作業者端末(例えば、スマートフォンやタブレット端末やパーソナルコンピュータ)、その他のコンピュータ等のその他の端末や装置類が含まれていてもよい。また、病害虫検出システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。 The pest detection system 1 includes drones, agricultural machinery, high-performance agricultural machinery, worker terminals (for example, smartphones, tablet terminals, personal computers) possessed by workers who grow crops, and other terminals such as other computers. Devices may be included. Further, the pest detection system 1 may be realized by one computer such as a computer 10, or may be realized by a plurality of computers such as a cloud computer.

コンピュータ10は、ドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等と、公衆回線網等を介して、データ通信可能に接続されており、必要なデータの送受信を実行する。 The computer 10 is connected to a drone, an agricultural machine, a high-performance agricultural machine, a worker terminal, another computer, etc. via a public network or the like so as to be capable of data communication, and executes necessary data transmission / reception.

コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を取得する。コンピュータ10は、例えば、ドローンにより圃場の各地点を撮影した撮影画像を取得する。コンピュータ10は、例えば、ドローンが撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。 The computer 10 acquires a photographed image of the field and position information of the imaged point. The computer 10 acquires, for example, a photographed image of each point of the field by a drone. The computer 10 acquires, for example, the position information of the shooting point where the drone shot the shot image from the drone.

コンピュータ10は、取得した撮影画像を画像解析し、この撮影画像に写っている病害虫を検出する。ンピュータ10は、例えば、画像解析として、撮影画像の特徴点(例えば、形状、輪郭、色相)や特徴量(例えば、画素値の平均、分散、ヒストグラム等の統計的な数値)を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この撮影画像に写っている病害虫を検出する。 The computer 10 analyzes the acquired captured image and detects the pests appearing in the captured image. For example, as an image analysis, the computer 10 extracts feature points (for example, shape, contour, hue) and feature quantities (for example, statistical numerical values such as average, variance, and histogram of pixel values) of a captured image. The computer 10 detects the pests shown in the captured image based on the extracted feature points and feature quantities.

コンピュータ10は、検出した病害虫の位置情報を、取得した撮影地点の位置情報に基づいて特定する。例えば、コンピュータ10は、検出した病害虫の位置情報が、撮影地点の位置情報に一致するものとして、この病害虫の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した病害虫の位置を特定することになる。 The computer 10 identifies the detected pest position information based on the acquired position information of the photographing point. For example, the computer 10 identifies the position information of the pest, assuming that the position information of the detected pest matches the position information of the photographing point. As a result, the computer 10 will identify the location of the detected pest in the field.

コンピュータ10は、特定した病害虫の位置情報を出力する。このとき、コンピュータ10は、上述したドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等に、この位置情報を出力する。 The computer 10 outputs the position information of the identified pest. At this time, the computer 10 outputs this position information to the above-mentioned drone, agricultural tool, high-performance agricultural machine, worker terminal, other computer and the like.

なお、コンピュータ10は、この位置情報に基づいて、農薬散布又は施肥の指示を出力する構成も可能である。例えば、コンピュータ10は、この位置情報に基づいて、病害虫の位置にドローンを移動させ、このドローンが有する農薬散布装置又は施肥装置により、農薬又は肥料を散布させる指示を、コマンドとしてドローンに送信する。ドローンは、このコマンドを受信し、病害虫に対して、農薬又は肥料を散布する。その結果、コンピュータ10は、この位置情報に基づいて、農薬散布又は施肥の指示を出力することになる。 The computer 10 can also be configured to output an instruction for pesticide spraying or fertilization based on this position information. For example, the computer 10 moves the drone to the position of the pest based on this position information, and sends an instruction to spray the pesticide or fertilizer to the drone as a command by the pesticide spraying device or the fertilizer applying device possessed by the drone. The drone receives this command and sprays pesticides or fertilizers against the pests. As a result, the computer 10 outputs an instruction of pesticide spraying or fertilization based on this position information.

次に、病害虫検出システム1が実行する処理の概要について説明する。 Next, the outline of the processing executed by the pest detection system 1 will be described.

コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を撮影データとして取得する(ステップS01)。コンピュータ10は、例えば、ドローンが圃場の各地点を撮影した撮影画像を取得する。コンピュータ10は、例えば、ドローンが撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。コンピュータ10は、このような撮影画像及び撮影地点の位置情報を撮影データとして取得する。 The computer 10 acquires a photographed image of the field and position information of the imaged point as photographed data (step S01). The computer 10 acquires, for example, a photographed image of each point in the field by the drone. The computer 10 acquires, for example, the position information of the shooting point where the drone shot the shot image from the drone. The computer 10 acquires such a captured image and position information of a captured point as captured data.

コンピュータ10は、撮影画像を画像解析し、この撮影画像に写っている病害虫を検出する(ステップS02)。コンピュータ10は、例えば、画像解析として、撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この撮影画像に写っている病害虫を検出する。 The computer 10 analyzes the captured image and detects the pests appearing in the captured image (step S02). The computer 10 extracts feature points and feature quantities of a captured image, for example, as image analysis. The computer 10 detects the pests shown in the captured image based on the extracted feature points and feature quantities.

コンピュータ10は、検出した病害虫の位置情報を、取得した撮影地点の位置情報に基づいて特定する(ステップS03)。コンピュータ10は、検出した病害虫の位置情報が、撮影地点の位置情報に一致するものとして、この病害虫の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した病害虫の位置を特定することになる。 The computer 10 identifies the detected pest position information based on the acquired position information of the photographing point (step S03). The computer 10 identifies the position information of the pest, assuming that the position information of the detected pest matches the position information of the photographing point. As a result, the computer 10 will identify the location of the detected pest in the field.

コンピュータ10は、特定した病害虫の位置情報を出力する(ステップS04)。コンピュータ10は、例えば、上述したドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等に、この位置情報を出力する。 The computer 10 outputs the position information of the identified pest (step S04). The computer 10 outputs this position information to, for example, the above-mentioned drone, agricultural tool, high-performance agricultural machine, worker terminal, other computer, and the like.

以上が、病害虫検出システム1が実行する処理の概要である。 The above is the outline of the processing executed by the pest detection system 1.

[病害虫検出システム1のシステム構成]
図2に基づいて、本発明の好適な実施形態である病害虫検出システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である病害虫検出システム1のシステム構成を示す図である。図2において、病害虫検出システム1は、コンピュータ10から構成され、画像解析により病害虫を検出するコンピュータシステムである。
[System configuration of pest detection system 1]
Based on FIG. 2, the system configuration of the pest detection system 1 which is a preferred embodiment of the present invention will be described. FIG. 2 is a diagram showing a system configuration of a pest detection system 1 which is a preferred embodiment of the present invention. In FIG. 2, the pest detection system 1 is a computer system composed of a computer 10 and detecting pests by image analysis.

コンピュータ10は、ドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等と公衆回線網等を介してデータ通信可能に接続されており、必要なデータの送受信を実行する。 The computer 10 is connected to a drone, an agricultural machine, a high-performance agricultural machine, a worker terminal, another computer, etc. via a public network or the like so as to be capable of data communication, and executes necessary data transmission / reception.

なお、病害虫検出システム1は、図示していないドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等やその他の端末や装置類が含まれていてもよい。また、病害虫検出システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。 The pest detection system 1 may include a drone, a farm tool, a high-performance agricultural machine, a worker terminal, other computers and the like, and other terminals and devices (not shown). Further, the pest detection system 1 may be realized by one computer such as a computer 10, or may be realized by a plurality of computers such as a cloud computer.

コンピュータ10は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部として、他の端末や装置等と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイス等を備える。また、コンピュータ10は、記録部として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、コンピュータ10は、処理部として、各種処理を実行する各種デバイス等を備える。 The computer 10 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and enables communication with other terminals and devices as a communication unit. A device for this purpose, for example, a Wi-Fi (Wiress-Fidelity) compatible device compliant with IEEE802.11 and the like. Further, the computer 10 includes a data storage unit such as a hard disk, a semiconductor memory, a recording medium, and a memory card as a recording unit. Further, the computer 10 includes various devices and the like that execute various processes as a processing unit.

コンピュータ10において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、撮影データ取得モジュール20、病害虫データ出力モジュール21、コマンド出力モジュール22を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、記録部と協働して、記録モジュール30を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、画像解析モジュール40、位置特定モジュール41、対策データ特定モジュール42、病害虫マップ作成モジュール43、コマンド作成モジュール44を実現する。 In the computer 10, the control unit reads a predetermined program to realize the photographing data acquisition module 20, the pest data output module 21, and the command output module 22 in cooperation with the communication unit. Further, in the computer 10, the control unit reads a predetermined program and cooperates with the recording unit to realize the recording module 30. Further, in the computer 10, the control unit reads a predetermined program, and in cooperation with the processing unit, the image analysis module 40, the position identification module 41, the countermeasure data identification module 42, the pest map creation module 43, and the command creation module. Achieve 44.

[位置情報出力処理]
図3に基づいて、病害虫検出システム1が実行する位置情報出力処理について説明する。図3は、コンピュータ10が実行する位置情報出力処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
[Location information output processing]
The position information output process executed by the pest detection system 1 will be described with reference to FIG. FIG. 3 is a diagram showing a flowchart of position information output processing executed by the computer 10. The process executed by each of the above-mentioned modules will be described together with this process.

撮影データ取得モジュール20は、圃場を撮影した撮影画像及び撮影地点の位置情報を、撮影データとして取得する(ステップS10)。ステップS10において、撮影データ取得モジュール20は、例えば、ドローンが圃場の予め設定された複数の撮影地点の其々において撮影した撮影画像と、ドローンが撮影画像を撮影した其々の撮影地点の位置情報とを撮影データとして取得する。ドローンは、自身の直下を、撮影画像として撮影する。すなわち、ドローンは、圃場に対して垂直な位置から撮影画像を撮影することになる。ドローンは、撮影地点において、撮影画像を撮影するとともに、自身の位置情報をGPS等から取得する。ドローンは、この取得した自身の位置情報を撮影地点の位置情報として扱う。ドローンは、この撮影画像と、撮影地点の位置情報とを撮影データとして、コンピュータ10に送信する。撮影データ取得モジュール20は、ドローンが送信した撮影データを受信することにより、撮影データを取得する。その結果、コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を取得することになる。 The shooting data acquisition module 20 acquires the shooting image of the field and the position information of the shooting point as shooting data (step S10). In step S10, the photographing data acquisition module 20 is, for example, a photographed image taken by the drone at each of a plurality of preset shooting points in the field, and position information of each shooting point where the drone has taken a photographed image. And is acquired as shooting data. The drone shoots directly under itself as a shot image. That is, the drone captures the captured image from a position perpendicular to the field. The drone shoots a shot image at the shooting point and acquires its own position information from GPS or the like. The drone treats the acquired position information of itself as the position information of the shooting point. The drone transmits the captured image and the position information of the captured point to the computer 10 as captured data. The shooting data acquisition module 20 acquires shooting data by receiving the shooting data transmitted by the drone. As a result, the computer 10 acquires the photographed image of the field and the position information of the photographing point.

画像解析モジュール40は、撮影データに基づいて、撮影画像を画像解析する(ステップS11)。ステップS11において、画像解析モジュール40は、この撮影画像における特徴点や特徴量を抽出する。画像解析モジュール40は、例えば、画像解析として、撮影画像に存在する物体の形状、色相等を抽出する。 The image analysis module 40 analyzes the captured image based on the captured data (step S11). In step S11, the image analysis module 40 extracts feature points and feature quantities in the captured image. The image analysis module 40 extracts, for example, the shape, hue, and the like of an object existing in a captured image as image analysis.

画像解析モジュール40は、画像解析の結果に基づいて、病害虫が検出できたか否かを判断する(ステップS12)。ステップS12において、画像解析モジュール40は、抽出した特徴点や特徴量と、予め病害虫の特徴点や特徴量と病害虫の識別子とを対応付けて登録した病害虫データベースとを比較することにより、撮影画像に病害虫が存在するか否かを判断する。画像解析モジュール40は、今回抽出した特徴点や特徴量と、病害虫データベースに登録された特徴点や特徴量とが一致する場合、病害虫が検出できたと判断し、一致しない場合、病害虫が検出できなかったと判断することになる。画像解析モジュール40は、病害虫が検出できた場合、この病害虫の特徴点や特徴量と、病害虫データベースとに基づいて、この病害虫の識別子を併せて判断する。 The image analysis module 40 determines whether or not the pest can be detected based on the result of the image analysis (step S12). In step S12, the image analysis module 40 compares the extracted feature points and feature quantities with the pest database registered in advance in association with the pest feature points and feature quantities and the pest identifier to obtain a photographed image. Determine if there are pests. The image analysis module 40 determines that the pest could be detected if the feature points and feature quantities extracted this time match the feature points and feature quantities registered in the pest database, and if they do not match, the pest cannot be detected. It will be judged that it was. When the image analysis module 40 can detect a pest, the image analysis module 40 together determines the identifier of the pest based on the feature points and amounts of the pest and the pest database.

ステップS12において、画像解析モジュール40は、画像解析の結果、病害虫が検出できなかったと判断した場合(ステップS12 NO)、コンピュータ10は、本処理を終了する。なお、コンピュータ10は、この場合、上述したステップS10の処理を実行し、今回画像解析を行った撮影データとは異なる撮影データを取得する構成であってもよい。 In step S12, when the image analysis module 40 determines that the pest could not be detected as a result of the image analysis (step S12 NO), the computer 10 ends this process. In this case, the computer 10 may be configured to execute the process of step S10 described above and acquire shooting data different from the shooting data obtained by performing the image analysis this time.

一方、ステップS12において、画像解析モジュール40は、画像解析の結果、病害虫が検出できたと判断した場合(ステップS12 YES)、位置特定モジュール41は、この撮影データにおける位置情報に基づいて、検出した病害虫の位置情報を特定する(ステップS13)。ステップS13において、位置特定モジュール41は、今回画像解析を行った撮影画像に対応する撮影地点の位置情報を、撮影データに基づいて特定する。位置特定モジュール41は、撮影地点の位置情報を、この病害虫の位置情報として特定する。さらに、位置特定モジュール41は、この病害虫の位置情報と、撮影画像における座標とに基づいて、この病害虫の詳細な位置を特定する。例えば、位置特定モジュール41は、撮影画像に対して、直交座標系を設定し、この病害虫を検出した撮影画像における位置を、この撮影画像におけるX座標及びY座標として特定する。位置特定モジュール41は、撮影地点における位置情報と、このX座標及びY座標とに基づいて、実際の圃場における病害虫の位置情報を特定する。このとき、位置特定モジュール41は、撮影画像の中心の位置が、撮影地点における位置情報に該当し、X座標及びY座標がこの中心の位置に対する位置として特定する。その結果、位置特定モジュール41は、圃場におけるこの病害虫の位置を特定することになる。 On the other hand, in step S12, when the image analysis module 40 determines that the pest can be detected as a result of the image analysis (step S12 YES), the position specifying module 41 detects the pest based on the position information in the imaging data. The position information of is specified (step S13). In step S13, the position specifying module 41 identifies the position information of the shooting point corresponding to the captured image obtained by the image analysis this time based on the captured data. The position specifying module 41 identifies the position information of the photographing point as the position information of this pest. Further, the position specifying module 41 identifies the detailed position of the pest based on the position information of the pest and the coordinates in the captured image. For example, the position specifying module 41 sets an orthogonal coordinate system for the captured image, and specifies the position in the captured image in which the pest is detected as the X coordinate and the Y coordinate in the captured image. The position specifying module 41 identifies the position information of the pest in the actual field based on the position information at the photographing point and the X coordinate and the Y coordinate. At this time, in the position specifying module 41, the position of the center of the captured image corresponds to the position information at the imaging point, and the X coordinate and the Y coordinate are specified as the positions with respect to the position of the center. As a result, the location identification module 41 will identify the location of this pest in the field.

対策データ特定モジュール42は、今回特定した病害虫に対して有効な農薬又は肥料の識別子と、この農薬又は肥料の散布量又は施肥量とを、対策データとして特定する(ステップS14)。ステップS14において、対策データ特定モジュール42は、予め病害虫の識別子と、有効な農薬又は肥料の識別子とを対応付けて登録した病害虫対策データベースを参照し、今回検出した病害虫に有効な農薬又は肥料を特定する。さらに、対策データ特定モジュール42は、抽出した特徴点や特徴量に基づいて、この農薬又は肥料の散布量又は施肥量を特定する。例えば、対策データ特定モジュール42は、抽出した病害虫の大きさや形状に応じて、必要な農薬の散布量や肥料の施肥量を特定する。 The countermeasure data specifying module 42 specifies the identifier of the pesticide or fertilizer effective against the pests identified this time and the spraying amount or fertilizer application amount of the pesticide or fertilizer as countermeasure data (step S14). In step S14, the countermeasure data specifying module 42 refers to the pest control database registered in advance by associating the identifier of the pest with the identifier of the effective pesticide or fertilizer, and identifies the pesticide or fertilizer effective for the pest detected this time. do. Further, the countermeasure data specifying module 42 specifies the spraying amount or fertilizer application amount of the pesticide or fertilizer based on the extracted feature points and feature amounts. For example, the countermeasure data specifying module 42 specifies the required amount of pesticide sprayed and the amount of fertilizer applied according to the size and shape of the extracted pest.

記録モジュール30は、特定した病害虫の識別子と、この病害虫の位置情報と、対策データとを病害虫データとして記録する(ステップS15)。 The recording module 30 records the identified pest identifier, the position information of the pest, and the countermeasure data as pest data (step S15).

コンピュータ10は、上述したステップS10-S14の処理を繰り返し、圃場全体に対して、検出した病害虫の其々の識別子と位置情報と対策データとを記録する。 The computer 10 repeats the process of steps S10-S14 described above, and records the identifiers, location information, and countermeasure data of the detected pests for the entire field.

なお、コンピュータ10は、圃場全体に対して、病害虫データを記録せずに、後述する処理を実行する構成であってもよい。例えば、コンピュータ10は、一の病害虫データを特定した際、この一の病害虫データを記録し、この一の病害虫データを後述する処理で用いる構成であってもよい。 The computer 10 may be configured to execute the process described later without recording the pest data for the entire field. For example, the computer 10 may be configured to record the one pest data when the one pest data is specified and use the one pest data in a process described later.

病害虫マップ作成モジュール43は、記録した病害虫データに基づいて、この圃場における検出した病害虫の識別子及び位置を示す病害虫マップを作成する(ステップS16)。ステップS16において、病害虫マップ作成モジュール43は、予め設定された領域又は圃場全体の全体マップを作成する。この全体マップは、予め設定された領域又は圃場全体の位置情報に基づいて作成する。例えば矩形の領域が設定されている場合、この矩形の各頂点の位置情報に基づいて、全体マップを作成する。病害虫マップ作成モジュール43は、全体マップにおいて、特定した病害虫の位置情報に該当する位置に、病害虫アイコンを重畳させたものを病害虫マップとして作成する。この病害虫アイコンは、例えば、丸や四角や星等の記号、病害虫の識別子を示すテキスト、病害虫のイラストである。この病害虫アイコンは、その形状や大きさ等により、この場所における病害虫の種類や被害状況の程度を併せて示すことも可能である。 The pest map creation module 43 creates a pest map showing the identifier and position of the detected pest in this field based on the recorded pest data (step S16). In step S16, the pest map creation module 43 creates an overall map of the preset area or the entire field. This whole map is created based on the position information of the preset area or the whole field. For example, when a rectangular area is set, an entire map is created based on the position information of each vertex of this rectangle. The pest map creation module 43 creates a pest map in which a pest icon is superimposed on a position corresponding to the position information of the specified pest in the entire map. This pest icon is, for example, a symbol such as a circle, a square, or a star, a text indicating an identifier of the pest, or an illustration of the pest. This pest icon can also indicate the type of pest and the degree of damage in this place, depending on its shape and size.

さらに、病害虫マップ作成モジュール43は、この病害虫マップに、記録した病害虫データに基づいて、この病害虫の対策として有効な薬の識別子及び散布量や肥料の識別子及び施肥量を示す対策アイコンを重畳又は近傍に配置することも可能である。この対策アイコンは、例えば、「農薬A 1リットル散布」といった必要な農薬又は肥料の識別子と、散布量又は施肥量とを示すテキスト、これらを示すイラストである。 Further, the pest map creation module 43 superimposes or nears the pest map, the identifier of the drug effective as a countermeasure against the pest, the identifier of the fertilizer, and the countermeasure icon indicating the fertilizer application amount, based on the recorded pest data. It is also possible to place it in. This countermeasure icon is, for example, an identifier of a necessary pesticide or fertilizer such as "A 1 liter spray of pesticide A", a text indicating the amount of spray or fertilizer applied, and an illustration showing these.

なお、病害虫マップ作成モジュール43は、この全体マップに、栽培する作物の位置をアイコン、テキスト、イラスト等により示すことも可能である。 The pest map creation module 43 can also indicate the positions of the crops to be cultivated on this overall map by icons, texts, illustrations, and the like.

図5に基づいて、病害虫マップ作成モジュール43が作成する病害虫マップについて説明する。図5は、病害虫マップの一例を模式的に示したものである。図5において、病害虫マップ100は、病害虫アイコン110、対策アイコン120が全体マップに重畳されている。病害虫アイコン110は、全体マップにおいて、上述した病害虫データに基づいた位置に配置されたものである。病害虫アイコン110は、この病害虫の識別子を示すテキストをあわせて表示するものである。また、この病害虫アイコン110は、アイコン自体の大きさにより、病害虫の被害の状況を模式的に示すものでもある。また、この病害虫アイコン110は、アイコンの形状により、病害虫の種類を模式的に示すものである。対策アイコン120は、この病害虫アイコン110の近傍の位置に配置されたものである。対策アイコン120は、必要な農薬又は肥料の識別子と、散布量又は施肥量とを示すテキストを表示するものである。 A pest map created by the pest map creation module 43 will be described with reference to FIG. FIG. 5 schematically shows an example of a pest map. In FIG. 5, in the pest map 100, the pest icon 110 and the countermeasure icon 120 are superimposed on the entire map. The pest icon 110 is arranged at a position based on the above-mentioned pest data on the entire map. The pest icon 110 also displays a text indicating the identifier of the pest. Further, the pest icon 110 schematically shows the damage situation of the pest depending on the size of the icon itself. Further, the pest icon 110 schematically indicates the type of pest by the shape of the icon. The countermeasure icon 120 is arranged at a position in the vicinity of the pest icon 110. The countermeasure icon 120 displays an identifier of a required pesticide or fertilizer and a text indicating a spraying amount or a fertilizer application amount.

なお、病害虫アイコン110の表示態様等は、上述したものに限らず、適宜変更可能である。また、対策アイコン120の位置や表示態様等は、上述したものに限らず、適宜変更可能である。 The display mode of the pest icon 110 is not limited to that described above, and can be changed as appropriate. Further, the position, display mode, and the like of the countermeasure icon 120 are not limited to those described above, and can be appropriately changed.

病害虫データ出力モジュール21は、記録した圃場における病害虫データを、出力する(ステップS17)。ステップS17において、病害虫データ出力モジュール21は、上述した病害虫マップを出力することにより、病害虫データを出力することになる。病害虫データ出力モジュール21は、この病害虫マップを、ドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等に出力する。このとき、病害虫データ出力モジュール21は、この病害虫マップをドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等に送信する。 The pest data output module 21 outputs the recorded pest data in the field (step S17). In step S17, the pest data output module 21 outputs the pest data by outputting the pest map described above. The pest data output module 21 outputs this pest map to a drone, a farm tool, a high-performance agricultural machine, a worker terminal, another computer, or the like. At this time, the pest data output module 21 transmits the pest map to a drone, a farm tool, a high-performance agricultural machine, a worker terminal, another computer, or the like.

なお、病害虫データ出力モジュール21は、病害虫マップを出力するのではなく、病害虫データを出力する構成であってもよい。この場合、病害虫データ出力モジュール21は、上述したステップS16の処理を省略し、記録した病害虫データを、出力する構成とすればよい。 The pest data output module 21 may be configured to output pest data instead of outputting a pest map. In this case, the pest data output module 21 may omit the process of step S16 described above and output the recorded pest data.

病害虫データ出力モジュール21が、作業者端末にこの病害虫マップを出力する場合について説明する。 A case where the pest data output module 21 outputs this pest map to the worker terminal will be described.

コンピュータ10は、病害虫マップを作業者端末に送信し、この病害虫マップを作業者端末に表示させることにより、作業者端末にこの病害虫マップを出力させることになる。 The computer 10 transmits the pest map to the worker terminal, displays the pest map on the worker terminal, and causes the worker terminal to output the pest map.

病害虫データ出力モジュール21は、病害虫マップを、作業者端末に送信する。作業者端末は、この病害虫マップを受信する。作業者端末は、受信したこの病害虫マップを自身の表示部に表示する。作業者は、この病害虫マップを閲覧することにより、農薬散布又は施肥が必要な圃場の位置及びその量を把握することが容易となる。 The pest data output module 21 transmits the pest map to the worker terminal. The worker terminal receives this pest map. The worker terminal displays the received pest map on its display unit. By browsing this pest map, the operator can easily grasp the position and amount of the field where pesticide spraying or fertilization is required.

また、作業者端末は、この受信した病害虫マップを自身の記録部等に記録し、作業者からの入力を受け付けることにより、表示する。その結果、作業者は、自身が作業する時点で、この病害虫マップを閲覧することが容易となり、リアルタイムなライブ画像によらずとも、農薬散布又は施肥を行うことが容易となる。 In addition, the worker terminal records the received pest map in its own recording unit or the like, and displays it by receiving an input from the worker. As a result, the worker can easily browse the pest map at the time of his / her work, and can easily apply the pesticide or fertilize without using the real-time live image.

病害虫データ出力モジュール21が、ドローンにこの病害虫マップを出力する場合について説明する。 The case where the pest data output module 21 outputs this pest map to the drone will be described.

コンピュータ10は、病害虫マップをドローンに送信することにより、ドローンにこの病害虫マップを出力させることになる。 The computer 10 causes the drone to output this pest map by transmitting the pest map to the drone.

病害虫データ出力モジュール21は、病害虫マップを、ドローンに送信する。ドローンは、この病害虫マップを受信する。ドローンは、この病害虫マップを自身の記録部等に記録することにより、このドローンの操作者等からの操作入力等に基づいて、病害虫の位置への飛行や移動等を行うことが容易となる。さらに、予め農薬の散布又は肥料の施肥を行う設定がされている場合、記録した病害虫マップに基づいて農薬散布又は施肥を行うことにより、リアルタイムなライブ画像によらずとも、農薬散布又は施肥を行うことが容易となる。 The pest data output module 21 transmits the pest map to the drone. The drone receives this pest map. By recording this pest map in its own recording unit or the like, the drone can easily fly or move to the position of the pest based on the operation input or the like from the operator or the like of the drone. Furthermore, if pesticide spraying or fertilizer application is set in advance, pesticide spraying or fertilizer application is performed based on the recorded pest map, so that pesticide spraying or fertilizer application is performed without using real-time live images. Will be easy.

なお、病害虫データ出力モジュール21は、この病害虫マップを、記録モジュール30が病害虫データを記録した時点から所定時間経過した後、出力する構成であってもよい。所定時間としては、例えば、数時間後、一日後、数日後である。 The pest data output module 21 may be configured to output this pest map after a predetermined time has elapsed from the time when the recording module 30 recorded the pest data. The predetermined time is, for example, several hours later, one day later, and several days later.

以上が、位置情報出力処理である。 The above is the position information output process.

[指示出力処理]
図4に基づいて、病害虫検出システム1が実行する指示出力処理について説明する。図4は、コンピュータ10が実行する指示出力処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。なお、上述した処理と同様の処理については、その詳細な説明は省略する。
[Instruction output processing]
The instruction output process executed by the pest detection system 1 will be described with reference to FIG. FIG. 4 is a diagram showing a flowchart of an instruction output process executed by the computer 10. The process executed by each of the above-mentioned modules will be described together with this process. The detailed description of the same processing as the above-mentioned processing will be omitted.

コマンド作成モジュール44は、記録した病害虫データに基づいて、検出した病害虫の対策となる農薬又は肥料を散布又は施肥させる指示をコマンドとして作成する(ステップS20)。ステップS20において、コマンド作成モジュール44は、出力先の機器や装置に応じたこのコマンドを作成する。例えば、出力先が予め設定された農薬又は肥料を散布又は施肥する機器や装置である場合、コマンド作成モジュール44は、対策データにおける農薬又は肥料を散布又は施肥する機器や装置を特定し、この機器や装置が散布又は施肥するために必要なコマンドを作成する。この場合におけるコマンドは、この機器や装置が、農薬又は肥料を散布又は施肥するためのコマンド、この農薬の散布量又は肥料の施肥量を指定するためのコマンド及びこの病害虫の位置へ飛行や移動するためのコマンドである。また、出力先が複数の農薬又は肥料を散布又は施肥する機器や装置である場合、コマンド作成モジュール44は、対策データにおける農薬又は肥料を散布又は施肥する機器や装置を特定し、この農薬又は肥料を選択し、この農薬又は肥料を散布又は施肥する必要なコマンドを作成する。この場合におけるコマンドは、この機器や装置が、この農薬又は肥料を選択するためのコマンド、この農薬又は肥料を散布又は施肥するためのコマンド、この農薬の散布量又は肥料の施肥量を指定するためのコマンド及びこの病害虫の位置へ飛行や移動するためのコマンドである。 The command creation module 44 creates an instruction to spray or fertilize a pesticide or fertilizer as a countermeasure against the detected pest as a command based on the recorded pest data (step S20). In step S20, the command creation module 44 creates this command according to the device or device of the output destination. For example, when the output destination is a device or device for spraying or fertilizing a preset pesticide or fertilizer, the command creation module 44 identifies the device or device for spraying or fertilizing the pesticide or fertilizer in the countermeasure data, and this device. And create the commands necessary for the device to spray or fertilize. The commands in this case are commands for the equipment or device to spray or fertilize pesticides or fertilizers, commands for specifying the amount of pesticides sprayed or fertilizers applied, and the location of the pest. Command for. Further, when the output destination is a device or device for spraying or fertilizing a plurality of pesticides or fertilizers, the command creation module 44 identifies the device or device for spraying or fertilizing the pesticide or fertilizer in the countermeasure data, and this pesticide or fertilizer. To create the necessary commands to spray or fertilize this pesticide or fertilizer. The command in this case is for the device or device to specify a command for selecting this pesticide or fertilizer, a command for spraying or fertilizing this pesticide or fertilizer, and a command for spraying or fertilizing this pesticide. And the command to fly or move to the location of this pest.

なお、出力先の機器や装置が単独で移動可能なものでない場合、コマンド作成モジュール44が作成するコマンドとして、病害虫の位置へ飛行や移動するためのコマンドを作成する必要はなく、それ以外のものを作成する構成であればよい。 If the output destination device or device is not movable independently, it is not necessary to create a command for flying or moving to the position of the pest as a command created by the command creation module 44, and other than that. Any configuration may be used.

コマンド作成モジュール44が複数の農薬又は肥料を散布又は施肥可能なドローンに対してコマンドを作成する場合を例として説明する。コマンド作成モジュール44は、病害虫データにおける対策データに基づいて、対策データにおける農薬又は肥料を散布又は施肥可能なドローンを特定する。コマンド作成モジュール44は、このドローンが農薬又は肥料を散布又は施肥するためのコマンドを作成する。また、コマンド作成モジュール44は、このドローンがこの農薬の散布量又は肥料の施肥量を指定するためのコマンドを作成する。また、コマンド作成モジュール44は、対策データにおける病害虫の位置に基づいて、この位置へ飛行又は走行するためのコマンドを作成する。 A case where the command creation module 44 creates a command for a drone capable of spraying or fertilizing a plurality of pesticides or fertilizers will be described as an example. The command creation module 44 identifies a drone capable of spraying or fertilizing a pesticide or fertilizer in the countermeasure data based on the countermeasure data in the pest data. The command creation module 44 creates commands for the drone to spray or fertilize pesticides or fertilizers. Further, the command creation module 44 creates a command for the drone to specify the amount of the pesticide applied or the amount of the fertilizer applied. Further, the command creation module 44 creates a command for flying or traveling to this position based on the position of the pest in the countermeasure data.

コマンド作成モジュール44は、病害虫マップにおける各病害虫の位置の其々に対して、このコマンドを作成する。 The command creation module 44 creates this command for each of the pest positions on the pest map.

コマンド出力モジュール22は、作成したコマンドを出力する(ステップS21)。ステップS21において、コマンド出力モジュール22は、特定した機器や装置に、作成したコマンドを出力する。その結果、コンピュータ10は、農薬散布又は施肥の指示を、機器や装置に出力する。すなわち、コンピュータ10は、コマンドを機器や装置に出力することにより、農薬散布又は施肥を、この機器や装置に実行させることになる。 The command output module 22 outputs the created command (step S21). In step S21, the command output module 22 outputs the created command to the specified device or device. As a result, the computer 10 outputs an instruction of pesticide spraying or fertilization to the device or device. That is, the computer 10 outputs a command to the device or device to cause the device or device to execute pesticide spraying or fertilization.

コマンド出力モジュール22がドローンに対してコマンドを出力する場合を例として説明する。 A case where the command output module 22 outputs a command to the drone will be described as an example.

コマンド出力モジュール22は、作成したコマンドをドローンに出力する。このとき、コマンド出力モジュール22は、コマンド作成時に特定したドローンに、作成したコマンドを送信する。ドローンは、このコマンドを受信する。ドローンは、このコマンドに基づいて、農薬又は肥料の選択、散布量又は施肥量の特定及び病害虫の位置への飛行又は走行を実行する。ドローンは、病害虫の位置へ飛行又は走行し、この病害虫の位置へ移動後、この病害虫に対して、選択した農薬の散布量又は肥料の施肥量に基づいて、散布又は施肥する。すなわち、コンピュータ10は、コマンドをドローンに出力することにより、農薬散布又は施肥を、このドローンに実行させることになる。 The command output module 22 outputs the created command to the drone. At this time, the command output module 22 transmits the created command to the drone specified at the time of creating the command. The drone receives this command. Based on this command, the drone will select pesticides or fertilizers, identify the amount of application or fertilizer applied, and fly or run to the location of the pest. The drone flies or travels to the location of the pest, moves to the location of the pest, and then sprays or fertilizes the pest based on the amount of pesticide applied or the amount of fertilizer applied to the pest. That is, the computer 10 outputs a command to the drone so that the drone can perform pesticide spraying or fertilization.

コンピュータ10は、上述したステップS20及びS21の処理を、上述したステップS17の処理と同時又はステップS17の処理を実行後に実行する。すなわち、コンピュータ10は、病害虫データの出力と、このコマンドの出力とを同時に実行する又は病害虫データの出力後に、このコマンドの出力を実行するものである。 The computer 10 executes the processing of steps S20 and S21 described above at the same time as the processing of step S17 described above or after executing the processing of step S17. That is, the computer 10 simultaneously executes the output of the pest data and the output of this command, or executes the output of this command after the output of the pest data.

なお、コマンド出力モジュール22は、このコマンドを、記録モジュール30が病害虫データを記録した時点から所定時間経過した後、出力する構成であってもよい。所定時間としては、例えば、数時間後、一日後、数日後である。 The command output module 22 may be configured to output this command after a predetermined time has elapsed from the time when the recording module 30 recorded the pest data. The predetermined time is, for example, several hours later, one day later, and several days later.

以上が、指示出力処理である。 The above is the instruction output process.

上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記録装置又は外部記録装置に転送し記録して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記録装置(記録媒体)に予め記録しておき、その記録装置から通信回線を介してコンピュータに提供するようにしてもよい。 The above-mentioned means and functions are realized by a computer (including a CPU, an information processing device, and various terminals) reading and executing a predetermined program. The program is provided, for example, in the form of being provided from a computer via a network (Software as a Service). Further, the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, a CD (CD-ROM or the like), or a DVD (DVD-ROM, DVD-RAM or the like). In this case, the computer reads the program from the recording medium, transfers it to an internal recording device or an external recording device, records the program, and executes the program. Further, the program may be recorded in advance on a recording device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and the program may be provided from the recording device to a computer via a communication line.

以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments described above. Further, the effects described in the embodiments of the present invention merely list the most suitable effects arising from the present invention, and the effects according to the present invention are limited to those described in the embodiments of the present invention. is not.

1 病害虫検出システム、10 コンピュータ 1 pest detection system, 10 computers

Claims (5)

病害虫の特徴点や特徴量と前記病害虫の識別子とを対応付けて登録した病害虫データベースを備え、画像解析により病害虫を検出するコンピュータシステムであって、
圃場を撮影した撮影画像及び撮影地点の位置情報を取得する取得手段と、
取得した前記撮影画像を画像解析し、抽出した特徴点や特徴量を病害虫データベースと比較することで病害虫を検出して前記病害虫の識別子を判断する検出手段と、
前記病害虫を検出した撮影画像における前記撮影地点の位置情報を出力する位置情報出力手段と、
前記判断した病害虫の識別子と、前記出力した位置情報に基づいて、農薬散布又は施肥を行う機器や装置を特定し、当該病害虫に対して有効な農薬散布又は施肥の指示を出力する指示出力手段と、
を備えることを特徴とするコンピュータシステム。
It is a computer system that has a pest database registered by associating feature points and amounts of pests with the identifiers of the pests, and detects pests by image analysis.
An acquisition means for acquiring a photographed image of a field and position information of a photographing point, and
A detection means for detecting a pest by analyzing the acquired image and comparing the extracted feature points and feature amounts with a pest database to determine the identifier of the pest.
A position information output means for outputting the position information of the shooting point in the captured image in which the pest is detected, and
Based on the determined pest identifier and the output position information, the device or device for spraying or fertilizing the pesticide is specified, and the instruction output means for outputting the instruction for spraying or fertilizing the pesticide effective for the pest. ,
A computer system characterized by being equipped with.
前記指示出力手段は、前記農薬散布又は施肥が複数である場合、農薬散布又は施肥を選択する、
ことを、特徴とする請求項1に記載のコンピュータシステム。
When the pesticide spraying or fertilization is plural, the instruction output means selects pesticide spraying or fertilization.
The computer system according to claim 1, wherein the computer system is characterized in that.
取得した前記撮影画像はライブ画像に限らないことを特徴とする、
ことを、特徴とする請求項1に記載のコンピュータシステム。
The acquired image is not limited to a live image.
The computer system according to claim 1, wherein the computer system is characterized in that.
病害虫の特徴点や特徴量と前記病害虫の識別子とを対応付けて登録した病害虫データベースを備え、画像解析により病害虫を検出するコンピュータシステムが実行する病害虫検出方法であって、
圃場を撮影した撮影画像及び撮影地点の位置情報を取得するステップと、
取得した前記撮影画像を画像解析し、抽出した特徴点や特徴量を病害虫データベースと比較することで病害虫を検出して前記病害虫の識別子を判断するステップと、
前記病害虫を検出した撮影画像における前記撮影地点の位置情報を出力するステップと、
前記判断した病害虫の識別子と、前記出力した位置情報に基づいて、農薬散布又は施肥を行う機器や装置を特定し、当該病害虫に対して有効な農薬散布又は施肥の指示を出力するステップと、
を備えることを特徴とする病害虫検出方法。
It is a pest detection method executed by a computer system that has a pest database registered by associating the characteristic points and amounts of pests with the identifiers of the pests and detects the pests by image analysis.
Steps to acquire the photographed image of the field and the position information of the filming point,
A step of detecting a pest by analyzing the acquired image and comparing the extracted feature points and feature amounts with a pest database, and determining the identifier of the pest.
A step of outputting the position information of the shooting point in the shot image in which the pest is detected, and
Based on the determined pest identifier and the output location information, a step of specifying a device or device for spraying or fertilizing a pesticide and outputting an instruction for spraying or fertilizing a pesticide effective against the pest.
A pest detection method comprising.
病害虫の特徴点や特徴量と前記病害虫の識別子とを対応付けて登録した病害虫データベースを備え、画像解析により病害虫を検出するコンピュータシステムに、
圃場を撮影した撮影画像及び撮影地点の位置情報を取得するステップ、
取得した前記撮影画像を画像解析し、抽出した特徴点や特徴量を病害虫データベースと比較することで病害虫を検出して前記病害虫の識別子を判断ステップ、
前記病害虫を検出した撮影画像における前記撮影地点の位置情報を出力するステップ、
前記判断した病害虫の識別子と、前記出力した位置情報に基づいて、農薬散布又は施肥を行う機器や装置を特定し、当該病害虫に対して有効な農薬散布又は施肥の指示を出力するステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
A computer system that has a pest database registered by associating feature points and amounts of pests with the identifiers of the pests and detects pests by image analysis.
Step to acquire the photographed image of the field and the position information of the filming point,
By analyzing the acquired captured image and comparing the extracted feature points and feature amounts with the pest database, the pest is detected and the identifier of the pest is determined.
A step of outputting the position information of the shooting point in the captured image in which the pest is detected,
A step of identifying a device or device for spraying or fertilizing a pesticide based on the determined pest identifier and the output position information, and outputting an instruction for spraying or fertilizing a pesticide effective against the pest.
A computer-readable program for running.
JP2021501481A 2019-02-28 2019-02-28 Computer systems, pest detection methods and programs Active JP7075171B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/007762 WO2020174645A1 (en) 2019-02-28 2019-02-28 Computer system, pest detection method, program

Publications (2)

Publication Number Publication Date
JPWO2020174645A1 JPWO2020174645A1 (en) 2021-09-13
JP7075171B2 true JP7075171B2 (en) 2022-05-25

Family

ID=72239652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501481A Active JP7075171B2 (en) 2019-02-28 2019-02-28 Computer systems, pest detection methods and programs

Country Status (2)

Country Link
JP (1) JP7075171B2 (en)
WO (1) WO2020174645A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102584785B1 (en) * 2020-12-07 2023-10-05 서명랑 Smart farm pest control system based on super-directional speakers and artificial intelligence streaming
CN113229248A (en) * 2021-04-16 2021-08-10 北京农业智能装备技术研究中心 Target identification accurate pesticide application system and method
CN117875571A (en) * 2024-03-12 2024-04-12 中国林业科学研究院林业研究所 Forest vegetation growth condition analysis method and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144990A (en) 2015-02-07 2016-08-12 ヤンマー株式会社 Aerial spraying device
WO2017130236A1 (en) 2016-01-29 2017-08-03 パナソニックIpマネジメント株式会社 Turf growing device, turf growing system, and turf management system
WO2018003082A1 (en) 2016-06-30 2018-01-04 株式会社オプティム Mobile body control application and mobile body control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06424A (en) * 1992-06-18 1994-01-11 Yanmar Agricult Equip Co Ltd Disease injury detection and control machine
JP3932222B2 (en) * 1998-02-23 2007-06-20 ヤンマー農機株式会社 Precision farming
GB2568007A (en) * 2016-09-08 2019-05-01 Walmart Apollo Llc Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144990A (en) 2015-02-07 2016-08-12 ヤンマー株式会社 Aerial spraying device
WO2017130236A1 (en) 2016-01-29 2017-08-03 パナソニックIpマネジメント株式会社 Turf growing device, turf growing system, and turf management system
WO2018003082A1 (en) 2016-06-30 2018-01-04 株式会社オプティム Mobile body control application and mobile body control method

Also Published As

Publication number Publication date
JPWO2020174645A1 (en) 2021-09-13
WO2020174645A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP7075171B2 (en) Computer systems, pest detection methods and programs
US10638744B2 (en) Application and method for controlling moving vehicle
AU2015265625B2 (en) Methods, systems, and devices relating to real-time object identification
WO2020078396A1 (en) Method for determining distribution information, and control method and device for unmanned aerial vehicle
CN111201496A (en) System and method for aerial video traffic analysis
US9922049B2 (en) Information processing device, method of processing information, and program for processing information
CN106645147A (en) Method for pest and disease damage monitoring
EP3766344A1 (en) Method for generating an application map for treating a field with an agricultural equipment
US10997416B2 (en) System for automatically recognizing plants
JP7066258B2 (en) Computer system, crop growth support method and program
JP7068747B2 (en) Computer system, crop growth support method and program
CN112462756A (en) Agriculture and forestry operation task generation method and device, computer equipment and storage medium
US11145009B2 (en) Method for supporting a user in an agricultural activity
CN109960965A (en) Methods, devices and systems based on unmanned plane identification animal behavior
Liu et al. Development of a proximal machine vision system for off-season weed mapping in broadacre no-tillage fallows
CN113454558A (en) Obstacle detection method and device, unmanned aerial vehicle and storage medium
US20210084885A1 (en) Apparatus for spray management
CN115649501A (en) Night driving illumination system and method for unmanned aerial vehicle
CN114283067B (en) Prescription diagram acquisition method and device, storage medium and terminal equipment
CN109492541B (en) Method and device for determining type of target object, plant protection method and plant protection system
CN113938609A (en) Region monitoring method, device and equipment
KR20220160386A (en) Method and system for managing crops pets
Molnár et al. Feature Pyramid Network based Proximal Vine Canopy Segmentation
KR20210014122A (en) Devices for Paris Management
JP6817516B2 (en) Information processing equipment, its control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210401

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7075171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150