JP2012161269A - Insect image processing apparatus, image processing method, image processing program, and computer-readable storage medium - Google Patents

Insect image processing apparatus, image processing method, image processing program, and computer-readable storage medium Download PDF

Info

Publication number
JP2012161269A
JP2012161269A JP2011023370A JP2011023370A JP2012161269A JP 2012161269 A JP2012161269 A JP 2012161269A JP 2011023370 A JP2011023370 A JP 2011023370A JP 2011023370 A JP2011023370 A JP 2011023370A JP 2012161269 A JP2012161269 A JP 2012161269A
Authority
JP
Japan
Prior art keywords
insect
image
image processing
processing apparatus
insects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011023370A
Other languages
Japanese (ja)
Other versions
JP5812321B2 (en
Inventor
Kenji Terada
賢治 寺田
Akio Nakano
昭雄 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokushima NUC
Original Assignee
University of Tokushima NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokushima NUC filed Critical University of Tokushima NUC
Priority to JP2011023370A priority Critical patent/JP5812321B2/en
Publication of JP2012161269A publication Critical patent/JP2012161269A/en
Application granted granted Critical
Publication of JP5812321B2 publication Critical patent/JP5812321B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/02Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects
    • A01M1/026Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects combined with devices for monitoring insect presence, e.g. termites

Abstract

PROBLEM TO BE SOLVED: To provide a system capable of counting and discriminating insects conveniently and promptly.SOLUTION: An insect image processing apparatus includes: an image acquisition unit 1 for acquiring an object image which may include insects; an image extraction unit 11 for extracting images of insects from the object image acquired by the image acquisition unit 1; an information analyzer 12 for analyzing information relating to insects by image processing from the extraction region extracted by the image extraction unit; a discriminator 13 for discriminating whether it is an insect based on the information relating to the insects analyzed by the information analyzer 12; a counter 15 for counting the number of the extraction regions discriminated as insects by the discriminator 13; and an output means for outputting the result counted by the counter 15 as the number of insects.

Description

本発明は、撮像された画像中に含まれる虫の計数や種類の判別といった処理を行うための画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a computer-readable storage medium for performing processing such as counting of insects contained in a captured image and discrimination of types.

従来より、農作物の育成に際して、病害虫を除去するために化学薬品である農薬(化学農薬)が散布されている。また化学農薬以外にも、病害虫に対し天敵昆虫(益虫)を生物農薬として投入し、病害虫を駆除する方法も利用されている。いずれの場合も、これらの農薬や生物農薬の散布時期や量を確認するために、病害虫の種別の確認やその量を計数することが行われていた。従来は、ユーザが目視で病害虫の判別や量を計数しなければならず、この方法では相当の熟練を有する上、極めて手間がかかるという問題があった。例えば、粘着剤を塗布したシート状の粘着トラップをビニールハウス内に懸吊し、各粘着トラップに付着された病害虫を目視により計数する場合、1アール当たり1枚の粘着トラップを配置するため、施設面積が8ヘクタールであれば80枚の粘着トラップを使って微小害虫の発生状況を調査しなければならない。この作業に担当者は毎週、3時間程度を要しているとのことである。また、病害虫の種類によっては大きさが数ミリ程度のこともあり、虫なのかゴミなのか、虫であるとしてその種類を特定することは容易でなかった。このような作業を省力化するために、病害虫であるクワシロカイガラムシの計数を自動で行う画像処理計数装置が提案されている(例えば特許文献1)。   2. Description of the Related Art Conventionally, agricultural chemicals (chemical pesticides) are sprayed to remove pests and pests when growing crops. In addition to chemical pesticides, a method is also used in which natural enemy insects (beneficial insects) are introduced as biological pesticides against pests to eliminate pests. In any case, in order to confirm the spraying time and amount of these pesticides and biological pesticides, confirmation of the type of pests and counting the amount thereof have been performed. Conventionally, the user has to visually determine the number of pests and count the amount, and this method has a problem that it requires considerable skill and is extremely troublesome. For example, if a sheet-shaped adhesive trap coated with an adhesive is suspended in a greenhouse and the pests attached to each adhesive trap are visually counted, one adhesive trap is placed per are If the area is 8 hectares, 80 sticky traps must be used to investigate the occurrence of micro pests. The person in charge takes about 3 hours every week for this work. In addition, depending on the type of pest, the size may be several millimeters, and it is not easy to identify the type as a bug, a garbage, or an insect. In order to save such work, there has been proposed an image processing counting device that automatically counts worms, which are pests (for example, Patent Document 1).

特開2005−21074号公報JP-A-2005-21074 特開2008−99598号公報JP 2008-99598 A 特開2003−168181号公報JP 2003-168181 A 特許4469961号公報Japanese Patent No. 4469961 特開2003−169584号公報JP 2003-169484 A

寺田賢治,カメラ画像による微小病害虫の検知,画像ラボ,2009.7.Kenji Terada, Detection of micro pests using camera images, Image Lab, 2009.7.

特許文献1に開示される装置は、図63に示すような装置を用いて、粘着シートの粘着面に農作物近辺より吸引した空気を吹き付けて、クワシロカイガラムシが吹き付けられた粘着シート部分を撮影し、コンピュータを用いて撮影された画像を解析し、クワシロカイガラムシの捕獲数を数えるものである。   The apparatus disclosed in Patent Document 1 uses an apparatus as shown in FIG. 63 to blow air sucked from the vicinity of agricultural products onto the adhesive surface of the adhesive sheet, and photograph the adhesive sheet portion on which the stag beetle was sprayed. Analyzing images taken using a computer and counting the number of stag beetles captured.

しかしながら、該文献によれば、画像処理方法は単に撮像された画像のRGB値から簡単な近似式に代入して輝度、色差信号1、色差信号2、面積、円形度に変換して、図64に示す閾値と比較をし、クワシロカイガラムシか否かの判断を行うとあるだけで、例えば閾値の具体的な設定方法については開示がない。   However, according to this document, the image processing method simply substitutes the RGB values of the captured image into a simple approximate expression and converts them into luminance, color difference signal 1, color difference signal 2, area, and circularity, and FIG. The threshold value shown in FIG. 5 is compared to determine whether or not it is a stag beetle. For example, there is no disclosure regarding a specific method for setting the threshold value.

また、クワシロカイガラムシの計数を行っているのみであり、他の虫については「今後、図65の閾値を変更することで、クワシロカイガラムシのみならず他の害虫や益虫等の各種の虫を計数することが可能である。」(特許文献1の0032)とあるとおり、可能性を示唆するのみで、具体的な条件の開示はなされていない。加えて、複数種類の虫の判別は行われていない。   In addition, we are only counting the scale insects, and for other insects, “By changing the threshold in FIG. 65, various insects such as other insects and beneficial insects will be changed. It is possible to count. ”(0032 of Patent Document 1), only the possibility is suggested, and no specific conditions are disclosed. In addition, multiple types of insects are not distinguished.

本発明者が行った試験によれば、このような簡単な近似式のみに基づいた判定では精度が悪く、実用に適したレベルには達しないことが判明した。またこの方法では、図63に示すような相当大掛かりな機器を要する上、0026にあるとおり、「虫の付着面積は約20cm×約20cmであり、約3mm間隔で撮影すれば、4,300余の画面数となるが、画像処理時間の関係で1日の画面数を約1,000画面とした。」とあり、撮像に要する時間だけでも相当要しており、あくまでも研究段階に止まり、実用化できるレベルには至っていないと思われる。   According to the test conducted by the present inventors, it was found that the determination based only on such a simple approximate expression is inaccurate and does not reach a level suitable for practical use. In addition, this method requires a considerably large device as shown in FIG. 63 and, as shown in 0026, “The insect attachment area is about 20 cm × about 20 cm, and if taken at intervals of about 3 mm, about 4,300 or more are taken. "The number of screens per day is about 1,000 because of the image processing time." It seems that it has not reached the level where it can be made.

本発明は、このような背景に鑑みてなされたものである。本発明の主な目的は、より簡便に且つ迅速に虫の計数や判別が可能で、簡便なシステムでも実用可能な、虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体を提供することにある。   The present invention has been made in view of such a background. The main object of the present invention is to enable easy and quick counting and discrimination of insects, which can be used in a simple system, and can be read by an insect image processing apparatus, image processing method, image processing program, and computer It is to provide a storage medium.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

上記目的を達成するため、本発明の第1の側面に係る虫の画像処理装置によれば、撮像された画像中に含まれる虫に関する情報を特定するための画像処理装置であって、虫を含む可能性のある対象画像を取得するための画像取得手段と、前記画像取得手段で取得された対象画像から、虫に該当する画像を抽出する画像抽出手段と、前記画像抽出手段で抽出された抽出領域から、画像処理によって虫に関する情報を解析する情報解析手段と、前記情報解析手段で解析された虫に関する情報に基づいて、虫かどうかの判別を行う判別手段と、前記判別手段で虫と判別された抽出領域の数を計数する計数手段と、前記計数手段で計数された結果を虫の数として出力するための出力手段とを備えることができる。これにより、取得された対象画像中に含まれる虫の種別や数等の情報を自動的に取得でき、従来熟練ユーザが目視で行っていた作業を自動化でき、また判定の基準を一定化できるといった利点が得られる。   To achieve the above object, according to the insect image processing apparatus according to the first aspect of the present invention, there is provided an image processing apparatus for specifying information relating to an insect contained in a captured image. An image acquisition means for acquiring a target image that may be included, an image extraction means for extracting an image corresponding to a worm from the target image acquired by the image acquisition means, and an image extracted by the image extraction means Information analysis means for analyzing information about insects by image processing from the extraction area, determination means for determining whether or not the insects are based on information about the insects analyzed by the information analysis means, and Counting means for counting the number of discriminated extraction regions and output means for outputting the result counted by the counting means as the number of insects can be provided. As a result, information such as the type and number of insects contained in the acquired target image can be automatically acquired, work that has been performed visually by a skilled user can be automated, and determination criteria can be made constant. Benefits are gained.

また、第2の側面に係る虫の画像処理装置によれば、さらに、特徴量データベースを保持したデータベース保持手段を備えており、前記判別手段が、前記データベース保持手段に保持された特徴量データベースを参照して、特徴量を用いて判別を行うことができる。   In addition, the insect image processing apparatus according to the second aspect further includes database holding means for holding a feature quantity database, wherein the discrimination means stores the feature quantity database held in the database holding means. With reference to this, it is possible to determine using the feature amount.

さらに、第3の側面に係る虫の画像処理装置によれば、前記判別手段が、虫の種別の認識を行うことができる。   Furthermore, according to the insect image processing apparatus according to the third aspect, the discrimination means can recognize the insect type.

さらにまた、第4の側面に係る虫の画像処理装置によれば、前記情報解析手段が、対象画像の解像度が高い場合は、特徴量を用いた処理を行い、対象画像の解像度が低い場合は、テンプレートマッチングを用いた処理を行うことができる。   Furthermore, according to the insect image processing apparatus according to the fourth aspect, when the resolution of the target image is high, the information analysis unit performs processing using a feature amount, and when the resolution of the target image is low Processing using template matching can be performed.

さらにまた、第5の側面に係る虫の画像処理装置によれば、前記情報解析手段で抽出される特徴が、虫の全体長、胴体、手足、周囲長のいずれかを特徴量として含むことができる。   Furthermore, according to the insect image processing apparatus according to the fifth aspect, the feature extracted by the information analysis means may include any one of the overall length of the insect, the trunk, the limbs, and the perimeter as a feature amount. it can.

さらにまた、第6の側面に係る虫の画像処理装置によれば、前記判別手段が、虫の種別を認識するに際して、同一種類の虫に対して、表面の色が部分的に異なるものを複数に分類すると共に、該分類された虫の色に応じて、異なる特徴量を付与し、該異なる特徴量を用いて判別を行うことができる。   Furthermore, according to the insect image processing apparatus according to the sixth aspect, when the discrimination means recognizes the type of insect, a plurality of ones with partially different surface colors are used for the same type of insect. And different feature amounts are given according to the color of the classified insect, and discrimination can be performed using the different feature amounts.

さらにまた、第7の側面に係る虫の画像処理装置によれば、前記判別手段が、該分類された虫の色に応じて、異なる特徴量を付与する一方で、共通の特徴量を付与し、これら複数の特徴量を用いて判別を行うことができる。   Furthermore, according to the insect image processing apparatus according to the seventh aspect, the determining means assigns a common feature amount while assigning different feature amounts according to the color of the classified insect. The determination can be made by using the plurality of feature amounts.

さらにまた、第8の側面に係る虫の画像処理装置によれば、認識対象の虫を、アザミウマ、コナジラミ、クワシロカイガラムシのいずれかとできる。   Furthermore, according to the insect image processing apparatus of the eighth aspect, the insect to be recognized can be any one of thrips, whiteflies, and stag beetles.

さらにまた、第9の側面に係る虫の画像処理装置によれば、前記画像取得手段が、画像を撮像するための撮像素子を含むことができる。   Furthermore, according to the insect image processing apparatus of the ninth aspect, the image acquisition means can include an image sensor for capturing an image.

さらにまた、第10の側面に係る虫の画像処理装置によれば、前記画像取得手段を、ネットワークカメラとできる。   Furthermore, according to the insect image processing apparatus of the tenth aspect, the image acquisition means can be a network camera.

さらにまた、第11の側面に係る虫の画像処理装置によれば、前記画像取得手段を、スキャナとできる。   Furthermore, according to the insect image processing apparatus of the eleventh aspect, the image acquisition means can be a scanner.

さらにまた、第12の側面に係る虫の画像処理装置によれば、対象画像を、粘着シートに粘着された虫の画像とできる。   Furthermore, according to the insect image processing apparatus according to the twelfth aspect, the target image can be an insect image adhered to the adhesive sheet.

さらにまた、第13の側面に係る虫の画像処理装置によれば、前記情報解析手段が、対象画像中から、粘着シートの背景部分を除去し、取得される各物体の整形、分離を行い、その大きさ及び形状に基づいて前記判定手段が虫の判定を行うことができる。   Furthermore, according to the insect image processing apparatus according to the thirteenth aspect, the information analysis unit removes the background portion of the adhesive sheet from the target image, performs shaping and separation of each object to be acquired, Based on the size and shape, the determination means can determine insects.

さらにまた、第14の側面に係る虫の画像処理装置によれば、前記粘着シートとして、黄色又は青色のものを使用できる。これにより、ビニールハウス内で使用されることの少ない色を用いて、画像処理で背景の除去を容易に行える利点が得られる。   Furthermore, according to the insect image processing apparatus of the fourteenth aspect, a yellow or blue one can be used as the adhesive sheet. This provides an advantage that the background can be easily removed by image processing using colors that are rarely used in the greenhouse.

さらにまた、第15の側面に係る虫の画像処理方法によれば、撮像された画像中に含まれる虫に関する情報を特定するための画像処理方法であって、虫を含む可能性のある対象画像を取得する工程と、取得された対象画像から、虫に該当する画像を抽出する工程と、抽出された抽出領域から、画像処理によって虫に関する情報を解析する工程と、抽出された虫に関する情報に基づいて、虫かどうかの判別を行う工程と、虫と判別された抽出領域の数を計数する工程と、計数された結果を虫の数として出力する工程とを含むことができる。これにより、取得された対象画像中に含まれる虫の種別や数等の情報を自動的に取得でき、従来熟練ユーザが目視で行っていた作業を自動化でき、また判定の基準を一定化できるといった利点が得られる。   Furthermore, according to the insect image processing method according to the fifteenth aspect, an image processing method for specifying information about an insect included in a captured image, the target image possibly including an insect A step of extracting the image corresponding to the insect from the acquired target image, a step of analyzing information on the insect from the extracted extraction region by image processing, and information on the extracted insect Based on this, it is possible to include a step of determining whether or not it is an insect, a step of counting the number of extraction areas determined to be insects, and a step of outputting the counted result as the number of insects. As a result, information such as the type and number of insects contained in the acquired target image can be automatically acquired, work that has been performed visually by a skilled user can be automated, and determination criteria can be made constant. Benefits are gained.

さらにまた、第16の側面に係る虫の画像処理装置によれば、撮像された画像中に含まれる虫に関する情報を特定するための画像処理プログラムであって、虫を含む可能性のある対象画像を取得する機能と、取得された対象画像から、虫に該当する画像を抽出する機能と、抽出された抽出領域から、画像処理によって虫に関する情報を解析する機能と、抽出された虫に関する情報に基づいて、虫かどうかの判別を行う機能と、虫と判別された抽出領域の数を計数する機能と、計数された結果を虫の数として出力する機能とをコンピュータに実現させることができる。これにより、取得された対象画像中に含まれる虫の種別や数等の情報を自動的に取得でき、従来熟練ユーザが目視で行っていた作業を自動化でき、また判定の基準を一定化できるといった利点が得られる。   Furthermore, according to the insect image processing apparatus according to the sixteenth aspect, there is provided an image processing program for specifying information relating to an insect included in a captured image, and a target image that may include an insect. A function to extract the image corresponding to the insect from the acquired target image, a function to analyze information about the insect by image processing from the extracted extraction area, and information about the extracted insect Based on this, it is possible to cause the computer to realize the function of determining whether or not it is an insect, the function of counting the number of extraction areas determined to be insects, and the function of outputting the counted results as the number of insects. As a result, information such as the type and number of insects contained in the acquired target image can be automatically acquired, work that has been performed visually by a skilled user can be automated, and determination criteria can be made constant. Benefits are gained.

さらにまた第17の側面に係るコンピュータで読み取り可能な記録媒体は、前記プログラムを格納したものである。記録媒体には、CD−ROM、CD−R、CD−RWやフレキシブルディスク、磁気テープ、MO、DVD−ROM、DVD−RAM、DVD−R、DVD+R、DVD−RW、DVD+RW、Blu−ray、HD DVD(AOD)等の磁気ディスク、光ディスク、光磁気ディスク、半導体メモリその他のプログラムを格納可能な媒体が含まれる。またプログラムには、前記記録媒体に格納されて配布されるものの他、インターネット等のネットワーク回線を通じてダウンロードによって配布される形態のものも含まれる。さらに記録媒体にはプログラムを記録可能な機器、例えば前記プログラムがソフトウエアやファームウエア等の形態で実行可能な状態に実装された汎用もしくは専用機器を含む。さらにまたプログラムに含まれる各処理や機能は、コンピュータで実行可能なプログラムソフトウエアにより実行してもよいし、各部の処理を所定のゲートアレイ(FPGA、ASIC)等のハードウエア、又はプログラムソフトウエアとハードウエアの一部の要素を実現する部分的ハードウエアモジュールとが混在する形式で実現してもよい。   A computer-readable recording medium according to the seventeenth aspect stores the program. Recording media include CD-ROM, CD-R, CD-RW, flexible disk, magnetic tape, MO, DVD-ROM, DVD-RAM, DVD-R, DVD + R, DVD-RW, DVD + RW, Blu-ray, HD A medium that can store a program such as a magnetic disk such as a DVD (AOD), an optical disk, a magneto-optical disk, a semiconductor memory, or the like is included. The program includes not only a program stored in the recording medium and distributed but also a program distributed by download through a network line such as the Internet. Further, the recording medium includes a device capable of recording a program, for example, a general purpose or dedicated device in which the program is implemented in a state where it can be executed in the form of software, firmware, or the like. Furthermore, each process and function included in the program may be executed by computer-executable program software, or each part of the process or hardware may be executed by hardware such as a predetermined gate array (FPGA, ASIC), or program software. And a partial hardware module that realizes a part of hardware elements may be mixed.

本発明の実施の形態に係る虫の画像処理装置を示すブロック図である。1 is a block diagram showing an insect image processing apparatus according to an embodiment of the present invention. 変形例に係る虫の画像処理装置を示すブロック図である。It is a block diagram which shows the insect image processing apparatus which concerns on a modification. 他の変形例に係る虫の画像処理装置を示すブロック図である。It is a block diagram which shows the insect image processing apparatus which concerns on another modification. 虫の判別を行う手順を示すフローチャートである。It is a flowchart which shows the procedure which performs discrimination | determination of an insect. 80×80画素で撮像されたトマトハモグリバエの画像を示すイメージ図である。It is an image figure which shows the image of the tomato leaf fly which was imaged by 80x80 pixels. 粘着シートを撮像した対象画像の例を示す。The example of the target image which imaged the adhesive sheet is shown. 抽出した4個の特徴量の抽出結果を画像化した例を示すイメージ図である。It is an image figure which shows the example which imaged the extraction result of four extracted feature-values. 合成画像を示すイメージ図である。It is an image figure which shows a synthesized image. 図8の合成画像に対して分布を求めた結果を示すイメージ図である。It is an image figure which shows the result of having calculated | required distribution with respect to the synthesized image of FIG. 図8の合成画像に対して抽出処理を行った位置を示すイメージ図である。It is an image figure which shows the position which performed the extraction process with respect to the synthesized image of FIG. 6mの距離で撮像した合成画像を示すイメージ図である。It is an image figure which shows the synthesized image imaged at the distance of 6 m. 計測結果を数値で示したグラフである。It is the graph which showed the measurement result by the numerical value. コナジラミを識別する手順を示すフローチャートである。It is a flowchart which shows the procedure which identifies a whitefly. 対象画像中に取得画像の小領域を設定する様子を示す模式図である。It is a schematic diagram which shows a mode that the small area | region of an acquisition image is set in a target image. 図14からコナジラミ候補領域を抽出した状態を示す模式図である。It is a schematic diagram which shows the state which extracted the whitefly candidate area | region from FIG. 図15から面積によるノイズ除去を行った状態を示す模式図である。It is a schematic diagram which shows the state which removed the noise by an area from FIG. 画像に対してテンプレートマッチングを行う様子を示す模式図である。It is a schematic diagram which shows a mode that template matching is performed with respect to an image. テンプレート画像の拡大画像を示すイメージ図である。It is an image figure which shows the enlarged image of a template image. テンプレートマッチングによる得点付けを示すグラフである。It is a graph which shows scoring by template matching. 縦横比による得点付けを示すグラフである。It is a graph which shows scoring by an aspect ratio. 図21(a)は縦方向のエッジフィルタ、図21(b)に示す横方向のエッジフィルタを示す模式図である。FIG. 21A is a schematic diagram showing a vertical edge filter and a horizontal edge filter shown in FIG. 図22(a)は埋もれる前のコナジラミの輝度画像、図22(b)はエッジ方向を示す模式図である。FIG. 22A is a brightness image of a whitefly before being buried, and FIG. 22B is a schematic diagram showing an edge direction. 図23(a)は埋もれた後のコナジラミの輝度画像、図23(b)はエッジ方向を示す模式図である。FIG. 23A is a luminance image of a whitefly after being buried, and FIG. 23B is a schematic diagram showing an edge direction. 領域画像を示す模式図である。It is a schematic diagram which shows an area | region image. 図24の領域画像の重心の方向を示す模式図である。It is a schematic diagram which shows the direction of the gravity center of the area | region image of FIG. 図26(a)は埋もれる前のコナジラミ、図26(b)は埋もれた後のコナジラミの、方向差の平均値による得点付けを示すグラフである。FIG. 26A is a graph showing scoring of whiteflies before being buried, and FIG. 26B is a scoring according to the average value of the direction differences of whiteflies after being buried. 標準偏差による得点付けを示すグラフである。It is a graph which shows scoring by a standard deviation. クワシロカイガラムシを識別する手順を示すフローチャートである。It is a flowchart which shows the procedure which identifies a stag beetle. 取得画像を示すイメージ図である。It is an image figure which shows an acquired image. 図29の取得画像に対して得られたクワシロカイガラムシの候補部分の画像を示すイメージ図である。It is an image figure which shows the image of the candidate part of the stag beetle obtained with respect to the acquired image of FIG. 図29の取得画像に対して得られた背景部分を示すイメージ図である。It is an image figure which shows the background part obtained with respect to the acquired image of FIG. 図29の取得画像に対して小領域を設定する様子を示すイメージ図である。It is an image figure which shows a mode that a small area | region is set with respect to the acquired image of FIG. 図29の取得画像に対してクワシロカイガラムシの候補を抽出した画像を示すイメージ図である。It is an image figure which shows the image which extracted the candidate of the scale insect from the acquired image of FIG. 図33から面積による除去を行った結果を示すイメージ図である。It is an image figure which shows the result of having removed by the area from FIG. 図35(a)は色相値、図35(b)は色相、図35(c)は変更後の色相値を示すイメージ図である。FIG. 35 (a) is a hue value, FIG. 35 (b) is a hue, and FIG. 35 (c) is an image diagram showing the changed hue value. 画像部分に対して外接四角形を取る様子を示すイメージ図である。It is an image figure which shows a mode that a circumscribed rectangle is taken with respect to an image part. クワシロカイガラムシの画像部分に対して外接四角形を設定する様子を示すイメージ図である。It is an image figure which shows a mode that a circumscribed rectangle is set with respect to the image part of a stag beetle. ノイズの画像部分に対して外接四角形を設定する様子を示すイメージ図である。It is an image figure which shows a mode that a circumscribed rectangle is set with respect to the image part of noise. 画像部分の姿勢を考慮せず外接四角形を設定する様子を示すイメージ図である。It is an image figure which shows a mode that a circumscribed rectangle is set without considering the attitude | position of an image part. 画像部分の姿勢を考慮して外接四角形を設定する様子を示すイメージ図である。It is an image figure which shows a mode that a circumscribed rectangle is set in consideration of the attitude | position of an image part. 図40の画像部分に長軸と短軸を設定する様子を示すイメージ図である。It is an image figure which shows a mode that a long axis and a short axis are set to the image part of FIG. 図42(a)は円状のノイズ、図42(b)は紐状のノイズを示すイメージ図である。Fig.42 (a) is a circular noise, FIG.42 (b) is an image figure which shows a string-like noise. 回転後の座標を回転前の座標に対応させる状態を示すイメージ図である。It is an image figure which shows the state which matches the coordinate after rotation with the coordinate before rotation. 3次補間法の概念を示す模式図である。It is a schematic diagram which shows the concept of a cubic interpolation method. 3次元多項式近似の概念を示すイメージ図である。It is an image figure which shows the concept of a three-dimensional polynomial approximation. 回転前の取得画像を示すイメージ図である。It is an image figure which shows the acquired image before rotation. 図46の取得画像に対して回転、拡大を行った状態を示すイメージ図である。It is an image figure which shows the state which rotated and expanded with respect to the acquired image of FIG. 回転、拡大画像を並べた状態を示すイメージ図である。It is an image figure which shows the state which arranged the rotation and the enlarged image. 回転、拡大領域を抽出した画像を示すイメージ図である。It is an image figure which shows the image which extracted the rotation and the expansion area. 図50(a)はクワシロカイガラムシが色鮮やかな画像、図50(b)は一部が黒ずんだ状態、図50(c)は全体が黒ずんだ状態を示すイメージ図である。FIG. 50A is a colorful image of a stag beetle, FIG. 50B is a partially darkened state, and FIG. 50C is an image showing an entirely darkened state. 図51(a)は図50(a)、図51(b)は図50(b)、図51(c)は図50(c)に対し、候補領域を分類する様子を示すイメージ図である。51A is an image diagram showing how candidate areas are classified with respect to FIG. 50A, FIG. 51B is FIG. 50B, and FIG. 51C is FIG. 50C. 図50のクワシロカイガラムシの各分類の特徴量を示すイメージ図である。It is an image figure which shows the feature-value of each classification | category of the scale beetle of FIG. テンプレートマッチングを説明する模式図である。It is a schematic diagram explaining template matching. テンプレート画像を示すイメージ図である。It is an image figure which shows a template image. テンプレートマッチングによる得点付けを示すグラフである。It is a graph which shows scoring by template matching. モーメント特徴で楕円を描いた状態を示すイメージ図である。It is an image figure which shows the state which drawn the ellipse by the moment characteristic. 図56に対し長さの比較を行った状態を示すイメージ図である。It is an image figure which shows the state which performed length comparison with respect to FIG. 距離差による得点付けを示すグラフである。It is a graph which shows scoring by distance difference. 標準偏差による得点付けを示すグラフである。It is a graph which shows scoring by a standard deviation. 囲み度による得点付けを示すグラフである。It is a graph which shows scoring by enclosure degree. 体度による得点付けを示すグラフである。It is a graph which shows scoring by a physical condition. 色彩度による得点付けを示すグラフである。It is a graph which shows scoring by color saturation. 従来の画像処理計数装置を示す斜視図である。It is a perspective view which shows the conventional image processing counting device. 図63の画像処理計数装置で使用する閾値を示す表である。64 is a table showing threshold values used in the image processing counting device in FIG. 63. 図63の画像処理計数装置で使用する閾値を示す表である。64 is a table showing threshold values used in the image processing counting device in FIG. 63.

以下、本発明の実施の形態を図面に基づいて説明する。ただし、以下に示す実施の形態は、本発明の技術思想を具体化するための虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体を例示するものであって、本発明は虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体を以下のものに特定しない。また、本明細書は特許請求の範囲に示される部材を、実施の形態の部材に特定するものでは決してない。特に実施の形態に記載されている構成部品の寸法、材質、形状、その相対的配置等は特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一もしくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiment described below exemplifies an insect image processing apparatus, an image processing method, an image processing program, and a computer-readable storage medium for embodying the technical idea of the present invention, The present invention does not specify insect image processing apparatuses, image processing methods, image processing programs, and computer-readable storage media as follows. Further, the present specification by no means specifies the members shown in the claims to the members of the embodiments. In particular, the dimensions, materials, shapes, relative arrangements, and the like of the components described in the embodiments are not intended to limit the scope of the present invention only unless otherwise specified, and are merely illustrative examples. Only. Note that the size, positional relationship, and the like of the members shown in each drawing may be exaggerated for clarity of explanation. Furthermore, in the following description, the same name and symbol indicate the same or the same members, and detailed description thereof will be omitted as appropriate. Furthermore, each element constituting the present invention may be configured such that a plurality of elements are constituted by the same member and the plurality of elements are shared by one member, and conversely, the function of one member is constituted by a plurality of members. It can also be realized by sharing.

本発明の実施例において使用される虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体とこれに接続される操作、制御、表示、その他の処理等のためのコンピュータ、プリンタ、外部記憶装置その他の周辺機器との接続は、例えばIEEE1394、RS−232xやRS−422、RS−423、RS−485、USB等のシリアル接続、パラレル接続、あるいは10BASE−T、100BASE−TX、1000BASE−T等のネットワークを介して電気的、あるいは磁気的、光学的に接続して通信を行う。接続は有線を使った物理的な接続に限られず、IEEE802.1x等の無線LANやBluetooth(登録商標)等の電波、赤外線、光通信等を利用した無線接続等でもよい。さらにデータの交換や設定の保存等を行うための記録媒体には、メモリカードや磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等が利用できる。なお本明細書において虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体とは、虫の画像処理装置本体のみならず、これにコンピュータ、外部記憶装置等の周辺機器を組み合わせた画像処理システムも含む意味で使用する。   Insect image processing apparatus, image processing method, image processing program and computer-readable storage medium used in the embodiments of the present invention, and a computer for operation, control, display, and other processing connected thereto For example, IEEE1394, RS-232x, RS-422, RS-423, RS-485, USB, or other serial connection, parallel connection, or 10BASE-T, 100BASE- Communication is performed by electrical, magnetic, or optical connection via a network such as TX or 1000BASE-T. The connection is not limited to a physical connection using a wire, but may be a wireless connection using a wireless LAN such as IEEE802.1x, radio waves such as Bluetooth (registered trademark), infrared light, optical communication, or the like. Furthermore, a memory card, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like can be used as a recording medium for exchanging data or storing settings. In this specification, the insect image processing apparatus, the image processing method, the image processing program, and the computer-readable storage medium include not only the insect image processing apparatus main body but also peripheral devices such as a computer and an external storage device. Is used to include an image processing system that combines

また、本明細書において虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体は、画像処理を行うシステムそのもの、ならびに画像処理に関連する入出力、表示、演算、通信その他の処理をハードウエア的に行う装置や方法に限定するものではない。ソフトウエア的に処理を実現する装置や方法も本発明の範囲内に包含する。例えば汎用の回路やコンピュータにソフトウエアやプログラム、プラグイン、オブジェクト、ライブラリ、アプレット、コンパイラ、モジュール、特定のプログラム上で動作するマクロ等を組み込んで画像生成そのものあるいはこれに関連する処理を可能とした装置やシステムも、本発明の虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体に該当する。また本明細書においてコンピュータには、汎用あるいは専用の電子計算機の他、ワークステーション、端末、携帯型電子機器その他の電子デバイスも包含する。さらに本明細書においてプログラムとは、単体で使用されるものに限られず、特定のコンピュータプログラムやソフトウエア、サービス等の一部として機能する態様や、必要時に呼び出されて機能する態様、OS等の環境においてサービスとして提供される態様、環境に常駐して動作する態様、バックグラウンドで動作する態様やその他の支援プログラムという位置付けで使用することもできる。
(虫の画像処理装置)
In addition, in this specification, the insect image processing apparatus, the image processing method, the image processing program, and the computer-readable storage medium are the image processing system itself, and the input / output, display, calculation, and communication related to the image processing. The present invention is not limited to an apparatus or method that performs other processing in hardware. Apparatuses and methods for realizing processing by software are also included in the scope of the present invention. For example, software or programs, plug-ins, objects, libraries, applets, compilers, modules, macros that run on specific programs, etc. can be incorporated into general-purpose circuits or computers to enable image generation itself or related processing. The apparatus and system also correspond to the insect image processing apparatus, image processing method, image processing program, and computer-readable storage medium of the present invention. In this specification, the computer includes a general-purpose or dedicated electronic computer, a workstation, a terminal, a portable electronic device, and other electronic devices. Further, in this specification, the program is not limited to a program that is used alone, such as a mode that functions as a part of a specific computer program, software, or service, a mode that is called and functions when necessary, an OS, and the like. It can also be used as an aspect provided as a service in the environment, an aspect that operates resident in the environment, an aspect that operates in the background, and other support programs.
(Insect image processing device)

図1に、虫の画像処理装置100のブロック図を示す。この図に示す虫の画像処理装置100は、画像メモリ2と、演算部10と、記憶部20と、表示部30と、操作部40とを備える。この虫の画像処理装置100は、撮像手段1と接続されており、撮像手段1で撮像された対象画像を画像メモリ2に取り込む。画像メモリ2に取り込まれた対象画像は、演算部10で処理されて虫の計数や種別の認識を行い、その結果を表示部30に表示させる。
(演算部10)
FIG. 1 shows a block diagram of an insect image processing apparatus 100. The insect image processing apparatus 100 shown in this figure includes an image memory 2, a calculation unit 10, a storage unit 20, a display unit 30, and an operation unit 40. This insect image processing apparatus 100 is connected to the image pickup means 1, and takes in a target image picked up by the image pickup means 1 into the image memory 2. The target image captured in the image memory 2 is processed by the calculation unit 10 to perform insect count and type recognition, and display the result on the display unit 30.
(Calculation unit 10)

また演算部10は、画像抽出手段11と、情報解析手段12と、判別手段13と、計数手段15の機能を実現する。画像抽出手段11は、画像メモリ2に取り込まれた対象画像から、虫に該当する画像を抽出量域として選択し、抽出する。また情報解析手段12は、画像抽出手段11で抽出された抽出領域から、画像処理によって虫に関する情報を解析する。さらに判別手段13は、虫に関する情報に基づいて、虫かどうかの判別を行う。加えて計数手段15は、判別手段13で虫と判別された抽出領域の数を計数して、出力手段に対して出力する。   The calculation unit 10 also realizes the functions of the image extraction unit 11, the information analysis unit 12, the determination unit 13, and the counting unit 15. The image extraction unit 11 selects and extracts an image corresponding to the insect as an extraction amount area from the target image captured in the image memory 2. Further, the information analysis unit 12 analyzes information about insects by image processing from the extraction region extracted by the image extraction unit 11. Furthermore, the discrimination means 13 discriminates whether or not it is an insect based on information on the insect. In addition, the counting means 15 counts the number of extraction areas that have been determined to be insects by the determination means 13 and outputs them to the output means.

情報解析手段12は、例えば対象画像中から、粘着シートの背景部分を除去し、取得される各物体の整形、分離を行い、その大きさ及び形状に基づいて判定手段が虫の判定を行う。この際、粘着シートは、黄色又は青色とすることが好ましい。このようにビニールハウス内で使用されることの少ない色を用いることで、画像処理で背景の除去を容易に行える。また情報解析手段12は、抽出領域を画像処理して、例えば虫の手足と胴に分離し、分離された手足と胴の比率でもって虫か否かを判別できる。あるいは、虫の全体長、胴体、手足、周囲長のいずれかを特徴量とすることもできる。この場合、情報解析手段12を、対象画像から、画像処理により判定対象の特徴量を抽出する特徴量抽出手段とすることもできる。   For example, the information analysis unit 12 removes the background portion of the adhesive sheet from the target image, shapes and separates each acquired object, and the determination unit determines the insect based on its size and shape. At this time, the pressure-sensitive adhesive sheet is preferably yellow or blue. By using colors that are rarely used in the greenhouse in this way, the background can be easily removed by image processing. Further, the information analysis means 12 can perform image processing on the extraction region, for example, separate the insect limbs and torso, and determine whether the insect is an insect based on the ratio of the separated limbs and torso. Alternatively, any of the total length of the insect, the trunk, the limbs, and the perimeter can be used as the feature amount. In this case, the information analysis unit 12 may be a feature amount extraction unit that extracts a feature amount to be determined from the target image by image processing.

また判別手段13は、虫の計数を行う他、虫の種別の認識を行う種別認識手段14を備えることもできる。虫の種別認識は、認識対象の虫毎に特徴量を記録した特徴量データベースを参照して行う。なお、虫の種別認識や計数においては、リアルタイム処理でなく、一旦取り込んだ対象画像データを解析するオフライン解析とすることで、必要な処理能力を低減できる。さらに情報解析手段12は、対象画像の解像度が高い場合は、特徴量を用いた処理を行い、対象画像の解像度が低い場合は、テンプレートマッチングを用いた処理を行う等、対象に応じて解析方法を変更してもよい。
(記憶部20)
In addition to counting insects, the determination means 13 can also include type recognition means 14 for recognizing insect types. Insect type recognition is performed with reference to a feature amount database in which feature amounts are recorded for each recognition target insect. In the insect type recognition and counting, the necessary processing capability can be reduced by using off-line analysis for analyzing the target image data once captured instead of real-time processing. Further, the information analysis means 12 performs processing using the feature amount when the resolution of the target image is high, and performs processing using template matching when the resolution of the target image is low. May be changed.
(Storage unit 20)

記憶部20は、必要な情報や設定内容、データベース等を保存する。例えばハードディスクやSSD等の固定記憶装置が利用できる。特に、特徴量データベースを保持したデータベース保持手段として機能させることができる。
(表示部30)
The storage unit 20 stores necessary information, setting contents, a database, and the like. For example, a fixed storage device such as a hard disk or an SSD can be used. In particular, it can function as a database holding means that holds a feature amount database.
(Display unit 30)

表示部30は、演算部10による処理結果を外部に出力するための出力手段の一形態として機能する。ここでは表示部30として、CRTや液晶、有機EL等を用いたモニタやディスプレイが好適に利用できる。特に、虫の画像処理装置100として、コンピュータに虫の画像処理プログラムをインストールした形態を利用する場合は、コンピュータのモニタを表示部30として利用できる。また、出力手段は表示部30に限られず、例えば処理結果をデータとして外部に出力する形態も利用できる。
(操作部40)
The display unit 30 functions as one form of output means for outputting the processing result by the calculation unit 10 to the outside. Here, a monitor or display using a CRT, liquid crystal, organic EL, or the like can be suitably used as the display unit 30. In particular, when the insect image processing apparatus 100 uses a form in which an insect image processing program is installed in a computer, a computer monitor can be used as the display unit 30. Further, the output means is not limited to the display unit 30, and for example, a form in which the processing result is output to the outside as data can be used.
(Operation unit 40)

また操作部40は、虫の画像処理装置100に対する操作を行う部材であり、キーボードやコンソール、マウス等のポインティングデバイス等が好適に利用できる。また、表示部30としてタッチパネルを用いる場合は、表示部と操作部とを共通とできる。
(画像取得手段)
The operation unit 40 is a member that performs an operation on the insect image processing apparatus 100, and a keyboard, a console, a pointing device such as a mouse, or the like can be preferably used. Moreover, when using a touch panel as the display part 30, a display part and an operation part can be made common.
(Image acquisition means)

画像取得手段は、虫を含む可能性のある対象画像を取得するための手段である。図1の例では、画像取得手段として、画像を撮像するためのCCDやC−MOS等の撮像素子を利用している。具体的には、ネットワークカメラやデジタルカメラ、携帯電話等の撮像手段1、あるいはスキャナ等の走査手段が利用できる。   The image acquisition unit is a unit for acquiring a target image that may contain an insect. In the example of FIG. 1, an image sensor such as a CCD or C-MOS for capturing an image is used as the image acquisition means. Specifically, a network camera, a digital camera, an imaging unit 1 such as a mobile phone, or a scanning unit such as a scanner can be used.

また、撮像済みの対象画像を取得する構成とすることもできる。例えば、図2の変形例に示す虫の画像処理装置200のように、画像取得手段1B側にデータ通信機能を備えることで、遠隔時でネットワークカメラやデジタルカメラ、携帯電話等の撮像手段、あるいはスキャナ等の走査手段で撮像した画像を、端末TMを介してネットワーク接続した画像取得手段で取り込む構成としてもよい。特にネットワーク接続を利用することで、各生産農家からの画像データを一箇所に集中させて判定を行い、その結果を各生産農家にフィードバックすることができ、各生産農家に個別に虫の画像処理装置を設置することなく、対象画像の送受信が可能な環境を整えるのみで導入できる利点が得られる。   Moreover, it can also be set as the structure which acquires the imaged target image. For example, like the insect image processing apparatus 200 shown in the modified example of FIG. 2, by providing a data communication function on the image acquisition means 1B side, image pickup means such as a network camera, digital camera, mobile phone, etc. An image captured by a scanning unit such as a scanner may be captured by an image acquisition unit connected to a network via the terminal TM. In particular, by using a network connection, image data from each farmer can be concentrated in a single location for judgment, and the results can be fed back to each farmer. There is an advantage that it can be introduced only by preparing an environment in which a target image can be transmitted and received without installing a device.

あるいは、図3の変形例に示す虫の画像処理装置300のように、対象画像の画像データを記録したUSBメモリ等の半導体メモリやCD−ROM等の記録媒体MDを介して、対象画像を取り込む構成とすることもできる。
(スキャナによる画像取得)
Alternatively, the target image is captured via a semiconductor memory such as a USB memory in which image data of the target image is recorded or a recording medium MD such as a CD-ROM as in the insect image processing apparatus 300 shown in the modification of FIG. It can also be configured.
(Image acquisition by scanner)

スキャナを用いて粘着シート画像を取得する場合は、スキャナの解像度を1200dpi等の高解像度に設定する。また標準の明るさでは虫領域を写せない可能性があるため、やや低めの明るさに設定し画像の取得を行う。なお、画像サイズに応じて対象画像を分割することもできる。例えば粘着シートの大きさがおよそ10cm×20cmである場合、画像の大きさが約4800×9600画素となり大きすぎて処理が困難になることから、画像を16分割している。後述するクワシロカイガラムシの認識では、このようなスキャナによる画像の取得を行った。   When an adhesive sheet image is acquired using a scanner, the resolution of the scanner is set to a high resolution such as 1200 dpi. In addition, since there is a possibility that the insect area cannot be copied with the standard brightness, the image is acquired with a slightly lower brightness. Note that the target image can be divided according to the image size. For example, when the size of the pressure-sensitive adhesive sheet is approximately 10 cm × 20 cm, the image size is approximately 4800 × 9600 pixels, which is too large to be processed, so that the image is divided into 16 parts. In recognition of a stag beetle, which will be described later, an image is obtained by such a scanner.

一般に、撮像する対象画像の解像度が高い程、認識が正確に行える反面、データ量が増大する。一方、低解像度とすると、データ処理や通信が軽負荷となる反面、精度が低下する。よって、求められる精度や処理能力、コスト等に応じて適切な解像度が選択される。また、後述の通り解像度に応じて認識に用いる画像処理方法も適宜変更できる。   In general, the higher the resolution of the target image to be captured, the more accurately the recognition can be done, but the amount of data increases. On the other hand, if the resolution is low, data processing and communication are lightly loaded, but accuracy is lowered. Therefore, an appropriate resolution is selected according to the required accuracy, processing capability, cost, and the like. Further, as will be described later, the image processing method used for recognition can be appropriately changed according to the resolution.

この虫の画像処理装置は、微小病害虫の発生状況をカメラ映像によってモニタリングするシステムに利用できる。これにより、取得された対象画像中に含まれる害虫の種別や数等の情報を自動的に取得でき、従来熟練ユーザが目視で行っていた作業を自動化でき、また判定の基準を一定化できるといった利点が得られる。
(虫の判別方法)
This insect image processing apparatus can be used in a system for monitoring the occurrence of minute pests using camera images. As a result, information such as the type and number of pests included in the acquired target image can be automatically acquired, work that has been performed visually by a skilled user can be automated, and the determination criteria can be made constant. Benefits are gained.
(Insect identification method)

以下、この虫の画像処理装置を用いて虫の判別を行う手順について、図4のフローチャートに基づいて説明する。ここでは、実施例1として、トマトの害虫であるトマトハモグリバエを抽出対象とした例について説明する。
(実施例1:トマトハモグリバエ)
Hereinafter, a procedure for discriminating insects using this insect image processing apparatus will be described with reference to the flowchart of FIG. Here, as Example 1, an example in which tomato leafhoppers, which are tomato pests, are extracted will be described.
(Example 1: Tomato leaf fly)

トマトハモグリバエは体長1〜2mmで、平成11年に日本で確認され、西日本を中心に生息域を拡大しており、現在では全国38都府県に生息している。主にトマトに対する害虫であり、トマトの葉に卵を産み付け、蛹が孵化すると幼虫が葉を食べ荒らす。別名葉食い虫とも呼ばれ、葉を食い荒らし、トマトの木を弱らせてしまう。またトマト以外にも広範囲な農作物に害を及ぼす。また一方で、トマトハモグリバエの生物農薬はイサエアヒメコバチとなる。イサエアヒメコバチはトマトの葉に産み付けられたトマトハモグリバエの卵に寄生行為を行い産卵する。イサエアヒメコバチの卵はトマトハモグリバエの卵を栄養分として成長するため、トマトハモグリバエを駆除することができる。   The tomato leafhopper is 1-2 mm in length, was confirmed in Japan in 1999, has expanded its habitat mainly in western Japan, and now lives in 38 prefectures nationwide. It is mainly a pest on tomatoes, lays eggs on the tomato leaves, and when the pupae hatch, the larvae eat and destroy the leaves. Also called a leaf-eating insect, it eats and leaves the leaves and weakens the tomato tree. In addition to tomatoes, it affects a wide range of crops. On the other hand, the biological pesticide of tomato leafhopper is Isaea himebee. Isaea hinoki washi lays eggs by performing parasitic action on eggs of tomato leafhoppers laid on tomato leaves. It is possible to control tomato leafworms, because the eggs of Isaea himebee grows with the eggs of tomato leafhoppers as nutrients.

このような生物農薬(益虫)を有効的に活用するためには、病害虫が多く発生しているときに効率よく投入することが必要となるが、その投入タイミングの見極めが難しく、現在は熟練した人間が目で確認、判断していた。また広大でかつ数多くのビニールハウスを所有する大規模農家等ではすべて人手で観察するのは多くの労力を必要とする。また農業従事者の高齢化も大きな問題となっており、ひとつひとつ観察することが非常に困難になってきている。そこで、これを自動化又は支援するために、上記虫の画像処理装置を用いる。   In order to effectively utilize such biological pesticides (beneficial insects), it is necessary to input them efficiently when many pests are occurring. Humans confirmed and judged with the eyes. In addition, large-scale farms that are vast and have a large number of greenhouses require a lot of labor to observe by hand. The aging of farmers is also a big problem, and it is very difficult to observe each one. Therefore, in order to automate or support this, the insect image processing apparatus is used.

ここでは、予め、各生産農家のビニールハウス内に粘着シートを設置し、この粘着シートに付着した体長1mm程度の害虫を撮像するために、ネットワークカメラを設置しておく。粘着テープは、粘着性を持つ黄色のプレートである。トマトハモグリバエは黄色に敏感に反応する性質を持っているため、シート表面に粘着性物質を塗装しておくことで容易に捕獲できる。これを利用し、粘着シートを撮影した対象画像を解析して、粘着シート上に付着したトマトハモグリバエの数を計数することで、生物農薬の投入タイミングを見極めることが可能となる。
(ステップS4001:対象画像の取得)
Here, a pressure-sensitive adhesive sheet is set in advance in the greenhouse of each production farmer, and a network camera is set in order to image a pest having a body length of about 1 mm attached to the pressure-sensitive adhesive sheet. The adhesive tape is a yellow plate having adhesiveness. Tomato leafhoppers are sensitive to yellow and can be easily captured by applying a sticky substance to the sheet surface. Utilizing this, the target image obtained by photographing the adhesive sheet is analyzed, and the number of tomato leafworms adhering to the adhesive sheet is counted, thereby making it possible to ascertain the timing of biopesticidal input.
(Step S4001: Acquisition of target image)

まず図4のステップS4001において、対象画像の取得を行う。ここでは、ネットワーク接続されたネットワークカメラで対象画像を撮像し、画像取得手段がデータ通信によって画像データを受信する。   First, in step S4001 in FIG. 4, the target image is acquired. Here, a target image is captured by a network camera connected to the network, and the image acquisition unit receives the image data by data communication.

この例では、パン、チルト、ズーム機能を持つ市販のWEBカメラ等のネットワークカメラを用いて対象画像を取得している。各生産農家のビニールハウス内に一以上の粘着シートを設置すると共に、各粘着シートの画像を撮像する。ここでは、ネットワークカメラをパン、チルトさせることで、ビニールハウス内から自動的に粘着シートを探索する。そして粘着シートを発見すると、これにズームインして、粘着シートを分割しながら画像を取得していく。ここでは少しでも解像度の高い画像を取得するために、粘着シートの全体を一枚で撮像するのでなく、ズーム機能を用いて粘着シート画像を分割しながら取得した上で、合成画像を取得する。取得された画像は順次送出され、最終的に取得された画像を合成することで、1枚の対象画像を復元する。なお、画像の合成は、虫の画像処理装置の演算手段で行う他、画像取得手段で取り込む前に、撮像手段1側で合成し、合成後の画像を取得するように構成してもよい。ここでは、撮像手段で画像合成処理を行う方法について説明する。
(粘着シートの探索)
In this example, the target image is acquired using a network camera such as a commercially available WEB camera having pan, tilt, and zoom functions. At least one adhesive sheet is installed in the greenhouse of each producer and an image of each adhesive sheet is taken. Here, the adhesive sheet is automatically searched from inside the greenhouse by panning and tilting the network camera. When an adhesive sheet is found, the image is zoomed in and images are acquired while dividing the adhesive sheet. Here, in order to obtain an image with a high resolution as much as possible, the entire adhesive sheet is not captured as a single sheet, but is acquired while dividing the adhesive sheet image using the zoom function, and then a composite image is acquired. The acquired images are sequentially transmitted, and one target image is restored by synthesizing the finally acquired images. Note that the image synthesis may be performed by the calculation means of the insect image processing apparatus, or may be configured to obtain the synthesized image on the imaging means 1 side before being captured by the image acquisition means. Here, a method of performing image composition processing by the imaging unit will be described.
(Search for adhesive sheet)

具体的な手順を説明すると、まず取得された対象画像中から粘着シートを探索する。図7に粘着シートを撮像した対象画像の例を示す。ここでは、粘着シートが黄色に着色されているため、対象画像中に黄色領域があるかどうかの判定を行う。この処理ではHSV色空間を用い、所定の範囲内の色相と彩度(Hue:44−71、ただしSaturation:0−52を除去)をもつ画素を抽出する。このパラメータは、粘着シートの黄色領域に相当する。   A specific procedure will be described. First, an adhesive sheet is searched from the acquired target image. FIG. 7 shows an example of a target image obtained by imaging the adhesive sheet. Here, since the adhesive sheet is colored yellow, it is determined whether or not there is a yellow region in the target image. In this process, an HSV color space is used to extract pixels having a hue and saturation (Hue: 44-71, except for Saturation: 0-52) within a predetermined range. This parameter corresponds to the yellow area of the adhesive sheet.

黄色領域が無い場合は、ネットワークカメラをパン及びチルトさせて対象画像を再取得する。ここではネットワークカメラを、ひし形を描くように移動させて、対象画像の取得と黄色領域の判定を繰り返す。この処理を繰り返しながら、黄色領域が対象画像中に発見できた場合は、黄色領域のみを抽出する。そして黄色領域の面積をカウントし、ある一定画素数以上だと粘着シートであると判定し、探索を終了する。   If there is no yellow region, the target image is reacquired by panning and tilting the network camera. Here, the network camera is moved so as to draw a diamond, and the acquisition of the target image and the determination of the yellow region are repeated. If this process is repeated and a yellow region is found in the target image, only the yellow region is extracted. Then, the area of the yellow region is counted, and if it is equal to or more than a certain number of pixels, it is determined that the sheet is an adhesive sheet, and the search ends.

ここで、対象画像中に黄色く変色した葉や、枯れてしまった葉が存在することも考えられる。このように黄色領域が複数存在する場合も、一旦すべての領域を抽出した後、それぞれの領域にて面積のカウントを行い、最大領域に着目する。そしてその最大領域の画素数が閾値以上である場合に、粘着シートであると判定して探索を終了する。
(粘着シート画像の合成)
Here, it is also conceivable that the target image includes yellow-discolored leaves or withered leaves. Even when there are a plurality of yellow regions as described above, after all the regions are once extracted, the area is counted in each region, and the maximum region is noted. And when the number of pixels of the maximum area is more than a threshold value, it determines with it being an adhesive sheet and complete | finishes a search.
(Composition of adhesive sheet image)

粘着シートが検出された場合、その領域の重心位置が画像の中心となるように、視野の微調整を行う。さらにズーム機能を用いて、ズームインする。さらに、粘着シートの上端部分が画像の上部ぎりぎりに入るようにネットワークカメラを上方向にチルトさせる。そこから下方向に一定間隔でネットワークカメラをチルトさせながら、画像を取得していく。そして粘着シートの下端が検出されれば、画像取得を終了する。
(ステップS4002:虫の候補領域の抽出)
When the adhesive sheet is detected, the visual field is finely adjusted so that the center of gravity of the area is the center of the image. Further zoom in using the zoom function. Further, the network camera is tilted upward so that the upper end portion of the adhesive sheet enters the upper limit of the image. From there, images are acquired while tilting the network camera downward at regular intervals. And if the lower end of an adhesive sheet is detected, image acquisition will be complete | finished.
(Step S4002: Insect candidate region extraction)

次に図4のステップS4002において、得られた合成画像を入力画像として、虫の候補領域を抽出する。詳細な手順については後述する。
(虫の認識と計数)
Next, in step S4002 of FIG. 4, insect candidate regions are extracted using the obtained composite image as an input image. Detailed procedures will be described later.
(Recognition and counting of insects)

さらにステップS4003において、虫の認識と計数を行う。ここではまず、認識の前処理としてHSV色空間を用いて黄色領域と背景部分を除去する。ここでは認識処理に際して、解像度に応じて2種類の方法を用いている。まず高解像度の場合には、トマトハモグリバエの画像的特徴に着目した認識を行う。一方で低解像度の場合は、テンプレートマッチングにより認識を行う。そして認識結果を統合して計数結果とする。
(特徴量を用いた認識)
In step S4003, insects are recognized and counted. Here, first, the yellow region and the background portion are removed using the HSV color space as preprocessing for recognition. Here, in the recognition process, two types of methods are used according to the resolution. First, in the case of high resolution, recognition is performed focusing on the image features of tomato leafhoppers. On the other hand, in the case of low resolution, recognition is performed by template matching. Then, the recognition results are integrated into a counting result.
(Recognition using features)

ここでは、粘着シートとネットワークカメラの距離が近く、詳細な入力画像が得られた場合の認識方法について述べる。まず特徴量を用いた認識を行う。特徴量としては、トマトハモグリバエが、ずんぐりむっくりで、手足が短いハエという特徴に着目して、以下のように定義する。
(a)虫の面積
(b)虫の胴体部分の面積
(c)虫の足と羽部分の面積
(d)虫の周囲長
(e)テンプレートとの類似度
そして各々の特徴量は、抽出された虫領域に対して、以下のとおり算出する。
(a)虫の面積に関しては、抽出された虫領域全体の画素数に着目する。粘着シートの大きさが一定になるようにズームして、画像を取得するため、虫領域の画素数で比較することで大きさを比較できる。
(b)胴体部分の面積に関しては、HSV色空間で色相に着目することで抽出する。これは、手足が領域として細く、胴体部分は分厚いため、色に違いが生じることに着目したものである。
(c)足と羽部分の面積は、(a)全体の面積から(b)胴体部分の面積の差により求める。
(d)周囲長は、切り出し画像に二値化処理を行った後、収縮処理を加えた後、算出する。
(e)類似度は、トマトハモグリバエのサンプル画像をテンプレートとした相関値により算出する。
Here, the recognition method when the distance between the adhesive sheet and the network camera is close and a detailed input image is obtained will be described. First, recognition using feature quantities is performed. The feature amount is defined as follows, focusing on the feature that the tomato leaf fly is a stubby and has short limbs.
(A) Insect area (b) Insect body area (c) Insect foot and wing area (d) Peripheral length of the insect (e) Template similarity and each feature are extracted For the insect area, the calculation is as follows.
(A) Regarding the area of the insect, attention is paid to the number of pixels of the entire extracted insect area. Since the image is acquired by zooming so that the size of the adhesive sheet is constant, the size can be compared by comparing the number of pixels in the insect region.
(B) The area of the body portion is extracted by paying attention to the hue in the HSV color space. This is because attention is paid to the difference in color because the limbs are thin as regions and the trunk is thick.
(C) The area of the foot and the wing part is obtained from the area of the whole (a) by the difference in the area of the body part (b).
(D) The perimeter is calculated after the binarization process is performed on the clipped image and the contraction process is performed.
(E) The similarity is calculated from a correlation value using a sample image of tomato leafhopper as a template.

各々の特徴量は、サンプルのトマトハモグリバエより求められた特徴量の値に近い程、高得点になるように正規化する。そして5個の特徴量の値に重要度に応じて、重み付けした上で合計する。そしてその値がある一定以上の場合、その虫がトマトハモグリバエであると判定する。これを全ての抽出されている虫候補領域に対して行い、トマトハモグリバエと判定された数を最終的な計数結果とする。   Each feature value is normalized so that the closer to the feature value obtained from the sample tomato leafhopper, the higher the score. Then, the values of the five feature values are weighted according to the importance and totaled. And when the value is above a certain value, it is determined that the insect is a tomato leafhopper. This is performed for all extracted insect candidate regions, and the number determined to be a tomato leafhopper is used as the final counting result.

虫の認識のための画像処理方法は、解像度に応じて適切な手法を変更できる。ここでは、対象画像の解像度が高い場合は、特徴量を用いた処理を行い、対象画像の解像度が低い場合は、テンプレートマッチングを用いた処理を行った。以下、各手法について説明する。
(高解像度画像による認識)
An appropriate image processing method for insect recognition can be changed according to the resolution. Here, when the resolution of the target image is high, processing using the feature amount is performed, and when the resolution of the target image is low, processing using template matching is performed. Hereinafter, each method will be described.
(Recognition by high resolution image)

まず、高解像度画像を用いた虫の認識について説明する。図5に、高解像度の例として、80×80画素で撮像されたトマトハモグリバエの画像イメージを示す。このような高解像度画像を用いることで、形状や濃淡等がより明確となる。
(特徴量を用いた認識)
First, insect recognition using a high-resolution image will be described. FIG. 5 shows, as an example of high resolution, an image of a tomato leaffly captured at 80 × 80 pixels. By using such a high-resolution image, the shape, shading, etc. become clearer.
(Recognition using features)

図6に、抽出した4個の特徴量の抽出結果を画像化した例を示す。この程度の解像度であれば、特徴量を用いた認識が可能である。ここでは、28匹の虫に対して処理を行った。28匹の内訳は、8匹がトマトハモグリバエ、20匹がその他の虫であった。この例では、27匹に対して正しい認識が行えた。トマトハモグリバエのうちの1匹を検出することができなかったが、トマトハモグリバエ以外の虫をトマトハモグリバエとして認識することはなかった。
(テンプレートマッチングによる認識)
FIG. 6 shows an example of imaging the extraction results of the four extracted feature quantities. With such a resolution, recognition using the feature amount is possible. Here, 28 insects were treated. Of the 28 animals, 8 were tomato leafhoppers and 20 were other insects. In this example, 27 animals were correctly recognized. One of the tomato leafhoppers could not be detected, but insects other than tomato leafhoppers were not recognized as tomato leafhoppers.
(Recognition by template matching)

次に、低解像度の画像に基づく虫の認識処理について説明する。図8の合成画像に対して、虫領域を抽出した画像の例を図10に示す。この画像から詳細な特徴を抽出する操作は困難である。このような場合は、テンプレート画像を用いた相関により認識を行う。
(テンプレート画像)
Next, insect recognition processing based on low-resolution images will be described. FIG. 10 shows an example of an image obtained by extracting insect regions from the synthesized image of FIG. The operation of extracting detailed features from this image is difficult. In such a case, recognition is performed by correlation using a template image.
(Template image)

テンプレート画像には、典型的なトマトハモグリバエ4匹分の画像を用いた。ここでは1個のテンプレート画像の大きさは、ここでは21×21画素とした。さらに必要に応じて、各テンプレート画像に対して回転を加える。例えば、各テンプレート画像を0°、90°、180°、270°に回転させて合計16回テンプレートマッチングの結果画像の論理和をとる。そして最大が1.0となるように正規化し、この値をトマトハモグリバエらしさの値とする。さらにここでは1匹ごとにトマトハモグリバエかどうかの判定を行わず、らしさの値の合計値を最終的な計数結果とする。
(低解像度画像による認識)
For the template image, an image of four typical tomato leafhoppers was used. Here, the size of one template image is 21 × 21 pixels here. Further, rotation is applied to each template image as necessary. For example, each template image is rotated to 0 °, 90 °, 180 °, and 270 °, and the logical sum of the results of template matching is obtained 16 times in total. And it normalizes so that the maximum may be set to 1.0, and this value is made into the value of the tomato leaf-likeness. Further, here, it is not determined whether each animal is a tomato leaffly, but the total value of the uniqueness values is used as the final counting result.
(Recognition by low resolution image)

図8に示す合成画像に対して、処理を行った結果の例を図9の分布表示に示す。この図は、各々の棒グラフがテンプレートの相関値の高い場所とその位置を示している。図10の抽出された位置に対応して相関値が高くなっていることが判る。ここでは、トマトハモグリバエは20.569匹と出力された。四捨五入で21匹となり、トマトハモグリバエに詳しい熟練ユーザが目視した場合、23匹中21匹がトマトハモグリバエだと認定していることと比較して、良好な結果が得られた。
(撮像距離)
An example of the result of processing the composite image shown in FIG. 8 is shown in the distribution display of FIG. This figure shows where each bar graph has a high correlation value of the template and its position. It can be seen that the correlation value increases corresponding to the extracted position in FIG. Here, 20.6969 tomato leafhoppers were output. When rounded off to 21 animals by an expert user familiar with tomato leafhoppers, 21 of 23 animals were recognized as being tomato leafhoppers, and good results were obtained.
(Imaging distance)

次に、ネットワークカメラから1mおきに設置し、処理結果の変化を調べた例を示す。図11に、6mの距離を隔てて撮像し合成した合成画像の例を示す。図11では背景部分が混入し、かなり小さい画像しか取得できないことが確認できる。この計測結果の例を数値的に表したグラフを図12に示す。図12のグラフ中、検出精度を折れ線、棒グラフは匹数を表している。検出精度は5m、6mで急激に低下していることが確認できる。これは5m、6mでは粘着シートから対象物を抽出できていないことが原因と考えられる。   Next, an example is shown in which a change in the processing result is examined by installing every 1 m from the network camera. FIG. 11 shows an example of a synthesized image that is captured and synthesized at a distance of 6 m. In FIG. 11, it can be confirmed that the background portion is mixed and only a considerably small image can be acquired. A graph that numerically represents an example of the measurement result is shown in FIG. In the graph of FIG. 12, the detection accuracy is a line, and the bar graph represents the number of animals. It can be confirmed that the detection accuracy rapidly decreases at 5 m and 6 m. This is considered to be because the object cannot be extracted from the adhesive sheet at 5 m and 6 m.

以上のように、病害虫を自動で判別し、その数を計数する虫の画像処理装置によれば、粘着シートに付着したトマトハモグリバエを画像処理により検出し、その数を計数することができる。
(ステップS4004:結果の出力)
As described above, according to the insect image processing apparatus that automatically discriminates pests and counts the number thereof, it is possible to detect tomato leafworms attached to the pressure-sensitive adhesive sheet by image processing and to count the number.
(Step S4004: Output of results)

以上のようにして得られた認識及び計数の結果を出力する(図4のステップS4004)。ここでは、表示部30上に結果を表示させる。また、外部機器にデータを出力することもできる。
(実施例2:コナジラミ)
The recognition and counting results obtained as described above are output (step S4004 in FIG. 4). Here, the result is displayed on the display unit 30. It is also possible to output data to an external device.
(Example 2: whitefly)

次に、同じくネットワークカメラを用いてコナジラミを識別する方法について、図13のフローチャートに基づいて説明する。コナジラミは、体長1.0〜2.0mmの微小病害虫である。適温では急激に発生する場合があるため、数匹でも発見すると防除を行う必要がある。コナジラミは一様に白色であり、細長い羽を持つ。コナジラミは草花、野菜、花木等多くの植物に被害をもたらし、主に葉裏に寄生して汁を好む。コナジラミの食害を受けた場所は葉緑素が抜け、白いカスリ状となり生育が悪くなる。この症状以外にも、排泄物の上にすす病が発生して葉や果実が黒くなることもある。また、アブラ虫同様にウイルス病を媒介し、被害を助長する。卵、幼虫、蛹、成虫と完全変態し、成長過程により有効な農薬が異なるため防除が難しい。コナジラミは黄色に誘引されるという特徴があるため、粘着シートは黄色の物を使用する。
(ステップS1301:コナジラミの対象画像の取得)
Next, a method for identifying whiteflies using the network camera will be described with reference to the flowchart of FIG. Whitefly is a micro pest having a body length of 1.0 to 2.0 mm. Since it may occur suddenly at an appropriate temperature, it is necessary to control if several animals are found. Whiteflies are uniformly white and have elongated wings. Whiteflies cause damage to many plants such as flowers, vegetables, flowering trees, and parasites mainly on the back of leaves and prefer juice. In places affected by whiteflies, the chlorophyll is lost, and it becomes white scabs and grows worse. In addition to this symptom, soot disease may occur on the excrement and the leaves and fruits may become black. In addition, it mediates viral diseases and promotes damage in the same way as Brassica. It is difficult to control because it completely transforms into eggs, larvae, pupae and adults, and effective pesticides differ depending on the growth process. Because whitefly is attracted to yellow, the adhesive sheet is yellow.
(Step S1301: Acquisition of a whitefly target image)

まず、図13のステップS1301で対象画像を取得する。この手順は、上述したトマトハモグリバエの対象画像を取得するステップS4001の手順と同様であり、詳細説明を省略する。
(ステップS1302:コナジラミの候補領域の抽出)
First, a target image is acquired in step S1301 of FIG. This procedure is the same as the procedure in step S4001 for acquiring the target image of the tomato leafhopper described above, and detailed description thereof is omitted.
(Step S1302: Extraction of whitefly candidate regions)

次に、ステップS1302で対象画像からコナジラミの候補となる候補領域を抽出する。ネットワークカメラより取得した対象画像から粘着シートに付着したコナジラミを検出するには、まず粘着シートに付着した物体のみを抽出する必要がある。そこで、まず背景部分の除去を行う。背景除去を行うにはHSV等の色情報を用いた手法が一般的であるが、得られる画像毎に色合いが一定でない場合があるため安定した検出を行うことが難しい。そこで、比較的ノイズに強い可変閾値による背景除去手法を用いる。   In step S1302, candidate regions that are candidates for whitefly are extracted from the target image. In order to detect whiteflies adhering to the adhesive sheet from the target image acquired from the network camera, it is necessary to first extract only the object adhering to the adhesive sheet. Therefore, first, the background portion is removed. To remove the background, a technique using color information such as HSV is generally used. However, since the hue may not be constant for each obtained image, it is difficult to perform stable detection. Therefore, a background removal method using a variable threshold that is relatively resistant to noise is used.

図14に対象画像中に取得画像の小領域を設定する様子を示す。まず、図14に示すように取得した対象画像の1つの画素を中心として周囲に小領域を設定し、小領域内の平均輝度と平均彩度を求める。ここでは21×21画素を小領域と設定する。背景のみが存在する小領域の場合、ほぼ同じ明るさや色となるため、中心部の輝度値や彩度値は平均値とほぼ同じになる。しかし、背景以外の物体が存在する領域の場合、背景以外の明るさが存在するため、中心部の輝度と平均輝度値との間には隔たりが生じると考えられる。   FIG. 14 shows how a small area of the acquired image is set in the target image. First, as shown in FIG. 14, a small area is set around one pixel of the acquired target image, and the average luminance and the average saturation in the small area are obtained. Here, 21 × 21 pixels are set as a small region. In the case of a small area where only the background exists, the brightness and color are almost the same, so the luminance value and saturation value at the center are almost the same as the average value. However, in a region where an object other than the background exists, it is considered that there is a gap between the luminance at the center and the average luminance value because brightness other than the background exists.

コナジラミの体は白色をしているため、輝度値の値は高く彩度値の値は低い。しかしながら、コナジラミが粘着物に埋もれた場合、特徴的な白色ではなくなり、やや黒ずんだ色になってしまう。そこで、平均彩度よりも低い彩度値をもつ画素の中で、平均輝度値よりも高い輝度値を持つ領域は、埋もれる前のコナジラミの可能性がある領域として残しておき、平均輝度値よりも低い輝度値を持つ領域は、埋もれた後のコナジラミの可能性がある領域として残し、あまり差の少ない輝度値の画素は背景であると考えられるので除去を行う。埋もれる前のコナジラミ候補領域を赤色、埋もれた後のコナジラミ候補領域を黒色で表示する。図14に示す取得画像に対して得られたクワシロカイガラムシ候補のみを抽出した画像を図15に示す。
(ステップS1303:コナジラミの候補領域の選択)
Since the body of whitefly is white, the luminance value is high and the saturation value is low. However, when whiteflies are buried in an adhesive, they are not characteristic white and have a slightly darkened color. Therefore, among the pixels having a saturation value lower than the average saturation value, an area having a brightness value higher than the average brightness value is left as an area having a possibility of whitening before being buried, and is more An area having a lower luminance value is left as an area where there is a possibility of whitening after being buried, and a pixel having a luminance value with a very small difference is considered to be the background and is removed. The whitefly candidate area before being buried is displayed in red, and the whitefly candidate area after being buried is displayed in black. FIG. 15 shows an image obtained by extracting only the stag beetle candidate obtained for the acquired image shown in FIG.
(Step S1303: Selection of candidate areas for whitefly)

次に、ステップS1302で得られた領域に対して、ステップS1303で大まかにコナジラミらしい領域を選択する。図15に示した画像の結果では、背景部分の除去は行っているが、コナジラミ以外の虫等の不要な部分が存在している。コナジラミは他の虫と比べて比較的小さいので、一定閾値以上の面積を削除することでコナジラミ候補領域のみを抽出することができる。また、黒ずんだコナジラミ候補領域を抽出した際、誤って影の領域を抽出してしまう場合がある。そこで、白いままのコナジラミ候補領域の下部に黒ずんだコナジラミ候補領域が隣接している場合、影の領域であると判断して除去を行う。図15の抽出画像に対して面積や影の除去を行った画像を図16に示す。
(ステップS1304:コナジラミの特徴量の抽出)
Next, for the region obtained in step S1302, in step S1303, a region that is roughly whitefly is selected. In the result of the image shown in FIG. 15, the background portion is removed, but there are unnecessary portions such as insects other than whiteflies. Since whiteflies are relatively small compared to other insects, it is possible to extract only whitefly candidate regions by deleting areas above a certain threshold. Further, when a dark whitefly candidate area is extracted, a shadow area may be erroneously extracted. Therefore, if a dark whitefly candidate area is adjacent to the white whitefly candidate area, it is determined that it is a shadow area and is removed. FIG. 16 shows an image obtained by removing the area and shadow from the extracted image of FIG.
(Step S1304: Extraction of feature amount of whitefly)

次にステップS1304では、得られたコナジラミ候補抽出画像から、コナジラミのみを判定するための特徴量を抽出する。
(コナジラミの特徴量)
In step S1304, a feature amount for determining only whitefly is extracted from the obtained whitefly candidate extraction image.
(Features of whitefly)

抽出した候補領域からコナジラミのみを判定するための特徴量として、主に形状に着目した3つの特徴量の抽出を行う。
(コナジラミに対するテンプレートマッチング)
As feature amounts for determining only whiteflies from the extracted candidate regions, three feature amounts mainly focusing on the shape are extracted.
(Template matching for whiteflies)

粘着シートに付着したコナジラミを見ると、ほぼ全てのコナジラミが似た形状で付着していることが判る。そこでテンプレートマッチングを用いた判定を行う。テンプレートマッチングとは、入力画像とテンプレート画像とを重ね合わせることにより比較照合し、両者が一致しているかどうかを判定する処理である。図17にテンプレートマッチングの手法を示す。入力画像f(x,y)からテンプレートt(x,y)の位置を検出する場合、t(x,y)がf(x,y)中の点(u,v)の位置に重なるようにし、t(x,y)とそれと重なる画像の部分パターンとの類似度を測る。位置検出の場合、通常t(x,y)の画像の大きさはf(x,y)に比べて小さい。t(x,y)の定義されていない範囲ではすべてt(x,y)=0と考えると、点(u,v)における類似度m(u,v)は数1によって表現される。類似度m(u,v)は点(u,v)に対象が存在する確からしさを表しており、値が小さいほど対象らしいことを示す。   Looking at the whiteflies adhering to the adhesive sheet, it can be seen that almost all the whiteflies adhere in a similar shape. Therefore, determination using template matching is performed. Template matching is a process of comparing and collating an input image and a template image to determine whether they match. FIG. 17 shows a template matching method. When the position of the template t (x, y) is detected from the input image f (x, y), t (x, y) is overlapped with the position of the point (u, v) in f (x, y). , T (x, y) and the similarity between the overlapping partial patterns of the image are measured. In the case of position detection, the image size of t (x, y) is usually smaller than f (x, y). In the range where t (x, y) is not defined, assuming that t (x, y) = 0, the similarity m (u, v) at the point (u, v) is expressed by Equation 1. The similarity m (u, v) represents the probability that the object exists at the point (u, v), and the smaller the value, the more likely the object is.

ここではコナジラミのみを検出するため、あらかじめコナジラミを基に作成した4つのテンプレート画像を用いてマッチングを行う。テンプレート画像の拡大画像を図18に示す。ここで用いたテンプレート画像の実寸サイズは20×20Pixelで、各コナジラミ候補の最小類似度を求める。そして求めた各最小類似度をそのコナジラミ候補の類似度とする。類似度は数1のようにテンプレート画像と入力画像との差であるため、形状が似ているほど0に近づく。そこでテンプレートマッチングによる得点match_pointを図19のように得点付けを行う。match_pointの最大値は100とし、類似度が下がると0に近づく。
(縦横比)
Here, in order to detect only whiteflies, matching is performed using four template images created in advance based on whiteflies. An enlarged image of the template image is shown in FIG. The actual size of the template image used here is 20 × 20 Pixel, and the minimum similarity of each whitefly candidate is obtained. Then, the obtained minimum similarity is set as the similarity of the whitefly candidate. Since the similarity is the difference between the template image and the input image as shown in Equation 1, the closer the shape is, the closer to 0. Therefore, the score match_point by template matching is scored as shown in FIG. The maximum value of match_point is 100, and approaches 0 when the similarity decreases.
(Aspect ratio)

コナジラミの特徴として、大きな羽があるという点が挙げられ、画像には全体的に丸い形状であるという特徴がある。そこで、縦横比を用いた判定を行う。領域の高さをHeight、領域の幅をWidthとし、数2により縦横比Ratioを求める。コナジラミは円形に近い特徴であるため、得点Ratio_pointを図20に示すように得点付けを行う。図20のグラフにおいて横軸は縦横比Ratio、縦軸は縦横比による得点Ratio_pointを示している。Ratio_pointの最大値は100とし、縦横比が正方形に近くなる1〜1.5付近で、最大値をとる。   As a characteristic of whitefly, there is a point that there are large wings, and there is a characteristic that the image has a round shape as a whole. Therefore, determination using the aspect ratio is performed. The height of the region is Height, the width of the region is Width, and the aspect ratio Ratio is obtained by Equation 2. Since the whitefly is a feature close to a circle, the score Ratio_point is scored as shown in FIG. In the graph of FIG. 20, the horizontal axis represents the aspect ratio Ratio, and the vertical axis represents the score Ratio_point according to the aspect ratio. The maximum value of Ratio_point is 100 and takes a maximum value in the vicinity of 1 to 1.5 where the aspect ratio is close to a square.

(方向度) (Direction degree)

コナジラミの特徴として、中心部付近が白く外周部に近づくほど粘着シートの色に近くなっている。また、黒ずんで埋もれたコナジラミも、中心付近が黒く外周部に近づくほどシートの色に近くなっている。そこで、候補領域の全ての画素に対してエッジの向きを求め、エッジの向きと重心方向との比較による判定を行う。エッジの向きとは、どの方向にエッジが強く出ているかを表したものである。輝度値に対して図21(a)に示す縦方向のエッジフィルタを掛けることによりエッジの縦方向の強さEdge_Hを求め、図21(b)に示す横方向のエッジフィルタを掛けることによりエッジの横方向の強さEdge_Wを求め、数3により、エッジの向きeを求める。エッジの向きは輝度が高い画素から低い画素の方向に向く。そのため、図22(a)に輝度画像で示す埋もれる前のコナジラミは、エッジ方向が図22(b)に示すように重心方向に向く傾向があり、図23(a)に輝度画像で示す埋もれた後のコナジラミは、エッジ方向が図23(b)に示すように重心方向に向く傾向がある。   As a characteristic of the whitefly, the color near the center of the adhesive sheet becomes closer to the outer peripheral part as the area near the center is white. In addition, whiteflies buried in black are closer to the color of the sheet as the vicinity of the center is blacker and closer to the outer periphery. Therefore, the edge direction is obtained for all the pixels in the candidate area, and a determination is made by comparing the edge direction with the direction of the center of gravity. The direction of the edge indicates in which direction the edge is strong. The edge value Edge_H in the vertical direction of the edge is obtained by applying the vertical edge filter shown in FIG. 21A to the luminance value, and the edge value is obtained by applying the horizontal edge filter shown in FIG. The lateral strength Edge_W is obtained, and the edge direction e is obtained by Equation 3. The direction of the edge is from the pixel with high luminance to the pixel with low luminance. Therefore, the whitefly before being buried shown in the luminance image in FIG. 22 (a) tends to be directed toward the center of gravity as shown in FIG. 22 (b), and buried in the luminance image shown in FIG. 23 (a). The latter white fly tends to be directed toward the center of gravity as shown in FIG.

(方向度による判定) (Judgment by direction degree)

以上のようにして各画素のエッジの向きを求めた後、方向度による判定を行う。方向度はエッジの向きと重心方向の比較を行う。重心方向は、図24の領域画像の場合、図25に示すように領域の重心に向かう方向となる。エッジ向きと重心の向きの差を求め、向きの差の平均値Ave_Dirと、標準偏差SD_Dirを求める。ここで図26(a)に埋もれる前のコナジラミ、図26(b)に埋もれた後のコナジラミの、方向差の平均値による得点付けのグラフを、また図27に標準偏差による得点付けのグラフを、それぞれ示す。埋もれる前のコナジラミは、エッジの向きと重心の向きが逆方向となるので、Ave_Dirを用いて得点Dir_point1を図26(a)のように得点付けを行う。Dir_point1の最大値は100とし、平均値Ave_Dirが180度付近で最大値をとる。埋もれた後のコナジラミは、エッジの向きと重心の向きが同じ方向となるので、Ave_Dirを用いて得点Dir_point2を図26(b)のように得点付けを行う。Dir_point2の最大値は100とし、平均値Ave_Dirが0度付近で最大値をとる。標準偏差SD_Dirは、向きの差のばらつきに注目し、向きの差がある程度同じような大きさであると考えられるので、得点Dir_point3を図27のように得点付けを行う。Dir_point3の最大値は100とし、標準偏差SD_Dirが0度付近で最大値をとる。そして方向度Dir_pointは、数4により求められる。Dir_pointの最大値は100とし、埋もれる前は角度が180度、埋もれた後は0度付近で、標準偏差が0付近で最大値をとる。   After determining the direction of the edge of each pixel as described above, the determination based on the direction degree is performed. The degree of direction is compared between the direction of the edge and the direction of the center of gravity. In the case of the area image of FIG. 24, the center of gravity direction is a direction toward the center of gravity of the area as shown in FIG. The difference between the edge direction and the direction of the center of gravity is obtained, and the average value Ave_Dir and the standard deviation SD_Dir of the direction difference are obtained. Here, the scoring graph based on the average value of the direction difference of the whitefly before being buried in FIG. 26A and the whitefly after being buried in FIG. 26B, and the scoring graph based on the standard deviation are shown in FIG. , Respectively. In the case of the whitefly before being buried, the direction of the edge and the direction of the center of gravity are opposite to each other. Therefore, the score Dir_point1 is scored using Ave_Dir as shown in FIG. The maximum value of Dir_point1 is 100, and the average value Ave_Dir takes a maximum value near 180 degrees. In the whitefly after being buried, the direction of the edge and the direction of the center of gravity are the same direction, so the score Dir_point2 is scored using Ave_Dir as shown in FIG. The maximum value of Dir_point2 is 100, and the average value Ave_Dir takes a maximum value near 0 degrees. The standard deviation SD_Dir pays attention to the variation in the direction difference, and the difference in the direction is considered to have the same size to some extent. Therefore, the score Dir_point3 is scored as shown in FIG. The maximum value of Dir_point3 is 100, and the maximum value is obtained when the standard deviation SD_Dir is around 0 degrees. Then, the direction degree Dir_point is obtained by Equation 4. The maximum value of Dir_point is 100, and the angle is 180 degrees before being buried, around 0 degree after being buried, and the largest value when the standard deviation is around 0.

(コナジラミ度の抽出) (Extraction of whitefly degree)

次に、上述した3つの特徴量を用いてコナジラミの判定を行う。3つの特徴量のうち、テンプレートマッチングによる得点match_pointはテンプレートと形状を比較しているため信頼性が高い。また、縦横比による得点Ratio_pointは信頼性が高いが、縦横比がコナジラミと似たような虫の場合は単独では有効とはいえない。方向度Dir_pointは、コナジラミが単純な形状なので信頼性が高い。そこで、各特徴量に重み付けをしてコナジラミ度という1つの特徴量にする。コナジラミ度konaji_pointは、数5により求める。このコナジラミ度を用いてコナジラミの判定を行う。   Next, the whitefly is determined using the above-described three feature amounts. Of the three feature quantities, the score match_point by template matching is highly reliable because the shape is compared with the template. Also, the score Ratio_point by aspect ratio is high in reliability, but it cannot be said that it is effective alone for an insect whose aspect ratio is similar to whitefly. The direction degree Dir_point is highly reliable because the whitefly is a simple shape. Therefore, each feature amount is weighted to be one feature amount called a degree of whitening. The whitefly degree konaji_point is obtained by Equation 5. This whitefly degree is used to determine the whitefly.

(コナジラミ度の視覚化、コナジラミ計数) (Visualization of whitefly level, whitefly count)

さらにコナジラミ度の高低に応じて、抽出したコナジラミ候補画像に色づけを行い視覚化する。ここでは視覚化は、コナジラミ度に応じて8段階で行う。例えば、カラーの視覚化バーを用いて、左から右にかけて、赤、ピンク、橙、黄、緑、水色、青、藍の8色に分け、バーの左側にいくほどコナジラミ度が高く、右側にいくほどコナジラミ度が低くなるような色分けを行う。これによって、図16等の画像を着色して表示させ、コナジラミ候補抽出画像を視覚的に他と区別しやすくできる。
(コナジラミの計数)
Further, the extracted whitefly candidate images are colored and visualized according to the level of whitefly. Here, visualization is performed in eight stages according to the whitefly degree. For example, using a color visualization bar, from left to right, it is divided into 8 colors: red, pink, orange, yellow, green, light blue, blue, and indigo. Coloring is done so that the degree of whitefly becomes lower. Accordingly, the image shown in FIG. 16 and the like can be colored and displayed, and the whitefly candidate extraction image can be easily visually distinguished from others.
(Count of whitefly)

次に、視覚化後の画像からコナジラミの計数を行う。ここでは、どのコナジラミ候補がコナジラミか正確に判定する必要はなく、画像内にコナジラミがおおまかに何匹いるかわかる程度でよい。計数式を数6に表す。コナジラミ度が高い赤色のコナジラミ候補は1匹とカウントし、それ以下の場合は、色に応じて0.9匹〜0匹としてカウントを行った。なお、藍色は計数を0としている。   Next, the whitefly is counted from the visualized image. Here, it is not necessary to accurately determine which whitefly candidate is a whitefly, and it is only necessary to know roughly how many whitefly are in the image. The counting formula is expressed in Equation 6. Red whitefly candidates with a high degree of whitefly were counted as one animal, and when the number was less than that, 0.9 to 0 animals were counted depending on the color. The indigo color has a count of 0.

(ステップS1305:結果の出力) (Step S1305: Output of result)

以上のようにして得られたコナジラミの認識及び計数の結果を出力する。このように、微小な病害虫であるコナジラミの計数を自動化することが可能であることが確認された。
(実施例3:クワシロカイガラムシ候補の抽出)
The result of recognition and counting of whiteflies obtained as described above is output. Thus, it was confirmed that it is possible to automate counting of whiteflies, which are minute pests.
(Example 3: Extraction of stag beetle candidate)

さらに実施例3としてクワシロカイガラムシの認識について、説明する。クワシロカイガラムシは体長が非常に小さいため、対象画像を取得する撮像手段1には、ネットワークカメラでなく、粘着シートの表面を走査して読み取るスキャナを用いた。以下、スキャナより得られた対象画像から背景部分を除去し、物体領域のみを抽出し、抽出した候補領域に対して分類を行う手法を、図28のフローチャートに基づいて説明する。
(クワシロカイガラムシ)
Furthermore, recognition of a stag beetle will be described as Example 3. Since the stag beetle has a very small body length, a scanner that scans and reads the surface of the adhesive sheet is used as the imaging means 1 for acquiring the target image, instead of a network camera. Hereinafter, a method of removing the background portion from the target image obtained from the scanner, extracting only the object region, and classifying the extracted candidate region will be described based on the flowchart of FIG.
(Shoebug scale)

クワシロカイガラムシは、体長が雄成虫で0.7〜0.9mm、雌成虫で1.1〜1.3mm、幼虫では約0.3mmの微小病害虫である。クワシロカイガラムシの特徴として、雄成虫は橙赤色で羽を持ち、雌は淡黄色〜橙黄色で円形に近い楕円形で、幼虫は淡橙色に近い色で円形に近い楕円をしている。クワシロカイガラムシは茶枝や幹に定着し、口針を挿入して樹液を吸い、茶樹に被害をもたらす。クワシロカイガラムシの食害の被害を受けた枝幹部は弱り、発育不良となり葉の伸びが悪化し、新梢部が枯れてしまう。また、近年ではサクラ、ウメ、モモ等の樹木等にも被害をもたらす。クワシロカイガラムシの発生時期は、5月7月9月の3回にわたって発生し、高温で乾燥していると大量に発生しやすい。またクワシロカイガラムシは、幼虫ふ化期のわずかな期間以外は殻に覆われており、薬剤にかかりにくく農薬では防除しにくい難防病害虫とされている。天敵昆虫はチビトビコバチ、サルメンツヤコバチである。ここでは幼虫のクワシロカイガラムシについて取り扱う。
(ステップS2801:クワシロカイガラムシの対象画像の取得)
The stag beetle is a small pest having a body length of 0.7-0.9 mm for male adults, 1.1-1.3 mm for female adults, and about 0.3 mm for larvae. As a characteristic of the stag beetle, adult males have orange-red wings, females have a pale yellow to orange-yellow elliptical shape, and larvae have a pale orange-like color with a nearly circular ellipse. The stag beetle settles on the tea branch and trunk, inserts a mouth needle and sucks the sap, causing damage to the tea tree. The stems that have been damaged by the insects of the stag beetle are weakened, the growth becomes poor, the leaf growth worsens, and the new shoots die. In recent years, it also causes damage to trees such as cherry, ume, and peach. The occurrence of stag beetle occurs three times in May, July and September, and is likely to occur in large quantities when dried at high temperatures. In addition, stag beetles are covered with shells except for a short period of the larval hatching period, and are considered to be difficult-to-control pests that are difficult to be applied to drugs and difficult to control with pesticides. The natural enemy insects are Chibitobachibachi and Salmensjabachi. Here we deal with the larvae stag beetle.
(Step S2801: Acquisition of target image of stag beetle)

まず、図28のステップS2801でクワシロカイガラムシの対象画像を取得する。ここでは、クワシロカイガラムシの幼虫は体長0.3mmと非常に小さいため、トマトハモグリバエやコナジラミで用いたネットワークカメラでなく、スキャナを用いて粘着シート画像の走査を行う。ここではスキャナの解像度を1200dipに設定した。
(ステップS2802:クワシロカイガラムシの候補領域の抽出)
First, in step S2801 in FIG. 28, a target image of a stag beetle is acquired. Here, the larvae of the scale insects are as small as 0.3 mm in length, so the adhesive sheet image is scanned using a scanner instead of the network camera used for tomato leafhoppers and whiteflies. Here, the resolution of the scanner is set to 1200 dip.
(Step S2802: Extraction of candidate area of stag beetle)

次に、図28のステップS2802で対象画像からクワシロカイガラムシの候補となる候補領域を抽出する。ここでは、スキャナより取得した対象画像から粘着シートに付着したクワシロカイガラムシを検出するため、粘着シートに付着した物体のみを抽出する必要がある。そこで、まず背景部分の除去を行う。背景除去を行うには上述の通りHSV等の色情報を用いた手法が一般的であるが、得られる画像毎に色合いが一定でない場合があるため安定した検出を行うことが難しい。また、上述した可変閾値による背景除去手法といった方法もあるが、虫以外の領域も多く抽出してしまう場合がある。そこで、ここではHSVの色情報を用いた方法と可変閾値による背景除去手法を組み合わせた手法を用いた。なお、本実施例においては農業試験場やスキャナでの取得前に予め、クワシロカイガラムシの粘着シート上に、ユーザが目視により虫の位置に青色マーカ等で囲んでいる。   Next, in step S2802 of FIG. 28, candidate areas that are candidates for stag beetle are extracted from the target image. Here, it is necessary to extract only the object attached to the adhesive sheet in order to detect the stag beetle attached to the adhesive sheet from the target image acquired from the scanner. Therefore, first, the background portion is removed. In order to remove the background, a method using color information such as HSV is generally used as described above. However, since the hue may not be constant for each obtained image, it is difficult to perform stable detection. In addition, there is a method such as the background removal method using the variable threshold described above, but there are cases where many regions other than insects are extracted. Therefore, here, a method using a method using HSV color information and a background removal method using a variable threshold is used. In this embodiment, the user encloses the position of the insect with a blue marker or the like by visual observation on the adhesive sheet of the stag beetle before the acquisition at the agricultural test site or the scanner.

まず、取得した対象画像に対して、クワシロカイガラムシの候補部分を取得する。候補部分を選択する方法としてHSVの色情報により取得する。取得する範囲は、クワシロカイガラムシの体の色が、時間が経過すると黒ずんでしまうため、時間が経過した虫を抽出するため、選択する画素は赤黄色にやや近い部分と黒い部分を候補部分として選択する。図29に示す取得画像に対して得られたクワシロカイガラムシの候補部分の画像を図30に示す。また、取得した画像に対して背景部分として使用する部分を取得する。これは、前述した画像中に青丸で虫を囲んでいるため、自然界にあまり無い青色部分を除外して背景部分として用いるためである。背景部分として使用する部分は、青く囲んである部分を除いた領域を背景として選択する。取得画像に対して得られた背景部分を図31に示す。
そして、得られた候補部分の1つの画素を中心として、図32に示すように取得した背景部分の周囲に小領域を設定し、小領域内の平均輝度を求める。ここでは51×51画素を小領域と設定する。背景のみが存在する小領域の場合、ほぼ同じ明るさとなるため、中心部の輝度は平均輝度値とほぼ同じになる。しかし、背景以外の物体が存在する領域の場合、背景以外の明るさが存在するため、中心部の輝度と平均輝度値との間には隔たりが生じると考えられる。そこで、平均輝度値よりも小さな輝度を持つ画素は背景以外の物体であると考え残しておき、あまり差の少ない輝度値の画素は背景であると考えられるので除去を行う。図29に示す取得画像に対して得られたクワシロカイガラムシ候補のみを抽出した画像を図33に示す。
(ステップS2803:クワシロカイガラムシの候補領域の選択)
First, a candidate portion of a stag beetle is acquired for the acquired target image. As a method for selecting a candidate portion, it is acquired by HSV color information. The range to be acquired is that the body color of the stag beetle will darken over time, so that the insects that have passed over time are extracted, so the pixel to be selected is a part slightly close to red yellow and a black part as candidate parts select. FIG. 30 shows an image of the candidate portion of the stag beetle obtained for the acquired image shown in FIG. Also, a part to be used as a background part for the acquired image is acquired. This is because, since the insects are surrounded by blue circles in the above-described image, the blue portion which is not so much in nature is excluded and used as the background portion. As a portion used as a background portion, an area excluding a portion surrounded by blue is selected as a background. The background portion obtained for the acquired image is shown in FIG.
Then, a small region is set around the acquired background portion around one pixel of the obtained candidate portion as shown in FIG. 32, and the average luminance in the small region is obtained. Here, 51 × 51 pixels are set as a small area. In the case of a small area in which only the background exists, the brightness is substantially the same, so that the brightness at the center is substantially the same as the average brightness value. However, in a region where an object other than the background exists, it is considered that there is a gap between the luminance at the center and the average luminance value because brightness other than the background exists. Therefore, the pixel having a luminance smaller than the average luminance value is left to be considered as an object other than the background, and the pixel having a luminance value with a very small difference is considered to be the background, and is removed. FIG. 33 shows an image obtained by extracting only the stag beetle candidate obtained for the acquired image shown in FIG.
(Step S2803: Selection of candidate area for stag beetle)

次に、図28のステップS2802で得られた領域に対して、ステップS2803で大まかにクワシロカイガラムシらしい領域を選択する。図32に示した画像の結果では、背景部分の除去は行っているが、クワシロカイガラムシ以外の虫や気泡部分等の不要な部分が存在している。そのため、面積や色情報等を比較してクワシロカイガラムシとは明らかに違うものを除去していく。
(面積での選択)
Next, in step S2803, a region that seems to be a stag beetle is roughly selected from the region obtained in step S2802 of FIG. In the result of the image shown in FIG. 32, the background portion is removed, but unnecessary portions such as insects and bubble portions other than the stag beetle exist. For this reason, areas and color information are compared to remove those that are clearly different from stag beetles.
(Selection by area)

背景除去を行った画像に対してラベリングを行い、各物体の面積値を求める。クワシロカイガラムシの大きさは他の虫に比べて小さいので、面積値が大きな物体は他の虫や気泡でありクワシロカイガラムシではないと考えられるので除去し、小さすぎる物体はノイズが検出したと考えられるので除去する。面積による除去を行った結果を、図34に示す。
(HSV平均値での選択)
Labeling is performed on the image from which the background has been removed, and the area value of each object is obtained. Since the size of the stag beetle is small compared to other insects, it is considered that objects with large area values are other insects and bubbles and are not stag beetles, so they are removed and noise is detected for objects that are too small Remove it because it is possible. FIG. 34 shows the result of removal by area.
(Selection with HSV average value)

次に、各物体の色の違いに注目するために、各物体のHSVそれぞれの平均値を求める。このとき、色相の平均値を求める際、図35(a)に示すように色相値は0から360の値で表されるが、図35(b)に示すように実際の色相は環状になっているため、赤色の値を基準値(0)とした場合、色相の平均値が実際とは異なった値が求められ、誤って除去してしまう場合がある。そこで、本実施例では図35(c)に示すように、除去した青部分の色相を基準値(0)とすることで、正しい色相の平均値を求めることができる。クワシロカイガラムシの色は赤色や橙色に近いため、色相の平均値が赤色付近以外の物体を除去する。また、黒ずむ前のクワシロカイガラムシは色が付いており、黒ずんだ後も色が着いた部分が残っているため、平均彩度値が低い場合も除去を行う。
(密度での選択)
Next, in order to pay attention to the difference in color of each object, the average value of each HSV of each object is obtained. At this time, when the average value of the hue is obtained, the hue value is represented by a value from 0 to 360 as shown in FIG. 35 (a), but the actual hue is circular as shown in FIG. 35 (b). Therefore, when the red value is set as the reference value (0), a value different from the actual hue average value is obtained and may be erroneously removed. Therefore, in this embodiment, as shown in FIG. 35C, the average value of the correct hue can be obtained by setting the hue of the removed blue portion as the reference value (0). Since the color of the stag beetle is close to red or orange, an object whose hue average value is not near red is removed. In addition, the stag beetle before darkening is colored, and since the colored portion remains after darkening, the removal is performed even when the average saturation value is low.
(Selection by density)

続いて、各物体の形状からある程度の物体を選択していく。気泡の境界部分等のノイズは、細長く曲線になっている場合が多い。そこで各物体の密度を用いた判定を行う。密度の求め方は、図36に示すように物体の外接四角形を取り、物体の高さをheight、物体の幅をwidth、面積をareaとすると、数7によって物体の密度Densityが求まる。   Subsequently, a certain amount of objects are selected from the shape of each object. In many cases, the noise at the boundary between bubbles is elongated and curved. Therefore, determination using the density of each object is performed. As shown in FIG. 36, the density is obtained by taking the circumscribed rectangle of the object, the height of the object is high, the width of the object is width, and the area is area.

密度Densityは、密になるほど1に近づき、疎になるほど0に近づく。クワシロカイガラムシは図37に示すように密度が密になっており、気泡の境界部分の場合は、図38に示すように疎になっていることが多いことから、密度Densityが0.45以下の場合はノイズと判定し除去する。
(縦横比での選択)
The density Density approaches 1 as it becomes dense, and approaches 0 as it becomes sparse. As shown in FIG. 37, the density of the stag beetle is dense, and in the case of the boundary part of the bubble, the density is often sparse as shown in FIG. 38. Therefore, the density Density is 0.45 or less. In the case of, noise is determined and removed.
(Selection by aspect ratio)

クワシロカイガラムシの形状の特徴として、全体的に丸みを帯びており楕円状になっている点が挙げられる。そこで、縦横比を用いた判定を行う。しかし、図39に示すように外接四角形から縦横比を求める方法では、物体が斜め写っている場合に正しい縦横比が取得できず、誤ってクワシロカイガラムシを除去してしまう場合がある。そこで、ここでは図40に示す物体の向きを考慮して外接四角形を取得し、縦横比を取得する。物体の向きの取得方法として、モーメント特徴を用いて向きを求める。画像におけるモーメントは、周りの2次モーメントが最小になる直線が重心を通る条件を満たす。縦の座標i、横の座標j、縦方向と横方向のモーメントをそれぞれp次、q次モーメントとし、数8及び数9によって重心を通る軸の角度が求まる。   A characteristic of the shape of the stag beetle is that it is rounded and elliptical as a whole. Therefore, determination using the aspect ratio is performed. However, in the method of obtaining the aspect ratio from the circumscribed rectangle as shown in FIG. 39, the correct aspect ratio cannot be obtained when the object is shown obliquely, and the stag beetle may be erroneously removed. Therefore, here, a circumscribed rectangle is acquired in consideration of the direction of the object shown in FIG. 40, and the aspect ratio is acquired. As a method for obtaining the orientation of an object, the orientation is obtained using a moment feature. The moment in the image satisfies the condition that the straight line with the smallest secondary moment passes through the center of gravity. The vertical coordinate i, the horizontal coordinate j, and the moments in the vertical direction and the horizontal direction are defined as the p-th order and q-th order moments, respectively, and the angle of the axis passing through the center of gravity is obtained by Equations 8 and 9.

求めた角度から長軸Long_Axisと、短軸Short_Axisを求める。図41に示すように、軸の長さの取得方法は角度θを基準とした外接四角形の長辺と短辺をそれぞれ長軸Long_Axis、短軸Short_Axisとすると、数10によって縦横比Ratioが求まる。クワシロカイガラムシの形状は全体的に丸みを帯びており楕円状になっているため、図42(a)に示すような円に近い物体や図42(b)に示すような細長くなっている物体は、クワシロカイガラムシではないと考えられるので、Ratioが1.2〜2.5の範囲内に無い物体の除去を行う。   The long axis Long_Axis and the short axis Short_Axis are obtained from the obtained angles. As shown in FIG. 41, in the method of obtaining the length of the axis, if the long side and the short side of the circumscribed square with the angle θ as a reference are the long axis Long_Axis and the short axis Short_Axis, respectively, the aspect ratio Ratio is obtained by Equation 10. Since the shape of the stag beetle is rounded and oval as a whole, an object close to a circle as shown in FIG. 42 (a) or an elongated object as shown in FIG. 42 (b) Is considered not to be a stag beetle, it removes an object whose Ratio is not within the range of 1.2 to 2.5.

(ステップS2804:画像の拡大・回転・再抽出) (Step S2804: Image enlargement / rotation / re-extraction)

次に、図28のステップS2804でクワシロカイガラムシ候補領域を、同じ向きに合わせ鮮明な画像にするために範囲内を回転、拡大する方法について説明する。ここで拡大は取得画像に対して行うため、再抽出する必要がある。
(画像の拡大・回転)
Next, a method of rotating and enlarging the range in order to make the stag beetle candidate area a clear image in the same direction in step S2804 in FIG. 28 will be described. Here, since the enlargement is performed on the acquired image, it needs to be extracted again.
(Enlarge / Rotate image)

抽出したクワシロカイガラムシ候補領域は様々な姿勢を向いているため、そのままでは特徴量を正確に抽出することが困難である。また、抽出したクワシロカイガラムシ候補領域は数十画素の情報しか存在しないため、特徴量を正確に抽出することが難しい。そこで、クワシロカイガラムシ候補領域の向きを一定にし、また鮮明な画像を得るため、クワシロカイガラムシ候補領域に対して、回転とサブピクセル情報を用いた画像の拡大を行う。まず、上記で求めたモーメントによる領域の軸の角度θを用いて、図43に示すように回転後の座標(x,y)を回転前の座標(x’,y’)に戻し対応点の探索を行う必要がある。数11を用いて重心座標(xg,yg)と回転後の座標(x,y)との距離Distを求め、数12を用いて回転後の座標(x,y)の傾きψを求める。そして数13及び数14を用いて回転前の座標回転前の座標(x’,y’)を求める。   Since the extracted stag beetle candidate region is in various postures, it is difficult to accurately extract the feature value as it is. In addition, since the extracted stag beetle candidate region has only information of several tens of pixels, it is difficult to accurately extract the feature amount. Therefore, in order to make the direction of the stag beetle candidate area constant and to obtain a clear image, the image using the rotation and sub-pixel information is performed on the stag beetle candidate area. First, using the angle θ of the region axis by the moment obtained above, the coordinates (x, y) after rotation are returned to the coordinates (x ′, y ′) before rotation as shown in FIG. Need to search. The distance Dist between the barycentric coordinates (xg, yg) and the rotated coordinates (x, y) is obtained using Equation 11, and the inclination ψ of the rotated coordinates (x, y) is obtained using Equation 12. Then, the coordinates (x ′, y ′) before the rotation before the rotation are obtained using the equations 13 and 14.

対応点を求めたら、拡大画像を作成するために画素の補間を行う。補間の方法として、最近傍法があるが、この手法では補間を行う画素の最も近い画素の濃度値を与えるため、鮮明な画像の補間に適していない。そこで、ここで用いる補間手法として3次補間法を用いて補間を行う。3次補間法は、図44に示すように濃度値を求める座標(x’,y’)の周囲16個の格子点の濃度値を用いて3次式を用いて補間を行う。3次式は、図45に示すように標本化定理で現れる関数sinπx/(πx)の近似式を用いており、理論上は座標(x’,y’)の濃度がほぼ完全に復元が可能である。   Once the corresponding points are obtained, pixel interpolation is performed to create an enlarged image. As a method of interpolation, there is a nearest neighbor method. However, since this method gives the density value of the pixel closest to the pixel to be interpolated, it is not suitable for clear image interpolation. Therefore, interpolation is performed using a cubic interpolation method as an interpolation method used here. In the cubic interpolation method, as shown in FIG. 44, interpolation is performed using a cubic equation using density values of 16 grid points around coordinates (x ′, y ′) for obtaining density values. As shown in FIG. 45, the cubic equation uses an approximate expression of the function sin πx / (πx) that appears in the sampling theorem, and theoretically the concentration of the coordinates (x ′, y ′) can be almost completely restored. It is.

ここでは、この3次補間により回転前の座標(x’,y’)の濃度値を数15及び数16を用いて3次式による補間を行う。3次補間により、より鮮明なサブピクセル情報が得られ、正確な特徴量の抽出を行うことが可能である。図46に示す拡大・回転を行う前の取得画像に対して回転・拡大を行った画像を図47に示す。   Here, interpolation by a cubic equation is performed using the density values of the coordinates (x ′, y ′) before the rotation by using the cubic interpolation using the equations 15 and 16. With cubic interpolation, clearer subpixel information can be obtained, and accurate feature extraction can be performed. FIG. 47 shows an image obtained by rotating / enlarging the acquired image before the enlargement / rotation shown in FIG.

(領域の再抽出) (Region re-extraction)

作成した回転・拡大画像は取得画像に対して行ったものなので、回転・拡大画像での領域を抽出する必要がある。再抽出は、上述した手法同様と同様に行い領域を再抽出する。このとき、回転・拡大画像は図48に示すように領域を並べて作成しているが、近くに別の領域が存在する場合、誤って抽出されてしまう場合がある。そこでここでは、ラベリングを行った後に各回転・拡大部分の重心部付近のラベル以外は除外することで、不要な領域の削除が可能である。図48の回転・拡大画像の領域を抽出した画像を図49に示す。
(ステップS2805:クワシロカイガラムシの分類)
Since the created rotated / enlarged image is obtained with respect to the acquired image, it is necessary to extract a region in the rotated / enlarged image. The re-extraction is performed in the same manner as the above-described method, and the region is re-extracted. At this time, the rotated / enlarged image is created by arranging the regions as shown in FIG. 48, but if another region exists nearby, it may be erroneously extracted. Therefore, unnecessary areas can be deleted by excluding labels other than the labels in the vicinity of the center of gravity of each rotated / enlarged portion after labeling. FIG. 49 shows an image obtained by extracting the region of the rotated / enlarged image in FIG.
(Step S2805: Classification of stag beetle)

次に図28のステップS2805でクワシロカイガラムシの分類を行う。クワシロカイガラムシは、粘着シートに付着して時間が経過すると体が黒ずんでしまい、図50(a)〜(c)に示すように黒ずんでしまう前と後では特徴が変わってしまう。そこでここでは、クワシロカイガラムシ候補領域を複数の種類に分類する。粘着シートに付着してしばらくの間は、図50(a)に示す本来の色鮮やかなクワシロカイガラムシの特徴がある。そこで、平均輝度値や平均彩度値が高い候補領域は、色鮮やかなクワシロカイガラムシの可能性があると考えられるので、色鮮やかなクワシロカイガラムシ候補領域として分類する。また、ある程度時間が経過すると、図50(b)に示すようにクワシロカイガラムシの体の一部が黒ずんでくるといった特徴が見られる。そこで、平均輝度値や平均彩度値がそれほど高くなく、低い輝度値のみの平均値である平均低輝度値が低い候補領域は、一部分が黒ずんだクワシロカイガラムシの可能性があると考えられるので、一部分が黒ずんだクワシロカイガラムシ候補領域として分類する。また、さらに時間が経過すると、図50(c)に示すようにクワシロカイガラムシの体全体が黒ずんでしまう特徴が見られる。そこで、平均輝度値や平均彩度値が低い候補領域は、全体が黒ずんだクワシロカイガラムシの可能性があると考えられるので、全体が黒ずんだクワシロカイガラムシ候補領域として分類する。分類したクワシロカイガラムシは、図51に示すように、色鮮やかなクワシロカイガラムシ候補領域を緑色、一部分が黒ずんだクワシロカイガラムシ候補領域を赤色、全体が黒ずんだクワシロカイガラムシ候補領域を青色として表示する。
(ステップS2806:クワシロカイガラムシの特徴量の抽出)
Next, in step S2805 in FIG. 28, the stag beetle is classified. As for the stag beetle, the body darkens when time passes after adhering to the adhesive sheet, and the characteristics change before and after darkening as shown in FIGS. 50 (a) to (c). Therefore, here, the stag beetle candidate area is classified into a plurality of types. For a while after adhering to the pressure-sensitive adhesive sheet, there is a characteristic of the original colorful stag beetle shown in FIG. Therefore, a candidate area having a high average luminance value or high average saturation value is considered to be a colorful stag beetle, and is therefore classified as a colorful stag beetle candidate area. Further, when a certain amount of time has elapsed, as shown in FIG. 50 (b), there is a characteristic that a part of the body of the stag beetle darkens. Therefore, it is considered that the candidate area where the average luminance value and the average saturation value are not so high and the average low luminance value, which is an average value of only the low luminance value, is low, may be a partly dark stag beetle. This is classified as a stag beetle candidate area that is partially darkened. In addition, as time passes further, as shown in FIG. 50 (c), there is a characteristic that the entire body of the stag beetle darkens. Therefore, a candidate area having a low average luminance value or a low average saturation value is considered to be an all-black stag beetle, so it is classified as an all-black stag beetle candidate area. As shown in FIG. 51, the classified variegated scale insects are displayed with the colorful stag beetle candidate area in green, the partially stag beetle candidate area in red, and the entire stag beetle candidate area in blue as blue. To do.
(Step S2806: Extraction of feature amount of stag beetle)

さらに図28のステップS2806で、クワシロカイガラムシの特徴量の抽出を行う。以下、上述のステップで得られたクワシロカイガラムシ候補抽出画像から、クワシロカイガラムシのみを判定するための特徴量を抽出する手順について説明する。まず、特徴量としてテンプレートマッチングと楕円度について説明する。次に、各分類で行う特徴量を1つずつ説明する。さらに、各特徴量を統合したクワシロ度について説明する。最後にクワシロカイガラムシの計数方法について説明する。
(クワシロカイガラムシの特徴)
Further, in step S2806 in FIG. 28, the feature amount of the stag beetle is extracted. Hereinafter, a procedure for extracting a feature amount for determining only a stag beetle from a stag beetle candidate extraction image obtained in the above-described steps will be described. First, template matching and ellipticity will be described as feature quantities. Next, one feature amount for each classification will be described. Furthermore, the quasi-degree of integrating each feature amount will be described. Finally, a method for counting stag beetles will be described.
(Characteristics of stag beetle)

抽出した候補領域からクワシロカイガラムシのみを判定するための特徴量について説明する。クワシロカイガラムシは上述の通り図28のステップS2805で分類を行ったので、図52(a)〜(c)に示すように2つの共通の特徴量(ここではマッチ度と楕円度)と各分類で違う特徴量1つ(図52(a)に示す色鮮やかな例では囲み度、図52(b)に示す一部が黒い例では体度、図52(c)に示す全体が黒い例では色彩度)の計5種類の特徴量について説明する。
(テンプレートマッチング)
A feature amount for determining only the stag beetle from the extracted candidate area will be described. As described above, the stag beetle has been classified in step S2805 of FIG. 28, and therefore, as shown in FIGS. 52 (a) to (c), two common feature quantities (here, match degree and ellipticity) and the respective classifications. One feature amount is different (in the colorful example shown in FIG. 52 (a), the degree of enclosure is shown, in FIG. 52 (b) is partly black, the body is shown in FIG. 52 (c), and in the whole example shown in FIG. 52 (c) is black. A total of five types of feature values (color saturation) will be described.
(Template matching)

粘着シートに付着したクワシロカイガラムシを見ると、ほぼ全てのクワシロカイガラムシが似た形状で付着していることがわかる。そこでテンプレートマッチングを用いた判定を行う。テンプレートマッチングとは、入力画像とテンプレート画像とを重ね合わせることにより比較照合し、両者が一致しているかどうかを判定する処理のことである。図53にテンプレートマッチングの手法を示す。入力画像f(x,y)からテンプレートt(x,y)の位置を検出する場合、t(x,y)がf(x,y)中の点(u,v)の位置に重なるようにし、t(x,y)とそれと重なる画像の部分パターンとの類似度を測る。位置検出の場合、通常t(x,y)の画像の大きさはf(x,y)に比べて小さい。t(x,y)の定義されていない範囲ではすべてt(x,y)=0と考えると、点(u,v)における類似度m(u,v)は数17によって表現される。類似度m(u,v)は点(u,v)に対象が存在する確からしさを表しており、値が小さいほど対象らしいことを示す。   Looking at the stag beetle adhering to the adhesive sheet, it can be seen that almost all of the variegated scale insects are attached in a similar shape. Therefore, determination using template matching is performed. Template matching is a process of comparing and collating an input image and a template image to determine whether or not they match. FIG. 53 shows a template matching method. When the position of the template t (x, y) is detected from the input image f (x, y), t (x, y) is overlapped with the position of the point (u, v) in f (x, y). , T (x, y) and the similarity between the overlapping partial patterns of the image are measured. In the case of position detection, the image size of t (x, y) is usually smaller than f (x, y). In the range where t (x, y) is not defined, assuming that t (x, y) = 0, the similarity m (u, v) at the point (u, v) is expressed by Equation 17. The similarity m (u, v) represents the probability that the object exists at the point (u, v), and the smaller the value, the more likely the object is.

ここではクワシロカイガラムシのみを検出するため、あらかじめ複数のクワシロカイガラムシを基に作成したテンプレート画像を用いてマッチングを行う。図54にテンプレート画像の拡大画像を示す。テンプレート画像の実寸サイズは36×54Pixelであり、形状の若干異なるテンプレート画像を9種類使用する。このテンプレート画像から各クワシロカイガラムシ候補の最小類似度を求める。そして、求めた各最小類似度をそのクワシロカイガラムシ候補の類似度Mとする。類似度Mは数17のようにテンプレート画像と入力画像との濃度値の差であるため形状が似ているほど0に近づく。そこでテンプレートマッチングによる得点match_pointを図55のように得点付けを行う。図55において横軸は類似度M、縦軸はテンプレートマッチングによる得点match_pointを示す。match_pointの最大値は100とし、最大マッチである類似度0で最大値をとる。
(楕円度)
Here, in order to detect only stag beetles, matching is performed using template images created in advance based on a plurality of stag beetles. FIG. 54 shows an enlarged image of the template image. The actual size of the template image is 36 × 54 Pixel, and nine types of template images having slightly different shapes are used. The minimum similarity of each stag beetle candidate is obtained from this template image. Then, each obtained minimum similarity is set as the similarity M of the stag beetle candidate. Since the similarity M is the difference in density value between the template image and the input image as shown in Equation 17, the closer the shape is, the closer to 0. Therefore, the score match_point by template matching is scored as shown in FIG. In FIG. 55, the horizontal axis indicates similarity M, and the vertical axis indicates score match_point by template matching. The maximum value of match_point is 100, and the maximum value is obtained with a similarity of 0, which is the maximum match.
(Ellipticity)

クワシロカイガラムシの外形的特徴として、楕円に近い形状であるという点が挙げられる。そこで楕円を用いて外周部の楕円らしさを比較する。楕円度とは、領域がどのぐらい楕円に近い形状なのかを測る特徴量である。まず、領域の外周部と比較を行う楕円を取得するために、モーメント特徴により候補領域の向きや軸を取得する。候補領域は上述の通り同じ向きに合わせているが、画素の細かいズレがあるため再度モーメント特徴により領域の傾き、長軸及び短軸を求める。傾きと軸の長さから、図56に示すように楕円を取得して外周との比較を行う。外周との比較は、図57に示すように重心を基準とした角度が同じ方向の外周と楕円の距離差Diff_distを求める。距離差Diff_distにより、楕円と領域のズレがあるかを求めている。Diff_distを5度の間隔で360度まで求め、各角度の合計距離差Total_dist及び数18より平均距離差Ave_distを求める。また、距離差の標準偏差SD_distを求める。距離差の標準偏差SD_distにより、楕円と外周の急激なズレがあるかを求めている。   As an external feature of the stag beetle, it has a shape close to an ellipse. Therefore, the ellipses of the outer periphery are compared using ellipses. The ellipticity is a feature value that measures how close a region is to an ellipse. First, in order to obtain an ellipse to be compared with the outer periphery of the region, the orientation and axis of the candidate region are obtained from the moment feature. Although the candidate areas are aligned in the same direction as described above, the inclination, major axis, and minor axis of the area are obtained again by the moment feature because there is a fine displacement of the pixels. From the inclination and the length of the axis, an ellipse is acquired and compared with the outer circumference as shown in FIG. For comparison with the outer periphery, as shown in FIG. 57, a distance difference Diff_dist between the outer periphery and the ellipse in the same direction with respect to the center of gravity is obtained. Based on the distance difference Diff_dist, it is determined whether there is a deviation between the ellipse and the region. Diff_dist is obtained up to 360 degrees at intervals of 5 degrees, and the average distance difference Ave_dist is obtained from the total distance difference Total_dist of each angle and Equation 18. Further, a standard deviation SD_dist of the distance difference is obtained. Based on the standard deviation SD_dist of the distance difference, it is determined whether there is a steep deviation between the ellipse and the outer periphery.

求めた平均距離差Ave_dist及び距離差の標準偏差SD_distにより、得点付けを行う。クワシロカイガラムシは楕円に近い形状であるため、平均距離Ave_distによる得点Ave_pointを図58に示すように得点付けを行う。また、クワシロカイガラムシの形状は単純な楕円の形状に近いため、距離差の標準偏差SD_distによる得点SD_pointを図59に示すように得点付けを行う。そしてAve_pointとSD_pointを用いて、数19により楕円度oval_pointを求める。楕円度oval_pointの最高点を100点とし、単純な楕円の形状をしている領域ほど高得点となる。   Scoring is performed based on the obtained average distance difference Ave_dist and the standard deviation SD_dist of the distance difference. Since the stag beetle has a shape close to an ellipse, the score Ave_point based on the average distance Ave_dist is scored as shown in FIG. Further, since the shape of the stag beetle is close to the shape of a simple ellipse, the score SD_point based on the standard deviation SD_dist of the distance difference is scored as shown in FIG. Then, the ellipticity oval_point is obtained from Equation 19 using Ave_point and SD_point. The highest point of the ellipticity oval_point is 100 points, and the higher the score is, the more the region having a simple elliptical shape is.

(囲み度) (Degree of enclosure)

色鮮やかなクワシロカイガラムシは、体の中心が外側に比べ色が濃く彩度が高くなっている点が挙げられる。そこで、囲み度を用いた判定を行う。囲み度とは、高彩度値の画素を囲む様に低彩度値が分布しているかを測る特徴量である。候補領域中の高彩度値から得られる重心点を(X,Y)、それ以外の画素から得られる重心点を(x,y)とすると、重心点同士の距離dは数20で表される。クワシロカイガラムシは体の中心に高彩度値の画素があるため、高彩度値の重心点とそれ以外の画素の重心点は一致すると考えられる。距離dを用いて囲み度surround_pointは図60のように得点付けを行う。surround_pointの最大値は100とし、距離dが離れるほど0に近づく。   The colorful stag beetle has a deeper color and higher saturation than the outside. Therefore, determination using the degree of enclosure is performed. The degree of enclosure is a feature amount that measures whether low saturation values are distributed so as to surround pixels with high saturation values. If the centroid point obtained from the high saturation value in the candidate area is (X, Y) and the centroid point obtained from the other pixels is (x, y), the distance d between the centroid points is expressed by Equation 20. Since the stag beetle has a pixel with a high saturation value at the center of the body, it is considered that the centroid point of the high saturation value coincides with the centroid point of other pixels. Using the distance d, the surrounding degree surround_point is scored as shown in FIG. The maximum value of surround_point is 100, and approaches 0 as the distance d increases.

(体度) (Health)

一部分が黒ずんだクワシロカイガラムシ候補領域は、一部分が黒くなっている場合がある。そのため体度を用いた判定を行う。ここで体度とは、低輝度値の画素が1箇所に固まっており体のようになっているかを測る特徴量である。候補領域中の低輝度値のみでの密度B_Densityから体度body_pointを図61に示すように得点付けを行う。body_pointの最大値を100とし、密度B_Densityが低くなるほど0に近づく。
(色彩度)
The stag beetle candidate area that is partially dark may be partially black. Therefore, the determination using the physical strength is performed. Here, the physical condition is a feature amount that measures whether or not pixels having low luminance values are gathered in one place and look like a body. As shown in FIG. 61, scoring is performed on the body_point from the density B_Density only in the low luminance value in the candidate area. The maximum value of body_point is set to 100, and it approaches 0 as the density B_Density decreases.
(Color saturation)

全体が黒ずんだクワシロカイガラムシ候補領域は、本来は色が付いたものが時間の経過で黒ずんだものである。そこで、色情報を用いた色彩度を用いた判定を行う。ここで色彩度とは、色が付いていた部分を用いて図る特徴量である。領域中の高彩度値の平均高彩度値High_Satを求め、色彩度color_pointを図62に示すように得点付けを行う。color_pointの最大値を100とし、色が付いていない領域ほど0に近づく。
(ステップS2807:クワシロ度の抽出)
The stag beetle candidate area that is entirely dark is originally colored but darkened over time. Therefore, determination using color saturation using color information is performed. Here, the color saturation is a feature amount to be obtained by using a colored portion. The average high saturation value High_Sat of the high saturation values in the region is obtained, and the color saturation color_point is scored as shown in FIG. The maximum value of color_point is set to 100, and the region with no color approaches 0.
(Step S2807: Extraction of quasi-degree)

さらに図28のステップS2807で、クワシロ度の抽出を行う。ここでは上述した5つの特徴量を用いてクワシロカイガラムシの判定を行う。3つの特徴量のうち、テンプレートマッチングによる得点match_pointはテンプレートと形状を比較しているため信頼性が高い。また、楕円度による得点oval_pointはクワシロカイガラムシが単純な形状をしているため信頼性が高い。囲み度によるsurround_pointや体度body_pointは、小さなノイズには得られる画素が少ないため単独での信頼性は低い。色彩度color_pointは、ノイズに色が付いている場合があるので単独での信頼性は低い。そこで、各特徴量に重みづけをしてクワシロ度という1つの特徴量にする。クワシロ度kuwashiro_pointは数21により表される。このクワシロ度を用いてクワシロカイガラムシの判定を行う。このとき、楕円度が極端に低い領域は、クワシロカイガラムシではない可能性が非常に高いため、0匹とする。   Further, in step S2807 in FIG. 28, the quasi-degree is extracted. Here, the stag beetle is determined using the five feature amounts described above. Of the three feature quantities, the score match_point by template matching is highly reliable because the shape is compared with the template. In addition, the score oval_point based on the ellipticity is highly reliable because the stag beetle has a simple shape. Surround_point and body_body_point based on the degree of enclosure are low in reliability because they have few pixels for small noise. The color saturation color_point has low reliability because it may be colored in noise. Therefore, each feature value is weighted to be one feature value called the quasi-degree. The quasi-degree kuwashiro_point is expressed by Equation 21. The stag beetle is determined using this stagnation degree. At this time, since the possibility that the ellipticity is extremely low is not a stag beetle is very high, it is set to zero.

(ステップS2808:クワシロ度の視覚化及びクワシロカイガラムシの計数) (Step S2808: Visualization of degree of stagnation and counting of scale insects)

さらに図28のステップS2808で、クワシロ度の視覚化及びクワシロカイガラムシの計数を行う。ここではクワシロ度の高低に応じて、抽出したクワシロカイガラムシ候補画像に色付けを行い視覚化する。視覚化はクワシロ度に応じて8段階に色分けされた視覚化バーを用いて行う。視覚化バーにおいてバーの左側にいくほどクワシロ度が高く、右側にいくほどクワシロ度が低くなる。   Further, in step S2808 of FIG. 28, the degree of stagnation is visualized and the number of stag beetles is counted. Here, according to the level of the stagnation degree, the extracted stag beetle candidate image is colored and visualized. Visualization is performed using a visualization bar that is color-coded in eight levels according to the degree of quasi. In the visualization bar, the quasi-degree is higher as it goes to the left of the bar, and the quasi-degree is lower as it goes to the right.

次に、視覚化後の画像からクワシロカイガラムシの計数を行う。ここでは、どのクワシロカイガラムシ候補がクワシロカイガラムシかを正確に判定する必要はなく、画像内にクワシロカイガラムシが大まかに何匹いるか判る程度でよい。ここでは計数式を数22に表す。クワシロ度が高い赤色のクワシロカイガラムシ候補は1匹とカウントし、それ以下の場合は、色に応じて0.9匹〜0匹としてカウントを行う。   Next, the stag beetle is counted from the visualized image. Here, it is not necessary to accurately determine which stag beetle candidate is a stag beetle, and it is only necessary to know roughly how many stag beetles are in the image. Here, the counting formula is represented by Formula 22. A red stag beetle candidate with a high stagnation degree is counted as one animal, and if it is less than that, it is counted as 0.9 to 0 animals depending on the color.

(ステップS2809:出力) (Step S2809: output)

最後に、得られた結果を出力する。   Finally, the obtained result is output.

以上の評価方法を用いて、コナジラミとクワシロカイガラムシについて認識を行った結果を、以下説明する。
(実験環境)
The results of recognition of whiteflies and stag beetles using the above evaluation method will be described below.
(Experiment environment)

コナジラミについては、カメラから2メートルの位置に粘着シート(商品名:ホリバー)を設置し、ネットワークカメラから画像取得を行った。白色蛍光灯の下で実験を行い、ネットワークカメラの明るさ、ホワイトバランスは固定した。これは、ズームを繰り返すと画像全体が暗くなり、カメラが自動で明るさやホワイトバランスを変化させるのを防ぐためである。   For whiteflies, an adhesive sheet (trade name: Horibar) was installed at a position 2 meters from the camera, and images were acquired from a network camera. The experiment was conducted under a white fluorescent lamp, and the brightness and white balance of the network camera were fixed. This is to prevent the camera from changing the brightness and white balance automatically when the zoom is repeated and the entire image becomes dark.

クワシロカイガラムシについては、スキャナを使用しての画像取得を行った。解像度は1200dpiで固定し、画像の明度を−20に固定した。解像度を固定するのは、テンプレートマッチングを行う際に抽出したクワシロカイガラムシの大きさが不安定になるのを防ぐためである。また明度を−20で固定するのは、スキャナの初期の明度ではクワシロカイガラムシが小さすぎるため、取得画像に写らない可能性を防ぐためである。
(実験結果)
For the stag beetle, images were acquired using a scanner. The resolution was fixed at 1200 dpi, and the brightness of the image was fixed at -20. The reason for fixing the resolution is to prevent the size of the scale insects extracted when performing template matching from becoming unstable. The lightness is fixed at −20 in order to prevent the possibility that the initial lightness of the scanner will not appear in the acquired image because the stag beetle is too small.
(Experimental result)

コナジラミでの実験は、1枚の粘着シートを14枚に分割して撮影した。また、クワシロカイガラムシの実験は、1枚の粘着シートを16枚の画像に分割して撮影した。表1に各粘着シートにおけるコナジラミ計数結果を、表2に各粘着シートにおけるクワシロカイガラムシ計数結果を、それぞれ示す。   In the experiment with whitefly, one adhesive sheet was divided into 14 sheets and photographed. In the experiment on the scale insect, a single adhesive sheet was divided into 16 images. Table 1 shows the whitefly count results in each adhesive sheet, and Table 2 shows the stag beetle count results in each adhesive sheet.

各粘着シートにおいて、目視でコナジラミをカウントしたところ58匹のコナジラミが存在した。上記手法でコナジラミ候補として抽出された総数は145匹で、コナジラミ計数を行った結果は73匹と判定され、良好な結果が得られた。   In each pressure-sensitive adhesive sheet, 58 whitefly were present when the whitefly was counted visually. The total number extracted as whitefly candidates by the above method was 145, and the result of the whitefly count was determined to be 73, and good results were obtained.

一方、粘着シートにおいて目視でクワシロカイガラムシをカウントしたところ915匹のクワシロカイガラムシが存在した。本手法でクワシロカイガラムシ候補として抽出された総数は861匹であり、クワシロ計数を行った結果クワシロカイガラムシは889匹と判定された。全体の評価としては、抽出率が約95%弱でクワシロ計数がほぼ全体のクワシロカイガラムシ数と同じになっており、優れた結果を示した。   On the other hand, when the stag beetle was counted visually on the adhesive sheet, there were 915 stag beetles. The total number extracted as candidates for stag beetles by this method was 861, and as a result of counting stag beetles, it was determined that there were 889 stag beetles. As an overall evaluation, the extraction rate was about 95% and the stag beetle count was almost the same as the overall number of stag beetle, indicating excellent results.

以上の通り、取得された対象画像からコナジラミやクワシロカイガラムシを計数することが可能となる。すなわち、取得される画像から粘着シートの背景部分を除去した背景除去画像を作成し、さらに特徴量からコナジラミ度やクワシロ度を抽出することで、画像内に存在するコナジラミやクワシロカイガラムシの匹数計数を自動で行うことができる。このように、虫の画像処理装置を用いることで、害虫を検知し、その発生具合を計数できるので、この情報を利用して、天敵昆虫や農薬等の最適な投入のタイミングを把握することが可能となる。これによって栽培主が従来のように一々目視で粘着シートに付着した害虫を確認する作業が不要となり、負担を大きく軽減できる。この結果、化学農薬に替わる生物農薬の効果的な活用が期待できる。   As described above, whiteflies and stag beetles can be counted from the acquired target image. In other words, by creating a background-removed image that removes the background portion of the adhesive sheet from the acquired image, and further extracting the whitefly degree and stagnation degree from the feature amount, the number of whitefly and stag beetle present in the image Counting can be performed automatically. In this way, by using the insect image processing device, it is possible to detect pests and count their occurrence, so this information can be used to grasp the optimal timing of natural enemy insects, pesticides, etc. It becomes possible. This eliminates the need for the grower to visually check the pests attached to the adhesive sheet one by one as in the prior art, and can greatly reduce the burden. As a result, it can be expected to effectively use biological pesticides instead of chemical pesticides.

本発明の虫の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記憶媒体は、ビニールハウス内でサンプル捕捉した虫の計数や種別の判定、あるいは食品工場や製薬工場における虫の種別判定等の用途に好適に利用できる。   Insect image processing apparatus, image processing method, image processing program, and computer-readable storage medium of the present invention can be used for counting insects captured in a greenhouse, determining the type of insects, or determining insects in food factories and pharmaceutical factories. It can be suitably used for purposes such as type determination.

100、200、300…虫の画像処理装置
1…撮像手段
1B…画像取得手段
2…画像メモリ
10…演算部
11…画像抽出手段
12…情報解析手段
13…判別手段
14…種別認識手段
15…計数手段
20…記憶部
30…表示部
40…操作部
TM…端末
MD…記録媒体
DESCRIPTION OF SYMBOLS 100, 200, 300 ... Bug image processing apparatus 1 ... Imaging means 1B ... Image acquisition means 2 ... Image memory 10 ... Calculation part 11 ... Image extraction means 12 ... Information analysis means 13 ... Discrimination means 14 ... Type recognition means 15 ... Counting Means 20 ... storage unit 30 ... display unit 40 ... operation unit TM ... terminal MD ... recording medium

Claims (17)

撮像された画像中に含まれる虫に関する情報を特定するための画像処理装置であって、
虫を含む可能性のある対象画像を取得するための画像取得手段と、
前記画像取得手段で取得された対象画像から、虫に該当する画像を抽出する画像抽出手段と、
前記画像抽出手段で抽出された抽出領域から、画像処理によって虫に関する情報を解析する情報解析手段と、
前記情報解析手段で解析された虫に関する情報に基づいて、虫かどうかの判別を行う判別手段と、
前記判別手段で虫と判別された抽出領域の数を計数する計数手段と、
前記計数手段で計数された結果を虫の数として出力するための出力手段と、
を備えることを特徴とする虫の画像処理装置。
An image processing apparatus for specifying information about insects included in a captured image,
Image acquisition means for acquiring a target image that may contain insects;
Image extraction means for extracting an image corresponding to an insect from the target image acquired by the image acquisition means;
Information analysis means for analyzing information about insects by image processing from the extraction area extracted by the image extraction means;
Based on the information on the insect analyzed by the information analysis means, a determination means for determining whether it is an insect,
A counting means for counting the number of extraction regions determined to be insects by the determination means;
Output means for outputting the result counted by the counting means as the number of insects;
An insect image processing apparatus comprising:
請求項1に記載の虫の画像処理装置であって、さらに、
特徴量データベースを保持したデータベース保持手段を備えており、
前記判別手段が、前記データベース保持手段に保持された特徴量データベースを参照して、特徴量を用いて判別を行うことを特徴とする虫の画像処理装置。
The insect image processing apparatus according to claim 1, further comprising:
It has database holding means that holds the feature database,
An insect image processing apparatus characterized in that the discrimination means performs discrimination using a feature quantity with reference to a feature quantity database held in the database holding means.
請求項1又は2に記載の虫の画像処理装置であって、
前記判別手段が、虫の種別の認識を行うことを特徴とする虫の画像処理装置。
The insect image processing apparatus according to claim 1 or 2,
An insect image processing apparatus, wherein the discrimination means recognizes the type of insect.
請求項1から3のいずれか一に記載の虫の画像処理装置であって、
前記情報解析手段が、
対象画像の解像度が高い場合は、特徴量を用いた処理を行い、
対象画像の解像度が低い場合は、テンプレートマッチングを用いた処理を行うことを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 3,
The information analyzing means is
If the resolution of the target image is high, perform processing using the feature amount,
An insect image processing apparatus that performs processing using template matching when the resolution of a target image is low.
請求項1から4のいずれか一に記載の虫の画像処理装置であって、
前記情報解析手段で抽出される特徴が、虫の全体長、胴体、手足、周囲長のいずれかを特徴量として含むことを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 4,
The insect image processing apparatus characterized in that the feature extracted by the information analysis means includes any one of the total length, body, limbs, and perimeter of the insect as a feature amount.
請求項1から5のいずれか一に記載の虫の画像処理装置であって、
前記判別手段が、虫の種別を認識するに際して、同一種類の虫に対して、表面の色が部分的に異なるものを複数に分類すると共に、
該分類された虫の色に応じて、異なる特徴量を付与し、該異なる特徴量を用いて判別を行うことを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 5,
When the discrimination means recognizes the type of insect, the same type of insect is classified into a plurality of partially different surface colors,
An insect image processing apparatus characterized by assigning different feature amounts according to the color of the classified insects and performing discrimination using the different feature amounts.
請求項6に記載の虫の画像処理装置であって、
前記判別手段が、該分類された虫の色に応じて、異なる特徴量を付与する一方で、共通の特徴量を付与し、これら複数の特徴量を用いて判別を行うことを特徴とする虫の画像処理装置。
The insect image processing apparatus according to claim 6,
An insect characterized in that the discrimination means assigns a different feature amount according to the color of the classified insect, while assigning a common feature amount, and makes a discrimination using the plurality of feature amounts. Image processing apparatus.
請求項1から7のいずれか一に記載の虫の画像処理装置であって、
認識対象の虫が、アザミウマ、コナジラミ、クワシロカイガラムシのいずれかであることを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 7,
An insect image processing apparatus characterized in that the insect to be recognized is any one of thrips, whiteflies, and a scale insect.
請求項1から8のいずれか一に記載の虫の画像処理装置であって、
前記画像取得手段が、画像を撮像するための撮像素子を含むことを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 8,
The insect image processing apparatus, wherein the image acquisition means includes an image sensor for capturing an image.
請求項1から9のいずれか一に記載の虫の画像処理装置であって、
前記画像取得手段が、ネットワークカメラであることを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 9,
An insect image processing apparatus, wherein the image acquisition means is a network camera.
請求項1から9のいずれか一に記載の虫の画像処理装置であって、
前記画像取得手段が、スキャナであることを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 9,
An insect image processing apparatus, wherein the image acquisition means is a scanner.
請求項1から11のいずれか一に記載の虫の画像処理装置であって、
対象画像が、粘着シートに粘着された虫の画像であることを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 11,
An insect image processing apparatus, wherein the target image is an insect image adhered to an adhesive sheet.
請求項1から12のいずれか一に記載の虫の画像処理装置であって、
前記情報解析手段が、
対象画像中から、粘着シートの背景部分を除去し、
取得される各物体の整形、分離を行い、
その大きさ及び形状に基づいて前記判定手段が虫の判定を行うことを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 12,
The information analyzing means is
Remove the background part of the adhesive sheet from the target image,
Perform shaping and separation of each acquired object,
An insect image processing apparatus characterized in that the determination means determines an insect based on its size and shape.
請求項1から13のいずれか一に記載の虫の画像処理装置であって、
前記粘着シートが、黄色又は青色であることを特徴とする虫の画像処理装置。
An insect image processing apparatus according to any one of claims 1 to 13,
The insect image processing apparatus, wherein the pressure-sensitive adhesive sheet is yellow or blue.
撮像された画像中に含まれる虫に関する情報を特定するための画像処理方法であって、
虫を含む可能性のある対象画像を取得する工程と、
取得された対象画像から、虫に該当する画像を抽出する工程と、
抽出された抽出領域から、画像処理によって虫に関する情報を解析する工程と、
抽出された虫に関する情報に基づいて、虫かどうかの判別を行う工程と、
虫と判別された抽出領域の数を計数する工程と、
計数された結果を虫の数として出力する工程と、
を含むことを特徴とする虫の画像処理方法。
An image processing method for specifying information about insects included in a captured image,
Obtaining a target image that may contain insects;
Extracting an image corresponding to an insect from the acquired target image;
A process of analyzing information about insects by image processing from the extracted extraction area;
A step of determining whether or not an insect is based on information about the extracted insect;
Counting the number of extracted areas identified as insects;
Outputting the counted result as the number of insects;
An insect image processing method comprising:
撮像された画像中に含まれる虫に関する情報を特定するための画像処理プログラムであって、
虫を含む可能性のある対象画像を取得する機能と、
取得された対象画像から、虫に該当する画像を抽出する機能と、
抽出された抽出領域から、画像処理によって虫に関する情報を解析する機能と、
抽出された虫に関する情報に基づいて、虫かどうかの判別を行う機能と、
虫と判別された抽出領域の数を計数する機能と、
計数された結果を虫の数として出力する機能と、
をコンピュータに実現させることを特徴とする虫の画像処理プログラム。
An image processing program for specifying information about insects included in a captured image,
A function to acquire target images that may contain insects;
A function to extract images corresponding to insects from the acquired target images;
A function to analyze information about insects by image processing from the extracted extraction area,
A function to determine whether it is an insect based on information about the extracted insect,
A function for counting the number of extracted areas identified as insects;
A function to output the counted results as the number of insects;
An insect image processing program characterized by causing a computer to realize the above.
請求項16に記載されるプログラムを格納したコンピュータで読み取り可能な記録媒体。   A computer-readable recording medium storing the program according to claim 16.
JP2011023370A 2011-02-04 2011-02-04 Bug image processing apparatus, image processing method, image processing program, and computer-readable storage medium Active JP5812321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011023370A JP5812321B2 (en) 2011-02-04 2011-02-04 Bug image processing apparatus, image processing method, image processing program, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011023370A JP5812321B2 (en) 2011-02-04 2011-02-04 Bug image processing apparatus, image processing method, image processing program, and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2012161269A true JP2012161269A (en) 2012-08-30
JP5812321B2 JP5812321B2 (en) 2015-11-11

Family

ID=46841347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011023370A Active JP5812321B2 (en) 2011-02-04 2011-02-04 Bug image processing apparatus, image processing method, image processing program, and computer-readable storage medium

Country Status (1)

Country Link
JP (1) JP5812321B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142833A (en) * 2013-01-24 2014-08-07 Earth Kankyo Service Kk Captured insect identification method and identification system
JP2015154732A (en) * 2014-02-20 2015-08-27 日本電気株式会社 Pest generation predicting system, terminal device, server device and pest generation predicting method
US20170273291A1 (en) * 2014-12-12 2017-09-28 E-Tnd Co., Ltd. Insect capturing device having imaging function for harmful insect information management
WO2017172883A1 (en) * 2016-03-29 2017-10-05 Ecolab Usa Inc. Analyzing images of pests using a mobile device application
CN107333729A (en) * 2017-08-15 2017-11-10 郑州菲尔萌农业科技有限公司 A kind of pest trap monitoring device
CN107347859A (en) * 2017-08-15 2017-11-17 河南工业大学 A kind of grain storage pest trapping system
CN107593652A (en) * 2017-10-09 2018-01-19 河南工业大学 A kind of worm monitoring system
WO2018019857A1 (en) 2016-07-26 2018-02-01 Demand Side Instruments Method and device for measuring insect density
JP2018061513A (en) * 2017-12-25 2018-04-19 みこらった株式会社 Pest insect exterminating device
JP2019162085A (en) * 2018-03-20 2019-09-26 地方独立行政法人大阪府立環境農林水産総合研究所 Insect breeding device
JP2020099231A (en) * 2018-12-21 2020-07-02 清水建設株式会社 Insect counter and insect counting system
JP2020188728A (en) * 2019-05-22 2020-11-26 シャープ株式会社 Insect-catching device
WO2021001955A1 (en) * 2019-07-03 2021-01-07 株式会社Luci Trapping analysis server and trapping analysis program
JP2021510303A (en) * 2018-01-12 2021-04-22 スポッタ リミテッド System and method
CN113012022A (en) * 2019-12-20 2021-06-22 腾讯科技(深圳)有限公司 Image processing method and device of small program, electronic equipment and medium
JP2021163194A (en) * 2020-03-31 2021-10-11 有限会社日革研究所 Information processing apparatus, information processing method and information processing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201700921D0 (en) * 2017-01-19 2017-03-08 Killgerm Group Ltd Insect trap and method
HUE060153T2 (en) * 2019-03-26 2023-01-28 Basf Agro Trademarks Gmbh Camera based pest management sprayer

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276647A (en) * 1997-04-10 1998-10-20 Nitto Denko Corp Adhesive sheet material for attractively trapping flying harmful insect
JPH11313596A (en) * 1998-04-30 1999-11-16 Canon Inc Repelling system
JP2003168181A (en) * 2001-11-29 2003-06-13 Kansai Sogo Kankyo Center:Kk Environment measuring instrument, environment monitoring system using the instrument, and harmful insect monitoring system
JP2003304788A (en) * 2002-04-17 2003-10-28 Hiroyuki Takahashi Harmful insect counter
JP2004261155A (en) * 2003-03-04 2004-09-24 Ecore Kk Vermin-monitoring system
JP2005021074A (en) * 2003-07-01 2005-01-27 Terada Seisakusho Co Ltd Method and system for image processing counting
JP2005237317A (en) * 2004-02-27 2005-09-08 Terada Seisakusho Co Ltd Minute insect-catching apparatus and image processing counting method
JP2007018456A (en) * 2005-07-11 2007-01-25 Nikon Corp Information display device and information display method
JP2007334755A (en) * 2006-06-16 2007-12-27 Hitachi Software Eng Co Ltd Learning data generator, object discriminating unit, and program
JP2009072131A (en) * 2007-09-21 2009-04-09 Nyuurii Kk Insect catcher, and method for examining insect-catching sheet
JP2009106300A (en) * 2008-12-19 2009-05-21 Nyuurii Kk Insect-catching apparatus and method for inspecting insect-catching sheet

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276647A (en) * 1997-04-10 1998-10-20 Nitto Denko Corp Adhesive sheet material for attractively trapping flying harmful insect
JPH11313596A (en) * 1998-04-30 1999-11-16 Canon Inc Repelling system
JP2003168181A (en) * 2001-11-29 2003-06-13 Kansai Sogo Kankyo Center:Kk Environment measuring instrument, environment monitoring system using the instrument, and harmful insect monitoring system
JP2003304788A (en) * 2002-04-17 2003-10-28 Hiroyuki Takahashi Harmful insect counter
JP2004261155A (en) * 2003-03-04 2004-09-24 Ecore Kk Vermin-monitoring system
JP2005021074A (en) * 2003-07-01 2005-01-27 Terada Seisakusho Co Ltd Method and system for image processing counting
JP2005237317A (en) * 2004-02-27 2005-09-08 Terada Seisakusho Co Ltd Minute insect-catching apparatus and image processing counting method
JP2007018456A (en) * 2005-07-11 2007-01-25 Nikon Corp Information display device and information display method
JP2007334755A (en) * 2006-06-16 2007-12-27 Hitachi Software Eng Co Ltd Learning data generator, object discriminating unit, and program
JP2009072131A (en) * 2007-09-21 2009-04-09 Nyuurii Kk Insect catcher, and method for examining insect-catching sheet
JP2009106300A (en) * 2008-12-19 2009-05-21 Nyuurii Kk Insect-catching apparatus and method for inspecting insect-catching sheet

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142833A (en) * 2013-01-24 2014-08-07 Earth Kankyo Service Kk Captured insect identification method and identification system
JP2015154732A (en) * 2014-02-20 2015-08-27 日本電気株式会社 Pest generation predicting system, terminal device, server device and pest generation predicting method
US20170273291A1 (en) * 2014-12-12 2017-09-28 E-Tnd Co., Ltd. Insect capturing device having imaging function for harmful insect information management
US10636163B2 (en) 2016-03-29 2020-04-28 Ecolab Usa Inc. Analyzing images of pests using a mobile device application
WO2017172883A1 (en) * 2016-03-29 2017-10-05 Ecolab Usa Inc. Analyzing images of pests using a mobile device application
US10417780B2 (en) 2016-03-29 2019-09-17 Ecolab Usa Inc. Analyzing images of pests using a mobile device application
WO2018019857A1 (en) 2016-07-26 2018-02-01 Demand Side Instruments Method and device for measuring insect density
FR3054662A1 (en) * 2016-07-26 2018-02-02 Demand Side Instruments METHOD AND DEVICE FOR MEASURING INSECT DENSITY
CN107333729A (en) * 2017-08-15 2017-11-10 郑州菲尔萌农业科技有限公司 A kind of pest trap monitoring device
CN107347859A (en) * 2017-08-15 2017-11-17 河南工业大学 A kind of grain storage pest trapping system
CN107347859B (en) * 2017-08-15 2023-09-15 河南工业大学 Grain storage pest trapping system
CN107593652A (en) * 2017-10-09 2018-01-19 河南工业大学 A kind of worm monitoring system
CN107593652B (en) * 2017-10-09 2024-03-19 河南工业大学 Pest monitoring system
JP2018061513A (en) * 2017-12-25 2018-04-19 みこらった株式会社 Pest insect exterminating device
JP2021510303A (en) * 2018-01-12 2021-04-22 スポッタ リミテッド System and method
JP7455061B2 (en) 2018-01-12 2024-03-25 スポッタ リミテッド System and method
JP2019162085A (en) * 2018-03-20 2019-09-26 地方独立行政法人大阪府立環境農林水産総合研究所 Insect breeding device
JP2020099231A (en) * 2018-12-21 2020-07-02 清水建設株式会社 Insect counter and insect counting system
JP7162520B2 (en) 2018-12-21 2022-10-28 清水建設株式会社 Insect counting device and insect counting system
JP2020188728A (en) * 2019-05-22 2020-11-26 シャープ株式会社 Insect-catching device
JP7250617B2 (en) 2019-05-22 2023-04-03 シャープ株式会社 insect trap
WO2021001955A1 (en) * 2019-07-03 2021-01-07 株式会社Luci Trapping analysis server and trapping analysis program
CN113012022B (en) * 2019-12-20 2023-10-13 腾讯科技(深圳)有限公司 Method and device for processing graphics of applet, electronic equipment and medium
CN113012022A (en) * 2019-12-20 2021-06-22 腾讯科技(深圳)有限公司 Image processing method and device of small program, electronic equipment and medium
JP2021163194A (en) * 2020-03-31 2021-10-11 有限会社日革研究所 Information processing apparatus, information processing method and information processing program

Also Published As

Publication number Publication date
JP5812321B2 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
JP5812321B2 (en) Bug image processing apparatus, image processing method, image processing program, and computer-readable storage medium
Ke et al. A comparison of three methods for automatic tree crown detection and delineation from high spatial resolution imagery
Modica et al. Monitoring the vegetation vigor in heterogeneous citrus and olive orchards. A multiscale object-based approach to extract trees’ crowns from UAV multispectral imagery
Vit et al. Comparing RGB-D sensors for close range outdoor agricultural phenotyping
JP6921095B2 (en) Methods for collecting and analyzing aerial images
Malambo et al. Automated detection and measurement of individual sorghum panicles using density-based clustering of terrestrial lidar data
JP6110992B2 (en) Image-adaptive physiologically relevant color separation
US7496228B2 (en) Method and system for detecting and classifying objects in images, such as insects and other arthropods
ES2837552T3 (en) Method to recognize and classify a bare root plant
AU2015336166B2 (en) Skin test reading device and associated systems and methods
CN104155312B (en) Grain intragranular portion pest detection method and apparatus based on near-infrared computer vision
JP6777086B2 (en) Information processing equipment, information processing methods and information processing systems
CN106663192B (en) Method and system for detecting fruit with flash, camera and automated image analysis
CN110132989A (en) A kind of distress in concrete detection device, method and terminal system
Zermas et al. Automation solutions for the evaluation of plant health in corn fields
Sunoj et al. Sunflower floral dimension measurements using digital image processing
Ke et al. Active contour and hill climbing for tree crown detection and delineation
CN112069985A (en) High-resolution field image rice ear detection and counting method based on deep learning
David et al. Plant detection and counting from high-resolution RGB images acquired from UAVs: comparison between deep-learning and handcrafted methods with application to maize, sugar beet, and sunflower
US11462008B2 (en) Device for collecting breeding data in farm field, device for analyzing feature in breeding, method for collecting breeding data in farm field, program, and recording medium
Jabłoński et al. Colour-based binary discrimination of scarified quercus robur acorns under varying illumination
CN111918547B (en) Crown recognition device, crown recognition method, program, and recording medium
Aeberli et al. Characterisation of banana plant growth using high-spatiotemporal-resolution multispectral UAV imagery
AU2021204034A1 (en) Information processing device, information processing method and program
Li et al. Development of a target-to-sensor mode multispectral imaging device for high-throughput and high-precision touch-based leaf-scale soybean phenotyping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150909

R150 Certificate of patent or registration of utility model

Ref document number: 5812321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250