JP2018197940A - Identification method of captured worms - Google Patents

Identification method of captured worms Download PDF

Info

Publication number
JP2018197940A
JP2018197940A JP2017102019A JP2017102019A JP2018197940A JP 2018197940 A JP2018197940 A JP 2018197940A JP 2017102019 A JP2017102019 A JP 2017102019A JP 2017102019 A JP2017102019 A JP 2017102019A JP 2018197940 A JP2018197940 A JP 2018197940A
Authority
JP
Japan
Prior art keywords
region
insect
area
identification
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017102019A
Other languages
Japanese (ja)
Other versions
JP6313886B1 (en
Inventor
吉雄 松本
Yoshio Matsumoto
吉雄 松本
和宏 美山
Kazuhiro Miyama
和宏 美山
寺田 賢治
Kenji Terada
賢治 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokushima NUC
Earth Environmental Service Co Ltd
Original Assignee
University of Tokushima NUC
Earth Environmental Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokushima NUC, Earth Environmental Service Co Ltd filed Critical University of Tokushima NUC
Priority to JP2017102019A priority Critical patent/JP6313886B1/en
Application granted granted Critical
Publication of JP6313886B1 publication Critical patent/JP6313886B1/en
Publication of JP2018197940A publication Critical patent/JP2018197940A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Catching Or Destruction (AREA)
  • Image Analysis (AREA)

Abstract

To provide an identification method and an identification system of captured worms that are capable of performing an identification work of worms automatically and rapidly and with a relatively low cot and are capable of obtaining an identification result having objectivity and consistency.SOLUTION: A method includes an image reading step, a worm candidate area acquisition step, a background region removal step, a worm area extraction step, a characteristic extraction step for acquiring Merkmal data of a morphological characteristic from the worm area, and an identification step for identifying the worms by verification of the Merkmal data to the standard Merkmal data. The worm candidate area acquisition step includes a step of converting the RGB value to the HSV color system to remove a white line area existing in a sheet image that becomes an obstacle for extraction of the worm candidate area and a step of performing extraction of the white line area using the Hough transformation after extraction of a candidate of the white line area using a chroma and a brightness.SELECTED DRAWING: Figure 3

Description

本発明は、捕獲虫類の同定方法及び同定システムに関するものであり、より詳細には、例えば、食品工場、薬品工場等のように、昆虫その他の小さな虫類の侵入を極力阻止する必要のある場所において、捕獲した虫類を同定し、以後の防虫対策に活用する資料を得るための捕獲虫類の同定方法及び同定システムに関するものである。   The present invention relates to an identification method and an identification system for captured insects, and more specifically, it is necessary to prevent as much as possible the entry of insects and other small insects such as food factories and pharmaceutical factories. The present invention relates to an identification method and an identification system for captured insects in order to identify captured insects at a place and obtain materials to be used for subsequent insect control measures.

食品工場や薬品工場等においては、有害・無害を問わず、昆虫その他の小さな虫類の侵入は、極力阻止することが要請される。そのために、工場の建屋内要所に、虫類を引き寄せるための誘引灯と、集まった虫類を捕獲するための粘着手段とで構成される種々のタイプの捕虫装置が配備される。   In food factories and pharmaceutical factories, it is required to prevent as much as possible the entry of insects and other small insects, both harmful and harmless. For this purpose, various types of insect trapping devices including an attracting light for attracting insects and an adhesive means for capturing the gathered insects are deployed at important points in the factory building.

ところで、虫類は種類が多く、知られているだけでも数千種類存在し、しかも、虫類ごとに強く誘引される波長域が異なる。従って、捕獲しようとする虫類を効率よく捕獲するためには、捕虫装置の誘引灯に、その捕獲しようとする虫類を強く誘引する波長の光を放出する光源を用いることが有効である。そして、そのためには先ず、各工場等に集まる虫類を同定する必要があるところ、従来はその同定作業は、専ら人手によって行われていたために作業コストが嵩み、その削減が求められていた。また、その作業は目視による人的作業であるため、時間を要するだけでなく、客観性・一貫性のある同定結果を期待することが困難であり、その改善が求められていた。   By the way, there are many kinds of reptiles, and there are thousands of kinds even if known, and the wavelength range that is strongly attracted for each reptile differs. Therefore, in order to efficiently capture the insects to be captured, it is effective to use a light source that emits light having a wavelength that strongly attracts the insects to be captured for the attracting light of the insect capturing apparatus. For this purpose, first, it is necessary to identify the worms that gather at each factory, etc., but since the identification work has been carried out exclusively manually, the work cost has been increased, and the reduction has been required. . In addition, since the work is a human work by visual observation, it is not only time consuming, but it is difficult to expect an objective and consistent identification result, and improvement has been demanded.

このような要請に応えるために本願出願人は先に、各工場等に集まる虫類の同定作業を自動的且つ迅速に、しかも比較的低コストにて行うことができ、また、客観性及び一貫性のある同定結果を得ることが可能な捕獲虫類の同定方法の提案をしている(特許文献1:特許第5690856号公報)。   In order to meet such demands, the applicant of the present application can first and foremost automatically and quickly identify insects that gather at each factory, etc., and at a relatively low cost. A method for identifying captured insects capable of obtaining a sexual identification result has been proposed (Patent Document 1: Japanese Patent No. 5690856).

特許第5690856号公報Japanese Patent No. 5690856 特許第2694726号公報Japanese Patent No. 2694726 特許第2599101号公報Japanese Patent No. 2599101

上記提案に係る同定方法は、虫類を捕獲した捕虫装置の粘着シートの画像を読み込む画像読み込みステップと、前記画像からエッジを取得することにより虫候補領域を取得する虫候補領域取得ステップと、前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、抽出された前記虫領域から少なくとも体領域、脚領域及び翅領域を抽出し、抽出された前記体領域から体長、体幅及び体長と体幅の比を算出し、前記脚領域から脚長及び脚長と体長の比を算出し、また、前記翅領域から翅面積及び翅面積と体面積の比を算出して形態的特徴のメルクマールデータを取得する特徴抽出ステップと、前記メルクマールデータを、予め虫ごとに設定されて記憶されている標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとを含むものである。   The identification method according to the above proposal includes an image reading step of reading an image of an adhesive sheet of an insect trapping device that has captured insects, an insect candidate region acquiring step of acquiring an insect candidate region by acquiring an edge from the image, A background region deleting step for deleting a background region other than the insect candidate region; an insect region extracting step for extracting an insect region from the insect candidate region; and extracting at least a body region, a leg region and a cocoon region from the extracted insect region And calculating the body length, body width and the ratio of body length to body width from the extracted body region, calculating the leg length and the ratio of leg length to body length from the leg region, and also calculating the heel area and heel area from the heel region The feature extraction step of calculating the ratio of the body area to obtain the Merckmar data of the morphological features, and the standard Mellmar data set and stored in advance for each insect It is intended to include the identification step of identifying the insects by collating the Mar data.

この提案に係る同定方法は、各工場等に集まる虫類の同定作業を自動的且つ迅速に、しかも比較的低コストにて行うという要請を一応満たし得るものであるが、この方法の場合は、物体領域の抽出に障害となる、シート画像に存在する白線領域の処理が行われていないとか、領域面積が0.25mm以下の微小虫はゴミと判定されてしまうとかいった問題があり、更なる改良が求められていた。 The identification method according to this proposal can satisfy the request to automatically and promptly identify insects that gather at each factory etc. at a relatively low cost. In this method, There are problems such as the processing of the white line area existing in the sheet image, which is an obstacle to the extraction of the object area, or the minute insect having an area area of 0.25 mm 2 or less is judged as dust, There was a need for further improvements.

本発明はかかる要望に応えるためになされたもので、虫候補領域取得ステップにおいて、物体領域の抽出に障害となるシート画像に存在する白線領域を処理すると共に、低濃度領域を抽出する処理を行い、形態的特徴のメルクマールデータに翅不透明性の算出及び体翅色類似性を含め、同定ステップにおいて、SVMを用いて行う同定処理を行うと共に、ゴミの判定処理及び微小虫の判定処理を行うことで、虫類の同定、殊に微小虫の同定をより正確且つ迅速に、しかも比較的低コストにて行うことができる捕獲虫類の同定方法及び同定システムを提供することを課題とする。   The present invention has been made to meet such a demand. In the insect candidate region acquisition step, a white line region existing in a sheet image that becomes an obstacle to the extraction of an object region is processed and a process of extracting a low density region is performed. Including the opacity calculation and body color similarity in the morphological features of Merckmar data, in the identification step, the identification process using SVM is performed, and the dust determination process and the microworm determination process are performed. Thus, it is an object of the present invention to provide a method and an identification system for a captured reptile that can more accurately and quickly identify a worm, in particular, a minute worm at a relatively low cost.

上記課題を解決するための請求項1に係る発明は、虫類を捕獲した捕虫装置の粘着シートの画像読み込みステップと、読み込まれた前記画像から虫候補領域を取得する虫候補領域取得ステップと、取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、抽出された前記虫領域から形態的特徴のメルクマールデータを取得する特徴抽出ステップと、前記メルクマールデータを標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとを含む捕獲虫類の同定方法である。   The invention according to claim 1 for solving the above-described problem includes an image reading step of an adhesive sheet of an insect trapping device that captures reptiles, an insect candidate region acquiring step of acquiring an insect candidate region from the read image, A background region deleting step for deleting a background region other than the acquired insect candidate region, an insect region extracting step for extracting an insect region from the insect candidate region, and Merckmar data of morphological features from the extracted insect region. A capture insect identification method including an acquired feature extraction step and an identification step of identifying the insect by comparing the Merckmar data with standard Merckal data.

そして、前記虫候補領域取得ステップは、前記虫候補領域の抽出に障害となるシート画像に存在する白線領域を除去するために、RGB値をHSV表色系に変換し、彩度と明度を使用して白線領域候補を抽出した後、ハフ変換を用いて白線領域の抽出を行う処理と、前記虫候補領域中の注目画素を中心にして得た画素の平均が100となるように正規化を行った後、ガウシアンオペレータを用いて算出した結果から低濃度領域を抽出する処理とを含むことを特徴とする。   The insect candidate area acquisition step converts the RGB value into the HSV color system and uses the saturation and brightness to remove the white line area existing in the sheet image that becomes an obstacle to the extraction of the insect candidate area. Then, after extracting the white line area candidates, the process of extracting the white line area using the Hough transform, and normalizing so that the average of the pixels obtained with the focus on the target pixel in the insect candidate area becomes 100 is performed. And a process of extracting a low density region from a result calculated using a Gaussian operator.

上記課題を解決するための請求項2に係る発明は、虫類を捕獲した捕虫装置の粘着シートの画像読み込みステップと、読み込まれた前記画像から虫候補領域を取得する虫候補領域取得ステップと、取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、抽出された前記虫領域から形態的特徴のメルクマールデータを取得する特徴抽出ステップと、前記メルクマールデータを標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとを含む捕獲虫類の同定方法であって、
前記同定ステップは、SVMを用いて行う同定処理を含むことを特徴とする捕獲虫類の同定方法である。
The invention according to claim 2 for solving the above-described problem includes an image reading step of an adhesive sheet of an insect trapping device that captures reptiles, an insect candidate region acquiring step of acquiring an insect candidate region from the read image, A background region deleting step for deleting a background region other than the acquired insect candidate region, an insect region extracting step for extracting an insect region from the insect candidate region, and Merckmar data of morphological features from the extracted insect region. A method for identifying a captured reptile comprising: a feature extraction step to obtain; and an identification step for identifying the reptile by comparing the Merckmar data with standard Merckmar data,
The identification step is a method for identifying a capture insect, characterized by including an identification process performed using SVM.

一実施形態においては、前記同定ステップは更に、物体領域の黒色の割合又は体領域の輝度値からゴミ候補を取得し、体の丸みと体領域の円形度からゴミを判定するゴミ判定処理を含む。   In one embodiment, the identification step further includes dust determination processing for acquiring dust candidates from the black ratio of the object region or the luminance value of the body region and determining dust from the roundness of the body and the circularity of the body region. .

また、一実施形態においては、前記形態的特徴のメルクマールデータとして、翅領域の座標の画素の色相値と背景領域の平均色相値との比較から判定される翅の不透明性と、体領域の座標の画素の色相値と翅領域の平均色相値との差が小さい場合に前記体領域の座標の画素を類似色画素とし、この類似色画素と前記体領域の総画素数との比較から抽出される体翅色類似性とを含む。   Further, in one embodiment, as the Merckmar data of the morphological feature, the opacity of the eyelid determined from the comparison between the hue value of the pixel in the coordinates of the eyelid region and the average hue value of the background region, and the coordinates of the body region When the difference between the hue value of the pixel and the average hue value of the heel region is small, the pixel of the coordinates of the body region is set as a similar color pixel, and extracted from the comparison between the similar color pixel and the total number of pixels of the body region Body color similarity.

更に一実施形態においては、前記形態的特徴のメルクマールデータとして、虫領域の中での細い領域がどれだけ存在するかを表す特徴量である細領域長を含み、前記細領域長の抽出は、以下の工程を経て行う。
−虫領域の強調工程
−虫領域の抽出工程
−細領域の抽出工程
−細領域長の取得工程
Further, in one embodiment, the Merckmar data of the morphological feature includes a fine region length that is a feature amount indicating how many thin regions in the insect region exist, and the extraction of the fine region length includes: It goes through the following steps.
-Insect area enhancement process-Insect area extraction process-Fine area extraction process-Fine area length acquisition process

本発明に係る捕獲虫類の同定方法及び同定システムは上記のとおりであって、捕獲虫類の同定を、人手を介することなく、取り込んだ虫類の画像から形態的特徴のメルクマールデータを取得し、これを予め虫ごとに設定した標準メルクマールデータと比較する画像処理によって行うことができるため、各工場等に集まる虫類の同定作業を自動的且つ迅速に、しかも比較的低コストにて行うことができ、また、客観性及び一貫性のある同定結果を得ることが可能となる効果がある。   The identification method and identification system for captured reptiles according to the present invention are as described above. The identification of captured reptiles is performed by acquiring Merckal data of morphological features from captured reptile images without human intervention. Because this can be done by image processing that compares with standard Merckmar data set for each insect in advance, identification of insects gathering at each factory etc. can be performed automatically and quickly at a relatively low cost. In addition, there is an effect that an objective and consistent identification result can be obtained.

特に本発明に係る方法の場合は、画像読み込みステップにおいて、物体領域の抽出に障害となる、シート画像に存在する白線領域を除去する処理を行い、虫候補領域取得ステップにおいて、低濃度領域を抽出する処理を行い、同定ステップにおいて、SVMを用いて同定処理を行い、また、物体領域の黒色の割合又は体領域の輝度値からゴミ候補を取得し、体の丸みと体領域の円形度からゴミの判定処理を行うことで、より正確で信頼性のある虫類の同定を可能にする効果がある。   In particular, in the case of the method according to the present invention, in the image reading step, the process of removing the white line region existing in the sheet image that becomes an obstacle to the extraction of the object region is performed, and in the insect candidate region acquiring step, the low concentration region is extracted. In the identification step, identification processing is performed using SVM, dust candidates are obtained from the black ratio of the object region or the luminance value of the body region, and the dust is determined from the roundness of the body and the circularity of the body region. By performing this determination processing, there is an effect that enables more accurate and reliable identification of reptiles.

本発明に係る捕獲虫類の同定方法を実施するためのシステムの簡略ブロック図である。It is a simplified block diagram of the system for enforcing the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法において用いる捕虫装置の構成例を示す斜視図である。It is a perspective view which shows the structural example of the insect trapping apparatus used in the identification method of the trapping insects based on this invention. 本発明に係る捕獲虫類の同定方法の大まかな流れを示すフロー図である。It is a flowchart which shows the rough flow of the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における虫候補領域取得方法を示す図である。It is a figure which shows the insect candidate area | region acquisition method in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における白線領域の抽出方法を示す図である。It is a figure which shows the extraction method of the white line area | region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における低濃度領域の抽出方法を示す図である。It is a figure which shows the extraction method of the low concentration area | region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における背景領域の削除方法を示す図である。It is a figure which shows the deletion method of the background area | region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における虫領域の抽出方法を示す図である。It is a figure which shows the extraction method of the insect area | region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における翅不透明性の算出方法を示す図である。It is a figure which shows the calculation method of the cocoon opacity in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における体翅色類似性の算出方法を示す図である。It is a figure which shows the calculation method of the body color similarity in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における同定ステップの流れを示すフロー図である。It is a flowchart which shows the flow of the identification step in the identification method of the capture insects which concerns on this invention. 本発明に係る捕獲虫類の同定方法における同定ステップの三次同定工程を説明するための図である。It is a figure for demonstrating the tertiary identification process of the identification step in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法におけるSVMを用いた同定工程の流れを示す図である。It is a figure which shows the flow of the identification process using SVM in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法におけるSVMを用いた同定工程のモデルのパラメータ調整方法を説明するための図である。It is a figure for demonstrating the parameter adjustment method of the model of the identification process using SVM in the identification method of the capture insects which concerns on this invention. 本発明に係る捕獲虫類の同定方法におけるSVMを用いた同定工程の評価実験方法を説明するための図である。It is a figure for demonstrating the evaluation experiment method of the identification process using SVM in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における黄色いアザミウマの体領域抽出方法を示す図である。It is a figure which shows the body region extraction method of the yellow thrips in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法におけるアザミウマとゴミの色相例を示すグラフである。It is a graph which shows the hue example of a thrips and garbage in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における黒いアザミウマの判定方法を示す図である。It is a figure which shows the determination method of the black thrips in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における黒いアザミウマの判定方法を示す図である。It is a figure which shows the determination method of the black thrips in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における黒いアザミウマの判定方法を示す図である。It is a figure which shows the determination method of the black thrips in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法におけるアザミウマの判定方法を示す図である。It is a figure which shows the determination method of the thrips in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法におけるユスリカの判定方法を示す図である。It is a figure which shows the determination method of chironomid in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における色の変化が均一なゴミの判定方法を示す図である。It is a figure which shows the determination method of the dust with the uniform color change in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における体領域の凹凸度の抽出方法を示す図である。It is a figure which shows the extraction method of the unevenness | corrugation degree of a body region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における細領域長の抽出方法(虫領域の抽出方法)を示す図である。It is a figure which shows the extraction method (extract method of an insect area | region) of the fine area length in the identification method of the capture insects which concerns on this invention. 本発明に係る捕獲虫類の同定方法における細領域長の抽出方法(細領域の抽出方法)を示す図である。It is a figure which shows the extraction method (extraction method of a thin area | region) of the thin area length in the identification method of the capture insects which concerns on this invention. 本発明に係る捕獲虫類の同定方法における細領域長の抽出方法(細領域長の取得方法)を示す図である。It is a figure which shows the extraction method (acquisition method of thin area length) of the thin area length in the identification method of the capture insects based on this invention.

本発明を実施するための形態について、図面を参照しつつ詳細に説明する。本発明に係る捕獲虫類の同定方法は、
−虫類を捕獲した捕虫装置の粘着シートの画像読み込みステップと、
−読み込まれた前記画像から虫候補領域を取得する虫候補領域取得ステップと、
−取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、
−前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、
−抽出された前記虫領域から形態的特徴のメルクマールデータを取得する特徴抽出ステップと、
−前記メルクマールデータを標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとを含むものである。
Embodiments for carrying out the present invention will be described in detail with reference to the drawings. The method for identifying a capture insect according to the present invention includes:
-An image reading step of the adhesive sheet of the insect trapping device that captured the insects;
An insect candidate region acquisition step of acquiring an insect candidate region from the read image;
A background region deletion step of deleting a background region other than the acquired insect candidate region;
An insect region extraction step for extracting an insect region from the insect candidate region;
A feature extraction step of obtaining morphological feature Merckmar data from the extracted insect region;
-An identification step for identifying said reptiles by comparing said Merckmar data with standard Merckmar data.

そして、本発明に係る捕獲虫類の同定方法は、更に以下の各処理を含むことを特徴とする。
−前記画像読み込みステップにおいて、物体領域の抽出に障害となる、シート画像に存在する白線領域を除去するために、RGB値をHSV表色系に変換し、彩度と明度を使用して白線領域候補を抽出した後、ハフ変換を用いて白線領域の抽出を行う白線領域抽出処理
−前記虫候補領域取得ステップにおいて、物体領域中の注目画素を中心にして得た画素の平均が100となるように正規化を行った後、ガウシアンオペレータを用いて算出した結果から低濃度領域を抽出する処理を行う低濃度領域抽出処理
And the capture insect identification method according to the present invention further includes the following processes.
-In order to remove the white line area existing in the sheet image that becomes an obstacle to the extraction of the object area in the image reading step, the RGB value is converted into the HSV color system, and the white line area is used by using the saturation and the lightness. White line region extraction processing for extracting a white line region using Hough transform after extracting candidates-In the insect candidate region acquisition step, the average of pixels obtained centering on the target pixel in the object region is 100 After performing normalization, low density area extraction processing is performed to extract low density areas from the results calculated using the Gaussian operator

また更に、前記同定ステップにおいて、SVMを用いて行う同定処理が行われ、物体領域の黒色の割合又は体領域の輝度値からゴミ候補を取得し、体の丸みと体領域の円形度からゴミの判定処理を行うゴミ判定処理が行われることを特徴とする。   Furthermore, in the identification step, an identification process using SVM is performed, and dust candidates are acquired from the black ratio of the object region or the luminance value of the body region, and the dust is determined from the roundness of the body and the circularity of the body region. A dust determination process for performing the determination process is performed.

また、本発明に係る捕獲虫類の同定方法は、形態的特徴のメルクマールデータとして、翅領域の座標の画素の色相値と背景領域の平均色相値との比較から判定される翅の不透明性と、体領域の座標の画素の色相値と翅領域の平均色相値との差が小さい場合に前記体領域の座標の画素を類似色画素とし、この類似色画素と前記体領域の総画素数との比較から抽出される体翅色類似性を含むことを特徴とする。   Further, the identification method of the trapping insects according to the present invention is, as Merckmar data of morphological features, opacity of cocoons determined from a comparison between the hue value of the pixel of the coordinates of the cocoon region and the average hue value of the background region, and When the difference between the hue value of the pixel of the body region coordinate and the average hue value of the heel region is small, the pixel of the body region coordinate is a similar color pixel, and the total number of pixels of the similar color pixel and the body region It includes the body color similarity extracted from the comparison.

図1は、本発明に係る捕獲虫類の同定方法を実施するためのシステムの簡略ブロック図で、そのシステムは粘着シートによって捕虫する捕虫装置1と、捕虫装置1から回収してきた虫類の粘着した粘着シートの画像を読み込む画像読み込み手段2と、画像読み込み手段2によって読み込まれた画像を解析して捕獲された虫類を同定する解析装置3と、解析装置3において同定された結果を出力する出力手段8とを含んで構成される。   FIG. 1 is a simplified block diagram of a system for carrying out a method for identifying a captured insect according to the present invention. The system captures an insect by an adhesive sheet 1 and adheres to insects recovered from the insect trap 1. The image reading means 2 for reading the image of the adhesive sheet, the analysis device 3 for analyzing the image read by the image reading means 2 and identifying the captured insects, and the result identified by the analysis device 3 are output. And output means 8.

解析装置3は、画像読み込み手段2によって読み込まれた画像に対し、虫領域と背景領域とを区別するための画像処理をする前処理手段4と、前処理された画像から虫類の形態的特徴のメルクマールデータを抽出する特徴抽出手段5と、虫類の形態的特徴のメルクマールデータを標準化した標準メルクマールデータを記憶するデータ記憶手段6と、特徴抽出手段5によって抽出された抽出メルクマールデータとデータ記憶手段6において記憶されている標準メルクマールデータとを照合することにより、当該虫類の同定をする同定手段7とを含んで構成される(図1参照)。   The analysis device 3 includes a preprocessing unit 4 that performs image processing for distinguishing the insect region and the background region on the image read by the image reading unit 2, and the morphological features of the insects from the preprocessed image. Feature extraction means 5 for extracting the Merckmar data, data storage means 6 for storing the standard Merckmar data obtained by standardizing the Merckmar data of the morphological features of the reptiles, the extracted Merckmar data and the data storage extracted by the feature extraction means 5 It is configured to include identification means 7 for identifying the worm by collating with the standard Merckmar data stored in the means 6 (see FIG. 1).

また、虫類を捕獲するための捕虫装置1としては、例えば、前面を大きく開口して前面開口部を形成した額縁状の本体ケース11と、本体ケース11の側面の導光板挿入口16から装入される、LEDユニット13を付設した導光板と、導光板の上に重合状態にされて本体ケース11内に装填される透光性の粘着シート15とで構成されるものが用いられる(図2参照)。その場合粘着シート15は、本体ケース11内装填時においてその粘着面が、本体ケース11の前面開口部12内に直接露呈するように配備される。   Further, as the insect trapping device 1 for catching insects, for example, a frame-shaped main body case 11 having a front opening and a front opening formed therein, and a light guide plate insertion opening 16 on the side surface of the main body case 11 are installed. A light guide plate provided with an LED unit 13 and a light-transmitting pressure-sensitive adhesive sheet 15 that is superposed on the light guide plate and loaded into the main body case 11 is used (see FIG. 2). In that case, the adhesive sheet 15 is arranged so that the adhesive surface is directly exposed in the front opening 12 of the main body case 11 when the main body case 11 is loaded.

本発明においては、同定対象となる虫類として、ユスリカ・カ、ガガンボ、チョウバエ、ノミバエ、ショウジョウバエ、クロバネキノコバエ、ニセケバエ、タマバエ、イエバエ・クロバエ、ヒラタアブ、コバチ、アリ、ヤガ、メイガ、カツオブシムシ、シバンムシ、コクヌストモドキ、ゴミムシ、ハナカクシ、アブラムシ、アオカメムシ、マルカメムシ、ヨコバイ、ウンカ、チャタテムシ、アザミウマ、カゲロウ等を想定している。   In the present invention, the insects to be identified include chironomid mosquitoes, ganganbo, butterflies, flea flies, drosophila, black fly mushrooms, mosquito flies, wing flies, house flies, fly flies, leafhoppers, hornets, ants, moths, moths, cutlet worms , Kokunu Tomodoki, Garbushi, Hanakakushi, Aphid, Aokamushi, Marukamushi, Leafhopper, Leafhopper, Chatterbug, Thrips, and Mayfly.

これらの虫類はそれぞれ形態上の特徴を有しているが、その形態上の特徴はある程度分類が可能である。例えば、ヒメイエバエ、ガガンボ、イエカ、ユスリカ、チョウバエ、ノミバエ、タマバエ、クロバネキノコバエ、ニセケバエの形態的特徴を挙げると、以下のとおりとなる。
−ガガンボ、イエカ、ユスリカ、クロバネキノコバエ・・・体部が大きい(10mm以上)。
−ガガンボ、イエカ、ユスリカ、ノミバエ、タマバエ・・・脚が長くて発達している。
−キノコバエ、ニセケバエ・・・触覚が太くて短く、コブ状である。
−チョウバエ、タマバエ・・・翅の幅が広くて対称的である。
−ヒメイエバエ、ガガンボ、ノミバエ、クロバネキノコバエ、ニセケバエ・・・特徴的な翅脈を有している。
Each of these reptiles has morphological features, but the morphological features can be classified to some extent. For example, the morphological characteristics of the house fly, gangabo, squid, chironomid, butterfly, flea fly, scallop fly, black-winged fly, and fake fly are as follows.
-Ganbo, squid, chironomid, black spring mushroom ... large body (10 mm or more).
-Giganbo, Musca, Chironomid, Flea, Tamabae ... Long legs and developed.
-Mushroom flies, fake flies ... The tactile sensation is thick and short and has a bumpy shape.
-Butterfly fly, Flyfly ... The wings are wide and symmetrical.
-Hyme flies, gangambo, fleas, black-winged flies, fake flies ... has characteristic veins.

これらの形態的特徴に鑑み、形態的特徴のメルクマールとしては、虫類の体長、体幅、体長・体幅比、体色、脚長、脚長・体長比、尾長、尾長・体長比、翅面積、翅面積・体面積比、翅生部分(体部のどの部分についているか)、翅の角度、頭部方向、後ろ脚の状態、体部の丸み度合い、眼の状態(位置、縦横比)等が考えられる。通例、本発明においては、そのうちの少なくとも体長、体幅、脚長、脚長・体長比、翅面積、翅面積・体面積比が採用される。また、本発明における虫類の同定は、捕獲した虫類を、通常の状態ではなく、粘着シートに粘着した状態において観察して行うものであるため、正面向きに粘着捕獲される場合や横向きに粘着捕獲される場合等があることも考慮される。   In view of these morphological characteristics, as the morphological characteristics of Merckmar, insect body length, body width, body length / body width ratio, body color, leg length, leg length / body length ratio, tail length, tail length / body length ratio, heel area, The area of the heel / body area, the body part (which part of the body), the angle of the heel, the direction of the head, the state of the back leg, the degree of roundness of the body, the state of the eye (position, aspect ratio), etc. Conceivable. Usually, in the present invention, at least the body length, body width, leg length, leg length / body length ratio, heel area, heel area / body area ratio are employed. In addition, the identification of the reptiles in the present invention is performed by observing the captured reptiles in a state of being adhered to the adhesive sheet, not in a normal state. It is also considered that there are cases where sticking is captured.

更に本発明においては、形態的特徴のメルクマールデータとして、翅領域の座標の画素の色相値と背景領域の平均色相値との比較から判定される翅の不透明性と、体領域の座標の画素の色相値と翅領域の平均色相値との差が小さい場合に前記体領域の座標の画素を類似色画素とし、この類似色画素と前記体領域の総画素数との比較から抽出される体翅色類似性とを含む。翅の不透明性は、似通った形態の虫を翅の透明度合いによって識別する場合に利用されるデータであり、体翅色類似性は、似通った形態の虫を体翅色の相違によって識別する場合に利用されるデータである。   Furthermore, in the present invention, as the Merckmar data of the morphological feature, the opacity of the eyelid determined from the comparison between the hue value of the pixel of the eyelid region coordinate and the average hue value of the background region, and the pixel of the body region coordinate When the difference between the hue value and the average hue value of the eyelid region is small, the pixel of the coordinates of the body region is set as a similar color pixel, and the body color extracted from the comparison between the similar color pixel and the total number of pixels of the body region Including color similarity. Hail opacity is data used to identify similar forms of insects based on their transparency, and body color similarity is used to identify similar forms of insects based on differences in body color This data is used for

以下に、本発明に係る方法につき、図3に示すフロー図を参照しつつ、処理ステップごとに詳述する。なお、図3のフロー図には、虫類の同定作業である、画像読み込み手段2による処理から、読み込み画像を解析して同定し、同定結果を出力するまでのステップが示されている。   Hereinafter, the method according to the present invention will be described in detail for each processing step with reference to the flowchart shown in FIG. Note that the flowchart of FIG. 3 shows steps from the processing by the image reading means 2, which is an insect identification operation, from analyzing the read image to identifying it and outputting the identification result.

標準メルクマールデータ作成・記憶ステップ
このステップは、虫類の同定作業に先立ち、テンプレートとして、虫類の形態的特徴のメルクマールを虫ごとに設定して標準メルクマールデータ(許容範囲)を作成し、データ記憶手段6に記憶するステップである。
Standard Merckmar data creation and storage step This step creates a standard Merckmar data (acceptable range) by setting the morphological features of the worms for each insect as a template prior to the identification of the reptiles. It is a step of storing in the means 6.

画像読み込みステップ(S11)
このステップは、工場等に設置されている捕虫装置1から回収し、必要に応じてフィルムラッピングした虫類の粘着した粘着シート15を、画像読み取り装置(画像入力装置)2にかけてその画像を読み取るステップである。
Image reading step (S11)
In this step, the image is read from the insect collecting device 1 installed in a factory or the like, and the adhesive sheet 15 to which the insects adhered to the film are wrapped as necessary is applied to the image reading device (image input device) 2 to read the image. It is.

虫候補領域の取得ステップ(S12)
虫候補領域取得ステップは、読み込まれた画像(以下虫画像という)(図4(A))からエッジ31を取得すること(図4(B))と、虫画像をブロック分割し(例えば、1ブロックの範囲を200×200画素とする。)、エッジ31を含むブロックを取得してラベリング処理を行うこと(図4(C))から成り、ラベリングした領域を虫候補領域32とする。エッジ31の取得は、一般的なエッジ検出法によって行うことができる。
Insect candidate region acquisition step (S12)
In the insect candidate area acquisition step, the edge 31 is acquired from the read image (hereinafter referred to as insect image) (FIG. 4A) (FIG. 4B), and the insect image is divided into blocks (for example, 1 The range of the block is 200 × 200 pixels), and a block including the edge 31 is acquired and labeling is performed (FIG. 4C). The acquisition of the edge 31 can be performed by a general edge detection method.

白線領域の抽出処理
粘着シート15のシート画像には、作業員が目視でカウントする際に使用する白線領域(図5(a))が存在する。この白線領域は、画像処理で虫候補領域を抽出する上で障害となるので、虫候補領域の抽出に際して抽出を行う必要がある。白線領域の抽出は、ハフ変換を用いて行うことができる。そのために先ず、白線候補領域の抽出を行う。白線は明度が高いという特徴を有するので、下記式1によってRGB値をHSV表色系に変換し、彩度(S)と明度(V)を使用して抽出することができる(図5(b))。
White Line Region Extraction Processing The sheet image of the pressure-sensitive adhesive sheet 15 has a white line region (FIG. 5A) that is used when the worker visually counts. Since the white line region is an obstacle to extracting the insect candidate region by image processing, it is necessary to extract the white line region when extracting the insect candidate region. The extraction of the white line region can be performed using the Hough transform. For this purpose, first, white line candidate regions are extracted. Since the white line has a feature that the lightness is high, the RGB value can be converted into the HSV color system by the following formula 1 and extracted using the saturation (S) and the lightness (V) (FIG. 5B). )).

次に、上記白線候補領域から白線領域を抽出する。そのために先ず、抽出した白線候補領域に対し、縦方向にハフ変換を行って上下2点のx座標の差を求める。以後、x座標の差をDとする(図5(c))。そして、画像の左上を座標(0,0)、左下を座標(0,Bottom)、右上を座標(Right,0)、右下を座標(Right,Bottom)と設定し、点Aの座標を(X,0)とし(0,0)から(Right,0)に向かってx方向に1画素ずつ移動させていく。点Aを移動させると同時に、座標(X±D,Bottom)の点Bを設置する(図5(d))。次いで、点Aと点Bを結ぶ直線を取得し、その直線が白線域上を一定領域以上通過する場合、直線上の10×10の範囲にある白線候補領域を白線領域として抽出する(図5(f))。点Aが(Right,0)に達した後、点Aを(0,0)に戻す。 Next, a white line region is extracted from the white line candidate region. For this purpose, first, the extracted white line candidate region is subjected to a Hough transform in the vertical direction to obtain the difference between the x-coordinates of the upper and lower two points. Hereinafter, the difference between the x coordinates is set to D (FIG. 5C). Then, the upper left corner of the image is set to coordinates (0, 0), the lower left corner is set to coordinates (0, Bottom), the upper right corner is set to coordinates (Right, 0), the lower right corner is set to coordinates (Right, Bottom), and the coordinates of point A are set to ( X A , 0) is moved pixel by pixel in the x direction from (0,0) to (Right, 0). At the same time when the point A is moved, the point B of the coordinates (X A ± D, Bottom) is set (FIG. 5D). Next, a straight line connecting points A and B is acquired, and when the straight line passes a certain area or more on the white line area, a white line candidate area in a 10 × 10 range on the straight line is extracted as a white line area (FIG. 5). (F)). After the point A reaches (Right, 0), the point A is returned to (0, 0).

続いて、点Aの座標を(0,Y)とし、(0,Bottom)に向かってy方向に1画素ずつ移動させていく。点Aを移動させると同時に、座標(Right,Y±D)の点Bを設置する。次いで、点Aと点Bを結ぶ直線を取得し、その直線が白線域上を一定領域以上通過する場合、直線上の10×10の範囲にある白線候補領域を白線領域として抽出する(図5(h))。そして、点Aが(0,Bottom)に達した場合に白線領域の抽出が完了する(図5(i))。 Subsequently, the coordinate of the point A is set to (0, Y A ), and is moved pixel by pixel in the y direction toward (0, Bottom). At the same time when the point A is moved, the point B of coordinates (Right, Y A ± D) is set. Next, a straight line connecting points A and B is acquired, and when the straight line passes a certain area or more on the white line area, a white line candidate area in a 10 × 10 range on the straight line is extracted as a white line area (FIG. 5). (H)). When the point A reaches (0, Bottom), the extraction of the white line region is completed (FIG. 5 (i)).

低濃度領域の抽出処理
また、虫候補領域の抽出を容易にするために、虫候補領域から低濃度領域を抽出する処理を行う。そのために先ず、注目画素を中心に5×5の範囲の濃度を抽出する。図6(a)に虫候補領域と注目画素を示し、図6(f)に抽出した5×5領域を示す。次に、抽出した25(5×5)画素の平均が100となるように正規化を行う。図6(g)に正規化を行った値を示す。正規化を行った画素に対して、中央に重みを付けたガウシアンオペレータを用いて値を算出する。図6(i)にオペレータを示し、値を算出した結果を図6(b)に示す。全ての画素に対して同様の計算を行った結果、出力値が低い画素を低濃度領域として算出する。図6(e)に低濃度領域を示す。
Low concentration region extraction processing Also, in order to facilitate the extraction of insect candidate regions, processing for extracting low concentration regions from the insect candidate regions is performed. For this purpose, first, a density in a range of 5 × 5 is extracted centering on the target pixel. FIG. 6A shows the insect candidate area and the target pixel, and FIG. 6F shows the extracted 5 × 5 area. Next, normalization is performed so that the average of the extracted 25 (5 × 5) pixels is 100. FIG. 6G shows the normalized values. For the normalized pixel, a value is calculated using a Gaussian operator weighted at the center. FIG. 6 (i) shows the operator, and FIG. 6 (b) shows the result of calculating the value. As a result of performing the same calculation for all the pixels, a pixel having a low output value is calculated as a low density region. FIG. 6E shows a low concentration region.

低濃度領域の抽出は、このように5×5の範囲で低濃度領域か否かの判定を行うものであるため、ノイズが発生してある画素が低濃度となったとしても低濃度領域とは判定されず、低濃度が広範囲に亘って存在する場合にのみ低濃度領域と判定される。
低濃度領域割合は、黒い模様がある虫や、体の一部が黒いといった特徴を持つ虫の判定に用いることができる。
Since the extraction of the low density region is for determining whether or not the low density region is in the 5 × 5 range in this way, even if the pixel in which the noise is generated becomes low density, Is not determined, and is determined to be a low density region only when the low density exists over a wide range.
The low density region ratio can be used for determination of insects having a black pattern or insects having a characteristic that a part of the body is black.

背景領域の削除ステップ(S13)
捕獲虫類の特徴抽出のためには、虫候補領域32から虫領域を抽出する必要があり(図7(A)参照)、虫領域の抽出のためには、虫候補領域32から背景領域を削除する必要がある。そのために先ず、エッジ31を含まない非エッジブロック領域33のHSV色情報を取得し、次いで、エッジ31を含むエッジブロック領域、即ち、虫候補領域32と非エッジブロック領域33から、非エッジブロック領域33のHSV色情報と同じ色領域を背景と考えて削除する(図7(B))。
Background region deletion step (S13)
In order to extract the characteristics of the captured insects, it is necessary to extract the insect area from the insect candidate area 32 (see FIG. 7A), and in order to extract the insect area, the background area is extracted from the insect candidate area 32. Need to be deleted. For this purpose, first, the HSV color information of the non-edge block area 33 not including the edge 31 is acquired, and then the edge block area including the edge 31, that is, from the bug candidate area 32 and the non-edge block area 33, the non-edge block area The same color area as that of the 33 HSV color information is considered as a background and deleted (FIG. 7B).

但し、このようにして単に背景を取り除いて得られる虫領域には、本来の虫領域の他に虫の影等が含まれるため、これを虫領域として同定作業を行っても、高精度の同定は望めない。そこで、本発明においては、上記のようにして抽出された虫領域は確定的なものではなく、仮に虫領域と推定する仮虫領域34とし、これに対して更に、以下のような虫領域を確定するための画像処理を行う。   However, the insect area obtained by simply removing the background in this way includes the shadow of the insect in addition to the original insect area. Can't hope. Therefore, in the present invention, the insect region extracted as described above is not definitive, and is assumed to be a worm region 34 that is presumed to be a worm region. Image processing for confirmation is performed.

虫領域の抽出ステップ(S14)
このステップにおいては、先ず、色情報を用いて抽出された仮虫領域34に対し、一般的なエッジ検出方法によってエッジ検出を行う(図8(A))。図8において符号35で示す濃色部分がエッジである。次いで、勾配方向への注目画素36を抽出し(図8(B)に示されるように、エッジ35の内側に位置する。)、各注目画素36に隣接する各画素につき、それに隣接する4近傍の画素との輝度比較を行い、その差が一定値以内の場合(例えば、abs(統合画素輝度値−注目画素輝度値)<15(輝度値:0〜255))は、その画素を、注目画素36の輝度に統合していく。
Insect region extraction step (S14)
In this step, first, edge detection is performed on the pseudoworm area 34 extracted using the color information by a general edge detection method (FIG. 8A). In FIG. 8, the dark portion indicated by reference numeral 35 is an edge. Next, the pixel of interest 36 in the gradient direction is extracted (positioned inside the edge 35 as shown in FIG. 8B), and for each pixel adjacent to each pixel of interest 36, four neighbors adjacent to it. If the difference is within a certain value (for example, abs (integrated pixel luminance value−target pixel luminance value) <15 (luminance value: 0 to 255)), the pixel is focused on. The luminance of the pixel 36 is integrated.

形態的特徴抽出ステップ(S15)
上記のようにして虫領域38を抽出した後、それを基にして、先ず体領域、脚領域、翅領域及び尾領域の抽出が行われる。この形態的特徴の抽出ステップは、体領域、脚領域、翅領域及び尾領域の抽出工程と、それを基にした形態的特徴のメルクマールデータの取得工程とから成る。
Morphological feature extraction step (S15)
After the insect region 38 is extracted as described above, the body region, the leg region, the heel region, and the tail region are first extracted based on the extracted insect region 38. This morphological feature extraction step includes a body region, a leg region, a heel region, and a tail region extraction step, and a morphological feature Merckmar data acquisition step based thereon.

体領域は、虫類の脚、翅、尾以外の領域であり、体領域の抽出のためには、先ず、虫領域38と背景領域39のHSV色情報を取得する。そして、背景領域39と異なる色の領域を体領域として抽出する。   The body region is a region other than the worm's legs, moths, and tails. To extract the body region, first, HSV color information of the insect region 38 and the background region 39 is acquired. Then, an area having a color different from that of the background area 39 is extracted as a body area.

脚領域は、言うまでもなく、体領域よりもかなり狭くて細い領域である。そこで、虫領域に対し4×4の正方ブロックを当て嵌める処理を行うと共に、エッジに挟まれた狭い部分を狭領域として抽出し、4×4の正方ブロックが当て嵌まらない部分であって、狭領域として抽出された部分を以て、脚候補領域とする。脚領域の抽出は、この脚候補領域内の細線の端点から体領域まで細線を辿ることによって行う。即ち、脚候補領域について細線化処理を行い、脚候補領域内の細線の端点から体領域内の細線の端点までを脚領域とするのである。   Needless to say, the leg region is a much narrower and narrower region than the body region. Therefore, a process of fitting a 4 × 4 square block to the insect area is performed, and a narrow part sandwiched between the edges is extracted as a narrow area, and the 4 × 4 square block is not fitted, A portion extracted as a narrow region is set as a leg candidate region. The leg region is extracted by tracing the thin line from the end point of the thin line in the leg candidate region to the body region. That is, the thinning process is performed on the leg candidate region, and the leg region is defined from the end point of the thin line in the leg candidate region to the end point of the thin line in the body region.

翅領域の抽出は、虫画像から脚候補領域を除外した領域をラベリングし、そのうちの最大領域を以て翅領域とすることにより行う。また、尾領域の抽出は、脚候補領域の抽出の場合と同様に、体領域に対し4×4の正方ブロックを当て嵌める処理を行うと共に、エッジに挟まれた狭い部分を狭領域として抽出し、4×4の正方ブロックが当て嵌まらない部分と、狭領域として抽出された部分の重なり合った部分を以て、尾領域とする。   The cocoon region is extracted by labeling a region excluding the leg candidate region from the insect image, and setting the maximum region among them as a cocoon region. In addition, the tail region is extracted by performing a process of fitting a 4 × 4 square block to the body region as in the case of extracting the leg candidate region and extracting a narrow portion sandwiched between the edges as a narrow region. A portion where the 4 × 4 square block does not fit and a portion where the portion extracted as the narrow region overlaps are defined as the tail region.

次いで、上記のようにして抽出した体領域、脚領域、翅領域及び尾領域から、形態的特徴のメルクマールデータを取得する。即ち、体領域から体長及び体幅を算出し、脚領域から脚長及び脚長と体長の比を算出し、翅領域から翅面積及び翅面積と体面積の比を算出する処理がなされる。形態的特徴のメルクマールとしては、その他に体色、尾長、尾長・体長比、翅生部分、翅の角度、頭部方向、後ろ脚の状態、体部の丸み度合い、眼の位置及び縦横比等の他に、特に本発明においては、翅不透明性及び体翅色類似性を含む。これらのうちの任意のものを組み合わせて採用することができる。もちろん、形態的特徴のメルクマールはこれらに限定される訳ではない。また、その特徴抽出方法も、以下に述べる方法に限定されるものではない。   Subsequently, Merckmar data of morphological features is acquired from the body region, leg region, heel region, and tail region extracted as described above. That is, the body length and body width are calculated from the body region, the leg length and the leg length to body length ratio are calculated from the leg region, and the heel area and the heel area to body area ratio are calculated from the heel region. Other morphological features of Merckmar include body color, tail length, tail length / length ratio, slaughtered part, heel angle, head direction, back leg condition, body roundness, eye position and aspect ratio, etc. In addition, particularly in the present invention, it includes wrinkle opacity and body color similarity. Any one of these can be used in combination. Of course, the morphological feature of Merckmar is not limited to these. Further, the feature extraction method is not limited to the method described below.

<体長、体幅及び体長・体幅比率の抽出>
体長は、体領域において骨格を検出し、その長さを計測することによって抽出する。骨格の検出及び長さの計測は、以下の工程によって行う。
−体部の重心を求める。
−体部の重心から最遠位点までの直線を1本抽出する。
−上記第1の直線と角度の異なる最遠位点までの第2の直線を1本抽出する。
−第1の直線と第2の直線を骨格と考え、その長さを計測する。
<Extraction of body length, body width and body length / body width ratio>
The body length is extracted by detecting the skeleton in the body region and measuring the length. The detection of the skeleton and the measurement of the length are performed by the following steps.
-Find the center of gravity of the body.
-Extract one straight line from the center of gravity of the body part to the most distal point.
-Extract one second straight line up to the most distal point at a different angle from the first straight line.
-Consider the first straight line and the second straight line as a skeleton, and measure their lengths.

体幅は、上記第1の直線及び第2の直線に対して直交する複数の直線を抽出し、その複数の直交直線のうち最も長い直線の長さを以て体幅とする。そして、このようにして求めた体幅値と、上記のようにして求めた体長値とから、体長・体幅比率(体長/体幅比率)を特徴の1つとして抽出する。   As for the body width, a plurality of straight lines orthogonal to the first straight line and the second straight line are extracted, and the length of the longest straight line among the plurality of orthogonal straight lines is defined as the body width. Then, the body length / body width ratio (body length / body width ratio) is extracted as one of the features from the body width value thus obtained and the body length value obtained as described above.

<体色の抽出>
体色の特徴の抽出に当たっては、先ず、体領域からHSV表色系を用いて、黒、赤、黄、緑の4色領域を抽出する。4色領域の抽出は、先ず、黒について、例えば、0≦V値<80を閾値として見て、これに当てはまらない部分に対し、例えば、赤:0<H値<40、黄:40<H値<70、緑:70<H値<100をそれぞれの閾値として、各色の割合、彩度平均、明度平均を取得し、体色の特徴として抽出する。
<Extraction of body color>
In extracting the characteristics of the body color, first, four color regions of black, red, yellow, and green are extracted from the body region using the HSV color system. In the extraction of the four-color region, first, for black, for example, when 0 ≦ V value <80 is considered as a threshold value, for a portion not corresponding to this, for example, red: 0 <H value <40, yellow: 40 <H Value <70, green: 70 <H value <100 is used as a threshold value, and the ratio, saturation average, and brightness average of each color are acquired and extracted as body color features.

<脚長及び体長・脚長比の抽出>
脚長は、脚領域における端点から体領域内の端点まで辿った細線の画素数から求めることができる。また、体長と脚長の長さ比は、脚長/体長から求めることができる。
<Extraction of leg length and body length / leg length ratio>
The leg length can be obtained from the number of pixels of the thin line traced from the end point in the leg region to the end point in the body region. The length ratio between the body length and the leg length can be obtained from the leg length / body length.

<尾長及び体長・尾長比の抽出>
尾長は、尾領域内において作ることができる、最長直線の長さから求めることができる。また、体長と尾長の長さ比は、尾長/体長から求めることができる。
<Extraction of tail length and body length / tail length ratio>
The tail length can be obtained from the length of the longest straight line that can be created in the tail region. The length ratio between the body length and the tail length can be obtained from the tail length / body length.

<翅面積及び体面積・翅面積比の抽出>
翅面積は、翅領域の面積から求めることができ、体面積と翅面積の比は、翅面積/体面積から求めることができる。
<Extraction of heel area and body area / heel area ratio>
The heel area can be obtained from the area of the heel region, and the ratio of the body area to the heel area can be obtained from the heel area / body area.

<翅生部分の抽出>
翅生部分の抽出は、翅が体部のどの部分から出ているかを検出するものである。その抽出のために、体部を前部、中間部及び後部に分割し、翅が接するそのいずれかの部分を以て翅生部分とする。
<Extraction of cocoon>
The extraction of the cocoon part is to detect from which part of the body part the cocoon comes out. For the extraction, the body part is divided into a front part, an intermediate part, and a rear part, and any part that is in contact with the heel is defined as a slaughtered part.

<翅の角度の算出>
翅の角度の算出は以下のようにして行う。−骨格の中心から翅先端方向に直線を取得する。−直線と骨格のなす2つの角を取得する。−取得した2つの角のうち小さい方の角度を以て、翅の角度として算出する。
<Calculation of heel angle>
The heel angle is calculated as follows. -Obtain a straight line from the center of the skeleton to the tip of the heel. -Get two corners between a straight line and a skeleton. -The smaller one of the two obtained angles is calculated as the angle of the eyelid.

<翅不透明性の算出>
形態的特徴抽出ステップにおいて、形態的特徴のメルクマールデータとして、翅の不透明性を挙げることができる。翅不透明性の抽出は、翅領域の座標(i,j)の画素の色相値Hi,jが背景領域の平均色相値Hbackと大きく異なる場合に、座標(i,j)の画素を不透明画素として抽出することにより行う。不透明画素が翅領域の総画素数の半分以上を占める場合に翅不透明性があると判定し、不透明画素の割合を算出する。式2に不透明画素の条件を示し、図9(a)に虫画像、図9(b)に翅領域(太線で囲まれた部分)、図9(c)に不透明画素を示す。
<Calculation of opacity>
In the morphological feature extraction step, the opacity of the cocoon can be mentioned as the Merckmar data of the morphological feature.抽出 Opacity extraction is performed when a pixel at coordinates (i, j) is opaque when the hue value H i, j of the pixel at coordinates (i, j) in the 翅 region is significantly different from the average hue value H back of the background region. This is done by extracting as pixels. When the opaque pixels occupy more than half of the total number of pixels in the cocoon region, it is determined that there is opacity, and the ratio of opaque pixels is calculated. Equation 2 shows the conditions for opaque pixels, FIG. 9A shows a worm image, FIG. 9B shows a cocoon region (portion surrounded by a thick line), and FIG. 9C shows an opaque pixel.

<体翅色類似性の算出>
更に、形態的特徴のメルクマールデータとして、体と翅の色の類似性を挙げることができる。体と翅の色の類似性の抽出は、体領域の座標(i,j)の画素の色相値Hi,jと翅領域の平均色相値Hwingとの差が小さい場合に、座標(i,j)の画素を類似色画素として抽出することにより行う。類似色画素が体領域の総画素数の半分以上を占める場合に体類似色性があると判定し、類似色画素の割合を算出する。式3に不透明画素の条件を示す。図10(a)に虫画像、図10(b)に翅領域、体領域(太線で囲まれた部分)、図10(c)に類似色画素を示す。
<Calculation of body color similarity>
Furthermore, the similarity of the color of the body and the eyelid can be mentioned as the Merckmar data of the morphological features. Extraction of the body and wing color similarity coordinate the body region (i, j) the hue value H i of pixels, when the difference between the average hue value H WinG of j and翅領region is small, the coordinates (i , J) are extracted as similar color pixels. When the similar color pixels occupy more than half of the total number of pixels in the body region, it is determined that there is a body similar color, and the ratio of similar color pixels is calculated. Equation 3 shows the conditions for opaque pixels. FIG. 10A shows an insect image, FIG. 10B shows a cocoon region, a body region (a portion surrounded by a thick line), and FIG. 10C shows similar color pixels.

<虫の頭部方向の推定>
上記のようにして求めた翅の角度によって、虫の頭部方向を推定することができる。即ち、翅の角度が小である場合は、翅と逆方向を頭部方向とし、翅の角度が大である場合は、体部の前部と後部のうち、太い方(体幅が大)を頭部方向とする。
<Estimation of insect head direction>
The head direction of the insect can be estimated based on the angle of the moth determined as described above. That is, when the angle of the heel is small, the direction opposite to the heel is the head direction, and when the angle of the heel is large, the thicker one (the body width is large) of the front part and the rear part of the body part Is the head direction.

<後ろ脚の抽出>
後ろ脚は、頭部方向と逆の方向から伸びる脚を以て後ろ脚とする。
<Extraction of back legs>
The back leg is the back leg with the leg extending from the direction opposite to the head direction.

<体部の丸みの特徴抽出>
体部の丸みの特徴は、体幅のヒストグラムから近似二次関数を取得し、ヒストグラム両端の傾きの平均値から抽出することができる。
<Feature extraction of body roundness>
The feature of the roundness of the body part can be extracted from an average value of slopes at both ends of the histogram by obtaining an approximate quadratic function from the histogram of the body width.

<眼の特徴抽出>
眼の特徴抽出のために、先ず、体部分の二値化により、眼の候補となる黒色部分の抽出を行う。そして、その黒色部分のうち、骨格の先端部に位置することと、例えば、縦横比<2.0を満たす形状の部分であることの要件を併せ有する部分を以て眼と同定する。
<Eye feature extraction>
In order to extract eye features, first, a black part that is a candidate for an eye is extracted by binarizing the body part. Then, the black portion is identified as an eye by a portion having both the requirement to be located at the distal end portion of the skeleton and the portion having a shape satisfying, for example, the aspect ratio <2.0.

<細領域長の抽出>
細領域長は、虫領域の中での細い領域がどれだけ存在するかを表す特徴量である。細領域長の抽出は、以下の工程を経て行う。
−虫領域の強調工程
−虫領域の抽出工程
−細領域の抽出工程
−細領域長の取得工程
<Extraction of narrow area length>
The fine region length is a feature amount that represents how many thin regions in the insect region exist. The extraction of the fine region length is performed through the following steps.
-Insect area enhancement process-Insect area extraction process-Fine area extraction process-Fine area length acquisition process

虫領域の強調工程
この工程は、画像から虫のみを抽出しやすくするために、虫領域の強調を行う工程である。画像はRGBそれぞれのチャンネルで構成されているが、ここではGチャンネルのみに着目することとする。これは、Gチャンネルの場合は、シートと虫の色の差が大きいためである。
Insect region enhancement step This step is a step of enhancing the insect region in order to facilitate extraction of only insects from the image. The image is composed of RGB channels. Here, attention is paid only to the G channel. This is because the G channel has a large color difference between the sheet and the insect.

虫領域の抽出工程
この工程は、上記強調工程において強調された画像から虫領域の抽出を行う工程であり、背景色との差分によって虫領域のみを抽出する。そのために先ず、画像から輝度の最頻値を求め、次いでラスタ操作を行って、注目画素が式4を満たす領域を虫候補領域として抽出する。式4の閾値は式5より求める。
注目画素値<背景領域の最頻値−閾値 (式4)
閾値=−7/15×(物体領域の平均値)+78 (式5)
閾値 <8のとき閾値=8
64< 閾値のとき閾値=64
その後ラベリングを行い、最も大きな領域を虫領域として抽出する(図25参照)。
Insect region extraction step This step is a step of extracting the insect region from the image emphasized in the enhancement step, and extracts only the insect region based on the difference from the background color. For this purpose, first, the mode of luminance is obtained from the image, and then a raster operation is performed to extract a region where the pixel of interest satisfies Equation 4 as a bug candidate region. The threshold value of Equation 4 is obtained from Equation 5.
Attention pixel value <mode of the background region−threshold (Formula 4)
Threshold = −7 / 15 × (average value of object area) +78 (Formula 5)
Threshold = 8 when threshold <8
When 64 <threshold, threshold = 64
After that, labeling is performed, and the largest area is extracted as an insect area (see FIG. 25).

細領域の抽出工程
この工程は、虫領域から細い領域を抽出する工程である。この工程においては先ず、虫領域画像(図26(a)参照)に対して収縮処理を2回と膨張処理を2回行ってオープニング画像を取得する(図26(b)参照)。そして、トップハット処理を行って細い領域を抽出した後、虫領域の2.5%以上の面積を持つ領域のみを抽出し、抽出した領域を細領域とする(図26(c)参照)。
Extraction step This step fine region is a step of extracting a narrow area from insects region. In this step, first, the contraction process is performed twice and the expansion process is performed twice on the insect region image (see FIG. 26A) to obtain an opening image (see FIG. 26B). Then, after performing a top hat process to extract a thin region, only a region having an area of 2.5% or more of the insect region is extracted, and the extracted region is set as a thin region (see FIG. 26C).

細領域長の取得工程
この工程は、細領域の長さを取得するための工程である。そのために先ず、細領域(図27(a))に対し、膨張処理2回と収縮処理2回を行ってクロージング画像を取得する(図27(b)参照)。次に、クロージング画像に対して細線化処理を行い、細線化処理後に残った画素数を細領域長とする(図27(c)参照)。
Step of obtaining the narrow region This step is a step for obtaining the length of the narrow region. For this purpose, first, a closing image is obtained by performing expansion processing twice and contraction processing twice on the fine region (FIG. 27A) (see FIG. 27B). Next, a thinning process is performed on the closing image, and the number of pixels remaining after the thinning process is set as a thin area length (see FIG. 27C).

同定ステップ(S16)
次いで、上記方法によって抽出された特徴データを用いての同定方法について、図11に示すフロー図を参照しつつ説明する。同定ステップは、同定対象虫を有翅、無翅、巨大の3種類に分類する分類分け工程と(S21)、一次から四次に亘る同定工程(S22、S24、S26、S28)と、同定結果を出力する結果出力工程(S23、S25、S27、S29)とから成る。
Identification step (S16)
Next, an identification method using the feature data extracted by the above method will be described with reference to the flowchart shown in FIG. The identification step includes a classification process for classifying the identification target insects into three types, harsh, sterile, and giant (S21), an identification process ranging from primary to quaternary (S22, S24, S26, S28), and identification results Result output step (S23, S25, S27, S29).

有翅、無翅、巨大の3種類への分類分けは、処理の効率向上のために行うもので、先ず、巨大虫類か否かの判別を行い、巨大虫類ではないと同定された虫類について、有翅か無翅かの同定を行う。巨大か否かは、例えば、全体面積>10mmの条件を満たすか否かによって同定する。通例、ガガンボやヒラタアブ等が巨大虫類に分類される。次いで、巨大虫類ではないと同定された虫類について、例えば、体・翅面積比>0.1の条件を満たすか否かの同定をし、これを満たす場合は有翅虫類(例えば、クロバネキノコバエ、アブラムシ、ショウジョウバエ、ノミバエ)に分類し、満たさない場合は無翅虫類(例えば、コクヌストモドキ、カツオブシムシ、ハネカクシ、シバンムシ)に分類する。 The classification into the three types of 翅, 翅, and giant is done to improve the efficiency of processing. First, it is determined whether or not it is a giant reptile, and the insect identified as not a giant reptile Identify the presence or absence of a class. Whether or not it is huge is identified by, for example, whether or not the condition of the entire area> 10 mm 2 is satisfied. Usually, gangambo and hiratabu are classified as giant reptiles. Next, for the reptiles that are not identified as giant reptiles, for example, it is identified whether or not the condition of the body / moth area ratio> 0.1 is satisfied. If it does not meet the criteria, it is classified into an insect-free species (for example, Knotnutomodoki, Katsuobushimushi, Hanekakushi, Shibamushi).

一次同定工程(S22)においては、各虫類につき、そのメルクマールデータの数値幅(閾値)を設定し、同定対象虫の特徴がいずれかの虫類の閾値に該当するか否かを同定し、該当する場合にその同定対象虫を当該虫と同定する処理がなされる。閾値の一例を挙げれば、捕獲確率の高い有翅のユスリカ(小黒)の場合は、体長(mm)0.50−2.00、体幅(mm)0.20−0.85)、体長・体幅比0.90−1.60、翅面積(mm)0.10−1.00、体・翅面積比0.10−1.30の如きである。この一次同定工程(S22)の段階で同定できた場合は、その同定結果(虫名)が出力され(S23)、同定できなかった場合は、二次同定工程(S24)に移行する。 In the primary identification step (S22), for each reptile, the numerical range (threshold value) of the Merckmar data is set, and it is identified whether the feature of the identification target insect corresponds to the threshold value of any reptile, When it corresponds, the process which identifies the identification object insect with the said insect is made | formed. As an example of the threshold value, in the case of a trapped chironomid (small black) with high capture probability, body length (mm) 0.50-2.00, body width (mm) 0.20-0.85), body length / The body width ratio is 0.90 to 1.60, the heel area (mm 2 ) is 0.10 to 1.00, and the body / heel area ratio is 0.10 to 1.30. When identification is possible at the stage of the primary identification step (S22), the identification result (insect name) is output (S23), and when the identification is not possible, the process proceeds to the secondary identification step (S24).

二次同定工程(S24)は、上記閾値を拡張し、一次同定工程(S22)において該当しなかった同定対象虫が、拡張された閾値に該当するか否かの同定をする工程である。その場合の閾値の拡張は、捕獲確率の高い虫から行っていくことが好ましい。この二次同定工程(S24)において該当するものがあった場合は、その同定対象虫類を当該虫類と同定する処理がなされ、その結果が出力される(S25)。また、該当するものがなかった場合は、三次同定工程(S26)に移行する。   The secondary identification step (S24) is a step of expanding the threshold value and identifying whether or not an identification target insect that does not correspond to the primary identification step (S22) corresponds to the expanded threshold value. In this case, it is preferable to extend the threshold from an insect having a high capture probability. If there is a corresponding item in the secondary identification step (S24), the identification target insect is identified as the insect, and the result is output (S25). Moreover, when there is no applicable thing, it transfers to a tertiary identification process (S26).

三次同定工程(S26)は虫名の最終決定工程であって、そのサブステップとして、複数種(例えば、体長、体幅、体長・体幅比、脚長、脚長・体長比、翅面積、翅面積・体面積比、面積、体面積の9種)のメルクマールにつき代表値を設定するステップと、その代表値につき同定対象の虫類とのユークリッド距離を算出するステップと、その距離が短い順に3種類の同定候補を決定するステップとを含む。代表値は、複数サンプルの平均値を採用する。   The tertiary identification step (S26) is a final determination step of the insect name, and as sub-steps there are multiple types (for example, body length, body width, body length / body width ratio, leg length, leg length / body length ratio, heel area, heel area) -9 types of body area ratio, area, and body area), a step of setting a representative value, a step of calculating a Euclidean distance between the representative value and the insect to be identified, and three types in the order of the shortest distance Determining identification candidates. As the representative value, an average value of a plurality of samples is adopted.

図12に示す例は、代表値が、クロバネキノコバエの場合が体長1.5mm、脚長0.5mmであり、ショウジョウバエの場合が体長3.0mm、脚長0.0mmであり、タマバエの場合が体長1.0mm、脚長1.5mmであり、ユスリカの場合が体長0.5mm、脚長0.5mmと設定され、同定対象の虫類の体長が1.5mmで脚長が0.5mmである場合の同定例を示すものである。この場合において、それらの代表値と同定対象の虫類とのユークリッド距離が、クロバネキノコバエが0.70、ショウジョウバエが1.58、タマバエが1.11、ユスリカが1.00のときは、その順位は1位から順に、クロバネキノコバエ、ユスリカ、タマバエ、ショウジョウバエとなる。   In the example shown in FIG. 12, the representative values are 1.5 mm body length and 0.5 mm leg length in the case of Kurobane mushroom fly, 3.0 mm body length and 0.0 mm leg length in the case of Drosophila, and the body length in the case of flies. It is 1.0 mm, leg length is 1.5 mm, the chironomid case is set as 0.5 mm body length and leg length 0.5 mm, and the same is true when the body length of the insect to be identified is 1.5 mm and the leg length is 0.5 mm. This is a regular example. In this case, when the Euclidean distance between these representative values and the reptile to be identified is 0.70 for D. melanogaster, 1.58 for Drosophila, 1.11 for Drosophila, 1.00 for chironomid, In order from the first place, the order is Kurobane mushroom fly, chironomid, gall fly, and Drosophila.

決定された3種類の同定候補の中から最終的に虫名の同定がなされるが、通例、第1候補を以て同定結果とする(上記例では、同定対象の虫類はクロバネキノコバエと同定される。)が、その際、固有の特徴を持つ虫類に対して、その特徴を条件として候補順位の繰り上げを行うようにすることもできる。例えば、ノミバエについては、以下の4つの特徴のうち3つ以上を充足する場合に、第1候補に繰り上げることができる。
−体色につき黄色割合が40%以上であること
−後ろ脚が抽出されること
−翅生部分が中間部であること
−黒眼が抽出されること
The name of the insect is finally identified from the three types of identification candidates determined. Usually, the first candidate is used as the identification result (in the above example, the insect to be identified is identified as the black fly mushroom fly). In this case, however, it is possible to move up the candidate ranking for a reptile having a unique characteristic on the condition of the characteristic. For example, fleas can be raised to the first candidate when three or more of the following four characteristics are satisfied.
-The percentage of yellow for each body color is 40% or more-The rear legs are extracted-The cocoon is in the middle-Black eyes are extracted

上記のとおり、本発明に係る方法においては、虫類全体のシルエットから虫類を同定するのではなく、先ず、体領域、脚領域及び翅領域の各部位を抽出し、各部位の特徴から虫を同定するという手法を用いる。これにより、粘着捕獲された虫の向きの違いによる影響を極力少なくすることが可能となる。また、似た色や形、大きさを持つ種類の虫が存在するという問題は、各部位の特徴数を増やすことで解決することが可能となる。   As described above, in the method according to the present invention, instead of identifying the reptile from the silhouette of the whole reptile, first, each part of the body region, the leg region and the cocoon region is extracted, and the insect is determined from the characteristics of each part. Is used. Thereby, it becomes possible to reduce the influence by the difference in the direction of the insect trapped by sticking as much as possible. In addition, the problem of the presence of similar types of insects with similar colors, shapes, and sizes can be solved by increasing the number of features in each part.

上記三次同定工程(S26)においては、主に色の特徴量の類似度を用いて判定を行っているが、例えば、ユスリカとノミバエ、ショウジョウバエとヨコバイ・ウンカといったような、互いに色が似通っている虫の区別をつけることができない。そこで、三次同定工程で特定の虫と判定した場合に、判定精度を更に向上させるために、SVM(Support Vector Machine)を用いた識別を行うことが好ましい(四次同定工程(S28))。この四次同定工程(S28)において識別を行う虫は、例えば、以下の通りである。
・三次同定工程(S26)でノミバエと判定した場合において、ノミバエかユスリカかを識別
・三次同定工程(S26)でショウジョウバエもしくはヨコバイ・ウンカと判定した場合において、ショウジョウバエかヨコバイ・ウンカかを識別
In the tertiary identification step (S26), the determination is performed mainly using the similarity of the color feature amount, but the colors are similar to each other, for example, chironomid and flea, Drosophila and leafhopper unka. Cannot distinguish insects. Therefore, in order to further improve the determination accuracy when it is determined as a specific insect in the tertiary identification step, it is preferable to perform identification using SVM (Support Vector Machine) (fourth identification step (S28)). The insects that are identified in the quaternary identification step (S28) are, for example, as follows.
・ Identify flies or chironomies in the third identification step (S26) when it is determined to be fleas ・ Identify Drosophila or leafhoppers in the third identification step (S26) if it is determined to be Drosophila or leafhopper

SVMを用いた同定は、学習データの用意工程(S31)と、学習データの正規化工程(S32)と、モデル選択工程(S33)と、モデルのパラメータ調整工程(S34)と、評価実験工程(S35)とから成る(図13参照)。   The identification using the SVM includes a learning data preparation step (S31), a learning data normalization step (S32), a model selection step (S33), a model parameter adjustment step (S34), and an evaluation experiment step ( S35) (see FIG. 13).

学習データの用意工程(S31)
学習データの用意工程(S31)は、分類の見本となる学習データを用意する工程である。学習データはできるだけ多く集めることが好ましく、本発明においては、SVMの分類は以下の47個の特徴量を用いた47次元で行うこととする。
Learning data preparation step (S31)
The learning data preparation step (S31) is a step of preparing learning data as a sample of classification. It is preferable to collect as much learning data as possible. In the present invention, SVM classification is performed in 47 dimensions using the following 47 feature values.

以下の特徴の中には、識別に効果的でない特徴量も含まれる可能性があるが、SVMの特性として、選択されなかったデータは識別関数に組み込まれないので、多くの特徴量を用いても差し支えない。
・体色(15個)
赤割合・赤彩度・赤明度・黄割合・黄彩度・黄明度・緑割合・緑彩度・緑明度・黒割合・黒明度・自割合・白明度・黒割合(RGB)・低濃度割合
・体領域(11個)
面積・体長・体幅・体幅分散・体長体幅比率・円形度・軸角度・丸み・輝度平均・輝度分散・細領域長
・物体領域(1個)
黒割合
・尾領域(2個)
長さ・長さ比
・翅領域(9個)
総面積・総面積比・最大面積・最大面積比・最大長・体長さ比・不透明割合・色類似割合
・3領域(4個)
面積・輝度平均・輝度分散・円形度
・脚領域(2個)
長さ・体長比
・第2体領域(2個)
面積・対比率
The following features may include features that are not effective for identification. However, as the characteristics of SVM, data that was not selected is not incorporated into the discrimination function, so many features are used. There is no problem.
・ Body color (15)
Red ratio, red saturation, red brightness, yellow ratio, yellow saturation, yellow brightness, green ratio, green saturation, green brightness, black ratio, blackness, own ratio, whiteness, black ratio (RGB), low density ratio Body area (11)
Area, body length, body width, body width dispersion, body length body width ratio, circularity, axis angle, roundness, luminance average, luminance dispersion, thin region length, object region (1)
Black ratio ・ Tail area (2)
Length / length ratio-Wrinkle area (9)
Total area / Total area ratio / Maximum area / Maximum area ratio / Maximum length / Body length ratio / Opacity ratio / Color similarity ratio-3 areas (4)
Area, luminance average, luminance dispersion, circularity, leg area (2)
Length / body length ratio • 2nd body region (2)
Area / contrast ratio

学習データの正規化工程(S32)
学習データの正規化工程(S32)は、各特徴量に対する重みが変わることを防ぐために、特徴量のとり得る範囲を予め調整する処理を行う工程である。例えば、体領域面積(1.24〜3.65)と体領域輝度分散(260〜990)の場合は、体領域輝度分散の値変動が大きく、正規化を行わない場合は、結果に大きく影響してくることなる。また、学習データの正規化は、カーネル関数において情報落ちが発生することを防止するためにも必要である。学習データの正規化は、下記式6を用いて行う。
Normalization process of learning data (S32)
The learning data normalization step (S32) is a step of performing a process of previously adjusting a possible range of the feature amount in order to prevent the weight for each feature amount from being changed. For example, in the case of the body region area (1.24 to 3.65) and the body region luminance variance (260 to 990), the value variation of the body region luminance variance is large, and if normalization is not performed, the result is greatly affected. I will do it. Also, normalization of learning data is necessary to prevent information loss from occurring in the kernel function. Normalization of the learning data is performed using the following formula 6.

モデル選択工程(S33)
モデル選択工程(S33)においては、カーネル関数とモデルのパラメータの選択が行われる。カーネル関数には、RBFカーネル、線形カーネル、多項式カーネル、シグモイドカーネル等があるが、最も基本的なRBFカーネルを用いることが推奨される。RBFカーネルの場合のパラメータは、コストパラメータCとRBFカーネルのパラメータγである。
Model selection process (S33)
In the model selection step (S33), a kernel function and model parameters are selected. Kernel functions include RBF kernel, linear kernel, polynomial kernel, sigmoid kernel, etc., but it is recommended to use the most basic RBF kernel. The parameters for the RBF kernel are the cost parameter C and the parameter γ of the RBF kernel.

モデルのパラメータ調整工程(S34)
モデルのパラメータ調整工程(S34)は、パラメータの精度を上げるためにチューニングを行う工程である。コストパラメータCは、誤分類をどの程度許容するかを決めるパラメータであり、RBFカーネルのパラメータγは、決定境界が単純か複雑かを決めるパラメータである。これらのパラメータの調整は、グリッド探索を行って最適なコストパラメータCとRBFカーネルのパラメータγの組み合わせを求めることにより行われる。即ち、図14に示されるように、Cとγの二次元空間をグリッドに分割し、その交点で最適と思われるものを求める。そのために、最初は幅を広くして探索して最適箇所の予想を立て、次いで、高精度になる値の付近を詳しく探索するという手法を用いる。
Model parameter adjustment step (S34)
The model parameter adjustment step (S34) is a step of tuning to increase the accuracy of the parameters. The cost parameter C is a parameter that determines how much misclassification is allowed, and the parameter γ of the RBF kernel is a parameter that determines whether the decision boundary is simple or complex. These parameters are adjusted by performing a grid search to obtain an optimal combination of the cost parameter C and the RBF kernel parameter γ. That is, as shown in FIG. 14, the two-dimensional space of C and γ is divided into grids, and what seems to be optimal at the intersection is obtained. For this purpose, first, a method is used in which a search is performed with a wider width to estimate the optimum location, and then a search is performed in detail around the value that becomes highly accurate.

評価実験工程(S35)
評価実験工程(S35)においては、交差検証法(k−fold)を用い、データを組み替えて精度評価を複数回行う。この方法は、推定精度の誤差が少なく、データ量が少ない場合でも精度の信頼性を保てるという利点がある。図15は、交差検証法で6件の元データで3foldクロスバリデーションを行う例を示す。
Evaluation experiment process (S35)
In the evaluation experiment step (S35), the cross-validation method (k-fold) is used to rearrange the data and perform the accuracy evaluation a plurality of times. This method has the advantage that the accuracy of the estimation accuracy is small and the reliability of accuracy can be maintained even when the amount of data is small. FIG. 15 shows an example in which 3fold cross-validation is performed with 6 original data by the cross-validation method.

上記SVMを用いた四次同定工程(S28)を経た実験例を以下に示す。
・元データ
ショウジョウバエ72匹とヨコバイ・ウンカ72匹の計144匹
・モデル+パラメータ
RBF関数(C:512,γ:0.00048828125)
・精度評価
36foldクロスバリデーション
・実験結果
推定精度:68.06%(98/144)
An experimental example through the quaternary identification step (S28) using the SVM is shown below.
・ Original data: A total of 144 Drosophila and 72 leafhoppers ・ Model + parameter RBF function (C: 512, γ: 0.00048828125)
・ Accuracy evaluation 36fold cross validation ・ Experimental result Estimated accuracy: 68.06% (98/144)

好ましくは、同定ステップ(S16)において更に、ゴミの判定処理と微小虫の判定処理を行うこととする。   Preferably, in the identification step (S16), a dust determination process and a microworm determination process are further performed.

ごみの判定処理
「アザミウマ」や「ユスリカ」などの非常に小さい虫は、ゴミと誤判定され、抽出できないという問題がある。また、虫の脚の欠片などが虫と誤判定されてしまうこともある。そこで、本発明においては、同定ステップ(S16)にゴミの判定処理を追加することで、これらの問題を解決することとした。シートに付着するごみの大きな特徴として、歪な形をしていることを挙げることができる。また、虫に比べると体に丸みがなく、物体色が黒や白の単色であることが特徴であるので、これらの特徴を用いてごみの判定を行う。
Very small insects, such as the determination process of garbage "thrips" and "midges" is erroneously determined garbage, there is a problem that can not be extracted. In addition, a piece of an insect leg may be erroneously determined as an insect. Therefore, in the present invention, these problems are solved by adding dust determination processing to the identification step (S16). A major characteristic of the dust attached to the sheet is that it has a distorted shape. Further, since the body is not round as compared with insects and the object color is a single color of black or white, dust is determined using these characteristics.

先ず、物体領域の黒色の割合を求め、その割合が95%以上、あるいは、体領域の輝度値が180以上である場合にゴミ候補とする。次に、ゴミ候補に対して体の丸みと体領域の円形度を求め、その値が非常に小さい場合は歪な形をしていると判断し、ゴミと判定する。   First, the ratio of black in the object region is obtained, and the candidate is determined to be a dust candidate when the ratio is 95% or more or the luminance value of the body region is 180 or more. Next, the roundness of the body and the circularity of the body region are obtained with respect to the dust candidates, and when the values are very small, it is determined that the shape is distorted and determined as dust.

微小虫の判定処理
今までは、領域面積が0.25mm以下であればゴミと判定されていたため、アザミウマなどの非常に小さい虫もゴミと判定されてしまう問題がある。そこで、非常に小さい虫(アザミウマ)や体面積が小さい虫(ユスリカ)の判定処理を加えることでこれらの問題を解決することとした。先ず、アザミウマの判定方法について説明する。アザミウマには黄色いアザミウマと黒いアザミウマの2種類存在するため、これら2種類のアザミウマの判定を行う必要がある。
Until now, if the area of the area is 0.25 mm 2 or less, it has been determined as dust. Therefore, there is a problem that very small insects such as thrips are also determined as dust. Therefore, it was decided to solve these problems by adding judgment processing for very small insects (Thrips aurium) and insects with a small body area (Chironomidae). First, a method for determining thrips will be described. There are two types of thrips, yellow thrips and black thrips, and it is necessary to determine these two types of thrips.

黄色いアザミウマの判定
黄色いアザミウマ物体領域に対してラベリングを行い50画素以下の領域を抽出し、その領域に対して体候補領域の抽出を行う。候補領域の求め方は2×2画素のブロックを左上から順に物体領域に当てはめ、すべて当てはまる領域を体候補領域とする。この体候補領域で(式7.1)を満たす領域を体領域として抽出する。このとき、抽出した体領域が物体領域の30%以上占めている場合、物体領域の色相のばらつきを求め、ばらつきが大きい場合はアザミウマと判定し、ばらつきが小さい場合はゴミと判定する。図16(a)にアザミウマを、図16(b)にブロック領域、図16(c)に体候補領域の抽出、図16(d)に体領域の抽出、図17(a)にアザミウマの色相例、 図17(b)にゴミの色相例を示す。
Determination of yellow thrips A yellow thrips object region is labeled to extract a region of 50 pixels or less, and a body candidate region is extracted from that region. The candidate area is obtained by applying blocks of 2 × 2 pixels to the object area in order from the upper left, and letting all applicable areas be body candidate areas. A region satisfying (Equation 7.1) in this body candidate region is extracted as a body region. At this time, when the extracted body region occupies 30% or more of the object region, the hue variation of the object region is obtained, and when the variation is large, it is determined as thrips, and when the variation is small, it is determined as dust. 16 (a) shows a thrips, FIG. 16 (b) shows a block area, FIG. 16 (c) shows a body candidate area, FIG. 16 (d) shows a body area, and FIG. 17 (a) shows a thrips hue. For example, FIG. 17B shows an example of the hue of dust.

黒いアザミウマの判定
黒いアザミウマには3種類あり、それぞれ異なる特徴を持っている。1種類目は中心部分が薄く、周りが黒い特徴を持つ。2種類目は全体的に黒い特徴を持つ。3種類目は赤色混じりで、黒い領域がある特徴を持つ。そのため、それぞれのアザミウマに対して別々の処理を行うことで判定を行う。1種類目のアザミウマは中心部が薄く周りが黒いという特徴がある(図18(a))。これに対しては先ず、背景領域に対して、HSV表色系からV値の色情報を取得し、平均値Vave1を求める。次に、取得した物体領域のV値とVave1の比較を行い、条件(式7.2.1)を満たす物体領域の画素を濃い領域として抽出し、ラベリングを行う(図18(b))。このとき薄い領域を、物体領域のRGB値を用いて(式7.2.2)より抽出する(図18(c))。
Judgment of black thrips There are three types of black thrips, each with different characteristics. The first type is thin at the center and black around it. The second type has an overall black character. The third type is mixed with red and has a black area. Therefore, the determination is performed by performing separate processing for each thrips. The first type of thrips is characterized by a thin center and black surroundings (FIG. 18 (a)). To this end, first, V-value color information is acquired from the HSV color system for the background area, and an average value V ave1 is obtained. Next, the V value of the acquired object region is compared with V ave1 , the pixel of the object region that satisfies the condition (formula 7.2.1) is extracted as a dark region, and labeling is performed (FIG. 18B). . At this time, a thin area is extracted from (Equation 7.2.2) using the RGB values of the object area (FIG. 18C).

黄色いアザミウマの判定
次に、5×5画素のブロックを薄い領域に当てはめ、ブロック内に濃い領域が2つ以上存在する場合(図19)はアザミウマとして判定を行う。2種類目のアザミウマは、全体的に黒いという特徴がある(図20(a))。1種類目のアザミウマの抽出の場合と同様にして、濃い領域を式6.2.1から抽出し、ラベリングを行う(図20(b))。このとき、抽出された濃い領域が物体領域の40%以上を占めている場合は、アザミウマと判定する。3種類目のアザミウマは赤色混じりで黒い領域がある(図21(a))。そこで先ず、背景領域に対して、HSV表色系からH、V値の色情報を取得し、平均値Have1、Vave1を求める。次に、取得した物体領域のH、V値とHave1、Vave1の比較を行い、条件(式7.2.3)を満たす物体領域の画素を色相が違う領域として抽出する。このとき、条件(式7.2.4)を満たす物体領域の画素を濃い領域として抽出する。最後に、濃い領域が一定以上あり、色相が違う領域が物体領域の40%以上を占めている場合は、アザミウマと判定する(図21(b))。
Determination of yellow thrips Next, a block of 5 × 5 pixels is applied to a thin area, and when there are two or more dark areas in the block (FIG. 19), determination is made as thrips. The second type of thrips has the characteristic of being black overall (FIG. 20 (a)). In the same manner as the extraction of the first type of thrips, a dark region is extracted from Equation 6.2.1 and labeled (FIG. 20B). At this time, if the extracted dark area occupies 40% or more of the object area, it is determined as thrips. The third type of thrips is mixed with red and has a black area (FIG. 21A). Therefore, first, color information of H and V values is acquired from the HSV color system for the background region, and average values H ave1 and V ave1 are obtained. Next, the H and V values of the acquired object region are compared with H ave1 and V ave1 , and pixels in the object region that satisfy the condition (Equation 7.2.3) are extracted as regions having different hues. At this time, the pixels of the object region that satisfy the condition (Formula 7.2.4) are extracted as dark regions. Finally, if there is a dark area above a certain level and an area with a different hue occupies 40% or more of the object area, it is determined as thrips (FIG. 21B).

ユスリカの判定方法
次いで、ユスリカの判定方法について解説する。先行研究では、小さいユスリカの体領域が正しく抽出されず、ゴミと判定されるという問題があった。そこで、本発明においては、小さいユスリカの特徴である体面積が小さいことや、尾が緑色をしていることを用いて判定処理を行うことで、ゴミとの誤判定の問題を解決する。そのために先ず、物体領域のRGB値から緑色面積を(式7.2.5)から求める(図22(b))。次に、求めた緑色面積が体面積の25%以上、且つ、体領域画素が80画素以下である場合に、ユスリカの可能性があると考える。最後に、ユスリカの特徴幅を設定し、同定対象の特徴量が設定した条件と一致する場合にユスリカと判定する。
The chironomid judgment method Next, the chironomid judgment method is explained. In the previous research, there was a problem that the body area of small chironomid was not extracted correctly and was judged as garbage. Therefore, in the present invention, the determination process is performed using the fact that the body area, which is a characteristic of the small chironomid, is small, and the tail is green, thereby solving the problem of erroneous determination of dust. For this purpose, first, a green area is obtained from (Equation 7.2.5) from the RGB values of the object region (FIG. 22B). Next, when the obtained green area is 25% or more of the body area and the body region pixels are 80 pixels or less, it is considered that there is a possibility of chironomid. Finally, the chironomi feature width is set, and when the feature quantity to be identified matches the set condition, it is determined to be chironomid.

色の変化が均一なゴミの判定
図23(b)のような色の変化が少ないゴミの判定を行う。対象とする候補領域の大きさは0.4mm ≦ 虫候補領域 ≦ 1.0mmとする。先ず、虫候補領域を重心中心に64×64の大きさでLog−Polar変換を行う。そして、行ごとの輝度値の標準偏差σを計算する。これによって、中心から外方向に向けての色の変化の大きさを比較する。そして、全ての行の標準偏差が15以下ならゴミと判定する。中心から展開を行う理由は、領域の向きによる影響を少なくするためである。
Determination of dust with uniform color change As shown in FIG. 23B, dust is determined with little color change. The size of the target candidate area is set to 0.4 mm 2 ≤ bug candidate area ≤ 1.0 mm 2 . First, Log-Polar conversion is performed with a size of 64 × 64 with the insect candidate region as the center of gravity. Then, the standard deviation σ of the luminance value for each row is calculated. Thus, the magnitude of the color change from the center toward the outside is compared. If the standard deviation of all the rows is 15 or less, it is determined as dust. The reason for developing from the center is to reduce the influence of the direction of the region.

凹凸度の抽出
体領域の細線化を行い、細線化を行った結果の始点と終点を結ぶ線分を引く。そして、線分上の体領域以外の長さ/線分の長さで求めることができる(図24)。
The extraction area of the unevenness is thinned, and a line segment connecting the start point and the end point of the thinning result is drawn. And it can obtain | require by length other than the body area | region on a line segment / length of a line segment (FIG. 24).

上記のとおり本発明に係る捕獲虫類の同定方法においては、虫候補領域取得ステップにおいて、物体領域の抽出に障害となるシート画像に存在する白線領域を処理すると共に、低濃度領域を抽出する処理を行い、形態的特徴のメルクマールデータに翅不透明性の算出及び体翅色類似性を含め、同定ステップにおいて、SVMを用いて行う同定処理を行うと共に、ゴミの判定処理及び微小虫の判定処理を行うことにより、虫類の同定、殊に微小虫の同定をより正確且つ迅速に、しかも比較的低コストにて行うことが可能となるので、産業上の利用可能性は大である。   As described above, in the method for identifying a captured insect according to the present invention, in the insect candidate region acquisition step, the white line region present in the sheet image that is an obstacle to the extraction of the object region is processed and the low concentration region is extracted. In the identification step, the identification process performed using SVM is performed in the identification step, and the dust determination process and the microworm determination process are performed. By doing so, the identification of reptiles, especially the identification of micro-insects, can be carried out more accurately and quickly, and at a relatively low cost, so that the industrial applicability is great.

1 捕虫装置
2 画像読み込み手段
3 解析装置
4 前処理手段
5 特徴抽出手段
6 データ記憶手段
7 同定手段
8 出力手段
11 本体ケース
12 前面開口部
13 LEDユニット
15 透光性の粘着シート
16 導光板挿入口
31 エッジ
32 虫候補領域
33 非エッジブロック領域
34 仮虫領域
35 エッジ
36 注目画素
37 隣接画素
38 虫領域
39 背景領域
DESCRIPTION OF SYMBOLS 1 Insect capture device 2 Image reading means 3 Analysis apparatus 4 Pre-processing means 5 Feature extraction means 6 Data storage means 7 Identification means 8 Output means 11 Main body case 12 Front opening part 13 LED unit 15 Translucent adhesive sheet 16 Light guide plate insertion port 31 Edge 32 Insect candidate area
33 non-edge block area 34 pseudoworm area 35 edge 36 pixel of interest 37 adjacent pixel 38 insect area 39 background area

本発明は、捕獲虫類の同定方法に関するものであり、より詳細には、例えば、食品工場、薬品工場等のように、昆虫その他の小さな虫類の侵入を極力阻止する必要のある場所において、捕獲した虫類を同定し、以後の防虫対策に活用する資料を得るための捕獲虫類の同定方法に関するものである。 Location This invention relates to the identification how capture insects, and more particularly, for example, food factories, as such chemicals plant, you need to minimize blocking the entry of insects and other small insects in, identified the captured insects, it relates to the identification how to capture insects in order to obtain the materials to make the subsequent insect measures.

本発明はかかる要望に応えるためになされたもので、虫候補領域取得ステップにおいて、物体領域の抽出に障害となるシート画像に存在する白線領域を処理すると共に、低濃度領域を抽出する処理を行い、形態的特徴のメルクマールデータに翅不透明性の算出及び体翅色類似性を含め、同定ステップにおいて、SVMを用いて行う同定処理を行うと共に、ゴミの判定処理及び微小虫の判定処理を行うことで、虫類の同定、殊に微小虫の同定をより正確且つ迅速に、しかも比較的低コストにて行うことができる捕獲虫類の同定方法を提供することを課題とする。 The present invention has been made to meet such a demand. In the insect candidate region acquisition step, a white line region existing in a sheet image that becomes an obstacle to the extraction of an object region is processed and a process of extracting a low density region is performed. Including the opacity calculation and body color similarity in the morphological features of Merckmar data, in the identification step, the identification process using SVM is performed, and the dust determination process and the microworm determination process are performed. in the identification of insects, particularly the identification of small insects more accurately and quickly, yet it is an object to provide a relatively identification how capture insects that can be performed at a low cost.

一実施形態においては、前記同定ステップは、SVMを用いて行う同定処理を含む。 In one embodiment, the identification step includes an identification process performed using SVM.

本発明に係る捕獲虫類の同定方法は上記のとおりであって、捕獲虫類の同定を、人手を介することなく、取り込んだ虫類の画像から形態的特徴のメルクマールデータを取得し、これを予め虫ごとに設定した標準メルクマールデータと比較する画像処理によって行うことができるため、各工場等に集まる虫類の同定作業を自動的且つ迅速に、しかも比較的低コストにて行うことができ、また、客観性及び一貫性のある同定結果を得ることが可能となる効果がある。
Identification how capture insects according to the present invention has been as described above, the identification of trapping insects, without human intervention, to get the Merkmal data morphological features from the image of the captured insects, which Can be performed by image processing to compare with standard Merckmar data set for each insect in advance, so that identification work of insects gathering at each factory etc. can be performed automatically and quickly at a relatively low cost. In addition, there is an effect that an objective and consistent identification result can be obtained.

Claims (5)

虫類を捕獲した捕虫装置の粘着シートの画像読み込みステップと、読み込まれた前記画像から虫候補領域を取得する虫候補領域取得ステップと、取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、抽出された前記虫領域から形態的特徴のメルクマールデータを取得する特徴抽出ステップと、前記メルクマールデータを標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとを含む捕獲虫類の同定方法であって、
前記虫候補領域取得ステップは、前記虫候補領域の抽出に障害となるシート画像に存在する白線領域を除去するために、RGB値をHSV表色系に変換し、彩度と明度を使用して白線領域候補を抽出した後、ハフ変換を用いて白線領域の抽出を行う処理と、
前記虫候補領域中の注目画素を中心にして得た画素の平均が100となるように正規化を行った後、ガウシアンオペレータを用いて算出した結果から低濃度領域を抽出する処理とを含むことを特徴とする捕獲虫類の同定方法。
An image reading step of the adhesive sheet of the insect trapping device that captured the insects, an insect candidate region acquiring step for acquiring an insect candidate region from the read image, and a background for deleting a background region other than the acquired insect candidate region A region deletion step, a bug region extraction step for extracting a bug region from the bug candidate region, a feature extraction step for obtaining morphological feature Merckmar data from the extracted bug region, and the Merckmar data as standard Merckmar data A method for identifying a captured reptile comprising an identification step of identifying the reptile by matching,
The insect candidate area acquisition step converts the RGB value into the HSV color system and removes the white line area existing in the sheet image that becomes an obstacle to the extraction of the insect candidate area, and uses the saturation and the brightness. After extracting a white line area candidate, a process of extracting a white line area using Hough transform,
Processing for extracting a low density region from a result calculated using a Gaussian operator after normalizing so that an average of pixels obtained with the pixel of interest in the insect candidate region as a center is 100. A method for identifying captured insects characterized by
虫類を捕獲した捕虫装置の粘着シートの画像読み込みステップと、読み込まれた前記画像から虫候補領域を取得する虫候補領域取得ステップと、取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、抽出された前記虫領域から形態的特徴のメルクマールデータを取得する特徴抽出ステップと、
前記メルクマールデータを標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとを含む捕獲虫類の同定方法であって、
前記同定ステップは、SVMを用いて行う同定処理を含むことを特徴とする捕獲虫類の同定方法。
An image reading step of the adhesive sheet of the insect trapping device that captured the insects, an insect candidate region acquiring step for acquiring an insect candidate region from the read image, and a background for deleting a background region other than the acquired insect candidate region A region deletion step, a bug region extraction step for extracting a bug region from the bug candidate region, and a feature extraction step for obtaining Merckmar data of morphological features from the extracted bug region;
An identification step of identifying a captured reptile, including an identification step of identifying the reptile by comparing the Merckmar data with standard Merckmar data,
The method for identifying a captured insect, wherein the identification step includes an identification process performed using SVM.
前記同定ステップは更に、物体領域の黒色の割合又は体領域の輝度値からゴミ候補を取得し、体の丸みと体領域の円形度からゴミを判定するゴミ判定処理を含む、請求項2に記載の捕獲虫類の同定方法。   The identification step further includes dust determination processing for acquiring dust candidates from the black ratio of the object region or the luminance value of the body region, and determining dust from the roundness of the body and the circularity of the body region. To identify captive insects. 前記形態的特徴のメルクマールデータとして、翅領域の座標の画素の色相値と背景領域の平均色相値との比較から判定される翅の不透明性と、体領域の座標の画素の色相値と翅領域の平均色相値との差が小さい場合に前記体領域の座標の画素を類似色画素とし、この類似色画素と前記体領域の総画素数との比較から抽出される体翅色類似性とを含む、請求項1乃至3のいずれかに記載の捕獲虫類の同定方法。   As the Merckmar data of the morphological features, the opacity of the eyelid determined from the comparison between the hue value of the pixel at the coordinates of the eyelid area and the average hue value of the background area, the hue value of the pixel at the coordinates of the body area, and the eyelid area When the difference from the average hue value of the body region is small, the pixel of the coordinates of the body region is a similar color pixel, and the body color similarity extracted from the comparison between the similar color pixel and the total number of pixels of the body region The identification method of the capture insects in any one of Claims 1 thru | or 3 containing. 前記形態的特徴のメルクマールデータとして、虫領域の中での細い領域がどれだけ存在するかを表す特徴量である細領域長を含み、前記細領域長の抽出は、以下の工程を経て行う、請求項1乃至4のいずれかに記載の捕獲虫類の同定方法。
−虫領域の強調工程
−虫領域の抽出工程
−細領域の抽出工程
−細領域長の取得工程
As the Merckmar data of the morphological features, including a fine region length which is a feature amount indicating how many thin regions in the insect region exist, the fine region length is extracted through the following steps, The method for identifying a capture insect according to any one of claims 1 to 4.
-Insect area enhancement process-Insect area extraction process-Fine area extraction process-Fine area length acquisition process
JP2017102019A 2017-05-23 2017-05-23 Identification method of captured insects Active JP6313886B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017102019A JP6313886B1 (en) 2017-05-23 2017-05-23 Identification method of captured insects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017102019A JP6313886B1 (en) 2017-05-23 2017-05-23 Identification method of captured insects

Publications (2)

Publication Number Publication Date
JP6313886B1 JP6313886B1 (en) 2018-04-18
JP2018197940A true JP2018197940A (en) 2018-12-13

Family

ID=61968250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017102019A Active JP6313886B1 (en) 2017-05-23 2017-05-23 Identification method of captured insects

Country Status (1)

Country Link
JP (1) JP6313886B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210392866A1 (en) * 2018-10-22 2021-12-23 Brandenburg Connect Limited Intelligent trap and consumables
WO2023190096A1 (en) * 2022-03-31 2023-10-05 株式会社ペストビジョンソリューションズ Insect identification image data generation method and insect identification system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481939B2 (en) 2020-08-04 2024-05-13 株式会社竹中工務店 How to identify insects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316607A (en) * 2004-04-27 2005-11-10 Toyota Motor Corp Image processor and image processing method
JP2014142833A (en) * 2013-01-24 2014-08-07 Earth Kankyo Service Kk Captured insect identification method and identification system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316607A (en) * 2004-04-27 2005-11-10 Toyota Motor Corp Image processor and image processing method
JP2014142833A (en) * 2013-01-24 2014-08-07 Earth Kankyo Service Kk Captured insect identification method and identification system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210392866A1 (en) * 2018-10-22 2021-12-23 Brandenburg Connect Limited Intelligent trap and consumables
US11974561B2 (en) * 2018-10-22 2024-05-07 Caucus Connect Limited Intelligent trap and consumables
WO2023190096A1 (en) * 2022-03-31 2023-10-05 株式会社ペストビジョンソリューションズ Insect identification image data generation method and insect identification system
JP7458089B2 (en) 2022-03-31 2024-03-29 株式会社ペストビジョンソリューションズ Method for generating image data for insect identification and insect identification system

Also Published As

Publication number Publication date
JP6313886B1 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
Zhang et al. Plant disease recognition based on plant leaf image.
JP5690856B2 (en) Identification method and identification system for captured insects
Chung et al. Efficient shadow detection of color aerial images based on successive thresholding scheme
Qing et al. Automated counting of rice planthoppers in paddy fields based on image processing
Mayo et al. Automatic species identification of live moths
CN102332092B (en) Flame detection method based on video analysis
Krithika et al. An individual grape leaf disease identification using leaf skeletons and KNN classification
Gutiérrez et al. Deep learning for the differentiation of downy mildew and spider mite in grapevine under field conditions
JP6313886B1 (en) Identification method of captured insects
US20120213440A1 (en) Systems and Methods for Automatically Identifying Shadows in Images
Masood et al. Plants disease segmentation using image processing
Laga et al. Image-based plant stornata phenotyping
Bereciartua-Pérez et al. Insect counting through deep learning-based density maps estimation
JP2002203242A (en) Plant recognition system
CN111353452A (en) Behavior recognition method, behavior recognition device, behavior recognition medium and behavior recognition equipment based on RGB (red, green and blue) images
JP2005190400A (en) Face image detection method, system, and program
Bah et al. Deep features and One-class classification with unsupervised data for weed detection in UAV images
Wang et al. An maize leaf segmentation algorithm based on image repairing technology
Lamping et al. ChickenNet-an end-to-end approach for plumage condition assessment of laying hens in commercial farms using computer vision
Garcia et al. Acquisition of digital images and identification of Aedes Aegypti mosquito eggs using classification and deep learning
Vishwanath et al. Connected component analysis for Indian license plate infra-red and color image character segmentation
CN107330441A (en) Flame image foreground extraction algorithm
CN112257730A (en) Plant pest image identification method, device, equipment and storage medium
Poonkuntran et al. Plant Disease Identification System
Choudhury Segmentation techniques and challenges in plant phenotyping

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180323

R150 Certificate of patent or registration of utility model

Ref document number: 6313886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250