JP2013058162A - Feature quantity extraction device, target object detection system, computer program, and feature quantity extraction method - Google Patents

Feature quantity extraction device, target object detection system, computer program, and feature quantity extraction method Download PDF

Info

Publication number
JP2013058162A
JP2013058162A JP2011197433A JP2011197433A JP2013058162A JP 2013058162 A JP2013058162 A JP 2013058162A JP 2011197433 A JP2011197433 A JP 2011197433A JP 2011197433 A JP2011197433 A JP 2011197433A JP 2013058162 A JP2013058162 A JP 2013058162A
Authority
JP
Japan
Prior art keywords
feature quantity
feature
feature amount
sample
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011197433A
Other languages
Japanese (ja)
Other versions
JP5772420B2 (en
Inventor
Yuki Ono
佑樹 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2011197433A priority Critical patent/JP5772420B2/en
Publication of JP2013058162A publication Critical patent/JP2013058162A/en
Application granted granted Critical
Publication of JP5772420B2 publication Critical patent/JP5772420B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a feature quantity extraction device, a target object detection system, a computer program, and a feature quantity extraction method which can accurately extract feature quantity which presents essential difference between a target object and a non-target object.SOLUTION: A feature quantity candidate determination unit 102 determines a plurality of feature quantity candidates related to displacement of spectral intensity at a plurality of arbitrary wavelengths for each sample pixel. An identifier generation unit 103 generates an identifier for identifying a target object and a non-target object by using boosting for each of a part of feature quantity candidates among the determined feature quantity candidates. A feature quantity extraction unit 105 extracts a feature quantity candidate used for generating an identifier as feature quantity.

Description

本発明は、画素のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置、該特徴量抽出装置を備える対象物検出システム、該特徴量抽出装置を実現するためのコンピュータプログラム及び特徴量抽出方法に関する。   The present invention relates to a feature amount extraction device for extracting a feature amount for identifying an object based on image data including spectral information of pixels, an object detection system including the feature amount extraction device, and the feature amount extraction device. The present invention relates to a computer program and a feature amount extraction method for realizing it.

食品検査又は生体検査などの各種検査で用いられる技術の一つとして、近年、近赤外光のスペクトル情報を利用した分析技術が注目されている。近赤外光は可視光域に近い波長を有し、分析対象物に対して非破壊・非侵襲な組成分析を可能にすることから、食品、医療、工業などの様々な分野で近赤外光を応用したオブジェクト検知システムの研究がなされている(例えば、非特許文献1参照)。   As one of the techniques used in various inspections such as food inspection and biological inspection, in recent years, an analysis technique using near-infrared spectrum information has attracted attention. Near-infrared light has a wavelength close to the visible light range and enables non-destructive and non-invasive compositional analysis of analytes, so it is possible to use near-infrared light in various fields such as food, medicine, and industry. Research on an object detection system using light has been made (for example, see Non-Patent Document 1).

一方、近赤外スペクトル情報を分析する技術としては、多変量解析、あるいはデータマイニングなどのパターン認識技術が用いられることが多い。これらの手法は、大量のサンプルデータの学習を通して、対象物に対する識別基準又は検量線を生成するものである。   On the other hand, pattern recognition techniques such as multivariate analysis or data mining are often used as techniques for analyzing near-infrared spectrum information. These methods generate an identification standard or a calibration curve for an object through learning of a large amount of sample data.

また、近赤外スペクトル情報の表現方法の一つとして、近赤外マルチスペクトル画像(以下、「NIRMS画像」とも称する)がある。NIRMS画像は、画素毎に複数波長の近赤外スペクトル情報(強度あるいは吸光度など)を含む画像であり、NIRMS画像を用いることにより、物体が有する組成情報に基づいて画像処理技術を応用した分析を行うことができる。   One of the methods for expressing near-infrared spectrum information is a near-infrared multispectral image (hereinafter also referred to as “NIRMS image”). An NIRMS image is an image that includes near-infrared spectrum information (intensity or absorbance, etc.) of a plurality of wavelengths for each pixel. By using an NIRMS image, an analysis applying an image processing technique based on composition information of an object is performed. It can be carried out.

竹本菊郎、関 壽、牧内 正男、高橋 秀夫、「生体・環 境計測へ向けた近赤外光センシング技術」、サイエンスフォーラム社、1999年Kikuo Takemoto, Akira Seki, Masao Makiuchi, Hideo Takahashi, “Near-infrared sensing technology for biological and environmental measurements”, Science Forum, 1999

高性能なオブジェクト検知システムを実現するためには、オブジェクト(対象物)と非オブジェクト(非対象物)との間の本質的な違いが表れる特徴量を的確に抽出することが重要である。利用する特徴量が不十分である場合、識別に必要な情報が不足することになり、所望の識別精度を得ることができない。一方で、必要以上に多数の特徴量を利用した場合には、識別処理の計算量を増加させるだけでなく、学習サンプルへの過適合による識別器の精度低下を招くおそれもある。そして、対象物の識別に有意な特徴量を過不足なく的確に抽出するためには、対象物に対する専門的な知識、あるいは大量の地道な分析作業を必要とした。このことは、精度の高いオブジェクト検知システムの構築が容易ではないことを示している。   In order to realize a high-performance object detection system, it is important to accurately extract a feature amount that shows an essential difference between an object (object) and a non-object (non-object). When the feature amount to be used is insufficient, information necessary for identification is insufficient, and a desired identification accuracy cannot be obtained. On the other hand, when an unnecessarily large number of feature quantities are used, not only the calculation amount of the identification process is increased, but also the accuracy of the classifier may be reduced due to overfitting to the learning sample. And, in order to accurately extract characteristic quantities that are significant for the identification of the object without any excess or deficiency, specialized knowledge on the object or a large amount of steady analysis work is required. This indicates that it is not easy to construct a highly accurate object detection system.

本発明は、斯かる事情に鑑みてなされたものであり、対象物(オブジェクト)と非対象物(非オブジェクト)との間の本質的な違いが表れる特徴量を的確に抽出することができる特徴量抽出装置、該特徴量抽出装置を備える対象物検出システム、該特徴量抽出装置を実現するためのコンピュータプログラム及び特徴量抽出方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and is capable of accurately extracting a feature amount that shows an essential difference between an object (object) and a non-object (non-object). It is an object of the present invention to provide a quantity extraction device, an object detection system including the feature quantity extraction device, a computer program for realizing the feature quantity extraction device, and a feature quantity extraction method.

第1発明に係る特徴量抽出装置は、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置において、対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する決定手段と、該決定手段で決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成する生成手段と、前記識別器を生成するために用いた特徴量候補を特徴量として抽出する抽出手段とを備えることを特徴とする。   A feature amount extraction apparatus according to a first aspect of the present invention extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels. Determining means for determining a plurality of feature amount candidates related to the displacement of the spectrum intensity at any of a plurality of wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging the object and the non-object; Generating means for generating a discriminator for discriminating an object and a non-object using boosting for each of some of the feature quantity candidates determined by the determining means, and generating the discriminator And extracting means for extracting the feature quantity candidates used for the process as feature quantities.

第2発明に係る特徴量抽出装置は、第1発明において、前記決定手段は、近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定するように構成してあることを特徴とする。   The feature amount extraction apparatus according to a second aspect is characterized in that, in the first aspect, the determining means is configured to determine a feature amount candidate related to a change in spectral intensity in a near-infrared wavelength range. And

第3発明に係る特徴量抽出装置は、第1発明又は第2発明において、各サンプル画素に任意の数値を付与する付与手段を備え、前記生成手段は、対象物又は非対象物であると正しく識別したサンプル画素の数値の合計が最大となるように識別器を生成するように構成してあることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the invention, the feature amount extraction apparatus further includes a provision unit that imparts an arbitrary numerical value to each sample pixel, and the generation unit is correct when the target unit or the non-target unit. The discriminator is generated so that the sum of the numerical values of the identified sample pixels is maximized.

第4発明に係る特徴量抽出装置は、第3発明において、前記付与手段は、一の特徴量候補に対して前記生成手段が生成した識別器で対象物又は非対象物であると誤って識別したサンプル画素の数値を大きくするようにしてあり、前記生成手段は、次の特徴量候補に対して識別器を生成する場合、数値を大きくしたサンプル画素を用いて識別器を生成するように構成してあることを特徴とする。   In the feature amount extraction apparatus according to a fourth aspect of the present invention, in the third aspect of the invention, the assigning unit mistakenly identifies the target or candidate non-target by the classifier generated by the generation unit for one feature amount candidate. The numerical value of the sampled pixel is increased, and the generating means is configured to generate a discriminator using the sample pixel whose numerical value is increased when generating a discriminator for the next feature quantity candidate. It is characterized by being.

第5発明に係る対象物検出システムは、前述の発明のいずれか1つに係る特徴量抽出装置と、該特徴量抽出装置で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを有する対象物検出装置とを備えることを特徴とする。   An object detection system according to a fifth aspect of the present invention is an object having a feature quantity extraction device according to any one of the aforementioned inventions and a support vector machine using the feature quantity extracted by the feature quantity extraction device as a feature vector. And a detection device.

第6発明に係る対象物検出システムは、前述の発明のいずれか1つに係る特徴量抽出装置と、該特徴量抽出装置で生成した識別器を弱識別器として結合した強識別器を有する対象物検出装置とを備えることを特徴とする。   An object detection system according to a sixth aspect of the present invention is an object having a feature classifier according to any one of the foregoing inventions, and a strong classifier that combines the classifier generated by the feature quantity extractor as a weak classifier. And an object detection device.

第7発明に係るコンピュータプログラムは、コンピュータに、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出させるためのコンピュータプログラムにおいて、コンピュータに、対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップとを実行させることを特徴とする。   A computer program according to a seventh aspect of the present invention is a computer for causing a computer to extract a feature amount for identifying an object based on image data including spectral information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels. In the program, the computer determines a plurality of feature quantity candidates related to the displacement of the spectrum intensity at a plurality of arbitrary wavelengths of each sample pixel from a plurality of sample pixels extracted from images obtained by imaging the object and the non-object. Generating a discriminator for identifying an object and a non-object using boosting for each of some of the feature quantity candidates in the determined feature quantity candidates; and generating the discriminator And a step of extracting the feature quantity candidates used in the above as feature quantities.

第8発明に係る特徴量抽出方法は、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置による特徴量抽出方法おいて、対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、決定された特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップとを含むことを特徴とする。   A feature amount extraction method according to an eighth aspect of the present invention is a feature amount extraction apparatus that extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels. In the feature amount extraction method according to the above, a plurality of feature amount candidates related to the displacement of the spectrum intensity at any of a plurality of wavelengths of each sample pixel from a plurality of sample pixels extracted from images obtained by capturing an object and a non-object A step of determining, a step of generating a discriminator for discriminating an object and a non-object using boosting for each part of the feature amount candidates in the determined feature amount candidates, and And a step of extracting the feature amount candidates used for generation as feature amounts.

第1発明、第7発明及び第8発明にあっては、決定手段は、対象物(オブジェクト)及び非対象物(非オブジェクト)を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する。画像は、画素毎に複数波長のスペクトル強度を示すスペクトル情報を含む。なお、強度の代わりに吸光度でもよい。特徴量候補は、例えば、任意のサンプル画素の2つの異なる波長λ1、λ2でのスペクトル強度をP(λ1)、P(λ2)とすると、特徴量候補x1をスペクトル強度の差として、x1=P(λ1)−P(λ2)とすることができる。例えば、異なる波長がλ1、λ2、…、λ256のように256個に区分されている場合、256個の中から2個選び出す組み合わせは、32640通り存在するので、特徴量候補は、各サンプル画素について32640個存在する。なお、決定する特徴量候補は、存在する特徴量候補をすべて含めてもよく、あるいは対象物に応じて、一部の特徴量候補を決定することもできる。   In the first invention, the seventh invention, and the eighth invention, the determining means is configured to determine each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging the object (object) and the non-object (non-object). A plurality of feature amount candidates related to the displacement of the spectral intensity at a plurality of arbitrary wavelengths are determined. The image includes spectral information indicating spectral intensities of a plurality of wavelengths for each pixel. Absorbance may be used instead of intensity. For example, if the spectral intensities at two different wavelengths λ1 and λ2 of an arbitrary sample pixel are P (λ1) and P (λ2), the feature amount candidate is x1 = P (Λ1) −P (λ2). For example, when different wavelengths are divided into 256 such as λ1, λ2,..., Λ256, there are 32640 combinations of selecting two from 256, and therefore feature quantity candidates are for each sample pixel. There are 32640 pieces. The feature quantity candidates to be determined may include all existing feature quantity candidates, or some feature quantity candidates may be determined according to the object.

生成手段は、決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成し、抽出手段は、当該識別器を生成するために用いた特徴量候補を特徴量として抽出する。ブースティングとは、例えば、2種類の対象(オブジェクト及び非オブジェクト)のサンプル学習を通じて、オブジェクト及び非オブジェクトを区別する識別器を生成する手法の一つである。決定した特徴量候補の中から一の特徴量候補を選択し、予めオブジェクトであるか非オブジェクトであるかが判明しているサンプル画素を識別する識別器(サンプル画素を区別するための境界)を構成し、その中で最も正しく識別することができた識別器(サンプル画素を区別するための境界)を生成する。他の特徴量候補についても同様に識別器を生成する。そして、識別器を生成したときの特徴量候補を特徴量として抽出する。   The generating means generates a discriminator for discriminating the object and the non-object using boosting for each of some of the feature quantity candidates determined, and the extracting means The feature quantity candidates used for generation are extracted as feature quantities. Boosting is one method for generating a discriminator that distinguishes between an object and a non-object through, for example, sample learning of two types of objects (object and non-object). One feature amount candidate is selected from the determined feature amount candidates, and a discriminator (a boundary for distinguishing the sample pixels) for identifying a sample pixel that is previously known to be an object or a non-object A classifier (a boundary for distinguishing sample pixels) that can be configured and identified most correctly is generated. A discriminator is similarly generated for other feature quantity candidates. Then, the feature quantity candidate when the discriminator is generated is extracted as a feature quantity.

サンプル学習の過程で識別器を生成した際に用いた特徴量候補を特徴量として抽出することにより、オブジェクトと非オブジェクトとを識別することができる特徴量、すなわちオブジェクトと非オブジェクトとの間の本質的な違いが表れる特徴量を、決定された多数の特徴量候補の中から的確に抽出することができる。   By extracting the feature quantity candidates used when generating the classifier in the sample learning process as feature quantities, the feature quantities that can distinguish between objects and non-objects, that is, the essence between objects and non-objects It is possible to accurately extract a feature quantity in which a specific difference appears from a large number of determined feature quantity candidates.

第2発明にあっては、決定手段は、近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定する。例えば、近赤外に対して感度を有するカメラでオブジェクト及び非オブジェクトを撮像して得られた近赤外マルチスペクトル画像(NIRMS画像)から、予めオブジェクト及び非オブジェクトが判明しているサンプル画素を収集する。そして、収集したサンプル画素から特徴量候補を決定する。近赤外光のスペクトル情報を利用した分析対象の解析(例えば、オブジェクトと非オブジェクトとの識別)の場合、分析対象によってはスペクトル強度の分布が複雑な形状となり、多変量解析又はデータマイニングなどの認識技術を用いる場合、従来であれば試行錯誤で特徴量を抽出する必要があった。波長分布が複雑な場合でも、多数の特徴量候補の中からオブジェクトと非オブジェクトとの識別に最適な特徴量を過不足なく抽出することができ、識別に必要な情報が不足することを防止することができるとともに、必要以上に多数の特徴量を利用する事態も防止することができる。   In the second invention, the determining means determines a feature amount candidate related to the displacement of the spectral intensity in the near infrared wavelength range. For example, sample pixels in which objects and non-objects are known in advance are collected from near-infrared multispectral images (NIRMS images) obtained by imaging objects and non-objects with a camera that has sensitivity to the near infrared. To do. Then, feature amount candidates are determined from the collected sample pixels. In the case of analysis of an analysis object using near infrared light spectrum information (for example, discrimination between an object and a non-object), the spectrum intensity distribution becomes a complicated shape depending on the analysis object, such as multivariate analysis or data mining. When the recognition technique is used, conventionally, it has been necessary to extract the feature amount by trial and error. Even when the wavelength distribution is complex, it is possible to extract optimal feature quantities for identifying objects and non-objects from a large number of feature quantity candidates without any shortage of information necessary for identification. In addition, it is possible to prevent a situation in which a larger number of features are used than necessary.

第3発明にあっては、付与手段は、各サンプル画素に任意の数値(係数、重み付け等)を付与し、生成手段は、対象物又は非対象物であると正しく識別したサンプル画素の数値の合計が最大となるように識別器を生成する。これにより、サンプル画素を最も正しく識別することができる識別器(特徴量候補での境界)を生成することができる。   In the third invention, the assigning means assigns an arbitrary numerical value (coefficient, weight, etc.) to each sample pixel, and the generating means sets the numerical value of the sample pixel correctly identified as an object or non-object. The discriminator is generated so that the sum is maximized. As a result, it is possible to generate a discriminator (boundary at a feature amount candidate) that can most accurately identify the sample pixel.

第4発明にあっては、付与手段は、一の特徴量候補に対して生成手段が生成した識別器で対象物又は非対象物であると誤って識別したサンプル画素の数値を大きくする。生成手段は、次の特徴量候補に対して識別器を生成する場合、数値を大きくしたサンプル画素を用いて識別器を生成する。ある特徴量候補に対する識別器を生成する場合に、当該識別器で識別した結果、誤って識別されたサンプル画素の数値を大きくして、次の特徴量候補に対して識別器を生成するので、例えば、t番目に生成した識別器で正しく認識することができなかったサンプル画素が、次のt+1番目の識別器を生成する際に、数値が大きいことから重点的に学習されることになり、オブジェクトと非オブジェクトの識別に有意かつスペクトル強度の分布が相違する特徴量の組み合わせを可能な限り少なくすることができ、対象分析に必要な特徴量を過不足なく、かつ自動的に抽出することができる。   In the fourth invention, the assigning means increases the numerical value of the sample pixel that is erroneously identified as an object or non-object by the classifier generated by the generating means for one feature quantity candidate. When generating the discriminator for the next feature quantity candidate, the generating unit generates the discriminator using the sample pixel having a larger numerical value. When generating a discriminator for a certain feature quantity candidate, the discriminator is generated for the next feature quantity candidate by increasing the numerical value of the erroneously identified sample pixel as a result of discrimination by the discriminator. For example, a sample pixel that could not be correctly recognized by the classifier generated at the t-th time will be intensively learned because the numerical value is large when the next t + 1-th classifier is generated, It is possible to reduce the number of combinations of features that are significant for identifying objects and non-objects and have different spectral intensity distributions as much as possible, and automatically extract the features required for target analysis without excess or deficiency. it can.

第5発明にあっては、特徴量抽出装置と、当該特徴量抽出装置で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを有する対象物検出装置とを備える。これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。   The fifth aspect of the invention includes a feature quantity extraction device and an object detection device having a support vector machine using the feature quantity extracted by the feature quantity extraction device as a feature vector. This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded.

第6発明にあっては、特徴量抽出装置と、当該特徴量抽出装置で生成した識別器を弱識別器として結合した強識別器を有する対象物検出装置とを備える。これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。   In a sixth aspect of the invention, the apparatus includes a feature quantity extraction device and an object detection device having a strong classifier in which a classifier generated by the feature quantity extraction device is combined as a weak classifier. This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded.

本発明によれば、オブジェクトと非オブジェクトとの間の本質的な違いが表れる特徴量を、決定された多数の特徴量候補の中から的確に抽出することができる。   According to the present invention, it is possible to accurately extract a feature quantity that shows an essential difference between an object and a non-object from among a large number of determined feature quantity candidates.

本実施の形態の対象物検出システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the target object detection system of this Embodiment. NIRMS画像の一例を示す模式図である。It is a schematic diagram which shows an example of a NIRMS image. 特徴量候補の一例を示す模式図である。It is a schematic diagram which shows an example of a feature-value candidate. 特徴量候補の他の例を示す模式図である。It is a schematic diagram which shows the other example of a feature-value candidate. 識別器の生成の一例を示す模式図である。It is a schematic diagram which shows an example of the production | generation of a discriminator. 識別器を生成する際のサンプル画素の係数の一例を示す模式図である。It is a schematic diagram which shows an example of the coefficient of the sample pixel at the time of producing | generating a discriminator. 本実施の形態の特徴量抽出装置による特徴量抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the feature-value extraction process by the feature-value extraction apparatus of this Embodiment. 本実施の形態と比較例との検出結果を示す説明図である。It is explanatory drawing which shows the detection result of this Embodiment and a comparative example. 本実施の形態と比較例との処理結果画像の一例を示す模式図である。It is a schematic diagram which shows an example of the process result image of this Embodiment and a comparative example.

以下、本発明をその実施の形態を示す図面に基づいて説明する。図1は本実施の形態の対象物検出システム1の構成の一例を示すブロック図である。本実施の形態の対象物検出システム1は、特徴量抽出装置10、対象物検出装置20などを備える。なお、対象物検出システム1は、NIRMS画像(近赤外マルチスペクトル画像)取得部2を備える構成でもよく、具備しない構成でもよい。   Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments thereof. FIG. 1 is a block diagram illustrating an example of a configuration of an object detection system 1 according to the present embodiment. The object detection system 1 according to the present embodiment includes a feature quantity extraction device 10, an object detection device 20, and the like. The object detection system 1 may be configured to include the NIRMS image (near-infrared multispectral image) acquisition unit 2 or may not include it.

NIRMS画像取得部2は、例えば、近赤外に対して感度を有するカメラである。NIRMS画像は、画像を構成する画素毎に、複数波長に対するスペクトル情報(例えば、強度、吸光度など)を有する。   The NIRMS image acquisition unit 2 is a camera having sensitivity to the near infrared, for example. The NIRMS image has spectral information (for example, intensity, absorbance, etc.) for a plurality of wavelengths for each pixel constituting the image.

図2はNIRMS画像の一例を示す模式図である。図2に示すように、NIRMS画像は、各画素の中に、特定の波長範囲内で離散的にプロットされたスペクトル情報(例えば、強度、吸光度など)が記録されたものである。   FIG. 2 is a schematic diagram showing an example of a NIRMS image. As shown in FIG. 2, the NIRMS image is obtained by recording spectral information (for example, intensity, absorbance, etc.) discretely plotted within a specific wavelength range in each pixel.

本実施の形態において、対象物(オブジェクトとも称する)は、食品検査又は生体検査などの各種検査において、検出(検知)する対象であり、非対象物(非オブジェクトとも称する)は、対象物以外のものであって、対象物とは区別(識別)されるものである。   In this embodiment, an object (also referred to as an object) is an object to be detected (detected) in various inspections such as food inspection or biological inspection, and a non-object (also referred to as a non-object) is other than the object. And is distinguished (identified) from the object.

NIRMS画像取得部2は、学習処理においては、予めオブジェクト及び非オブジェクトが判明している撮像対象を撮像し、学習サンプルとしてのNIRMS画像を生成し、生成したNIRMS画像を特徴量抽出装置10へ出力する。学習処理は、オフラインで行うことができる。   In the learning process, the NIRMS image acquisition unit 2 captures an imaging target in which an object and a non-object are known in advance, generates an NIRMS image as a learning sample, and outputs the generated NIRMS image to the feature amount extraction apparatus 10 To do. The learning process can be performed offline.

また、NIRMS画像取得部2は、検出処理においては、被検査対象を撮像してNIRMS画像を生成し、生成したNIRMS画像を対象物検出装置20へ出力する。検出処理はオンラインで行う。   In the detection process, the NIRMS image acquisition unit 2 captures an object to be inspected to generate an NIRMS image, and outputs the generated NIRMS image to the object detection device 20. The detection process is performed online.

次に、学習処理に係る構成について説明する。図1に示すように、本実施の形態の特徴量抽出装置10は、サンプル画素収集部101、特徴量候補決定部102、識別器生成部103、係数付与部104、特徴量抽出部105などを備える。   Next, a configuration related to the learning process will be described. As shown in FIG. 1, the feature amount extraction apparatus 10 of the present embodiment includes a sample pixel collection unit 101, a feature amount candidate determination unit 102, a discriminator generation unit 103, a coefficient addition unit 104, a feature amount extraction unit 105, and the like. Prepare.

サンプル画素収集部101は、NIRMS画像の中から、学習処理(特徴量の抽出処理を含む)に用いるサンプル画素を収集する。例えば、オブジェクト(対象物)のサンプル画素、非オブジェクト(非対象物)のサンプル画素を合計N個収集する。   The sample pixel collection unit 101 collects sample pixels used for learning processing (including feature amount extraction processing) from the NIRMS image. For example, a total of N sample pixels of the object (object) and non-object (non-object) sample pixels are collected.

特徴量候補決定部102は、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する決定手段としての機能を有する。なお、スペクトル強度に代えて、吸光度のスペクトルでもよい。   The feature amount candidate determination unit 102 has a function as a determination unit that determines a plurality of feature amount candidates related to the displacement of the spectrum intensity at arbitrary wavelengths of each sample pixel. Instead of the spectrum intensity, an absorbance spectrum may be used.

図3は特徴量候補の一例を示す模式図である。図3において、横軸は波長を示し、縦軸はスペクトル強度を示す。図3のグラフは、NIRMS画像の中の任意のサンプル画素(例えば、オブジェクトの画素でもよく、非オブジェクトの画素でもよい)の波長毎のスペクトル強度を示す。特徴量候補は、例えば、2つの異なる波長λ1、λ2でのスペクトル強度をP(λ1)、P(λ2)とすると、特徴量候補x1をスペクトル強度の差として、x1=P(λ1)−P(λ2)とすることができる。   FIG. 3 is a schematic diagram illustrating an example of feature quantity candidates. In FIG. 3, the horizontal axis indicates the wavelength, and the vertical axis indicates the spectral intensity. The graph of FIG. 3 shows the spectral intensity for each wavelength of any sample pixel (eg, object pixel or non-object pixel) in the NIRMS image. For example, assuming that the spectrum intensity at two different wavelengths λ1 and λ2 is P (λ1) and P (λ2), the feature quantity candidate is x1 = P (λ1) −P (Λ2).

例えば、異なる波長がλ1、λ2、…、λ256のように256個に区分されている場合、256個の中から2個選び出す組み合わせMは、M=32640通り存在するので、特徴量候補は、各サンプル画素について32640個存在する。したがって、特徴量候補は、それぞれのサンプル画素毎に、M次元ベクトルX=(x1、x2、…xM)で表すことができる。なお、決定する特徴量候補は、存在する特徴量候補をすべて含めてもよく(上述の例ではM個の特徴量)、あるいは対象物に応じて、一部の特徴量候補(M個の一部)を決定することもできる。   For example, when different wavelengths are divided into 256 such as λ1, λ2,..., Λ256, there are M = 32640 combinations M of which two are selected from 256, and each of the feature quantity candidates is There are 32640 sample pixels. Therefore, the feature quantity candidate can be represented by an M-dimensional vector X = (x1, x2,... XM) for each sample pixel. Note that the feature quantity candidates to be determined may include all existing feature quantity candidates (M feature quantities in the above example), or some feature quantity candidates (M pieces of feature quantities) depending on the object. Part) can also be determined.

図4は特徴量候補の他の例を示す模式図である。図3の例では、任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補として、2つの異なる波長でのスペクトル強度の差分を特徴量候補としたが、特徴量候補は、図3の例に限定されるものではない。   FIG. 4 is a schematic diagram showing another example of feature quantity candidates. In the example of FIG. 3, the difference between the spectral intensities at two different wavelengths is used as the feature quantity candidate as the feature quantity candidate related to the displacement of the spectrum intensity at any of a plurality of wavelengths. It is not limited to the example.

図4において、横軸は波長を示し、縦軸はスペクトル強度を示す。図4に示すように、異なる波長として、λ1、λ2、λ3の3つの波長に注目し、それぞれの波長でのスペクトル強度をP1、P2、P3とすると、特徴量候補xとして、x=(P3−P2)−(P2−P1)=P3−2×P2+P1を用いる。図4に例示する特徴量候補は、スペクトル強度の分布において、強度の極大点(又は極小点)近傍の強度の変化の度合い(曲線上の曲り具合)を特徴として捉えるものである。なお、以下の説明では、図3に例示の特徴量候補を採用する。   In FIG. 4, the horizontal axis indicates the wavelength, and the vertical axis indicates the spectral intensity. As shown in FIG. 4, when attention is paid to three wavelengths λ1, λ2, and λ3 as different wavelengths, and spectrum intensities at the respective wavelengths are P1, P2, and P3, x = (P3 −P2) − (P2−P1) = P3−2 × P2 + P1 is used. The feature quantity candidates illustrated in FIG. 4 capture the degree of intensity change (the degree of curve on the curve) in the vicinity of the maximum point (or minimum point) of the intensity in the spectrum intensity distribution as a feature. In the following description, the feature quantity candidates illustrated in FIG. 3 are employed.

識別器生成部103は、決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成する生成手段としての機能を有する。ブースティングとは、例えば、2種類の対象(オブジェクト及び非オブジェクト)のサンプル学習を通じて、オブジェクト及び非オブジェクトを区別する識別器を生成する手法の一つである。なお、ブースティングには、例えば、AdaBoost、Real-AdaBoost、LogitBoost、Gentle-AdaBoostなどを用いることができる。   The discriminator generating unit 103 has a function as a generating unit that generates a discriminator for discriminating an object and a non-object using boosting for each of some feature amount candidates in the determined feature amount candidates. Have. Boosting is one method for generating a discriminator that distinguishes between an object and a non-object through, for example, sample learning of two types of objects (object and non-object). For boosting, for example, AdaBoost, Real-AdaBoost, LogitBoost, Gentle-AdaBoost, etc. can be used.

図5は識別器の生成の一例を示す模式図である。上述の例では、決定された特徴量候補は、x1、x2、…、xM(M=32640)で表すことができ、M次元ベクトルとして表現することができる。図5は、M次元の空間の代わりに、便宜上、xi及びxjの2つの特徴量候補で表される2次元空間を表したものである。N個のサンプル画素は、この2次元空間(実際にはM次元空間)に存在する。なお、サンプル画素のうち、符号Oで示すサンプル画素は、対象物(オブジェクト)の画素であり、符号×で示すサンプル画素は、非対象物(非オブジェクト)の画素であるとする。   FIG. 5 is a schematic diagram illustrating an example of generation of a classifier. In the above example, the determined feature amount candidates can be represented by x1, x2,..., XM (M = 32640), and can be represented as an M-dimensional vector. FIG. 5 shows a two-dimensional space represented by two feature quantity candidates xi and xj for convenience, instead of the M-dimensional space. N sample pixels exist in this two-dimensional space (actually an M-dimensional space). Of the sample pixels, a sample pixel indicated by a symbol O is a pixel of an object (object), and a sample pixel indicated by a symbol x is a pixel of a non-object (non-object).

識別器生成部103は、決定されたM個の特徴量候補の中から、任意の一の特徴量候補(例えば、xiとする)を選択し、予めオブジェクトであるか非オブジェクトであるかが判明しているサンプル画素を識別する識別器(サンプル画素を区別するための境界)を構成し、その中で最も正しく識別することができた識別器(サンプル画素を区別するための境界)htを生成する。   The discriminator generation unit 103 selects any one feature amount candidate (for example, xi) from the determined M feature amount candidates, and determines whether it is an object or a non-object in advance. The discriminator (border for discriminating sample pixels) is configured to identify the sample pixel that has been identified, and the discriminator (border for discriminating the sample pixel) ht that can be identified most correctly among them is generated. To do.

すなわち、図5に示すように、M次元空間(図5の例では簡略化のため2次元空間で表す)での各サンプルを特徴量候補xi(M次元空間の1つの軸に相当)へ写像し、特徴量候補xi(軸xi)上で、正しく識別することができたサンプル画素の数が最大となるときの軸xi上での境界を識別器htとして生成する。   That is, as shown in FIG. 5, each sample in the M-dimensional space (represented in the two-dimensional space for simplification in the example of FIG. 5) is mapped to the feature quantity candidate xi (corresponding to one axis in the M-dimensional space). Then, a boundary on the axis xi when the number of sample pixels that can be correctly identified on the feature quantity candidate xi (axis xi) is maximized is generated as a discriminator ht.

特徴量抽出部105は、識別器を生成するために用いた特徴量候補を特徴量として抽出する抽出手段としての機能を有する。図5の例では、特徴量抽出部105は、識別器Htを生成したときに用いた特徴量候補xiを特徴量として抽出する。   The feature quantity extraction unit 105 has a function as an extraction unit that extracts feature quantity candidates used for generating the classifier as feature quantities. In the example of FIG. 5, the feature amount extraction unit 105 extracts the feature amount candidate xi used when generating the discriminator Ht as a feature amount.

識別器生成部103は、他の特徴量候補についても同様に識別器を生成し、特徴量抽出部105は、識別器が生成されるときに用いた特徴量候補を特徴量として抽出する。なお、生成される識別器の数Tは、例えば、10〜100程度であるので、抽出する特徴量の数は、決定された特徴量候補の数Mに比べて極めて少なくすることができる。   The discriminator generation unit 103 similarly generates discriminators for other feature amount candidates, and the feature amount extraction unit 105 extracts the feature amount candidates used when the discriminator is generated as feature amounts. Since the number T of discriminators to be generated is, for example, about 10 to 100, the number of feature quantities to be extracted can be extremely reduced as compared with the determined number M of feature quantity candidates.

サンプル学習の過程で識別器を生成した際に用いた特徴量候補を特徴量として抽出することにより、オブジェクトと非オブジェクトとを識別することができる特徴量、すなわちオブジェクトと非オブジェクトとの間の本質的な違いが表れる特徴量を、決定された多数の特徴量候補の中から的確に抽出することができる。   By extracting the feature quantity candidates used when generating the classifier in the sample learning process as feature quantities, the feature quantities that can distinguish between objects and non-objects, that is, the essence between objects and non-objects It is possible to accurately extract a feature quantity in which a specific difference appears from a large number of determined feature quantity candidates.

本実施の形態では、NIRMS画像を取得し、予めオブジェクト及び非オブジェクトが判明しているサンプル画素を収集する。そして、収集したサンプル画素から、近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定する。近赤外光のスペクトル情報を利用した分析対象の解析(例えば、オブジェクトと非オブジェクトとの識別)の場合、分析対象によってはスペクトル強度の分布が複雑な形状となり、多変量解析又はデータマイニングなどの認識技術を用いる場合、従来であれば試行錯誤で特徴量を抽出する必要があった。本実施の形態では、波長分布が複雑な場合でも、多数の特徴量候補の中からオブジェクトと非オブジェクトとの識別に最適な特徴量を過不足なく抽出することができ、識別に必要な情報が不足することを防止することができるとともに、必要以上に多数の特徴量を利用する事態も防止することができる。   In the present embodiment, a NIRMS image is acquired, and sample pixels whose objects and non-objects are known in advance are collected. Then, from the collected sample pixels, a feature amount candidate related to the spectral intensity displacement is determined in the near-infrared wavelength range. In the case of analysis of an analysis object using near infrared light spectrum information (for example, discrimination between an object and a non-object), the spectrum intensity distribution becomes a complicated shape depending on the analysis object, such as multivariate analysis or data mining. When the recognition technique is used, conventionally, it has been necessary to extract the feature amount by trial and error. In this embodiment, even when the wavelength distribution is complicated, it is possible to extract a feature quantity optimal for discrimination between an object and a non-object from a large number of feature quantity candidates, and information necessary for identification can be obtained. In addition to preventing the shortage, it is possible to prevent a situation in which more feature quantities are used than necessary.

一の特徴量候補に対して、識別器(境界)を生成する場合に、各サンプル画素に係数を付与することもできる。なお、本実施の形態では、係数とは、数値、重み付け数などを意味するものとする。係数付与部104は、各サンプル画素に任意の係数を付与する。そして、識別器生成部103は、オブジェクト又は非オブジェクトであると正しく識別したサンプル画素の係数の合計が最大となるように識別器を生成する。これにより、サンプル画素を最も正しく識別することができる識別器(特徴量候補での境界)を生成することができる。   When a classifier (boundary) is generated for one feature amount candidate, a coefficient can be given to each sample pixel. In the present embodiment, the coefficient means a numerical value, a weighting number, or the like. The coefficient assigning unit 104 assigns an arbitrary coefficient to each sample pixel. Then, the discriminator generation unit 103 generates the discriminator so that the sum of the coefficients of the sample pixels correctly identified as an object or a non-object is maximized. As a result, it is possible to generate a discriminator (boundary at a feature amount candidate) that can most accurately identify the sample pixel.

図6は識別器を生成する際のサンプル画素の係数の一例を示す模式図である。係数付与部104は、N個のサンプル画素(学習サンプル)に対して係数wi(i=1、2、…、N)を付与する。係数wiは、初期値としては、例えば、1/Nとすることができる。一の特徴量候補xiに対して識別器htを生成したとする。識別器htで正しく識別することができたサンプル画素に対しては、係数を小さくする。また、識別器htで誤って識別したサンプル画素に対しては、係数を大きくする。   FIG. 6 is a schematic diagram showing an example of coefficients of sample pixels when generating a discriminator. The coefficient assigning unit 104 assigns coefficients wi (i = 1, 2,..., N) to N sample pixels (learning samples). The coefficient wi can be set to, for example, 1 / N as an initial value. Assume that a discriminator ht is generated for one feature quantity candidate xi. The coefficient is reduced for sample pixels that can be correctly identified by the classifier ht. Further, the coefficient is increased for the sample pixel erroneously identified by the classifier ht.

図6の例において、識別器(境界)htが、境界の右側で対象物(オブジェクト)であると正しく識別することができ、境界の左側で非対象物(非オブジェクト)であると正しく識別することができたとする。この場合、境界の右側の対象物のサンプル画素Oは正しく識別することができたので係数を小さくし、非対象物のサンプル画素×は誤って識別したので係数を大きくする。また、境界の左側の対象物のサンプル画素Oは誤って識別したので係数を大きくし、非対象物のサンプル画素×は正しく識別することができたので係数を小さくする。   In the example of FIG. 6, the discriminator (boundary) ht can be correctly identified as an object (object) on the right side of the boundary and correctly identified as a non-object (non-object) on the left side of the boundary. Suppose you can. In this case, since the sample pixel O of the object on the right side of the boundary can be correctly identified, the coefficient is decreased, and the sample pixel X of the non-object is erroneously identified, so that the coefficient is increased. In addition, since the sample pixel O of the object on the left side of the boundary is erroneously identified, the coefficient is increased, and since the sample pixel X of the non-object is correctly identified, the coefficient is decreased.

識別器生成部103は、次の特徴量候補に対して識別器を生成する場合、係数を大きく(又は小さく)したサンプル画素を用いて識別器を生成する。ある特徴量候補に対する識別器を生成する場合に、当該識別器で識別した結果、誤って識別されたサンプル画素の係数を大きくして、次の特徴量候補に対して識別器を生成するので、例えば、t番目に生成した識別器で正しく認識することができなかったサンプル画素が、次のt+1番目の識別器を生成する際に、係数が大きいことから重点的に学習されることになり、オブジェクトと非オブジェクトの識別に有意かつスペクトル強度の分布が相違する特徴量の組み合わせを可能な限り少なくすることができ、対象分析に必要な特徴量を過不足なく、かつ自動的に抽出することができる。   When generating a discriminator for the next feature quantity candidate, the discriminator generation unit 103 generates a discriminator by using sample pixels having a larger (or smaller) coefficient. When generating a discriminator for a certain feature quantity candidate, the coefficient of the sample pixel mistakenly identified as a result of discrimination by the discriminator is increased, and a discriminator is generated for the next feature quantity candidate. For example, sample pixels that could not be correctly recognized by the t-th discriminator are learned mainly because of the large coefficient when the next t + 1 th discriminator is generated, It is possible to reduce the number of combinations of features that are significant for identifying objects and non-objects and have different spectral intensity distributions as much as possible, and automatically extract the features required for target analysis without excess or deficiency. it can.

図7は本実施の形態の特徴量抽出装置10による特徴量抽出処理の手順を示すフローチャートである。特徴量抽出装置10(以下、「装置10」と称する)は、サンプル画素を取得し(S11)、サンプル画素に係数を設定(付与)する(S12)。なお、設定する係数は初期値(例えば、サンプル画素数をNとすると、1/N)である。   FIG. 7 is a flowchart showing a procedure of feature amount extraction processing by the feature amount extraction apparatus 10 of the present embodiment. The feature quantity extraction device 10 (hereinafter referred to as “device 10”) acquires sample pixels (S11), and sets (applies) coefficients to the sample pixels (S12). The coefficient to be set is an initial value (for example, 1 / N where N is the number of sample pixels).

装置10は、反復回数Tを設定する(S13)。なお、反復回数Tは、最終的に抽出される特徴量の数となる。装置10は、例えば、M個の特徴量候補を決定し(S14)、決定した特徴量候補の中から一の特徴量候補を選択する(S15)。   The apparatus 10 sets the number of repetitions T (S13). Note that the number of iterations T is the number of feature values finally extracted. For example, the apparatus 10 determines M feature amount candidates (S14), and selects one feature amount candidate from the determined feature amount candidates (S15).

装置10は、選択した特徴量候補に対してサンプル画素の学習を通じて識別器を構成し、その中で正しく識別したサンプル画素の係数の合計が最大となる識別器(特徴量候補でも境界)を生成する(S16)。   The apparatus 10 constructs a discriminator through learning of sample pixels with respect to the selected feature amount candidate, and generates a discriminator (a boundary is also a feature amount candidate) having the maximum sum of the coefficients of the sample pixels correctly identified therein. (S16).

装置10は、生成した識別器で正しく識別したサンプル画素の係数を小さくし(S17)、生成した識別器で誤って識別したサンプル画素の係数を大きくする(S18)。装置10は、反復回数Tになったか否かを判定し(S19)、反復回数Tになっていない場合(S19でNO)、次の特徴量候補を選択し(S20)、ステップS16以降の処理を繰り返す。   The apparatus 10 reduces the coefficient of the sample pixel correctly identified by the generated classifier (S17), and increases the coefficient of the sample pixel erroneously identified by the generated classifier (S18). The apparatus 10 determines whether or not the number of iterations T has been reached (S19). If the number of iterations T has not been reached (NO in S19), the next feature amount candidate is selected (S20), and the processing after step S16 is performed. repeat.

反復回数Tになった場合(S19でYES)、装置10は、選択した特徴量候補を特徴量として抽出し(S21)、処理を終了する。本実施の形態の特徴量抽出処理により、大量(例えば、M=32640個)の特徴量候補の中からT個(例えば、10〜100程度)の特徴量を自動的に抽出することができ、かつ抽出したT個の特徴量は、オブジェクト(対象物)と非オブジェクト(非対象物)との間の本質的な違いが表れるものである。   When the number of iterations T is reached (YES in S19), the apparatus 10 extracts the selected feature quantity candidate as a feature quantity (S21), and ends the process. By the feature amount extraction processing of the present embodiment, T (for example, about 10 to 100) feature amounts can be automatically extracted from a large amount (for example, M = 32640) of feature amount candidates. The extracted T feature quantities represent an essential difference between an object (object) and a non-object (non-object).

本実施の形態の特徴量抽出装置10は、CPU、RAMなどを備えた汎用コンピュータを用いて実現することもできる。すなわち、図7に示すような処理手順を定めたコンピュータプログラムをCD、DVD、USBメモリ等のコンピュータプログラム記録媒体に記録しておき、当該コンピュータプログラムをコンピュータに備えられたRAMにロードし、コンピュータプログラムをCPUで実行することにより、コンピュータ上で特徴量抽出装置10を実現することができる。   The feature amount extraction apparatus 10 of the present embodiment can also be realized using a general-purpose computer including a CPU, a RAM, and the like. That is, a computer program that defines the processing procedure as shown in FIG. 7 is recorded on a computer program recording medium such as a CD, DVD, or USB memory, and the computer program is loaded into a RAM provided in the computer. By executing the above with the CPU, the feature quantity extraction device 10 can be realized on the computer.

次に、検出処理に係る構成について説明する。図1に示すように、本実施の形態の対象物検出装置20は、識別処理部201などを備える。識別処理部201は、特徴量抽出装置10で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを備える。例えば、抽出したT個の特徴量を有する特徴ベクトルZ=(xt1、xt2、…、xtT)で表されるT次元のベクトル空間で識別器F(Z)を構成し、F(Z)>0であれば、Zはオブジェクト(対象物)であり、F(Z)≦0であれば、Zは非オブジェクト(非対象物)であると判定することができる。なお、F(Z)は、例えば、W・Z+bと表すことができ、Wはベクトル空間での境界(識別器)を表すベクトルであり、W・Zはベクトルの内積である。また、bは適宜設定可能な定数である。   Next, a configuration related to the detection process will be described. As shown in FIG. 1, the object detection device 20 of the present embodiment includes an identification processing unit 201 and the like. The identification processing unit 201 includes a support vector machine that uses the feature amount extracted by the feature amount extraction apparatus 10 as a feature vector. For example, the discriminator F (Z) is configured by a T-dimensional vector space represented by a feature vector Z = (xt1, xt2,..., XtT) having extracted T feature amounts, and F (Z)> 0. Then, Z is an object (object), and if F (Z) ≦ 0, it can be determined that Z is a non-object (non-object). Note that F (Z) can be expressed as, for example, W · Z + b, where W is a vector representing a boundary (identifier) in the vector space, and W · Z is an inner product of the vectors. Further, b is a constant that can be set as appropriate.

これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。なお、識別器の構成手順としては、サポートベクターマシン(SVM)に代えて判別分析(LDA)などのパターン認識技術を用いることができる。   This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded. As a configuration procedure of the discriminator, a pattern recognition technique such as discriminant analysis (LDA) can be used instead of the support vector machine (SVM).

また、識別処理部201は、SVM等に代えて、特徴量抽出装置10で生成した識別器を弱識別器として結合した強識別器を備えることもできる。例えば、特徴量抽出装置10で生成した識別器をh1、h2、…、hTとすると、強識別器Hは、H=h1+h2+…+hTとすることができる。なお、識別器hに所望の係数を乗算してもよい。   In addition, the identification processing unit 201 may include a strong classifier in which the classifier generated by the feature quantity extraction device 10 is combined as a weak classifier, instead of the SVM or the like. For example, if the classifiers generated by the feature quantity extraction device 10 are h1, h2,..., HT, the strong classifier H can be H = h1 + h2 +. Note that the discriminator h may be multiplied by a desired coefficient.

これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。   This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded.

次に、本実施の形態の対象物検出システムを食品加工ラインに混入した毛髪を異物(対象物、オブジェクト)として検出した検出結果について説明する。なお、以下の説明では、本実施の形態によるブースティングを用いて特徴量を抽出し、抽出した特徴量を用いた検出方式Aと、比較例として試行錯誤で(人の知見に基づいて)選択した特徴量を用いた検出方式Bについて説明する。   Next, the detection result which detected the hair which mixed the target object detection system of this Embodiment in the food processing line as a foreign material (target object, object) is demonstrated. In the following description, feature amounts are extracted using boosting according to the present embodiment, and detection method A using the extracted feature amounts is selected by trial and error (based on human knowledge) as a comparative example. The detection method B using the feature amount will be described.

基本的な設定として、近赤外カメラで食品加工ラインを撮像したNIRMS画像を187枚用意する。このうち、オブジェクトである毛髪が映っている画像が46枚あり、残りの141枚には毛髪が映っていない。また、NIRMS画像には、各画素に対して、1.0μm〜2.5μmの波長範囲を約6nmの間隔で離散的にプロットした256個の近赤外スペクトル強度が格納されている。   As a basic setting, 187 NIRMS images obtained by capturing food processing lines with a near-infrared camera are prepared. Among them, there are 46 images showing the hair as an object, and the remaining 141 images do not show the hair. The NIRMS image stores 256 near-infrared spectrum intensities obtained by discretely plotting a wavelength range of 1.0 μm to 2.5 μm at intervals of about 6 nm for each pixel.

オブジェクトを「毛髪が映っている画素」、非オブジェクトを「毛髪が映っていない画素」とする。そして、サンプル画素として、12枚のNIRMS画像から、オブジェクトを8706個収集し、非オブジェクトを32690個収集した。すなわち、サンプル画素の総数は、41396個である。また、特徴量候補は、相異なる2つの波長の間のスペクトル強度の差分値を考え、考え得る特徴量候補(すなわち決定する特徴量候補)は、32640通り存在する。   Let the object be “pixels with hair reflected” and the non-object “pixels with no hair reflected”. As sample pixels, 8706 objects were collected from 32 NIRMS images, and 32690 non-objects were collected. That is, the total number of sample pixels is 41396. Further, the feature quantity candidates are considered as a difference value of the spectrum intensity between two different wavelengths, and there are 32640 possible feature quantity candidates (that is, feature quantity candidates to be determined).

本実施の形態の検出方式Aは、32640通りの特徴量候補の中から、ブースティングを用いて44個の特徴量を抽出した。特徴量を抽出する際に用いたサンプル画素は、8706個のオブジェクトと、32690個の非オブジェクトである。また、識別処理は、まず線形SVMでNIRMS画像の全画素に対して識別を実施し、次に、線形SVMでオブジェクト(毛髪画素)と判定された画素に対してのみ非線形SVMで識別を実施した。   In the detection method A of the present embodiment, 44 feature amounts are extracted from 32640 feature amount candidates using boosting. The sample pixels used when extracting the feature amount are 8706 objects and 32690 non-objects. In the identification process, first, all pixels of the NIRMS image are identified by linear SVM, and then identification is performed by nonlinear SVM only for pixels determined to be objects (hair pixels) by linear SVM. .

一方、比較例(従来)の検出方式Bは、32640通りの特徴量候補の中から、人の知見に基づいて選択した44個の特徴量を抽出した。学習サンプル画素は、検出方式Aと同様に、8706個のオブジェクトと、32690個の非オブジェクトである。また、識別処理も、検出方式Aと同様に、まず線形SVMでNIRMS画像の全画素に対して識別を実施し、次に、線形SVMでオブジェクト(毛髪画素)と判定された画素に対してのみ非線形SVMで識別を実施した。   On the other hand, the detection method B of the comparative example (conventional) extracted 44 feature amounts selected based on human knowledge from 32640 feature amount candidates. As in the detection method A, the learning sample pixels are 8706 objects and 32690 non-objects. Similarly to the detection method A, the identification processing is performed by first identifying all the pixels of the NIRMS image by the linear SVM, and then only for the pixels determined as objects (hair pixels) by the linear SVM. Identification was performed with non-linear SVM.

サンプル画素(学習サンプル)として用いていない34枚の画像には、304本の毛髪が存在しており、304本中何本の毛髪を検出できたかによって検出率を求める。ただし、毛髪が存在する位置に3画素以上連結してオブジェクトであると識別された画素が存在するという条件が満たされた場合に、当該毛髪を検出できたと判定する。また、毛髪の映っていない141枚のNIRMS画像の全画素に対して、いくつの画素を毛髪として識別したかによって誤検出率を求めた。また、処理速度は、1つの画素を識別するのに要した時間の平均値である。   In 34 images that are not used as sample pixels (learning samples), 304 hairs are present, and the detection rate is determined depending on how many of the 304 hairs have been detected. However, when the condition that there is a pixel identified as an object by connecting three or more pixels at the position where the hair exists is determined to be that the hair has been detected. Moreover, the false detection rate was calculated | required by how many pixels were identified as hair with respect to all the pixels of 141 NIRMS images in which the hair was not reflected. The processing speed is an average value of the time required to identify one pixel.

図8は本実施の形態と比較例との検出結果を示す説明図である。図8に示すように、検出率、誤検出率及び処理速度のすべての面で比較例(検出方式B)に比べて本実施の形態(検出方式A)の方が優れているのが分かる。   FIG. 8 is an explanatory diagram showing detection results of the present embodiment and the comparative example. As shown in FIG. 8, it can be seen that the present embodiment (detection method A) is superior to the comparative example (detection method B) in all aspects of detection rate, false detection rate, and processing speed.

図9は本実施の形態と比較例との処理結果画像の一例を示す模式図である。図9において、細い線分が毛髪を表し、点は誤検出したノイズを表す。図9に示すように、比較例(検出方式B)に比べて本実施の形態(検出方式A)の方が毛髪の形状(軌跡)が一層明瞭、鮮明になっていることが分かる。また、誤検出したノイズも比較例(検出方式B)に比べて本実施の形態(検出方式A)の方が減少していることが分かる。   FIG. 9 is a schematic diagram illustrating an example of a processing result image between the present embodiment and the comparative example. In FIG. 9, thin line segments represent hair, and dots represent erroneously detected noise. As shown in FIG. 9, it can be seen that the hair shape (trajectory) of the present embodiment (detection method A) is clearer and clearer than that of the comparative example (detection method B). It can also be seen that erroneously detected noise is reduced in the present embodiment (detection method A) compared to the comparative example (detection method B).

従来、対象の識別に有意な特徴量を必要な数だけ的確に選択するためには、オブジェクトに関する専門的な知識を必要とし、また、大量な地道な分析作業を必要としていたのに対して、本実施の形態によれば、オブジェクトと非オブジェクトとを識別するのに有意な特徴量を自動的かつ的確に過不足なく抽出することができ、オブジェクト検出システムの構成を容易に行うことができる。すなわち、特徴量の自動抽出による識別処理の高性能化(高精度化、高速化)を可能とする。また、オブジェクト検出システムの実現に必要な専門知識の習得、あるいは分析作業の負荷を軽減することができる。さらに、オブジェクト検出システムの構成、構築を容易に行うことができる。   In the past, in order to accurately select the necessary number of features that are significant for target identification, specialized knowledge about the object was required, and a lot of steady analysis work was required. According to the present embodiment, it is possible to automatically and accurately extract a feature quantity that is significant for distinguishing between an object and a non-object, and to easily configure an object detection system. That is, it is possible to improve the performance (high accuracy and high speed) of the identification processing by automatically extracting feature amounts. In addition, it is possible to acquire specialized knowledge necessary for realizing the object detection system, or to reduce the load of analysis work. Further, the configuration and construction of the object detection system can be easily performed.

上述の実施の形態では、近赤外光のスペクトル情報を用いる構成であったが、近赤外光に限定されるものではなく、可視光のスペクトル情報を用いることもできる。   In the above-described embodiment, the configuration uses near-infrared spectrum information. However, the present invention is not limited to near-infrared light, and visible spectrum information can also be used.

開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The disclosed embodiments are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

2 NIRMS画像取得部
10 特徴量抽出装置
101 サンプル画素収集部
102 特徴量候補決定部
103 識別器生成部
104 係数付与部
105 特徴量抽出部
20 対象物検出装置
201 識別処理部
DESCRIPTION OF SYMBOLS 2 NIRMS image acquisition part 10 Feature-value extraction apparatus 101 Sample pixel collection part 102 Feature-value candidate determination part 103 Classifier production | generation part 104 Coefficient provision part 105 Feature-value extraction part 20 Object detection apparatus 201 Identification processing part

Claims (8)

複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置において、
対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する決定手段と、
該決定手段で決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成する生成手段と、
前記識別器を生成するために用いた特徴量候補を特徴量として抽出する抽出手段と
を備えることを特徴とする特徴量抽出装置。
In a feature amount extraction apparatus that extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels,
Determination means for determining a plurality of feature quantity candidates related to the displacement of the spectrum intensity at any of a plurality of wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging an object and a non-object;
Generating means for generating a discriminator for discriminating an object and a non-object by using boosting for each of some of the feature quantity candidates determined by the determination means;
A feature quantity extraction apparatus comprising: extraction means for extracting feature quantity candidates used for generating the discriminator as feature quantities.
前記決定手段は、
近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定するように構成してあることを特徴とする請求項1に記載の特徴量抽出装置。
The determining means includes
The feature amount extraction apparatus according to claim 1, wherein the feature amount candidate is determined so as to determine a feature amount candidate related to a change in spectral intensity in a near-infrared wavelength range.
各サンプル画素に任意の数値を付与する付与手段を備え、
前記生成手段は、
対象物又は非対象物であると正しく識別したサンプル画素の数値の合計が最大となるように識別器を生成するように構成してあることを特徴とする請求項1又は請求項2に記載の特徴量抽出装置。
Provided with an assigning means for assigning an arbitrary numerical value to each sample pixel,
The generating means includes
The classifier is generated so that the sum of the numerical values of the sample pixels correctly identified as the object or the non-object is maximized. Feature extraction device.
前記付与手段は、
一の特徴量候補に対して前記生成手段が生成した識別器で対象物又は非対象物であると誤って識別したサンプル画素の数値を大きくするようにしてあり、
前記生成手段は、
次の特徴量候補に対して識別器を生成する場合、数値を大きくしたサンプル画素を用いて識別器を生成するように構成してあることを特徴とする請求項3に記載の特徴量抽出装置。
The giving means is
The number of sample pixels mistakenly identified as an object or non-object by the classifier generated by the generation unit for one feature amount candidate is increased,
The generating means includes
4. The feature quantity extraction apparatus according to claim 3, wherein when generating a classifier for the next feature quantity candidate, the classifier is generated by using a sample pixel having a larger numerical value. .
請求項1乃至請求項4のいずれか1項に記載の特徴量抽出装置と、該特徴量抽出装置で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを有する対象物検出装置とを備えることを特徴とする対象物検出システム。   5. A feature amount extraction apparatus according to claim 1, and an object detection apparatus having a support vector machine using the feature amount extracted by the feature amount extraction apparatus as a feature vector. An object detection system characterized by. 請求項1乃至請求項4のいずれか1項に記載の特徴量抽出装置と、該特徴量抽出装置で生成した識別器を弱識別器として結合した強識別器を有する対象物検出装置とを備えることを特徴とする対象物検出システム。   5. A feature amount extraction device according to claim 1, and an object detection device having a strong classifier in which a classifier generated by the feature amount extraction device is combined as a weak classifier. An object detection system characterized by that. コンピュータに、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出させるためのコンピュータプログラムにおいて、
コンピュータに、
対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、
決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、
前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップと
を実行させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to extract a feature amount for identifying an object based on image data including spectral information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels,
On the computer,
Determining a plurality of feature quantity candidates related to the displacement of the spectral intensity at a plurality of arbitrary wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging an object and a non-object; and
Generating a discriminator for identifying an object and a non-object using boosting for each of some of the feature quantity candidates in the determined feature quantity candidates;
And a step of extracting, as a feature amount, a feature amount candidate used for generating the discriminator.
複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置による特徴量抽出方法おいて、
対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、
決定された特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、
前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップと
を含むことを特徴とする特徴量抽出方法。
In a feature amount extraction method by a feature amount extraction apparatus that extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels,
Determining a plurality of feature quantity candidates related to the displacement of the spectral intensity at a plurality of arbitrary wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging an object and a non-object; and
Generating a discriminator for identifying an object and a non-object using boosting for each of some of the feature quantity candidates in the determined feature quantity candidates;
Extracting the feature quantity candidates used for generating the discriminator as a feature quantity.
JP2011197433A 2011-09-09 2011-09-09 Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method Expired - Fee Related JP5772420B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011197433A JP5772420B2 (en) 2011-09-09 2011-09-09 Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011197433A JP5772420B2 (en) 2011-09-09 2011-09-09 Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method

Publications (2)

Publication Number Publication Date
JP2013058162A true JP2013058162A (en) 2013-03-28
JP5772420B2 JP5772420B2 (en) 2015-09-02

Family

ID=48133976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011197433A Expired - Fee Related JP5772420B2 (en) 2011-09-09 2011-09-09 Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method

Country Status (1)

Country Link
JP (1) JP5772420B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160037481A (en) * 2014-09-29 2016-04-06 에스케이텔레콤 주식회사 Shadow removal method for image recognition and apparatus using the same
JP2020071739A (en) * 2018-10-31 2020-05-07 ファナック株式会社 Image processing apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090299A (en) * 2000-09-11 2002-03-27 Opt Giken Kk Method for distinguishing grade of high-molecular material
JP2004053440A (en) * 2002-07-22 2004-02-19 Toyama Prefecture Method for analyzing additives in polymeric material
JP2006318341A (en) * 2005-05-16 2006-11-24 Sony Corp Detection object image determination device, method, and program
JP2008152709A (en) * 2006-12-20 2008-07-03 Hitachi Software Eng Co Ltd Geographic image processor and program
JP2009015614A (en) * 2007-07-05 2009-01-22 Sony Corp Image processing apparatus, image processing method, and computer program
JP2011141809A (en) * 2010-01-08 2011-07-21 Sumitomo Electric Ind Ltd Equipment and method for analyzing image data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002090299A (en) * 2000-09-11 2002-03-27 Opt Giken Kk Method for distinguishing grade of high-molecular material
JP2004053440A (en) * 2002-07-22 2004-02-19 Toyama Prefecture Method for analyzing additives in polymeric material
JP2006318341A (en) * 2005-05-16 2006-11-24 Sony Corp Detection object image determination device, method, and program
JP2008152709A (en) * 2006-12-20 2008-07-03 Hitachi Software Eng Co Ltd Geographic image processor and program
JP2009015614A (en) * 2007-07-05 2009-01-22 Sony Corp Image processing apparatus, image processing method, and computer program
JP2011141809A (en) * 2010-01-08 2011-07-21 Sumitomo Electric Ind Ltd Equipment and method for analyzing image data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015020743; 小杉 幸夫、外5名: '"赤外スペクトル情報応用の路上障害物のセンシング"' SEIテクニカルレビュー No.176, 20100131, pp.124-129, 住友電気工業株式会社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160037481A (en) * 2014-09-29 2016-04-06 에스케이텔레콤 주식회사 Shadow removal method for image recognition and apparatus using the same
KR102156024B1 (en) 2014-09-29 2020-09-15 에스케이텔레콤 주식회사 Shadow removal method for image recognition and apparatus using the same
JP2020071739A (en) * 2018-10-31 2020-05-07 ファナック株式会社 Image processing apparatus
US11074718B2 (en) 2018-10-31 2021-07-27 Fanuc Corporation Image processing device

Also Published As

Publication number Publication date
JP5772420B2 (en) 2015-09-02

Similar Documents

Publication Publication Date Title
Pantazi et al. Automated leaf disease detection in different crop species through image features analysis and One Class Classifiers
JP7261414B2 (en) Analysis method
US20190087638A1 (en) Analyzing digital holographic microscopy data for hematology applications
Hu et al. Automatic plankton image recognition with co-occurrence matrices and support vector machine
US8942459B2 (en) Methods and apparatus for fast identification of relevant features for classification or regression
TWI567660B (en) Multi-class object classifying method and system
CN109858477A (en) The Raman spectrum analysis method of object is identified in complex environment with depth forest
Shamrat et al. A deep learning approach for face detection using max pooling
Thilagavathi et al. Application of image processing in diagnosing guava leaf diseases
Verikas et al. An integrated approach to analysis of phytoplankton images
Dimililer et al. Automated classification of fruits: pawpaw fruit as a case study
Nanni et al. Improving the descriptors extracted from the co-occurrence matrix using preprocessing approaches
Faria et al. Time series-based classifier fusion for fine-grained plant species recognition
Li et al. Sublingual vein extraction algorithm based on hyperspectral tongue imaging technology
JP5772420B2 (en) Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method
Hirata et al. Plankton image classification based on multiple segmentations
Li et al. HEp-2 cells staining patterns classification via wavelet scattering network and random forest
Akram et al. Weber Law Based Approach forMulti-Class Image Forgery Detection.
Choi et al. Determining the existence of objects in an image and its application to image thumbnailing
Mustafa et al. A method to recognize food using GIST and SURF features
Turtinen Learning and recognizing texture characteristics using local binary patterns
Bhaumik et al. Buddhist hasta mudra recognition using morphological features
Mehmood et al. Comparative Analysis of Feature Extraction Methods for Cotton Leaf Diseases Detection
Dhivya et al. Copy Paste Forgery Detection for Structural Features Extraction using Kohonen Self Organizing Neural Network and Recurrent Neural Network Classifiers
Greeshma et al. Automated Detection of Plant Disease Based on Color Histogram Feature Selection Using Hybrid Random Forest with Adaboost Algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R150 Certificate of patent or registration of utility model

Ref document number: 5772420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees