JP2012098181A - Device and method for detection - Google Patents

Device and method for detection Download PDF

Info

Publication number
JP2012098181A
JP2012098181A JP2010246599A JP2010246599A JP2012098181A JP 2012098181 A JP2012098181 A JP 2012098181A JP 2010246599 A JP2010246599 A JP 2010246599A JP 2010246599 A JP2010246599 A JP 2010246599A JP 2012098181 A JP2012098181 A JP 2012098181A
Authority
JP
Japan
Prior art keywords
inspection
unit
detection
spectrum
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010246599A
Other languages
Japanese (ja)
Inventor
Yuki Ono
Tatsuhiko Saito
Eiichiro Yamada
佑樹 小野
英一郎 山田
達彦 齋藤
Original Assignee
Sumitomo Electric Ind Ltd
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Ind Ltd, 住友電気工業株式会社 filed Critical Sumitomo Electric Ind Ltd
Priority to JP2010246599A priority Critical patent/JP2012098181A/en
Publication of JP2012098181A publication Critical patent/JP2012098181A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect foreign materials or defective products with higher accuracy.SOLUTION: An abnormal inspection system 100 (detection device) comprises: a light source unit 10 and a detection unit 20 for imaging an inspected object 3; an analysis unit 30 for analyzing with a support vector machine a spectrum image obtained by imaging and detecting foreign materials or defective products mixed in the inspected object 3. In the abnormal inspection system 100, the foreign materials or the detective products are detected by analyzing the spectrum image with the support vector machine and thus can be detected, for example, even if the difference of spectrum between a normal part and an abnormal part is slight compared to a conventional principal component analysis, thereby the abnormal part can be detected with higher accuracy.

Description

本発明は、検査対象物中に混在する異物または不良品を検出する検出装置及びこの検出装置による検出方法に関する。   The present invention relates to a detection device that detects foreign matters or defective products mixed in an inspection object, and a detection method using the detection device.

従来から、加工ライン上を流れる検査対象物に混在する異物や不良品の検知を目的として、検査対象物を撮像した後、その画像データを分析して異常の有無を判断することが行われている。例えば、特許文献1では、照射手段を用いて近赤外光を検査対象物に対して照射し、検査対象物からの反射光を平面分光器により平面分光した後撮像することで反射光スペクトルデータを取得し、この反射スペクトルデータを主成分分析法により分析することで異種品を検出する構成が開示されている。   Conventionally, for the purpose of detecting foreign objects and defective products mixed in an inspection object flowing on a processing line, after the inspection object is imaged, the image data is analyzed to determine whether there is an abnormality. Yes. For example, in Patent Document 1, reflected light spectrum data is obtained by irradiating an inspection object with near-infrared light using an irradiating unit, imaging the reflected light from the inspection object after performing planar spectroscopy with a plane spectrometer. Is obtained, and this reflection spectrum data is analyzed by a principal component analysis method to detect different kinds of products.

国際公開第2005/038443号International Publication No. 2005/038443

特許文献1記載の主成分分析法を用いて異物や不良品を検出する場合、スペクトルを構成する各プロットの分散が最大になるように主成分を決定して分析を行う。したがって、仮に、ノイズ成分の割合が高い状態で測定したスペクトルを用いたために、検査対象物のスペクトルに対する異物や不良品のスペクトルの差が微弱である場合には、この微弱なスペクトルの差を用いて主成分が決定されるため、異物や不良品の判別性能が低下してしまう可能性がある。   In the case of detecting foreign matters or defective products using the principal component analysis method described in Patent Document 1, the principal component is determined and analyzed so that the variance of each plot constituting the spectrum is maximized. Therefore, if the spectrum measured in a state where the ratio of the noise component is high is used, the difference between the spectrum of the foreign object and the defective product with respect to the spectrum of the inspection object is very weak. Since the main component is determined, there is a possibility that the discrimination performance for foreign matters and defective products may deteriorate.

本発明は上記を鑑みてなされたものであり、より高い精度で異物や不良品の検出を行うことが可能な検出装置及びこの検出装置を用いた検出方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a detection device capable of detecting a foreign object or a defective product with higher accuracy and a detection method using the detection device.

上記目的を達成するため、本発明に係る検出装置は、検査対象物を撮像して得られたスペクトル画像に基づいて、該検査対象物中に混在する異物または不良品を検出する装置であって、検査対象物を撮像する撮像部と、撮像部による撮像により得られたスペクトル画像を、サポートベクターマシンを用いて解析し、検査対象物中に混在する異物または不良品を検出する制御部と、を備えることを特徴とする。   In order to achieve the above object, a detection apparatus according to the present invention is an apparatus that detects foreign matters or defective products mixed in an inspection object based on a spectrum image obtained by imaging the inspection object. An imaging unit that images the inspection object, a control unit that analyzes a spectrum image obtained by imaging by the imaging unit using a support vector machine, and detects foreign matters or defective products mixed in the inspection object; It is characterized by providing.

上記の検出装置によれば、サポートベクターマシンを用いてスペクトル画像を解析して、異物また不良品を検出するため、従来の主成分分析と比較して、例えば正常部分と異状部分とのスペクトルの差が微弱であっても検出が可能となるため、より高い精度で異状部分の検出を行うことができる。   According to the detection device described above, the spectrum image is analyzed using a support vector machine to detect foreign matters or defective products. Therefore, compared with the conventional principal component analysis, for example, the spectrum of the normal portion and the abnormal portion are analyzed. Since the detection is possible even if the difference is weak, the abnormal portion can be detected with higher accuracy.

ここで、検査対象物と撮像部との間に、撮像部の視野領域を変更するための可動ミラーを有する態様とすることができる。この場合、検査対象物に対する撮像範囲の変更を容易に行うことが可能となる。   Here, it can be set as the aspect which has a movable mirror for changing the visual field area | region of an imaging part between a test target object and an imaging part. In this case, it is possible to easily change the imaging range for the inspection object.

また、撮像部に入射する光を分光する波長可変フィルタを有する態様としてもよい。さらに、検査対象物に対して光を照射する波長可変光源を有する態様とすることもできる。   Moreover, it is good also as an aspect which has a wavelength variable filter which disperses the light which injects into an imaging part. Furthermore, it can also be set as the aspect which has a wavelength variable light source which irradiates light with respect to a test object.

また、本発明に係る検出方法は、検査対象物を撮像して得られたスペクトル画像に基づいて、該検査対象物中に混在する異物または不良品を検出する方法であって、スペクトル画像に含まれる各画素のスペクトルについてサポートベクターマシンを用いて解析し、この結果に基づいて各画素における異物または不良品の有無を判定する判定ステップを含むことを特徴とする。   Further, the detection method according to the present invention is a method for detecting a foreign substance or a defective product mixed in an inspection object based on a spectrum image obtained by imaging the inspection object, and is included in the spectrum image. And analyzing the spectrum of each pixel using a support vector machine, and determining the presence or absence of foreign matter or defective products in each pixel based on the result.

ここで、判定ステップの前に、スペクトル画像に含まれる全画素に対して、スペクトル強度の線形結合を計算し、予め設定された閾値と比較することにより検査対象物を撮像した画素のスペクトルを抽出する抽出ステップを備え、判定ステップにおいて、抽出ステップにおいて抽出されたスペクトルについて解析を行う態様とすることができる。   Here, before the determination step, a linear combination of spectrum intensities is calculated for all pixels included in the spectrum image, and the spectrum of the pixel that has imaged the inspection object is extracted by comparing with a preset threshold value. An extraction step for performing analysis, and in the determination step, the spectrum extracted in the extraction step can be analyzed.

また、判定ステップの前に、スペクトル画像に含まれる全画素に対して、任意の波長のスペクトル強度を四則演算し、予め設定された閾値と比較することにより検査対象物を撮像した画素のスペクトルを抽出する抽出ステップを備え、判定ステップにおいて、抽出ステップにおいて抽出されたスペクトルについて解析を行う態様としてもよい。   In addition, before the determination step, the spectrum intensity of an arbitrary wavelength is calculated for all the pixels included in the spectrum image, and the spectrum of the pixel obtained by imaging the inspection object is compared with a preset threshold value. An extraction step for extraction may be provided, and the spectrum extracted in the extraction step may be analyzed in the determination step.

このように抽出ステップにおいて検査対象物を撮像した画素のスペクトルを抽出するステップをさらに備えることで、全ての画素、すなわち、検査対象物ではない背景等を撮像した画素のスペクトルに対してサポートベクターマシンを用いた解析を行う場合と比較して、検出に係る作業量や計算コストを大幅に削減することができるため、より高速に検出を行うことが可能となる。   In this way, by further comprising the step of extracting the spectrum of the pixel that has imaged the inspection object in the extraction step, the support vector machine for the spectrum of the pixels that imaged all the pixels, that is, the background that is not the inspection object. Compared with the case where the analysis is performed, the amount of work and the calculation cost related to the detection can be greatly reduced, so that the detection can be performed at a higher speed.

さらに、判定ステップの前に、スペクトル画像に含まれる全画素に対して、画素ごとに線形サポートベクターマシンを用いることで検査対象物を撮像した画素のスペクトルを抽出する抽出ステップを備え、判定ステップにおいて、抽出ステップにおいて抽出したスペクトルについて非線形サポートベクターマシンを用いて解析を行う態様とすることもできる。   Furthermore, before the determination step, an extraction step for extracting the spectrum of the pixel that has imaged the inspection object by using a linear support vector machine for each pixel for all the pixels included in the spectrum image is provided. The spectrum extracted in the extraction step may be analyzed using a nonlinear support vector machine.

上記の構成を有する場合、サポートベクターマシンでも作業量が少ない線形サポートベクターマシンを用いてまず検査対象物を撮像した画素のスペクトルを抽出し、その後非線形サポートベクターマシンを用いて検査対象物を撮像した画素のスペクトルの解析を行う構成とすることで、検出に係る作業量や計算コストを大幅に削減することができるため、より高速に検出を行うことが可能となる。   When having the above configuration, the support vector machine uses a linear support vector machine that requires a small amount of work, first extracts the spectrum of the pixel that imaged the inspection object, and then imaged the inspection object using the nonlinear support vector machine By adopting a configuration for analyzing the spectrum of a pixel, it is possible to significantly reduce the amount of work and calculation cost related to detection, so that detection can be performed at higher speed.

また、判定ステップの後に、判定ステップにおいて異物または不良品が有ると判定された画素に対して、この画素を含む所定の範囲内に、異物または不良品が有ると判定された画素が所定数以上含まれているか否かの判定を行うステップをさらに含む態様としてもよい。   In addition, after the determination step, with respect to the pixels determined to have foreign matters or defective products in the determination step, a predetermined number or more of pixels determined to have foreign materials or defective products within a predetermined range including these pixels It is good also as an aspect further including the step of determining whether it is contained.

この場合、周囲の画素の判定結果を併せて参照することにより、異物または不良品が有ると判定された理由が偶発的なノイズであるのか、または、本当に異物または不良品が有ると推測されるのか、を判断することができるため、より高精度に検出を行うことができる。   In this case, it is presumed that the reason for determining that there is a foreign object or defective product is accidental noise or that there is really a foreign object or defective product by referring to the determination results of surrounding pixels together. Therefore, detection can be performed with higher accuracy.

本発明によれば、より高い精度で異物や不良品の検出を行うことが可能な検出装置及びこの検出装置を用いた検出方法が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the detection apparatus which can detect a foreign material and inferior goods with higher precision, and the detection method using this detection apparatus are provided.

本実施形態に係る異状検査システムの構成を示す図である。 It is a figure which shows the structure of the abnormality inspection system which concerns on this embodiment. ハイパースペクトル画像についてその概略を説明する図である。 It is a figure explaining the outline about a hyperspectral image. 本実施形態に係る異状検査システムの他の構成を示す図である。 It is a figure which shows the other structure of the abnormality inspection system which concerns on this embodiment. 本実施形態に係る異状検査システムの他の構成を示す図である。 It is a figure which shows the other structure of the abnormality inspection system which concerns on this embodiment. 本実施形態に係る異状検査システムの他の構成を示す図である。 It is a figure which shows the other structure of the abnormality inspection system which concerns on this embodiment. 分析ユニットの概略構成図である。 It is a schematic block diagram of an analysis unit. 分析ユニットにおいてSVMを用いた識別を行う前に行われる学習方法を示すフローチャートである。 It is a flowchart which shows the learning method performed before identifying using SVM in an analysis unit. 分析ユニットにおける画像データの分析方法を示すフローチャートである。 It is a flowchart which shows the analysis method of the image data in an analysis unit. 分析ユニットにおける最終判定方法の一例を説明する図である。 It is a figure explaining an example of the final determination method in an analysis unit.

以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(異状検査システム(検出装置)の構成)
本発明に係る画像データ分析装置を含んで構成される異状検査システム100について図1を用いて説明する。 An abnormality inspection system 100 including an image data analyzer according to the present invention will be described with reference to FIG. 本実施形態に係る異状検査システム100は、ベルトコンベア2上に分散載置された検査対象物3(図1では検査対象物の載置位置を示す)に混入した異物や検査対象物3の変質等の異状の有無を検査する装置である。 In the abnormality inspection system 100 according to the present embodiment, foreign matter mixed in the inspection object 3 (in FIG. 1 shows the placement position of the inspection object) dispersedly placed on the belt conveyor 2 and deterioration of the inspection object 3 It is a device that inspects the presence or absence of abnormalities such as. 本実施形態に係る異状検査システム100の検査対象物3としては、食品や医薬品等の原材料や製品等が挙げられる。 Examples of the inspection object 3 of the abnormality inspection system 100 according to the present embodiment include raw materials and products such as foods and pharmaceuticals. そしてこれらの検査対象物3に付着する異物としては、毛髪等の生体由来物や、製造装置等に由来する金属や、夾雑物等が挙げられる。 Examples of the foreign matter adhering to the inspection object 3 include biological substances such as hair, metals derived from manufacturing equipment and the like, and impurities. また、検査対象物3の変質等の異状は、検査対象物3に含まれる水分や糖分の量などを測定することにより検出することができる。 Further, abnormalities such as deterioration of the inspection object 3 can be detected by measuring the amount of water and sugar contained in the inspection object 3. 異状検査システム100は、測定光を検査対象物3に対して照射することにより得られる拡散反射光のスペクトルを測定し、そのスペクトルに基づいて検査対象物3に付着した異物や変質等の異状を検出する。 The abnormality inspection system 100 measures the spectrum of diffusely reflected light obtained by irradiating the inspection object 3 with the measurement light, and based on the spectrum, abnormalities such as foreign matter and deterioration adhering to the inspection object 3 are detected. To detect. このため、異状検査システム100は、光源ユニット10、検出ユニット20(撮像部)、及び分析ユニット30(制御部)を備える。 Therefore, the abnormality inspection system 100 includes a light source unit 10, a detection unit 20 (imaging unit), and an analysis unit 30 (control unit). (Configuration of abnormality inspection system (detection device)) (Configuration of abnormality inspection system (detection device))
An abnormality inspection system 100 including an image data analysis apparatus according to the present invention will be described with reference to FIG. The abnormality inspection system 100 according to the present embodiment includes foreign matter mixed in the inspection object 3 (showing the placement position of the inspection object in FIG. 1) distributed on the belt conveyor 2 and alteration of the inspection object 3. It is an apparatus for inspecting whether there is any abnormality such as. Examples of the inspection object 3 of the abnormality inspection system 100 according to the present embodiment include raw materials and products such as foods and pharmaceuticals. And as a foreign material adhering to these test | inspection target objects 3, biological origins, such as hair, the metal originating in a manufacturing apparatus, etc., a foreign material, etc. are mentioned. Also, abnormalities such as alteration of the test object 3 can be detected by measuring the amo An abnormality inspection system 100 including an image data analysis apparatus according to the present invention will be described with reference to FIG. The abnormality inspection system 100 according to the present embodiment includes foreign matter mixed in the inspection object 3 (showing the placement position of the) inspection object in FIG. 1) distributed on the belt conveyor 2 and alteration of the inspection object 3. It is an apparatus for inspecting whether there is any abnormality such as. Examples of the inspection object 3 of the abnormality inspection system 100 according to the present embodiment include raw materials and products such as foods and pharmaceuticals. And as a foreign material adhering to these test | inspection target objects 3, biological origins, such as hair, the metal originating in a manufacturing apparatus, etc., a foreign material, etc. are mentioned. Also, abnormalities such as alteration of the test object 3 can be detected by measuring the amo unt of water or sugar contained in the test object 3. The abnormality inspection system 100 measures the spectrum of the diffuse reflected light obtained by irradiating the inspection object 3 with the measurement light, and based on the spectrum, the abnormality such as foreign matter or alteration attached to the inspection object 3 is measured. To detect. For this reason, the abnormality inspection system 100 includes a light source unit 10, a detection unit 20 (imaging unit), and an analysis unit 30 (control unit). unt of water or sugar contained in the test object 3. The abnormality inspection system 100 measures the spectrum of the diffuse reflected light obtained by irradiating the inspection object 3 with the measurement light, and based on the spectrum, the abnormality such as foreign matter or Alteration attached to the inspection object 3 is measured. To detect. For this reason, the abnormality inspection system 100 includes a light source unit 10, a detection unit 20 (imaging unit), and an analysis unit 30 (control unit).

光源ユニット10は、一定の波長帯域を有する測定光を、ベルトコンベア2上における所定の照射領域A1へ向けて照射する。光源ユニット10が照射する測定光の波長範囲は、検査対象物3や、検出対象となる検査対象物3に付着した異物や変質等の異状に応じて適宜選択される。測定光として近赤外光を用いる場合、具体的には、波長範囲が800nm〜2500nmの光が好適に用いられるが、近赤外光に代えて可視光を測定光として用いることも可能である。なお、本実施形態では、スーパーコンティニューム(SC)光を発生する光源11(SC光源)を含む光源ユニット10について説明する   The light source unit 10 irradiates measurement light having a certain wavelength band toward a predetermined irradiation area A1 on the belt conveyor 2. The wavelength range of the measurement light irradiated by the light source unit 10 is appropriately selected according to the inspection object 3 and the foreign matter attached to the inspection object 3 to be detected, abnormalities such as alteration. When using near infrared light as measurement light, specifically, light having a wavelength range of 800 nm to 2500 nm is preferably used, but visible light can be used as measurement light instead of near infrared light. . In the present embodiment, the light source unit 10 including the light source 11 (SC light source) that generates super continuum (SC) light will be described.

照射領域A1とは、検査対象物3を載置するベルトコンベア2の表面(載置面2b)の一部の領域である。この照射領域A1は、載置面2bの進行方向2a(図1のy軸方向)と垂直な幅方向(x軸方向)に広がり、載置面2bの一方の端から他方の端までを覆うライン状に延びる領域である。そして、照射領域A1の延在方向に垂直な方向(y軸方向)における照射領域A1の幅は10mm以下とされる。   The irradiation region A1 is a partial region of the surface (mounting surface 2b) of the belt conveyor 2 on which the inspection object 3 is mounted. The irradiation area A1 extends in the width direction (x-axis direction) perpendicular to the traveling direction 2a (y-axis direction in FIG. 1) of the placement surface 2b, and covers from one end to the other end of the placement surface 2b. This is an area extending in a line. And the width | variety of irradiation area | region A1 in a direction (y-axis direction) perpendicular | vertical to the extension direction of irradiation area | region A1 shall be 10 mm or less.

光源ユニット10は、SC光を出射する光源11と、照射部12と、光源11と照射部12とを接続する光ファイバ13と、を備える。光源11は、近赤外光としてSC光を発生させる。さらに具体的には、SC光源である光源11は、種光源及び非線形媒質を備え、種光源から出射される光を非線形媒質に入力し、非線形媒質中における非線形光学効果によりスペクトルを広帯域に広げてSC光を出力する。   The light source unit 10 includes a light source 11 that emits SC light, an irradiation unit 12, and an optical fiber 13 that connects the light source 11 and the irradiation unit 12. The light source 11 generates SC light as near infrared light. More specifically, the light source 11 that is an SC light source includes a seed light source and a nonlinear medium, inputs light emitted from the seed light source to the nonlinear medium, and broadens the spectrum by a nonlinear optical effect in the nonlinear medium. SC light is output.

光源11により発生された近赤外光(SC光)は、光ファイバ13の一方の端面へ入射される。この近赤外光は、光ファイバ13のコア領域を導波し、もう一方の端面から照射部12に対して出射される。   Near-infrared light (SC light) generated by the light source 11 is incident on one end face of the optical fiber 13. This near-infrared light is guided through the core region of the optical fiber 13 and is emitted from the other end face to the irradiation unit 12.

照射部12は、光ファイバ13の端面から出射される近赤外光(SC光)を検査対象物3が載置される照射領域A1に対して照射する。照射部12は、光ファイバ13から出射される近赤外光を入射して、照射領域A1に対応した1次元のライン状に出射するため、照射部12としてシリンドリカルレンズが好適に用いられる。このように照射部12においてライン状に整形された近赤外光L1が、照射部12から照射領域A1に対して照射される。   The irradiation unit 12 irradiates near-infrared light (SC light) emitted from the end face of the optical fiber 13 to the irradiation area A1 on which the inspection object 3 is placed. Since the irradiation unit 12 receives near infrared light emitted from the optical fiber 13 and emits it in a one-dimensional line corresponding to the irradiation region A1, a cylindrical lens is preferably used as the irradiation unit 12. The near-infrared light L1 shaped in a line shape in the irradiation unit 12 in this way is irradiated from the irradiation unit 12 to the irradiation region A1.

光源ユニット10から出力された近赤外光L1は、照射領域A1上に載置された検査対象物3により拡散反射される。そして、その一部が、拡散反射光L2として検出ユニット20に入射する。   The near infrared light L1 output from the light source unit 10 is diffusely reflected by the inspection object 3 placed on the irradiation area A1. A part of the light enters the detection unit 20 as diffusely reflected light L2.

検出ユニット20は、ハイパースペクトル画像を取得するハイパースペクトルセンサとしての機能を有する。ここで、本実施形態におけるハイパースペクトル画像について図2を用いて説明する。図2は、ハイパースペクトル画像についてその概略を説明する図である。図2に示すように、ハイパースペクトル画像とは、N個の画素P〜Pにより構成されている画像である。図2ではそのうちの一例として2個の画素P及びPについて具体的に示している。画素P及びPには、それぞれ複数の強度データからなるスペクトル情報S及びSが含まれている。この強度データとは、特定の波長(又は波長帯域)におけるスペクトル強度を示すデータであり、図2では、15個の強度データがスペクトル情報S及びSとして保持されていて、これらを重ね合わせた状態で示している。このように、ハイパースペクトル画像Hは、画像を構成する画素毎に、それぞれ複数の強度データを持つという特徴から、画像としての二次元的要素と、スペクトルデータとしての要素をあわせ持った三次元的構成のデータである。なお、本実施形態では、ハイパースペクトル画像Hとは、1画素あたり少なくとも5つの波長帯域における強度データを保有している画素によって構成された画像のことをいう。なお、図2では検査対象物3もあわせて示している。すなわち、図2においてPは検査対象物3を撮像した画素であり、Pは背景(例えば、ベルトコンベア)を撮像した画素である。 The detection unit 20 has a function as a hyperspectral sensor that acquires a hyperspectral image. Here, the hyperspectral image in this embodiment is demonstrated using FIG. FIG. 2 is a diagram for explaining the outline of the hyperspectral image. As shown in FIG. 2, the hyperspectral image is an image configured by N pixels P 1 to P N. Specifically it shows the two pixel P n and P m as them example in FIG. Each of the pixels P n and P m includes spectral information S n and S m including a plurality of intensity data. And the intensity data is data indicating a spectral intensity at a particular wavelength (or wavelength band), 2, 15 intensity data has been held as the spectral information S n and S m, superposition of these It is shown in the state. As described above, the hyperspectral image H is characterized by having a plurality of intensity data for each pixel constituting the image, so that a three-dimensional image having both a two-dimensional element as an image and an element as spectral data. Configuration data. In the present embodiment, the hyperspectral image H refers to an image composed of pixels having intensity data in at least five wavelength bands per pixel. In FIG. 2, the inspection object 3 is also shown. That, P n in FIG. 2 is a pixel of the captured inspection object 3, P m is the pixel of the captured background (e.g., a belt conveyor).

図1に戻り、本実施形態に係る検出ユニット20は、カメラレンズ24と、スリット21と、分光器22と、受光部23と、を備える。この検出ユニット20は、その視野領域20sがベルトコンベア2の進行方向2aと垂直な方向(x軸方向)に延びている。検出ユニット20の視野領域20sは、載置面2bの照射領域A1に含まれるライン状の領域であって、スリット21を通過した拡散反射光L2が受光部23上に像を結ぶ領域である。   Returning to FIG. 1, the detection unit 20 according to the present embodiment includes a camera lens 24, a slit 21, a spectroscope 22, and a light receiving unit 23. The detection unit 20 has a visual field region 20 s extending in a direction (x-axis direction) perpendicular to the traveling direction 2 a of the belt conveyor 2. The visual field region 20s of the detection unit 20 is a linear region included in the irradiation region A1 of the placement surface 2b, and is a region in which the diffusely reflected light L2 that has passed through the slit 21 forms an image on the light receiving unit 23.

スリット21は、照射領域A1の延在方向(x軸方向)と平行な方向に開口が設けられる。検出ユニット20のスリット21に入射した拡散反射光L2は、分光器22へ入射する。   The slit 21 is provided with an opening in a direction parallel to the extending direction (x-axis direction) of the irradiation region A1. The diffuse reflected light L2 that has entered the slit 21 of the detection unit 20 enters the spectroscope 22.

分光器22は、スリット21の長手方向、すなわち照射領域A1の延在方向に垂直な方向(y軸方向)に拡散反射光L2を分光する。分光器22により分光された光は、受光部23によって受光される。   The spectroscope 22 splits the diffusely reflected light L2 in the longitudinal direction of the slit 21, that is, the direction perpendicular to the extending direction of the irradiation area A1 (y-axis direction). The light split by the spectroscope 22 is received by the light receiving unit 23.

受光部23は、複数の受光素子が2次元に配列された受光面を備え、各受光素子が光を受光する。これにより、受光部23がベルトコンベア2上の幅方向(x軸方向)に沿った各位置で反射した拡散反射光L2の各波長の光をそれぞれ受光することとなる。各受光素子は、受光した光の強度に応じた信号を位置と波長とからなる二次元平面状の一点に関する情報として出力する。この受光部23の受光素子から出力される信号が、ハイパースペクトル画像に係る画像データとして、検出ユニット20から分析ユニット30に送られる。   The light receiving unit 23 includes a light receiving surface in which a plurality of light receiving elements are two-dimensionally arranged, and each light receiving element receives light. As a result, the light receiving unit 23 receives light of each wavelength of the diffusely reflected light L2 reflected at each position along the width direction (x-axis direction) on the belt conveyor 2. Each light receiving element outputs a signal corresponding to the intensity of received light as information on a two-dimensional planar point composed of a position and a wavelength. A signal output from the light receiving element of the light receiving unit 23 is sent from the detection unit 20 to the analysis unit 30 as image data related to the hyperspectral image.

分析ユニット30(画像データ分析装置)は、入力された信号により拡散反射光L2のスペクトルを得て、この得られたスペクトルに基づいて検査を行う。検査対象物3に含まれる異物を検出する場合は、次のような原理で検査を行う。異物は、光源11から出力される測定光(本実施形態では近赤外光)の波長範囲において吸収帯域を有する。そこで、検査対象物3により拡散反射した拡散反射光L2によるハイパースペクトル画像Hにおいて画素毎に含まれて複数の強度データにより構成されるスペクトル情報を参照し、異物に由来する特定の吸収ピークを検出することにより、異物を検出する。また、検査対象物3に含まれる水分や糖分の量を測定する場合は、次のような原理で検査を行う。例えば、糖分は波長1500nm付近と波長2100nm付近に吸収ピークを有するので、検査対象物3中に糖分が含まれる場合は、これらの波長の前後少なくとも100nmの範囲の近赤外光を照射し、拡散反射光L2のスペクトルを分析することで、食品中の糖分に由来するピークを検出することができる。糖分に由来するピークの位置や強度から、糖分の種類やその含有量を求めることができ、検査対象物3の異状を検出したり、品質を評価したりすることができる。そして、この分析ユニット30による分析の結果は、例えば分析ユニット30に接続されるモニタや、プリンタ等に出力することによって、この異状検査システム100のオペレータに通知される。   The analysis unit 30 (image data analysis device) obtains the spectrum of the diffuse reflected light L2 from the input signal, and performs an inspection based on the obtained spectrum. When detecting foreign matter contained in the inspection object 3, the inspection is performed according to the following principle. The foreign matter has an absorption band in the wavelength range of the measurement light (near infrared light in the present embodiment) output from the light source 11. Therefore, a specific absorption peak derived from a foreign substance is detected by referring to spectral information that is included in each pixel and is composed of a plurality of intensity data in the hyperspectral image H by diffusely reflected light L2 diffusely reflected by the inspection object 3. By doing so, foreign matter is detected. Moreover, when measuring the quantity of the water | moisture content and sugar contained in the test object 3, it test | inspects on the following principles. For example, since sugar has absorption peaks in the vicinity of a wavelength of 1500 nm and a wavelength of 2100 nm, when sugar is contained in the inspection object 3, irradiate near infrared light in the range of at least 100 nm before and after these wavelengths and diffuse. By analyzing the spectrum of the reflected light L2, it is possible to detect a peak derived from sugar in the food. The type and content of the sugar can be determined from the position and intensity of the peak derived from the sugar, and the abnormality of the test object 3 can be detected or the quality can be evaluated. The result of the analysis by the analysis unit 30 is notified to the operator of the abnormality inspection system 100 by, for example, outputting the result to a monitor or printer connected to the analysis unit 30.

この分析ユニット30は、CPU(Central Processing Unit)、主記憶装置であるRAM(RandomAccess Memory)及びROM(Read Only Memory)、検出ユニット等の他の機器との間の通信を行う通信モジュール、並びにハードディスク等の補助記憶装置等のハードウェアを備えるコンピュータとして構成される。そして、これらの構成要素が動作することにより、分析ユニット30としての機能が発揮される。その分析ユニット30による分析処理の概要やその具体的な手法については後述する。   The analysis unit 30 includes a CPU (Central Processing Unit), a RAM (Random Access Memory) and a ROM (Read Only Memory) that are main storage devices, a communication module that performs communication with other devices such as a detection unit, and a hard disk. It is comprised as a computer provided with hardware, such as auxiliary storage devices. And the function as the analysis unit 30 is exhibited when these components operate | move. An outline of analysis processing by the analysis unit 30 and a specific method thereof will be described later.

なお、上記の異状検査システム100のうち、光源ユニット10、検出ユニット20の構成は種々の変更を行うことができる。以下、光源ユニット10及び検出ユニット20の変形例について説明する。 In the abnormality inspection system 100 described above, the configurations of the light source unit 10 and the detection unit 20 can be variously changed. Hereinafter, modified examples of the light source unit 10 and the detection unit 20 will be described.

(変形例−1)
図3は、異状検査システム200の構成を示す概略構成図である。 FIG. 3 is a schematic configuration diagram showing the configuration of the abnormality inspection system 200. 図3に示す異状検査システムが、上記異状検査システム100と異なる点は以下の通りである。 The difference between the abnormality inspection system shown in FIG. 3 and the abnormality inspection system 100 is as follows. すなわち、検査対象物3と検出ユニット20との間に可動式ミラーからなるミラースキャナ40が設けられ、このミラースキャナ40が回転することにより、視野領域20sを移動させる構成を備えている点である。 That is, a mirror scanner 40 made of a movable mirror is provided between the inspection object 3 and the detection unit 20, and the field area 20s is moved by rotating the mirror scanner 40. .. なお、分析ユニット30は異状検査システム100と同様に検出ユニット20に対して接続しているが、図3では図示していない。 The analysis unit 30 is connected to the detection unit 20 like the abnormality inspection system 100, but is not shown in FIG. (Modification-1) (Modification-1)
FIG. 3 is a schematic configuration diagram showing the configuration of the abnormality inspection system 200. The abnormality inspection system shown in FIG. 3 is different from the abnormality inspection system 100 as follows. That is, a mirror scanner 40 composed of a movable mirror is provided between the inspection object 3 and the detection unit 20, and the mirror scanner 40 rotates to move the visual field region 20 s. . The analysis unit 30 is connected to the detection unit 20 in the same manner as the abnormality inspection system 100, but is not shown in FIG. FIG. 3 is a schematic configuration diagram showing the configuration of the abnormality inspection system 200. The abnormality inspection system shown in FIG. 3 is different from the abnormality inspection system 100 as follows. That is, a mirror scanner 40 composed of a movable mirror is provided between the inspection object 3 and the detection unit 20, and the mirror scanner 40 rotates to move the visual field region 20 s .. The analysis unit 30 is connected to the detection unit 20 in the same manner as the abnormality inspection system 100 , but is not shown in FIG.

この異状検査システム200においては、検査対象物3は搭載台Bに載せられて移動する。そして、異状検査システム200による検査が行われている間は、搭載台Bは所定の測定領域で停止する。そして、搭載台Bが停止し、検査対象物3の移動も停止している間に、光源ユニット10が近赤外光L1を出力すると共に、検査対象物3により拡散反射した拡散反射光L2を検出ユニット20において検出する。また、ミラースキャナ40が回転することにより、視野領域20sが変更されることで、複数の視野領域における検査対象物3の拡散反射光を検出ユニット20で検出することができる。   In this abnormality inspection system 200, the inspection object 3 is placed on the mounting table B and moves. Then, while the inspection by the abnormality inspection system 200 is being performed, the mounting table B stops in a predetermined measurement region. While the mounting base B is stopped and the movement of the inspection object 3 is also stopped, the light source unit 10 outputs the near-infrared light L1, and the diffuse reflected light L2 diffusely reflected by the inspection object 3 is output. Detection is performed by the detection unit 20. Further, by rotating the mirror scanner 40, the visual field region 20s is changed, so that the diffuse reflected light of the inspection object 3 in the plural visual field regions can be detected by the detection unit 20.

このように、異状検査システム200の構成によれば、分析中は検査対象物3を移動させることなく、ミラースキャナ4の駆動によって、検査対象物3により拡散反射した拡散反射光L2によるハイパースペクトル画像Hを得ることができる。 Thus, according to the configuration of the abnormality inspection system 200, the hyperspectral image by the diffusely reflected light L2 diffusely reflected by the inspection object 3 by driving the mirror scanner 4 without moving the inspection object 3 during the analysis. H can be obtained.

(変形例−2)
図4は、異状検査システム300の構成を示す概略構成図である。 FIG. 4 is a schematic configuration diagram showing the configuration of the abnormality inspection system 300. 図4に示す異状検査システムが、図1の異状検査システム100と異なる点は以下の通りである。 The difference between the abnormality inspection system shown in FIG. 4 and the abnormality inspection system 100 shown in FIG. 1 is as follows. すなわち、光源ユニット10において、光源11AがSC光源ではなく波長可変光源である点、及び、光源11Aからの出射された光をライン状に整形する照射部12が設けられていない点である。 That is, in the light source unit 10, the light source 11A is not an SC light source but a tunable wavelength light source, and the irradiation unit 12 for shaping the light emitted from the light source 11A into a line shape is not provided. また、光源11Aとして波長可変光源が設けられているため、異常検査システム300の検出ユニット20には分光器22が設けられていない。 Further, since the wavelength variable light source is provided as the light source 11A, the spectroscope 22 is not provided in the detection unit 20 of the abnormality inspection system 300. (Modification-2) (Modification-2)
FIG. 4 is a schematic configuration diagram showing the configuration of the abnormality inspection system 300. The abnormality inspection system shown in FIG. 4 is different from the abnormality inspection system 100 of FIG. 1 as follows. That is, in the light source unit 10, the light source 11A is not a SC light source but a wavelength variable light source, and the irradiation unit 12 that shapes the light emitted from the light source 11A into a line shape is not provided. In addition, since the wavelength variable light source is provided as the light source 11A, the spectroscope 22 is not provided in the detection unit 20 of the abnormality inspection system 300. FIG. 4 is a schematic configuration diagram showing the configuration of the abnormality inspection system 300. The abnormality inspection system shown in FIG. 4 is different from the abnormality inspection system 100 of FIG. 1 as follows. That is, in the light source unit 10, the light source 11A is not a SC light source but a wavelength variable light source, and the irradiation unit 12 that shapes the light emitted from the light source 11A into a line shape is not provided. In addition, since the wavelength variable light source is provided as the light source 11A, the spectroscope 22 is not provided in the detection unit 20 of the abnormality inspection system 300.

また、この異状検査システム300では、光源11Aは分析ユニット30と接続され、光源11Aから出力する光の波長を分析ユニット30で制御する構成となる。   Further, in this abnormality inspection system 300, the light source 11A is connected to the analysis unit 30, and the wavelength of light output from the light source 11A is controlled by the analysis unit 30.

この異状検査システム300においては、検査対象物3はベルトコンベア2に載せられて移動する。そして、異状検査システム300による検査が行われている間は、ベルトコンベア2は所定の測定領域で停止する。そして、ベルトコンベア2が停止し、検査対象物3の移動も停止している間に、光源ユニット10が近赤外光L1を所定の照射領域A2へ向けて出力すると共に、検査対象物3により拡散反射した拡散反射光L2を検出ユニット20において検出する。そして、分析ユニット30の制御により光源11Aから出力する光の波長を変化させることで、検査対象物により拡散反射した拡散反射光L2によるハイパースペクトル画像Hを得ることができる。なお、検査対象物3の測定領域を変更する場合には、ベルトコンベア2を移動させる。   In this abnormality inspection system 300, the inspection object 3 is placed on the belt conveyor 2 and moved. And while the inspection by the abnormality inspection system 300 is performed, the belt conveyor 2 stops in a predetermined measurement area. While the belt conveyor 2 is stopped and the movement of the inspection object 3 is also stopped, the light source unit 10 outputs the near-infrared light L1 toward the predetermined irradiation area A2, and the inspection object 3 The detection unit 20 detects the diffuse reflection light L2 that has been diffusely reflected. Then, by changing the wavelength of the light output from the light source 11 </ b> A under the control of the analysis unit 30, it is possible to obtain a hyperspectral image H by the diffusely reflected light L <b> 2 diffusely reflected by the inspection object. In addition, when changing the measurement area | region of the test target object 3, the belt conveyor 2 is moved.

(変形例−3)
図5は、異状検査システム400の構成を示す概略構成図である。図5に示す異状検査システムが、図1の異状検査システム100と異なる点は以下の通りである。すなわち、光源ユニット10において、光源11BがSC光源ではない点、及び、光源11Aからの出射された光をライン状に整形する照射部12が設けられていない点、さらに検出ユニット20のスリット21と検査対象物3との間に波長可変フィルタ50が設けられている点である。また、波長可変フィルタ50が設けられているため、異常検査システム300の検出ユニット20には分光器22が設けられていない。
(Modification-3)
FIG. 5 is a schematic configuration diagram showing the configuration of the abnormality inspection system 400. The abnormality inspection system shown in FIG. 5 is different from the abnormality inspection system 100 of FIG. 1 as follows. That is, in the light source unit 10, the light source 11 </ b> B is not an SC light source, the irradiation unit 12 that shapes the light emitted from the light source 11 </ b> A is not provided, and the slit 21 of the detection unit 20. The wavelength variable filter 50 is provided between the inspection object 3 and the inspection object 3. Further, since the wavelength tunable filter 50 is provided, the spectroscope 22 is not provided in the detection unit 20 of the abnormality inspection system 300. FIG. 5 is a schematic configuration diagram showing the configuration of the abnormality inspection system 400. The abnormality inspection system shown in FIG. 5 is different from the abnormality inspection system 100 of FIG. 1 as follows. That is, in the light source unit 10, the light source 11 </ b> B is not an SC light source, the irradiation unit 12 that shapes the light emitted from the light source 11 </ b> A is not provided, and the slit 21 of the detection unit 20 The wavelength variable filter 50 is provided between the inspection object 3 and the inspection object 3. Further, since the wavelength tunable filter 50 is provided, the spectroscope 22 is not provided in the detection unit 20 of the abnormality inspection system 300.

この波長可変フィルタ50は、透過光の波長を切り替えることが可能なフィルタである。そして、波長可変フィルタ50は分析ユニット30と接続され、波長可変フィルタ50を透過させる光の波長を分析ユニット30で制御する構成となる。波長可変フィルタ50としては、例えば液晶チューナブルフィルタが好適に用いられる。   The wavelength tunable filter 50 is a filter capable of switching the wavelength of transmitted light. The wavelength tunable filter 50 is connected to the analysis unit 30 and is configured to control the wavelength of light transmitted through the wavelength tunable filter 50 by the analysis unit 30. For example, a liquid crystal tunable filter is preferably used as the wavelength tunable filter 50.

この異状検査システム400においては、検査対象物3はベルトコンベア2に載せられて移動する。そして、異状検査システム400による検査が行われている間は、ベルトコンベア2は所定の測定領域で停止する。そして、ベルトコンベア2が停止し、検査対象物3の移動も停止している間に、光源ユニット10が近赤外光L1を出力すると共に、検査対象物3により拡散反射した拡散反射光L2を検出ユニット20において検出する。そして、分析ユニット30の制御により波長可変フィルタ50を透過する光の波長を変化させることで、検査対象物により拡散反射した拡散反射光L2によるハイパースペクトル画像Hを得ることができる。なお、検査対象物3の測定領域を変更する場合には、ベルトコンベア2を移動させる。   In the abnormality inspection system 400, the inspection object 3 is placed on the belt conveyor 2 and moved. And while the inspection by the abnormality inspection system 400 is being performed, the belt conveyor 2 stops in a predetermined measurement region. While the belt conveyor 2 is stopped and the movement of the inspection object 3 is also stopped, the light source unit 10 outputs the near-infrared light L1, and the diffuse reflected light L2 diffusely reflected by the inspection object 3 is output. Detection is performed by the detection unit 20. Then, by changing the wavelength of the light that passes through the wavelength tunable filter 50 under the control of the analysis unit 30, it is possible to obtain a hyperspectral image H by the diffusely reflected light L2 diffusely reflected by the inspection object. In addition, when changing the measurement area | region of the test target object 3, the belt conveyor 2 is moved.

上記の変形例1〜3のように、ハイパースペクトル画像Hを撮像するための光源ユニット10、検出ユニット20の構成は適宜変更することができる。 Like said modification 1-3, the structure of the light source unit 10 for detecting the hyperspectral image H and the detection unit 20 can be changed suitably.

(異状検査システムによる検出方法)
次に、上記の異状検査システムにより撮像されたハイパースペクトル画像を用いて異状の有無を判別する方法について説明する。この異状の有無の判別については、分析ユニット30において行われる。
(Detection method using abnormality inspection system)

Next, a method for determining presence / absence of an abnormality using the hyperspectral image captured by the abnormality inspection system will be described. The determination of the presence or absence of this abnormality is performed in the analysis unit 30. Next, a method for determining presence / absence of an abnormality using the hyperspectral image captured by the abnormality inspection system will be described. The determination of the presence or absence of this abnormality is performed in the analysis unit 30.

分析ユニットにおける異状の有無の判別の方法は、大きく分けて(1)スペクトル画像に含まれる各画素における検査対象物のスペクトルを抽出する抽出ステップ、
(2)各画素のスペクトルについてサポートベクターマシンを用いて解析し、この結果に基づいて前記各画素における異物または不良品の有無を判定する判定ステップの2ステップが含まれる。 (2) The spectrum of each pixel is analyzed using a support vector machine, and based on this result, two steps of a determination step of determining the presence or absence of a foreign substance or a defective product in each pixel are included. 以下、各ステップについて説明する。 Each step will be described below. The method for determining the presence / absence of an abnormality in the analysis unit is roughly divided into (1) an extraction step for extracting the spectrum of the inspection object in each pixel included in the spectrum image; The method for determining the presence / absence of an abnormality in the analysis unit is roughly divided into (1) an extraction step for extracting the spectrum of the inspection object in each pixel included in the spectrum image;
(2) It includes two steps of a determination step of analyzing the spectrum of each pixel using a support vector machine and determining the presence or absence of foreign matter or defective products in each pixel based on the result. Hereinafter, each step will be described. (2) It includes two steps of a determination step of analyzing the spectrum of each pixel using a support vector machine and determining the presence or absence of foreign matter or defective products in each pixel based on the result. ..

(抽出ステップ)
ハイパースペクトル画像には、検査対象物を撮像した画素と背景(例えばベルトコンベア2)を撮像した画素とが含まれる。 The hyperspectral image includes pixels that image an object to be inspected and pixels that image a background (for example, a belt conveyor 2). この抽出ステップでは、ハイパースペクトル画像を撮像した全画素から検査対象物を撮像した画素を抽出する処理が行われる。 In this extraction step, a process of extracting the pixels obtained by imaging the inspection object from all the pixels obtained by capturing the hyperspectral image is performed. この抽出ステップについて、以下の3つの方法を採用することができる。 The following three methods can be adopted for this extraction step. (Extraction step) (Extraction step)
The hyperspectral image includes pixels that image the inspection object and pixels that image the background (for example, the belt conveyor 2). In this extraction step, a process of extracting pixels that image the inspection object from all pixels that image the hyperspectral image is performed. For this extraction step, the following three methods can be employed. The hyperspectral image includes pixels that image the inspection object and pixels that image the background (for example, the belt conveyor 2). In this extraction step, a process of extracting pixels that image the inspection object from all pixels that image the hyperspectral image is performed. For this extraction step, the following three methods can be employed.

(抽出ステップ−1:線形結合)
図2のハイパースペクトル画像を用いて線形結合を用いた抽出方法について説明する。 An extraction method using a linear combination will be described using the hyperspectral image of FIG. 図2のスペクトル情報S において、強度S njとは、P 画素に係るスペクトル情報のうち、j番目の波長のスペクトル強度を指す。 In spectral information S n of Figure 2, the intensity S nj, among the spectral information according to P n pixels, it refers to the spectral intensity of the j-th wavelength. 線形結合による抽出の方法としてはこの強度S ijと、予め設定した波長j及び予め設定した係数α及び予め設定した閾値βを用いてΣα ij <β As a method of extraction by a linear combination, Σα j S ij <β using this intensity S ij , a preset wavelength j, a preset coefficient α, and a preset threshold β.
の関係を満たした場合に、この画素は背景を撮像した画素であると判断する方法である。 This is a method of determining that this pixel is a pixel in which the background is imaged when the above relationship is satisfied. (Extraction step-1: linear combination) (Extraction step-1: linear combination)
An extraction method using linear combination will be described using the hyperspectral image of FIG. In the spectrum information S n of FIG. 2, the intensity S nj indicates the spectrum intensity of the j-th wavelength in the spectrum information related to the P n pixel. As an extraction method by linear combination, Σα j S ij <β using this intensity S ij , a preset wavelength j, a preset coefficient α, and a preset threshold β An extraction method using linear combination will be described using the hyperspectral image of FIG. In the spectrum information S n of FIG. 2, the intensity S nj indicates the spectrum intensity of the j-th wavelength in the spectrum information related to the P n pixel. As an extraction method by linear combination, Σα j S ij <β using this intensity S ij , a preset wavelength j, a preset coefficient α, and a preset threshold β
When this relationship is satisfied, this pixel is a method for determining that this pixel is a pixel obtained by imaging the background. When this relationship is satisfied, this pixel is a method for determining that this pixel is a pixel obtained by imaging the background.

具体的には、例えば、画素P 及びP について上記計算を行い、
α n1 +α n3 +α n7 ≧β

α m1 +α m3 +α m7 <β α 1 S m1 + α 3 S m3 + α 7 S m7
という結果が得られたとする。 It is assumed that the result is obtained. するとこの結果に基づき、P は検査対象物3を撮像した画素であると判断し、P は背景を撮像した画素であると判断する。 Then, based on this result, P n is determined to be a pixel in which the inspection object 3 is imaged, and P m is determined to be a pixel in which the background is imaged. この計算を全ての画素に対して行うことにより、検査対象物を撮像した画素を特定し、この画素のスペクトルが抽出される。 By performing this calculation on all the pixels, the pixel in which the inspection object is imaged is specified, and the spectrum of this pixel is extracted. なお、抽出に使用する波長、係数α及び閾値βを予め定める方法としては、予め検査対象物となるもの(食品)及び背景のハイパースペクトル画像を撮像し、この画像から検査対象物と背景とを区別することが可能な特徴的な波長や変数を求める方法等を用いることができる。 As a method of predetermining the wavelength, coefficient α, and threshold value β used for extraction, a hyperspectral image of an object to be inspected (food) and a background is imaged in advance, and the object to be inspected and the background are obtained from this image. It is possible to use a method for obtaining characteristic wavelengths and variables that can be distinguished. Specifically, for example, the above calculation is performed for the pixels P n and P m , Specifically, for example, the above calculation is performed for the pixels P n and P m ,
α 1 S n1 + α 3 S n3 + α 7 S n7 ≧ β α 1 S n1 + α 3 S n3 + α 7 S n7 ≧ β
α 1 S m1 + α 3 S m3 + α 7 S m7 α 1 S m1 + α 3 S m3 + α 7 S m7
Is obtained. Then, based on this result, P n is determined to be a pixel of the captured inspection object 3, it is determined that the P m is the pixel of the captured background. By performing this calculation for all the pixels, the pixel that images the inspection object is specified, and the spectrum of this pixel is extracted. In addition, as a method for predetermining the wavelength, coefficient α, and threshold value β to be used for extraction, a hyperspectral image of an object to be inspected (food) and a background is captured, and the object to be inspected and the background are obtained from this image. A method for obtaining characteristic wavelengths and variables that can be distinguished can be used. Is obtained. Then, based on this result, P n is determined to be a pixel of the captured inspection object 3, it is determined that the P m is the pixel of the captured background. By performing this calculation for all the pixels, the pixel that images the inspection object is specified, and the spectrum of this pixel is extracted. In addition, as a method for predetermining the wavelength, coefficient α, and threshold value β to be used for extraction, a hyperspectral image of an object to be A method for obtaining characteristic wavelengths and variables that can be distinguished can be used. Inspected (food) and a background is captured, and the object to be inspected and the background are obtained from this image.

(抽出ステップ−2:四則演算)
次に、図2のハイパースペクトル画像を用いて四則演算を用いた抽出方法について説明する。四則演算による抽出の方法としてはスペクトル情報の強度Sijと、予め設定した波長j及び波長h及び予め設定した閾値βを用いて
ij/Sih<β
の関係を満たした場合に、この画素は背景を撮像した画素であると判断する方法である。
(Extraction step-2: Four arithmetic operations)
Next, an extraction method using four arithmetic operations using the hyperspectral image of FIG. 2 will be described. As an extraction method based on four arithmetic operations, S ij / S ih <β using spectrum information intensity S ij , preset wavelength j and wavelength h, and preset threshold value β. Next, an extraction method using four arithmetic operations using the hyperspectral image of FIG. 2 will be described. As an extraction method based on four arithmetic operations, S ij / S ih <β using spectrum information intensity S ij , preset wavelength j and wavelength h, and preset threshold value β.
When this relationship is satisfied, this pixel is a method for determining that this pixel is a pixel obtained by imaging the background. When this relationship is satisfied, this pixel is a method for determining that this pixel is a pixel obtained by imaging the background.

具体的には、例えば、画素P 及びP について上記計算を行い、
n4 /S n1 ≧β
m4 /S m1 <β

という結果が得られたとする。 It is assumed that the result is obtained. するとこの結果に基づき、P は検査対象物3を撮像した画素であると判断し、P は背景を撮像した画素であると判断する。 Then, based on this result, P n is determined to be a pixel in which the inspection object 3 is imaged, and P m is determined to be a pixel in which the background is imaged. この計算を全ての画素に対して行うことにより、検査対象物を撮像した画素を特定し、この画素のスペクトルが抽出される。 By performing this calculation on all the pixels, the pixel in which the inspection object is imaged is specified, and the spectrum of this pixel is extracted. なお、抽出に使用する波長及び閾値βを予め定める方法としては、予め検査対象物となるもの(食品)及び背景のハイパースペクトル画像を撮像し、この画像から検査対象物と背景とを区別することが可能な特徴的な波長及び閾値を求める方法等を用いることができる。 As a method of predetermining the wavelength and the threshold value β used for extraction, a hyperspectral image of the object to be inspected (food) and the background is imaged in advance, and the object to be inspected and the background are distinguished from this image. It is possible to use a method for obtaining a characteristic wavelength and a threshold value capable of the above. Specifically, for example, the above calculation is performed for the pixels P n and P m , Specifically, for example, the above calculation is performed for the pixels P n and P m ,
S n4 / S n1 ≧ β S n4 / S n1 ≧ β
S m4 / S m1 S m4 / S m1
Is obtained. Then, based on this result, P n is determined to be a pixel of the captured inspection object 3, it is determined that the P m is the pixel of the captured background. By performing this calculation for all the pixels, the pixel that images the inspection object is specified, and the spectrum of this pixel is extracted. In addition, as a method of predetermining the wavelength and threshold value β used for extraction, a hyperspectral image of the object to be inspected (food) and the background is taken in advance, and the object to be inspected and the background are distinguished from this image. For example, a method for obtaining a characteristic wavelength and threshold value that can be used can be used. Is obtained. Then, based on this result, P n is determined to be a pixel of the captured inspection object 3, it is determined that the P m is the pixel of the captured background. By performing this calculation for all the pixels, the pixel that images the inspection object is specified, and the spectrum of this pixel is extracted. In addition, as a method of predetermining the wavelength and threshold value β used for extraction, a hyperspectral image of the object to be inspected (food) and the background is taken in advance, and the object to be inspected and the background are distinguished from this image. For example, a method for obtaining a characteristic wavelength and threshold value that can be used can be used.

(抽出ステップ−3:線形サポートベクターマシン)
(分析ステップ)

抽出ステップの第3の方法として、サポートベクターマシンを用いた抽出方法が挙げられる。 As a third method of the extraction step, an extraction method using a support vector machine can be mentioned. さらに分析ステップでは、検査対象物を撮像した各画素に対して、サポートベクターマシンを用いた分析が行われる。 Further, in the analysis step, each pixel in which the inspection object is imaged is analyzed using a support vector machine. したがって以下では、これらのステップをまとめ、サポートベクターマシンを用いた分析について説明する。 Therefore, in the following, these steps will be summarized and analysis using a support vector machine will be described. (Extraction step-3: linear support vector machine) (Extraction step-3: linear support vector machine)
(Analysis step) (Analysis step)
As a third method of the extraction step, there is an extraction method using a support vector machine. Further, in the analysis step, analysis using a support vector machine is performed on each pixel obtained by imaging the inspection object. Therefore, in the following, these steps will be summarized and analysis using a support vector machine will be described. As a third method of the extraction step, there is an extraction method using a support vector machine. Further, in the analysis step, analysis using a support vector machine is performed on each pixel obtained by imaging the inspection object. Therefore, in the following , these steps will be summarized and analysis using a support vector machine will be described.

分析ユニット30で行われる、サポートベクターマシン(Support Vector Machines:SVM)を用いた分析とは、特定の検出対象の有無の判定を行う手法であり、区別したい2つの対象のサンプルの画像データを学習用データとして学習することによって、それらに対する識別境界を生成する公知の識別アルゴリズムである。そして、SVMには、識別境界が特徴量に関する線形関数で表現される線形SVM(Linear Support Vector Machines:LSVM)と、非線形関数で表現される非線形SVM(Kernel Support Vector Machines:KSVM)の2種類がある。線形SVMによる識別は、非線形SVMと比べて精度は劣るものの計算量が小さいため、リアルタイム処理に適用しやすい。一方、非線形SVMによる識別は、線形SVMと比べて高精度だが計算量が大きく、その計算量はパラメータ調整による識別精度の向上とともに増大する傾向がある。詳細は後述するが、本実施形態の分析ユニット30では、線形SVMと非線形SVMの両方を用いることにより、高精度且つ高速な識別を実現している。   The analysis using the support vector machines (Support Vector Machines: SVM) performed in the analysis unit 30 is a method for determining the presence or absence of a specific detection target, and learning image data of two target samples to be distinguished. It is a known identification algorithm that generates identification boundaries for them by learning as business data. There are two types of SVM: linear SVM (Linear Support Vector Machines: LSVM) in which the identification boundary is expressed by a linear function related to the feature quantity, and non-linear SVM (Kernel Support Vector Machines: KSVM) expressed by a nonlinear function. is there. The identification by the linear SVM is easy to apply to the real-time processing because the calculation amount is small although the accuracy is inferior to the nonlinear SVM. On the other hand, the identification by the non-linear SVM is more accurate than the linear SVM, but the calculation amount is large, and the calculation amount tends to increase with the improvement of the identification accuracy by parameter adjustment. Although details will be described later, the analysis unit 30 of the present embodiment realizes high-accuracy and high-speed identification by using both linear SVM and non-linear SVM.

SVMによる分析を行うための分析ユニット30の構成について図6を用いて説明する。図6に示すように、分析ユニット30は、学習用画像データ格納部31と、SVM学習部32と、線形SVM識別用パラメータ格納部33と、非線形SVM識別用パラメータ格納部34と、画像データ取得部41と、線形識別部42と、非線形識別部43と、識別結果格納部44と、最終判定部45と、判定結果出力部46と、を含んで構成される。これらのうち、学習用画像データ格納部31、SVM学習部32、線形SVM識別用パラメータ格納部33、及び非線形SVM識別用パラメータ格納部34は、検査対象物3に含まれる検出対象の識別に用いるパラメータを生成・格納する機能を有する。そして、画像データ取得部41、線形識別部42、非線形識別部43、識別結果格納部44、最終判定部45、及び判定結果出力部46は、検査対象物3を撮像した画像データを用いた分析を行う機能を有する。   The structure of the analysis unit 30 for performing analysis by SVM will be described with reference to FIG. As shown in FIG. 6, the analysis unit 30 includes a learning image data storage unit 31, an SVM learning unit 32, a linear SVM identification parameter storage unit 33, a nonlinear SVM identification parameter storage unit 34, and image data acquisition. A unit 41, a linear identification unit 42, a nonlinear identification unit 43, an identification result storage unit 44, a final determination unit 45, and a determination result output unit 46 are configured. Among these, the learning image data storage unit 31, the SVM learning unit 32, the linear SVM identification parameter storage unit 33, and the nonlinear SVM identification parameter storage unit 34 are used for identifying the detection target included in the inspection target 3. It has a function to generate and store parameters. Then, the image data acquisition unit 41, the linear identification unit 42, the nonlinear identification unit 43, the identification result storage unit 44, the final determination unit 45, and the determination result output unit 46 analyze using image data obtained by imaging the inspection object 3. It has a function to perform.

まず、学習用画像データ格納部31は、検査対象物3や検出対象となる物質等の画像データを格納する。例えば、検査対象物3が豆であり、異状検査システム100を用いて、検査対象物3である豆に付着した毛髪を異物として検出するためには、分析ユニット30では検査対象物3である豆の画像データと、異物として識別したい毛髪(検出対象)の画像データとを用いて学習し、予め識別境界を定めておく必要がある。学習用画像データ格納部31は、この分析ユニット30のSVMが学習を行うために用いる画像データを格納する。なお、本実施形態のように分析ユニット30による分析対象となる画像データがハイパースペクトル画像である場合には、学習用データとしても同様のハイパースペクトル画像が用いられる。   First, the learning image data storage unit 31 stores image data such as the inspection object 3 and the substance to be detected. For example, in order to detect the hair adhering to the bean that is the inspection object 3 as a foreign object using the abnormality inspection system 100, the inspection unit 3 is a bean that is the inspection object 3 in the analysis unit 30. And image data of hair (detection target) to be identified as a foreign object must be learned and an identification boundary must be determined in advance. The learning image data storage unit 31 stores image data used by the SVM of the analysis unit 30 for learning. Note that when the image data to be analyzed by the analysis unit 30 is a hyperspectral image as in the present embodiment, the same hyperspectral image is used as the learning data.

SVM学習部32は、検査対象物と検出対象となる物質(区別したい2つの対象)の画像データを用いて識別境界を算出する機能を有する。この処理は、例えば分析ユニット30のオペレータが区別したい2つの対象(本実施形態では豆と毛髪)の画像データを指定し、これらの画像データを用いた識別境界の算出を指示することにより行われる。このSVM学習部32は、区別したい2つの対象の画像データを用いて、画素毎のスペクトル情報を構成する強度データを特徴量として、線形SVMによる識別に用いられる線形SVM識別用パラメータと、非線形SVMによる識別に用いられる非線形SVM識別用パラメータと、の2種類のパラメータを生成する。このとき、SVM学習部32では、検出対象である毛髪を撮像した画素に含まれる強度データを「オブジェクトデータ」として認識し、このオブジェクトデータに該当するか否かを判断するためのパラメータを生成する方法によって線形SVM識別用パラメータと非線形SVM識別用パラメータとが生成される。   The SVM learning unit 32 has a function of calculating an identification boundary using image data of an inspection target and a substance to be detected (two targets to be distinguished). This processing is performed, for example, by designating image data of two objects (beans and hair in this embodiment) that the operator of the analysis unit 30 wants to distinguish and instructing calculation of an identification boundary using these image data. . The SVM learning unit 32 uses the image data of the two objects to be distinguished, uses the intensity data constituting the spectral information for each pixel as a feature amount, and the linear SVM identification parameter used for identification by the linear SVM, and the nonlinear SVM. Two types of parameters are generated: a non-linear SVM identification parameter used for identification by. At this time, the SVM learning unit 32 recognizes the intensity data included in the pixel obtained by imaging the hair to be detected as “object data”, and generates a parameter for determining whether the object data corresponds to the object data. The method generates a linear SVM identification parameter and a non-linear SVM identification parameter.

なお、SVM学習部32によって生成される線形SVM識別用パラメータ及び非線形SVM識別用パラメータは、オペレータの指示に基づいて識別精度を変更して生成することができる。この識別精度は、SVMを用いて行う分析の回数や、分析結果として取得したい情報の種類によって適宜変更される。上述のように、線形SVMは非線形SVMに比べて識別精度は劣るが識別処理に要する計算量が小さいことから、本実施形態では、線形SVMにおいて予めフィルタリングを行うことで、検出対象(毛髪)である可能性が著しく低い画素に対しては非線形SVMによる識別を行わないことを目的としているため、線形SVMによる識別の際に用いられるパラメータとして、検出対象を撮像した画素が非線形SVMによる識別の対象から外れないようにより粗い精度のパラメータが生成される。SVM学習部32によって生成された線形SVM識別用パラメータは、線形SVM識別用パラメータ格納部33に格納される。また、非線形SVM識別用パラメータは、非線形SVM識別用パラメータ格納部34に格納される。   The linear SVM identification parameter and the non-linear SVM identification parameter generated by the SVM learning unit 32 can be generated by changing the identification accuracy based on an instruction from the operator. This identification accuracy is appropriately changed depending on the number of analyzes performed using the SVM and the type of information desired to be acquired as an analysis result. As described above, the linear SVM is inferior to the non-linear SVM in the identification accuracy but requires a small amount of calculation. Therefore, in this embodiment, the linear SVM is preliminarily filtered to detect the detection target (hair). Since it is intended not to perform identification by nonlinear SVM for a pixel with a very low possibility, a pixel that has captured a detection target is an object to be identified by nonlinear SVM as a parameter used for identification by linear SVM. A parameter of coarser accuracy is generated so as not to deviate from the above. The linear SVM identification parameter generated by the SVM learning unit 32 is stored in the linear SVM identification parameter storage unit 33. In addition, the nonlinear SVM identification parameter is stored in the nonlinear SVM identification parameter storage unit 34.

線形SVM識別用パラメータ格納部33及び非線形SVM識別用パラメータ34は、線形SVM識別用パラメータ及び非線形SVM識別用パラメータをそれぞれ格納する機能を有する。線形SVM識別用パラメータ格納部33及び非線形SVM識別用パラメータ34に格納される各パラメータは、線形SVMや非線形SVMを用いた識別を行う際にそれぞれ用いられる。   The linear SVM identification parameter storage unit 33 and the non-linear SVM identification parameter 34 have a function of storing a linear SVM identification parameter and a non-linear SVM identification parameter, respectively. Each parameter stored in the linear SVM identification parameter storage unit 33 and the non-linear SVM identification parameter 34 is used when performing identification using the linear SVM or the non-linear SVM.

画像データ取得部41は、図1に示す検出ユニット20からの画像データを取得する機能を有する。ここで画像データ取得部41が取得する画像データとは、上述の検査対象物3を撮像したハイパースペクトル画像に係る画像データである。画像データ取得部41により取得された画像データは、線形識別部42に送られる。   The image data acquisition unit 41 has a function of acquiring image data from the detection unit 20 shown in FIG. Here, the image data acquired by the image data acquisition unit 41 is image data related to a hyperspectral image obtained by imaging the inspection object 3 described above. The image data acquired by the image data acquisition unit 41 is sent to the linear identification unit 42.

線形識別部42は、画像データに含まれる画素の強度データを特徴量として、線形SVMを用いて、当該画素の強度データがオブジェクトデータ(検出対象であることを示すデータ)であるか否かを画素毎に識別する機能を有する。線形識別部42では、全画素を対象として、線形SVM識別用パラメータ格納部33に格納された線形SVM識別用パラメータを用いて、強度データがオブジェクトデータであるか否かの識別を画素毎に行う。この結果、線形識別部42により強度データがオブジェクトデータであると判断された画素については、その画素を特定する情報及びその画素の強度データが非線形識別部43へ送られる。なお、線形識別部42により強度データがオブジェクトデータではないと判断された画素については、その画素を特定する情報とその識別結果が最終判定部45へ送られる。   The linear discriminating unit 42 uses the intensity data of the pixel included in the image data as a feature amount and uses linear SVM to determine whether the intensity data of the pixel is object data (data indicating that it is a detection target). It has a function of identifying each pixel. The linear discriminating unit 42 identifies for each pixel whether or not the intensity data is object data by using the linear SVM discriminating parameter stored in the linear SVM discriminating parameter storage unit 33 for all pixels. . As a result, for the pixel whose intensity data is determined to be object data by the linear identification unit 42, information for specifying the pixel and the intensity data of the pixel are sent to the nonlinear identification unit 43. Note that for the pixel whose intensity data is determined not to be object data by the linear identification unit 42, information for identifying the pixel and the identification result are sent to the final determination unit 45.

非線形識別部43は、線形識別部42から送られた画素の強度データを用いて、非線形SVMを用いて、当該画素の強度データがオブジェクトデータであるか否かを画素毎に識別する機能を有する。非線形識別部43では、線形識別部42において「強度データがオブジェクトデータであると識別された画素」のみを対象として、非線形SVM識別用パラメータ格納部34に格納された非線形SVM識別用パラメータを用いて、強度データがオブジェクトデータであるか否かの識別を画素毎に行う。そして、非線形識別部43による識別の結果は、画素を特定する情報と対応付けて識別結果格納部44へ送られる。また、画素を特定する情報と非線形識別部43による識別の結果は、最終判定部45へも送られる。   The nonlinear discriminating unit 43 has a function of discriminating for each pixel whether or not the intensity data of the pixel is object data using the nonlinear SVM using the pixel intensity data sent from the linear discriminating unit 42. . The nonlinear discriminating unit 43 uses only the “non-linear SVM discriminating parameter” stored in the nonlinear SVM discriminating parameter storage unit 34 for only “the pixel whose intensity data is identified as object data” in the linear discriminating unit 42. Whether the intensity data is object data is identified for each pixel. Then, the result of identification by the non-linear identification unit 43 is sent to the identification result storage unit 44 in association with information for specifying a pixel. Further, the information for specifying the pixel and the result of identification by the nonlinear identification unit 43 are also sent to the final determination unit 45.

識別結果格納部44は、非線形識別部43による識別の結果を画素を特定する情報と対応付けて格納する機能を有する。識別結果格納部44に格納された情報は、最終判定部45による判定の際に用いられる。   The identification result storage unit 44 has a function of storing the identification result obtained by the non-linear identification unit 43 in association with information for specifying a pixel. The information stored in the identification result storage unit 44 is used for determination by the final determination unit 45.

最終判定部45は、線形識別部42及び非線形識別部43から送られた画素を特定する情報及びその識別結果と、識別結果格納部44に格納される識別結果とを参照し、画像データにおいて特定の画素を含む複数の画素のうち、強度データがオブジェクトデータであると非線形識別部43により識別された画素が所定数以上である場合に、当該特定の画素を含む複数の画素により構成される領域に検出対象があると判定する機能を有する。   The final determination unit 45 refers to the information specifying the pixels sent from the linear identification unit 42 and the nonlinear identification unit 43 and the identification result thereof, and the identification result stored in the identification result storage unit 44, and specifies the image data. Among a plurality of pixels including the pixel, an area configured by a plurality of pixels including the specific pixel when the number of pixels identified by the nonlinear identification unit 43 as intensity data is object data is equal to or greater than a predetermined number Has a function of determining that there is a detection target.

ここで、毛髪のように検出対象の大きさが画像データを構成する画素よりも大きい場合には、近接する複数の画素において同様の識別結果が得られる、すなわち、非線形識別部43において強度データがオブジェクトデータであると識別されると考えられる。一方、例えば画像データの撮像時に偶発的に発生したノイズに由来した強度データがオブジェクトデータであると識別される可能性もあるが、この場合には、近接する画素において同様の結果が得られる可能性は低いと考えられる。したがって、最終判定部45では、例えば、5画素×5画素の25画素のうち、強度データがオブジェクトデータであり、検出対象を撮像した識別される画素が3個以上まとまって存在する場合に、当該領域が検出対象を撮像した領域であるとの判定を下す。なお、最終判定部45による上記の判定方法は、あくまで単純化した一例であり、さらに複雑で識別能力の高い判定アルゴリズムが組み込まれていてもよい。最終判定部45による判定の結果は、判定結果出力部46へ送られる。   Here, when the size of the detection target is larger than the pixels constituting the image data, such as hair, the same identification result is obtained at a plurality of adjacent pixels. It is considered to be identified as object data. On the other hand, for example, there is a possibility that intensity data derived from noise that occurred accidentally when image data was captured is identified as object data, but in this case, similar results can be obtained in adjacent pixels. The nature is considered low. Therefore, in the final determination unit 45, for example, when the intensity data is object data out of 25 pixels of 5 pixels × 5 pixels, and there are three or more identified pixels that have captured the detection target, It is determined that the area is an area where the detection target is imaged. Note that the above-described determination method by the final determination unit 45 is merely a simplified example, and a determination algorithm that is more complicated and has a high identification capability may be incorporated. The result of determination by the final determination unit 45 is sent to the determination result output unit 46.

判定結果出力部46は、最終判定部45による判定結果を出力する機能を有する。出力方法としては、例えば分析ユニット30に接続されるモニタに出力する方法や、プリンタに出力する方法等が挙げられる。なお、判定結果の出力の際には、検出ユニット20により得られた画像データを用いて2次元画像として出力する方法やその他の種々の方法を用いることができる。   The determination result output unit 46 has a function of outputting the determination result by the final determination unit 45. Examples of the output method include a method of outputting to a monitor connected to the analysis unit 30 and a method of outputting to a printer. When outputting the determination result, a method of outputting as a two-dimensional image using the image data obtained by the detection unit 20 or other various methods can be used.

次に、本実施形態の異状検査システム100を構成する分析ユニット30によって、ハイパースペクトル画像の画像データを分析する方法について、図7及び図8を用いて説明する。図7は、分析ユニット30においてSVMを用いた識別を行う前に行われる学習方法を示すフローチャートであり、図8は、分析ユニット30における画像データの分析方法を示すフローチャートである。上述のように、図7に示す分析ユニット30による学習は、検査対象物3を撮像した画像データの識別を行う前に行われる。   Next, a method for analyzing image data of a hyperspectral image by the analysis unit 30 constituting the abnormality inspection system 100 of the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart showing a learning method performed before performing identification using SVM in the analysis unit 30, and FIG. 8 is a flowchart showing an image data analysis method in the analysis unit 30. As described above, learning by the analysis unit 30 shown in FIG. 7 is performed before identifying image data obtained by imaging the inspection object 3.

まず、図7に示すように、分析ユニット30の学習用画像データ格納部31に格納された学習用画像データを用いて、SVM学習部32において学習が行われる(S01)。この学習用画像データを用いた学習の結果、線形SVM識別用パラメータと、非線形SVM識別用パラメータとが生成される。次に、SVM学習部32において生成された線形SVM識別用パラメータ及び非線形SVM識別用パラメータは、それぞれ線形SVM識別用パラメータ格納部33及び非線形SVM識別用パラメータ格納部34に格納される(S02)。以上により、検査対象物3を撮像した画像データを分析するための前処理が完了する。なお、分析ユニット30における学習用画像データを用いた学習は、画像データの分析の前のどの時点で行われていてもよい。すなわち、予め多種類のパラメータを一度に生成しておいてもよいし、画像データの分析の直前に学習を行う態様としてもよい。   First, as shown in FIG. 7, learning is performed in the SVM learning unit 32 using the learning image data stored in the learning image data storage unit 31 of the analysis unit 30 (S01). As a result of learning using the learning image data, a linear SVM identification parameter and a non-linear SVM identification parameter are generated. Next, the linear SVM identification parameter and the non-linear SVM identification parameter generated by the SVM learning unit 32 are stored in the linear SVM identification parameter storage unit 33 and the non-linear SVM identification parameter storage unit 34, respectively (S02). Thus, the preprocessing for analyzing the image data obtained by imaging the inspection object 3 is completed. Note that the learning using the learning image data in the analysis unit 30 may be performed at any time before the analysis of the image data. That is, many types of parameters may be generated in advance, or learning may be performed immediately before image data analysis.

次に、図8に示すように、分析ユニット30の画像データ取得部41により、検査対象物3を撮像した画像データが取得される(S11、画像データ取得ステップ)。次に、この画像データを用いて、線形識別部42により線形SVMによる識別が画素毎に行われる(S12、線形識別ステップ)。この線形SVMによる識別は画像データに含まれる全画素を対象として行われ、その結果、強度データがオブジェクトデータである(TRUE)か、オブジェクトデータではない(FALSE)かが画素毎に判断される(S13、線形識別ステップ)。ここで、強度データがオブジェクトデータではない(FALSE)と判断された画素の識別結果は、最終判定部45に送られる。また、強度データがオブジェクトデータである(TRUE)と判断された画素については、その画素の強度データが非線形識別部43へ送られる。   Next, as shown in FIG. 8, the image data acquisition unit 41 of the analysis unit 30 acquires image data obtained by imaging the inspection object 3 (S11, image data acquisition step). Next, using this image data, the linear identification unit 42 performs identification by linear SVM for each pixel (S12, linear identification step). The identification by the linear SVM is performed for all pixels included in the image data, and as a result, it is determined for each pixel whether the intensity data is object data (TRUE) or not object data (FALSE). S13, linear identification step). Here, the pixel identification result determined that the intensity data is not object data (FALSE) is sent to the final determination unit 45. In addition, for the pixel whose intensity data is determined to be object data (TRUE), the intensity data of the pixel is sent to the non-linear identification unit 43.

このうち、非線形識別部43へ送られた強度データについては、非線形識別部43により非線形SVMによる識別が画素毎に行われる(S13、非線形識別ステップ)。ここでも、線形識別部42による識別と同様に、強度データがオブジェクトデータである(TRUE)か、オブジェクトデータではない(FALSE)かが画素毎に判断される。そして、その結果は、識別結果格納部44に格納されると共に、最終判定部45へ送られ、最終判定部45による最終判定が行われる(S15、判定ステップ)。この最終判定部45による最終判定は、具体的には、画像データにおいて特定の画素を含む複数の画素のうち、強度データがオブジェクトデータであると非線形識別部43により識別された画素が所定数以上である場合に、当該特定の画素を含む複数の画素により構成される領域に検出対象があると判定する。   Among these, the intensity data sent to the non-linear identification unit 43 is identified for each pixel by the non-linear identification unit 43 by the non-linear SVM (S13, non-linear identification step). Here, similarly to the identification by the linear identification unit 42, it is determined for each pixel whether the intensity data is object data (TRUE) or not object data (FALSE). Then, the result is stored in the identification result storage unit 44 and sent to the final determination unit 45, where the final determination is performed by the final determination unit 45 (S15, determination step). Specifically, the final determination by the final determination unit 45 is more than a predetermined number of pixels identified by the non-linear identification unit 43 when the intensity data is object data among a plurality of pixels including specific pixels in the image data. If it is, it is determined that there is a detection target in an area constituted by a plurality of pixels including the specific pixel.

例えば、図9に示すように、画素P11〜Pのうち、斜線で示した画素のみがオブジェクトデータである(TRUE)と判断されたとする。ここで、判断基準を「縦横それぞれ3ピクセル(すなわち9ピクセル)中にオブジェクトデータである(TRUE)と判断された画素が5ピクセル以上ある場合に、検出対象ありと判断する」と定めた場合、図9に示す画素のうち、P35、P36、P45、P69が検出対象が含まれる(異状がある)画素と最終判定部45において判定される。そして、この最終判定部45による判定結果は、判定結果出力部46に送られて、結果の出力が行われる(S16、出力ステップ)。以上により、分析ユニット30による画像データの分析に係る一連の処理が終了する。 For example, as illustrated in FIG. 9, it is assumed that only the pixels indicated by diagonal lines among the pixels P 11 to P N are determined to be object data (TRUE). Here, when the determination criterion is set to “determine that there is a detection target when there are 5 or more pixels determined to be object data (TRUE) in 3 pixels in each of the vertical and horizontal directions (that is, 9 pixels)”, Among the pixels shown in FIG. 9, P 35 , P 36 , P 45 , and P 69 are determined by the final determination unit 45 as a pixel that includes a detection target (has an abnormality). And the determination result by this final determination part 45 is sent to the determination result output part 46, and a result is output (S16, output step). Thus, a series of processes relating to the analysis of the image data by the analysis unit 30 is completed.

なお、抽出ステップ−3として、SVMを利用する場合には、非線形SVMによる識別は行わない。すなわち、線形SVMによる識別(S12)の結果に基づいて、各画素が検査対象物を撮像した画素であるか、背景を撮像した画素であるかの判断が行われる。これは、検査対象物と背景の区別は、検査対象物における正常部分と異状部分の区別に比べて容易であり、且つ、全画素に対してSVMを用いた分析を行うことによる作業量の増加を抑制するためである。また、抽出ステップにおいて線形SVMを使用した分析を行った場合、分析ステップでは線形SVMを使用した分析を省略することとしてもよい。   In addition, when using SVM as extraction step-3, identification by nonlinear SVM is not performed. That is, based on the result of identification by linear SVM (S12), it is determined whether each pixel is a pixel that images the inspection object or a pixel that images the background. This is because the discrimination between the inspection object and the background is easier than that between the normal part and the abnormal part in the inspection object, and the amount of work is increased by performing analysis using SVM on all pixels. It is for suppressing. In addition, when analysis using linear SVM is performed in the extraction step, analysis using linear SVM may be omitted in the analysis step.

以上のように、本実施形態に係る異状検査システム100(検出装置)及びこの異状検査システム100による検出方法によれば、サポートベクターマシンを用いてスペクトル画像を解析して、異物また不良品を検出するため、従来の主成分分析と比較して、例えば正常部分と異状部分とのスペクトルの差が微弱であっても検出が可能となるため、より高い精度で異状部分の検出を行うことができる。   As described above, according to the abnormality inspection system 100 (detection apparatus) and the detection method using the abnormality inspection system 100 according to the present embodiment, a spectrum image is analyzed using a support vector machine to detect foreign matters or defective products. Therefore, compared with the conventional principal component analysis, for example, detection is possible even if the spectral difference between the normal part and the abnormal part is weak, so that the abnormal part can be detected with higher accuracy. .

ここで、また、本実施形態に係る検出方法では、抽出ステップにおいて検査対象物を撮像した画素のスペクトルを抽出するステップを備えているため、全ての画素、すなわち、検査対象物ではない背景等を撮像した画素のスペクトルに対してサポートベクターマシンを用いた解析を行う場合と比較して、検出に係る作業量や計算コストを大幅に削減することができるため、より高速に検出を行うことが可能となる。   Here, in the detection method according to the present embodiment, since the extraction step includes a step of extracting the spectrum of the pixel that images the inspection object, all the pixels, that is, the background that is not the inspection object are included. Compared to analysis using a support vector machine for the captured pixel spectrum, the amount of work and calculation costs for detection can be greatly reduced, enabling faster detection. It becomes.

また、抽出ステップ−3で示したように、線形サポートベクターマシンを用いて抽出ステップを行う場合であっても、サポートベクターマシンでも作業量が少ない線形サポートベクターマシンを用いてまず検査対象物を撮像した画素のスペクトルを抽出し、その後非線形サポートベクターマシンを用いて検査対象物を撮像した画素のスペクトルの解析を行う構成とすることで、検出に係る作業量や計算コストを大幅に削減することができるため、より高速に検出を行うことが可能となる。   Further, as shown in the extraction step-3, even when the extraction step is performed using the linear support vector machine, the inspection object is first imaged using the linear support vector machine with a small work amount even in the support vector machine. By extracting the spectrum of the detected pixel and then analyzing the spectrum of the pixel that captured the object to be inspected using a nonlinear support vector machine, the amount of work and calculation cost for detection can be greatly reduced. Therefore, detection can be performed at higher speed.

さらに、上記の検出方法では、判定ステップにおいて異物または不良品が有ると判定された画素に対して、この画素を含む所定の範囲内に、異物または不良品が有ると判定された画素が所定数以上含まれているか否かの判定を行うステップがあるため、異物または不良品が有ると判定された理由が偶発的なノイズであるのか、または、本当に異物または不良品が有ると推測されるのか、を判断することができるため、より高精度に検出を行うことができる。   Furthermore, in the detection method described above, a predetermined number of pixels determined to have foreign matter or defective products within a predetermined range including the pixels for pixels determined to have foreign materials or defective products in the determination step. Because there is a step to determine whether or not it is included, whether the reason for determining that there is a foreign object or defective product is accidental noise, or is it assumed that there is really a foreign object or defective product? Therefore, detection can be performed with higher accuracy.

以上、本発明の実施形態について説明したが、本発明は上記の実施形態に限定されず、種々の変更を行うことができる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to said embodiment, A various change can be made.

例えば、上記実施形態では、異状分析システム100に分析ユニット30が組み込まれた構成について説明したが、本発明に係る画像データ分析装置は、例えば、他の工業製品の異状分析や、生体組織の疾患部位の観察等を行うシステムに組み込んで利用することもできる。また、分析ユニット30は、上記実施形態のように画像データの撮像を行う検出ユニット20と接続されている必要はなく、単体で使用することができる。   For example, in the above-described embodiment, the configuration in which the analysis unit 30 is incorporated in the abnormality analysis system 100 has been described. However, the image data analysis apparatus according to the present invention is, for example, an abnormality analysis of other industrial products or a disease of a biological tissue. It can also be used by being incorporated into a system for observing a site. Moreover, the analysis unit 30 does not need to be connected to the detection unit 20 that captures image data as in the above embodiment, and can be used alone.

また、上記実施形態では、分析ユニット30の画像データ取得部41において取得される画像データには加工が施されていないが、予めデータ加工が施された画像データを画像データ取得部41で取得する態様とすることもできる。画像データに施されるデータ加工とは、例えば、画像データが保持する画素毎の強度データを規格化しておく加工や、隣接するデータとの間で差分を取る等の数値的な処理のことをいう。このように、画像データに所定のデータ加工を予め施しておくことで、分析ユニット30による分析をより効率よく行うことが可能となる。   Further, in the above embodiment, the image data acquired by the image data acquisition unit 41 of the analysis unit 30 is not processed, but the image data acquisition unit 41 acquires image data that has been subjected to data processing in advance. It can also be set as an aspect. Data processing applied to image data refers to, for example, processing that standardizes intensity data for each pixel held in image data, and numerical processing such as taking a difference from adjacent data. Say. In this way, by performing predetermined data processing on the image data in advance, the analysis by the analysis unit 30 can be performed more efficiently.

また、上記実施形態では、線形識別部42における線形SVMによる識別と、非線形識別部43における非線形SVMによる識別と、はそれぞれ1種類のパラメータを用いて識別が行われる態様について説明したが、線形識別部42及び非線形識別部43のそれぞれにおいて、複数の互いに異なるパラメータを用いて識別を行う態様としてもよい。また、その場合には、複数のパラメータを用いた識別結果をあわせることで強度データがオブジェクトデータであるか否か(TRUE/FALSEのいずれか)を判断する態様としてもよい。具体的には、例えば、線形識別部42では3種類の互いに異なるパラメータを用いて線形SVMによる識別を行い、非線形識別部43では2種類の互いに異なるパラメータを用いて線形SVMによる識別を行う構成とすることができる。この場合、線形識別部42では3種類の線形SVMによる識別の全てにおいてTRUEと判定された場合に、線形識別部42による識別の結果がオブジェクトデータであるとし、非線形識別部43では2種類の非線形SVMのどちらか一方でTRUEと判定された場合に、非線形識別部43による識別の結果がオブジェクトデータであるとする、という方法が挙げられる。   Further, in the above-described embodiment, the identification by the linear SVM in the linear identification unit 42 and the identification by the non-linear SVM in the nonlinear identification unit 43 have been described with respect to an aspect in which identification is performed using one type of parameter. Each of the unit 42 and the nonlinear identification unit 43 may be configured to perform identification using a plurality of different parameters. In that case, it is also possible to determine whether the intensity data is object data (either TRUE / FALSE) by combining identification results using a plurality of parameters. Specifically, for example, the linear identification unit 42 performs identification by linear SVM using three different parameters, and the nonlinear identification unit 43 performs identification by linear SVM using two different parameters. can do. In this case, the linear identification unit 42 determines that the result of identification by the linear identification unit 42 is object data when all three types of identification by the linear SVM are determined to be TRUE, and the nonlinear identification unit 43 determines two types of nonlinear There is a method in which when one of the SVMs is determined to be TRUE, the result of identification by the non-linear identification unit 43 is object data.

また、上記実施形態では、最終判定部45は、近接する複数の画素の識別の結果を考慮した最終判定を行う態様について説明したが、最終判定部45では、非線形識別部43による画素毎の識別の結果のみに基づいて判定を行う態様でもよい。   In the above-described embodiment, the final determination unit 45 has been described with respect to the final determination in consideration of the result of identification of a plurality of adjacent pixels. In the final determination unit 45, the non-linear identification unit 43 identifies each pixel. Alternatively, the determination may be made based on only the result.

100,200,300,400…異状検査システム、2…ベルトコンベア、3…検査対象物、10…光源ユニット、11,11A…光源、12…照射部、13…光ファイバ、20…検出ユニット、21…スリット、22…分光器、23…受光部、24…カメラレンズ、30…分析ユニット、40…ミラースキャナ、50…波長可変フィルタ。

DESCRIPTION OF SYMBOLS 100,200,300,400 ... Abnormality inspection system, 2 ... Belt conveyor, 3 ... Inspection object, 10 ... Light source unit, 11, 11A ... Light source, 12 ... Irradiation part, 13 ... Optical fiber, 20 ... Detection unit, 21 DESCRIPTION OF SYMBOLS ... Slit, 22 ... Spectroscope, 23 ... Light-receiving part, 24 ... Camera lens, 30 ... Analysis unit, 40 ... Mirror scanner, 50 ... Variable wavelength filter.

Claims (9)

  1. 検査対象物を撮像して得られたスペクトル画像に基づいて、該検査対象物中に混在する異物または不良品を検出する装置であって、
    前記検査対象物を撮像する撮像部と、
    前記撮像部による撮像により得られたスペクトル画像を、サポートベクターマシンを用いて解析し、前記検査対象物中に混在する異物または不良品を検出する制御部と、
    を備えることを特徴とする検出装置。
    On the basis of a spectrum image obtained by imaging the inspection object, an apparatus for detecting foreign matters or defective products mixed in the inspection object,
    An imaging unit for imaging the inspection object;
    A spectral image obtained by imaging by the imaging unit is analyzed using a support vector machine, and a control unit that detects foreign matters or defective products mixed in the inspection object; A spectral image obtained by imaging by the imaging unit is analyzed using a support vector machine, and a control unit that detects foreign matters or defective products mixed in the inspection object;
    A detection apparatus comprising: A detection apparatus comprising:
  2. 前記検査対象物と前記撮像部との間に、前記撮像部の視野領域を変更するための可動ミラーを有することを特徴とする請求項1記載の検出装置。 The detection apparatus according to claim 1, further comprising a movable mirror for changing a visual field region of the imaging unit between the inspection object and the imaging unit.
  3. 前記撮像部に入射する光を分光する波長可変フィルタを有することを特徴とする請求項1記載の検出装置。 The detection apparatus according to claim 1, further comprising a wavelength tunable filter that splits light incident on the imaging unit.
  4. 前記検査対象物に対して光を照射する波長可変光源を有することを特徴とする請求項1記載の検出装置。 The detection apparatus according to claim 1, further comprising a wavelength tunable light source that irradiates the inspection object with light.
  5. 検査対象物を撮像して得られたスペクトル画像に基づいて、該検査対象物中に混在する異物または不良品を検出する方法であって、
    前記検査対象物を撮像した画素のスペクトルについてサポートベクターマシンを用いて解析し、この結果に基づいて前記各画素における異物または不良品の有無を判定する判定ステップを含むことを特徴とする検出方法。
    Based on a spectral image obtained by imaging the inspection object, a method for detecting foreign matter or defective products mixed in the inspection object,
    A detection method comprising: analyzing a spectrum of a pixel obtained by imaging the inspection object using a support vector machine, and determining the presence or absence of a foreign substance or a defective product in each pixel based on the result.
  6. 前記判定ステップの前に、前記スペクトル画像に含まれる全画素に対して、スペクトル強度の線形結合を計算し、予め設定された閾値と比較することにより検査対象物を撮像した画素のスペクトルを抽出する抽出ステップを備え、
    前記判定ステップにおいて、前記抽出ステップにおいて抽出されたスペクトルについて解析を行うことを特徴とする請求項5記載の検出方法。
    Before the determination step, a linear combination of spectral intensities is calculated for all the pixels included in the spectral image, and the spectrum of the pixel in which the inspection object is imaged is extracted by comparing with a preset threshold value. An extraction step,
    6. The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed. 6. The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed.
  7. 前記判定ステップの前に、前記スペクトル画像に含まれる全画素に対して、任意の波長のスペクトル強度を四則演算し、予め設定された閾値と比較することにより検査対象物を撮像した画素のスペクトルを抽出する抽出ステップを備え、
    前記判定ステップにおいて、前記抽出ステップにおいて抽出されたスペクトルについて解析を行うことを特徴とする請求項5記載の検出方法。 The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed. Prior to the determination step, the spectrum intensity of an arbitrary wavelength is calculated for all the pixels included in the spectrum image, and the spectrum of the pixel obtained by imaging the inspection object is compared with a preset threshold value. An extraction step to extract, Prior to the determination step, the spectrum intensity of an arbitrary wavelength is calculated for all the pixels included in the spectrum image, and the spectrum of the pixel obtained by imaging the inspection object is compared with a preset threshold value. An extraction step to extract ,,
    6. The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed. 6. The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed.
  8. 前記判定ステップの前に、前記スペクトル画像に含まれる全画素に対して、画素ごとに線形サポートベクターマシンを用いることで検査対象物を撮像した画素のスペクトルを抽出する抽出ステップを備え、
    前記判定ステップにおいて、前記抽出ステップにおいて抽出したスペクトルについて非線形サポートベクターマシンを用いて解析を行う
    ことを特徴とする請求項5記載の検出方法。
    Before the determination step, for all pixels included in the spectrum image, the extraction step of extracting the spectrum of the pixel that imaged the inspection object by using a linear support vector machine for each pixel,
    The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed using a nonlinear support vector machine. The detection method according to claim 5, wherein in the determination step, the spectrum extracted in the extraction step is analyzed using a nonlinear support vector machine.
  9. 前記判定ステップの後に、前記判定ステップにおいて異物または不良品が有ると判定された画素に対して、この画素を含む所定の範囲内に、異物または不良品が有ると判定された画素が所定数以上含まれているか否かの判定を行うステップをさらに含む ことを特徴とする請求項5〜8のいずれか一項に記載の検出方法。


    After the determination step, a predetermined number or more of pixels determined to have foreign matters or defective products within a predetermined range including the pixels with respect to the pixels determined to have foreign materials or defective products in the determination step. The detection method according to any one of claims 5 to 8, further comprising a step of determining whether or not it is included. After the determination step, a predetermined number or more of pixels determined to have foreign matters or defective products within a predetermined range including the pixels with respect to the pixels determined to have foreign materials or defective products in the determination step. The detection method according to any one of claims 5 to 8, further comprising a step of determining whether or not it is included.


JP2010246599A 2010-11-02 2010-11-02 Device and method for detection Pending JP2012098181A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010246599A JP2012098181A (en) 2010-11-02 2010-11-02 Device and method for detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010246599A JP2012098181A (en) 2010-11-02 2010-11-02 Device and method for detection

Publications (1)

Publication Number Publication Date
JP2012098181A true JP2012098181A (en) 2012-05-24

Family

ID=46390252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010246599A Pending JP2012098181A (en) 2010-11-02 2010-11-02 Device and method for detection

Country Status (1)

Country Link
JP (1) JP2012098181A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013064735A (en) * 2012-09-14 2013-04-11 Tokyu Construction Co Ltd Specific substance detection device and method
JP2014215177A (en) * 2013-04-25 2014-11-17 住友電気工業株式会社 Inspection device and inspection method
JP2015203586A (en) * 2014-04-11 2015-11-16 住友電気工業株式会社 inspection method
JP2016090476A (en) * 2014-11-07 2016-05-23 住友電気工業株式会社 Foreign matter detection method
JP2018517903A (en) * 2015-05-11 2018-07-05 アルセロールミタル Method for determining the chemical composition of the slag portion
WO2019012654A1 (en) * 2017-07-13 2019-01-17 日本電気株式会社 Analysis system, analysis method, and storage medium
WO2020196690A1 (en) * 2019-03-27 2020-10-01 ウシオ電機株式会社 Product inspection method and product inspection device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63317748A (en) * 1987-06-19 1988-12-26 Hitachi Electronics Eng Co Ltd Display method of concentrated place of defects in map display of defect in magnetic disk
JPS6438638A (en) * 1987-04-13 1989-02-08 Roth Electric Gmbh Method and apparatus for detecting surface defect of article
JPH01102342A (en) * 1987-10-16 1989-04-20 Rikagaku Kenkyusho Fluoro-microscopic spectral method and apparatus
JP2000180373A (en) * 1998-12-15 2000-06-30 Hoya Corp Method and apparatus for inspection of defect
JP2007505733A (en) * 2003-09-20 2007-03-15 キネテイツク・リミテツド Apparatus and method for classifying targets in a waste stream
JP2008076167A (en) * 2006-09-20 2008-04-03 Yamaguchi Univ Method of inspecting surface state of object by image processing, and image processing program for it
JP2009124101A (en) * 2007-08-02 2009-06-04 Asml Netherlands Bv Inspection method and apparatus, lithographic apparatus, lithographic processing cell, and device manufacturing method
JP2010203845A (en) * 2009-03-02 2010-09-16 Omron Corp Device, method and program for defect detection

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6438638A (en) * 1987-04-13 1989-02-08 Roth Electric Gmbh Method and apparatus for detecting surface defect of article
JPS63317748A (en) * 1987-06-19 1988-12-26 Hitachi Electronics Eng Co Ltd Display method of concentrated place of defects in map display of defect in magnetic disk
JPH01102342A (en) * 1987-10-16 1989-04-20 Rikagaku Kenkyusho Fluoro-microscopic spectral method and apparatus
JP2000180373A (en) * 1998-12-15 2000-06-30 Hoya Corp Method and apparatus for inspection of defect
JP2007505733A (en) * 2003-09-20 2007-03-15 キネテイツク・リミテツド Apparatus and method for classifying targets in a waste stream
JP2008076167A (en) * 2006-09-20 2008-04-03 Yamaguchi Univ Method of inspecting surface state of object by image processing, and image processing program for it
JP2009124101A (en) * 2007-08-02 2009-06-04 Asml Netherlands Bv Inspection method and apparatus, lithographic apparatus, lithographic processing cell, and device manufacturing method
JP2010203845A (en) * 2009-03-02 2010-09-16 Omron Corp Device, method and program for defect detection

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013064735A (en) * 2012-09-14 2013-04-11 Tokyu Construction Co Ltd Specific substance detection device and method
JP2014215177A (en) * 2013-04-25 2014-11-17 住友電気工業株式会社 Inspection device and inspection method
JP2015203586A (en) * 2014-04-11 2015-11-16 住友電気工業株式会社 inspection method
JP2016090476A (en) * 2014-11-07 2016-05-23 住友電気工業株式会社 Foreign matter detection method
JP2018517903A (en) * 2015-05-11 2018-07-05 アルセロールミタル Method for determining the chemical composition of the slag portion
US10677736B2 (en) 2015-05-11 2020-06-09 Arcelormittal Method of determining a chemical composition of a slag portion
WO2019012654A1 (en) * 2017-07-13 2019-01-17 日本電気株式会社 Analysis system, analysis method, and storage medium
WO2020196690A1 (en) * 2019-03-27 2020-10-01 ウシオ電機株式会社 Product inspection method and product inspection device

Similar Documents

Publication Publication Date Title
Cho et al. Detection of cuticle defects on cherry tomatoes using hyperspectral fluorescence imagery
Guo et al. Hyperspectral imaging analysis for ripeness evaluation of strawberry with support vector machine
Kamruzzaman et al. Prediction of some quality attributes of lamb meat using near-infrared hyperspectral imaging and multivariate analysis
Mendoza et al. Comparison and fusion of four nondestructive sensors for predicting apple fruit firmness and soluble solids content
US20140233797A1 (en) Image analysis platform for identifying artifacts in samples and laboratory consumables
Lu Nondestructive measurement of firmness and soluble solids content for apple fruit using hyperspectral scattering images
Park et al. Hyperspectral imaging for detecting fecal and ingesta contamination on poultry carcasses
Dhakal et al. Prototype instrument development for non-destructive detection of pesticide residue in apple surface using Raman technology
US7436500B2 (en) Near infrared chemical imaging microscope
EP3074755B1 (en) Optical metrology system for spectral imaging of a semiconductor workpiece sample
Amigo Practical issues of hyperspectral imaging analysis of solid dosage forms
US7973921B2 (en) Dynamic illumination in optical inspection systems
US9766179B2 (en) Chemical characterization of surface features
Kim et al. Detection of skin tumors on chicken carcasses using hyperspectral fluorescence imaging
McCain et al. Coded aperture Raman spectroscopy for quantitative measurements of ethanol in a tissue phantom
US5541413A (en) Acousto-optic tunable filter-based surface scanning system and process
Yaseen et al. Raman imaging for food quality and safety evaluation: Fundamentals and applications
Xing et al. Detecting bruises on ‘Golden Delicious’ apples using hyperspectral imaging with multiple wavebands
US7105823B2 (en) Measuring technique
JP3145487B2 (en) Particle analyzer
US7564546B2 (en) Dynamic imaging of biological cells and other subjects
EP2211219B1 (en) Vibrational Microscopy Imaging System
US7382910B2 (en) Method of analysing a stack of flat objects
KR100875873B1 (en) Impurity concentration tester and test method of semiconductor
US5952660A (en) Method of identifying post consumer or post industrial waste carpet utilizing a hand-held infrared spectrometer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140708