JP2019074324A - Inspection method and device - Google Patents
Inspection method and device Download PDFInfo
- Publication number
- JP2019074324A JP2019074324A JP2017198355A JP2017198355A JP2019074324A JP 2019074324 A JP2019074324 A JP 2019074324A JP 2017198355 A JP2017198355 A JP 2017198355A JP 2017198355 A JP2017198355 A JP 2017198355A JP 2019074324 A JP2019074324 A JP 2019074324A
- Authority
- JP
- Japan
- Prior art keywords
- image
- inspection
- wavelength
- spectral intensity
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
本発明は検査方法及び装置に関し、特にカラーカメラを用いて検査する検査方法及び装置に関する。 The present invention relates to an inspection method and apparatus, and more particularly to an inspection method and apparatus for inspection using a color camera.
カップ麺等のインスタント食品は、乾燥麺や生タイプ麺等の主材に、かやくと呼ばれる具材を加えて、コップ状の耐熱耐水容器のような食品容器に入れたものである。 Instant food products such as cup noodles are obtained by adding ingredients called kaken to main ingredients such as dry noodles and green noodles and putting them in a food container such as a cup-shaped heat-resistant and water-resistant container.
このようなカップ麺等のインスタント食品では、乾燥麺や生タイプ麺等の主材の量、かやくと呼ばれる具材の種類や数が厳格に定められている。そのため、インスタント食品の出荷前に包装状態を検査する必要がある。このようなインスタント食品の充填状態の検査では、カラーカメラにより包装状態を撮像し、主材や具材の色から、主材、具材の種類や数を識別する。 In instant food products such as cup noodles, the amount of main ingredients such as dried noodles and green noodles, and the type and number of ingredients called "flaming" are strictly defined. Therefore, it is necessary to inspect the packaging condition before shipping the instant food. In the inspection of the filling state of such instant food, the packaging state is imaged by a color camera, and the types and the number of main materials and ingredients are identified from the colors of the main materials and ingredients.
しかし、主材や具材の種類によってはカラーカメラの映像により識別することが困難な場合がある。カラーカメラにより撮影した映像の中から特定の画像だけを抽出する装置として、光電変換機能を有する複数個の撮像手段と、複数個の撮像手段に同じ光学画像を分配するレンズを含む光学系と、撮像手段とレンズとの間に設けられた互いに異なる透過波長帯域を持つ複数個の光学的バンドパスフィルターと、複数個の撮像手段で波長の異なる画像を各々光電変換して得られた映像信号間のレベル差を同じ空間座標に相当する画素ごとに計算し、かつ、その絶対値に比例した値の映像信号を出力する画像演算部を備えたオブジェクト抽出型TVカメラが知られている(特許文献1参照)。 However, depending on the type of main material and ingredients, it may be difficult to identify the color camera image. As an apparatus for extracting only a specific image from images captured by a color camera, an optical system including a plurality of imaging means having a photoelectric conversion function, and a lens for distributing the same optical image to the plurality of imaging means Between a plurality of optical band pass filters having different transmission wavelength bands provided between an imaging means and a lens, and between video signals obtained by photoelectrically converting images of different wavelengths by a plurality of imaging means An object extraction type TV camera is known that includes an image operation unit that calculates the level difference of each pixel corresponding to the same spatial coordinate and outputs a video signal having a value proportional to its absolute value (Patent Document 1 1).
しかしながら、従来のオブジェクト抽出型TVカメラは、類似する色彩の具材を明確に識別することが困難であった。 However, conventional object extraction type TV cameras have difficulty in clearly identifying ingredients of similar colors.
本発明の目的は、類似する色彩の具材等を明確に識別することができる検査方法及び装置を提供することにある。 An object of the present invention is to provide an inspection method and apparatus capable of clearly identifying ingredients of similar colors and the like.
本発明による検査方法は、検査対象を第1の波長の画像を撮像する第1の撮像部と、第2の波長の画像を撮像する第2の撮像部により撮像し、前記第1の撮像部により撮像された検査対象の第1の撮像画像の各画素のスペクトル強度と、前記第2の撮像部により撮像された前記検査対象の第2の撮像画像の各画素のスペクトル強度とから演算された各画素の正規化分光指数により構成された検査画像を生成し、前記検査画像に基づいて、前記検査対象の状態を検査することを特徴とする検査方法。 In the inspection method according to the present invention, the inspection target is imaged by a first imaging unit that captures an image of a first wavelength, and a second imaging unit that captures an image of a second wavelength, and the first imaging unit Calculated from the spectral intensity of each pixel of the first captured image of the inspection object captured by the second imaging unit and the spectral intensity of each pixel of the second captured image of the inspection object captured by the second imaging unit An inspection method comprising: generating an inspection image composed of a normalized spectral index of each pixel; and inspecting the state of the inspection object based on the inspection image.
上述した検査方法において、前記検査対象に含まれる第1の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第1の傾きが、前記検査対象に含まれる第2の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第2の傾きと相違するように、前記第1の波長と前記第2の波長を選択し、前記検査画像の各画素の前記正規化分光指数の相違に基づいて、前記検査対象に含まれる前記第1の部分と前記第2の部分とを識別するようにしてもよい。 In the inspection method described above, the spectral intensity for the first wavelength and the first inclination of the spectrum due to the spectral intensity of the second wavelength with respect to the first portion included in the inspection object are included in the inspection object. The first wavelength and the second wavelength are selected to be different from the spectral intensity for the first wavelength and the second inclination of the spectrum due to the spectral intensity of the second wavelength for the part 2; The first portion and the second portion included in the inspection target may be identified based on the difference in the normalized spectral index of each pixel of the inspection image.
上述した検査方法において、前記検査対象に含まれる前記第1の部分及び前記第2の部分以外の第3の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第3の傾きが、前記第1の傾き及び/又は前記第2の傾きと相違するように、前記第1の波長と前記第2の波長が選択するようにしてもよい。 In the inspection method described above, spectral intensity of the first wavelength and spectral intensity of the second wavelength with respect to the first portion and the third portion other than the second portion included in the inspection object The first wavelength and the second wavelength may be selected such that a third slope is different from the first slope and / or the second slope.
上述した検査方法において、前記検査対象はカップ麺であり、前記検査対象に含まれる前記第1の部分はコロ・チャーであり、前記検査対象に含まれる前記第1の部分は粉であり、前記第1の波長は685nmであり、前記第2の波長は670nmであるようにしてもよい。 In the inspection method described above, the inspection object is cup noodles, the first part included in the inspection object is a roller char, and the first part included in the inspection object is powder. The first wavelength may be 685 nm and the second wavelength may be 670 nm.
本発明による検査装置は、第1の波長の画像を撮像する第1の撮像部と、第2の波長の画像を撮像する第2の撮像部と、前記第1の撮像部により撮像された検査対象の第1の撮像画像の各画素のスペクトル強度と、前記第2の撮像部により撮像された前記検査対象の第2の撮像画像の各画素のスペクトル強度とから演算された各画素の正規化分光指数により構成された検査画像を生成し、前記検査画像に基づいて、前記検査対象の状態を検査する検査部とを有することを特徴とする。 An inspection apparatus according to the present invention includes a first imaging unit configured to capture an image of a first wavelength, a second imaging unit configured to capture an image of a second wavelength, and an inspection captured by the first imaging unit. Normalization of each pixel calculated from the spectral intensity of each pixel of the first captured image of interest and the spectral intensity of each pixel of the second captured image of the inspection object captured by the second imaging unit The inspection image generating apparatus is characterized by generating an inspection image constituted by a spectral index, and an inspection unit which inspects a state of the inspection object based on the inspection image.
上述した検査装置において、前記検査対象に含まれる第1の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第1の傾きが、前記検査対象に含まれる第2の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第2の傾きと相違するように、前記第1の波長と前記第2の波長が選択され、前記検査部は、前記検査画像の各画素の前記正規化分光指数の相違に基づいて、前記検査対象に含まれる前記第1の部分と前記第2の部分とを識別するようにしてもよい。 In the inspection apparatus described above, the spectral intensity for the first wavelength and the first inclination of the spectrum by the spectral intensity of the second wavelength with respect to the first portion included in the inspection object are included in the inspection object. The first wavelength and the second wavelength are selected to be different from the spectral intensity for the first wavelength and the second inclination of the spectrum due to the spectral intensity for the second wavelength with respect to the two parts. The inspection unit may identify the first portion and the second portion included in the inspection target based on the difference in the normalized spectral index of each pixel of the inspection image.
上述した検査装置において、前記検査対象に含まれる前記第1の部分及び前記第2の部分以外の第3の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第3の傾きが、前記第1の傾き及び/又は前記第2の傾きと相違するように、前記第1の波長と前記第2の波長が選択されるようにしてもよい。 In the inspection apparatus described above, the spectrum intensity of the first wavelength and the spectrum intensity of the second wavelength with respect to the first portion and the third portion other than the second portion included in the inspection object The first wavelength and the second wavelength may be selected such that a third slope is different from the first slope and / or the second slope.
上述した検査装置において、前記検査対象はカップ麺であり、前記検査対象に含まれる前記第1の部分はコロ・チャーであり、前記検査対象に含まれる前記第1の部分は粉であり、前記第1の波長は685nmであり、前記第2の波長は670nmであるようにしてもよい。 In the inspection apparatus described above, the inspection object is cup noodles, the first part included in the inspection object is a roller char, and the first part included in the inspection object is powder. The first wavelength may be 685 nm and the second wavelength may be 670 nm.
以上の通り、本発明によれば、検査対象を第1の波長の画像を撮像する第1の撮像部と、第2の波長の画像を撮像する第2の撮像部により撮像し、第1の撮像部により撮像された検査対象の第1の撮像画像の各画素のスペクトル強度と、第2の撮像部により撮像された検査対象の第2の撮像画像の各画素のスペクトル強度とから演算された各画素の正規化分光指数により構成された検査画像を生成し、検査画像に基づいて、検査対象の状態を検査するようにしたので、類似する色彩の具材等を明確に識別することができる。 As described above, according to the present invention, the inspection target is imaged by the first imaging unit that captures an image of the first wavelength, and the second imaging unit that captures an image of the second wavelength, and the first Calculated from the spectral intensity of each pixel of the first captured image of the inspection object captured by the imaging unit and the spectral intensity of each pixel of the second captured image of the inspection object captured by the second imaging unit Since the inspection image composed of the normalized spectral index of each pixel is generated and the condition of the inspection object is inspected based on the inspection image, ingredients and the like having similar colors can be clearly identified. .
[一実施形態]
本発明の一実施形態による検査装置について図1乃至図8を用いて説明する。
[One embodiment]
An inspection apparatus according to an embodiment of the present invention will be described using FIGS. 1 to 8.
(検査対象)
本実施形態の検査装置は、カップ麺の内容物が規定された状態で充填されているかを検査するための装置である。カップ麺では、包装容器のカップに、乾燥麺や生タイプ麺等の主材と共に、かやくと呼ばれる具材が収納される。ひとつのカップに収納されるものとして、主材の量と共に、具材の種類や、各具材の個数、大きさ等についても厳格に規定されている。
(Subject to inspection)
The inspection apparatus of the present embodiment is an apparatus for inspecting whether the contents of cup noodles are filled in a defined state. In cup noodles, ingredients such as dried noodles and raw type noodles are stored in a cup of a packaging container, as well as ingredients called kaen. As well as the amount of main material, the type of ingredients, the number of each ingredient, the size, and the like are strictly defined as being accommodated in one cup.
例えば、カレー味のカップ麺では、包装容器のカップに、主材として乾燥麺が収納され、かやくと呼ばれる具材として、コロ・チャー、じゃがいも、人参、ねぎ等が収納されている。コロ・チャーとは、ダイスミンチ(謎肉)に代わって登場した新しい具材である。 For example, in the case of cup noodles of curry flavor, dry noodles as a main ingredient are stored in a cup of a packaging container, and kolo char, potatoes, carrots, green onions, etc. are stored as ingredients called kaen. Koro Char is a new ingredient that has come to replace Dice Mince (Mystery Meat).
本実施形態の検査装置は、カップ麺を製造する最終工程において、カップ内に全ての材料が収納され、カップ上端の開口部を蓋材でシールする前の状態を上方から撮像して、撮像した画像を分析して、主材と具材が規定通りに収納されているか否かを検査する。 In the final step of producing cup noodles, the inspection apparatus according to the present embodiment captures an image of the state before all the materials are stored in the cup and the opening at the upper end of the cup is sealed by the lid material from above The image is analyzed to check if the main material and ingredients are stored as specified.
本実施形態の検査装置により、主材と具材が規定通りに収納されていると判断されれば、カップ上端の開口部を蓋材でシールして、カップ麺としての製品が完成する。本実施形態の検査装置により、主材と具材が規定通りに収納されていないと判断されれば、そのカップはリジェクトされて製品とはならない。 If it is judged by the inspection apparatus of the present embodiment that the main material and the ingredients are stored as prescribed, the opening at the upper end of the cup is sealed with a lid to complete a product as a cup noodle. If it is judged by the inspection device of the present embodiment that the main material and the ingredients are not accommodated as specified, the cup is rejected and does not become a product.
(検査装置)
本実施形態の検査装置について図1を用いて説明する。
(Inspection device)
The inspection apparatus of the present embodiment will be described with reference to FIG.
本実施形態の検査装置20には、ワーク(カップ麺)10が載置されるワーク台22が設けられている。被検査物であるワーク(カップ麺)10は、ベルトコンベア等(図示せず)で搬送され、ワーク台22の所定位置を通過する。 The inspection apparatus 20 of the present embodiment is provided with a work table 22 on which a work (cup noodle) 10 is placed. The workpiece (cup noodle) 10 to be inspected is conveyed by a belt conveyor or the like (not shown) and passes a predetermined position of the workpiece table 22.
ワーク台22の上方には、ワーク(カップ麺)10を上方から均一に照明するための照明用傘24が設けられている。照明用傘24内にはストロボ電球(図示せず)が設けられ、ストロボ電球(図示せず)にはストロボ電源26が接続されている。 An illumination umbrella 24 for illuminating the work (cup noodle) 10 uniformly from above is provided above the work table 22. A strobe light bulb (not shown) is provided in the lighting umbrella 24, and a strobe power supply 26 is connected to the strobe light bulb (not shown).
照明用傘24上には、ビームスプリッタ28が設けられている。ビームスプリッタ28は、ワーク(カップ麺)10からの光を2分割する。 A beam splitter 28 is provided on the illumination umbrella 24. The beam splitter 28 splits the light from the work (cup noodle) 10 into two.
ビームスプリッタ28により2分割された、ワーク(カップ麺)10からの光の直進方向には、第1のカメラ30が設けられている。第1のカメラ30には、第1の撮像素子32が設けられ、更に、特定の第1の波長の光を透過する第1のバンドバスフィルター34と、透過した光を第1の撮像素子32に集光する第1のレンズ36とが設けられている。 A first camera 30 is provided in the direction in which light from the work (cup noodles) 10 is split in two by the beam splitter 28. The first camera 30 is provided with a first imaging element 32, and further, a first band pass filter 34 for transmitting light of a specific first wavelength, and a first imaging element 32 for transmitting the transmitted light. And a first lens 36 for collecting light.
ビームスプリッタ28により2分割された、ワーク(カップ麺)10からの光の直交方向には、第2のカメラ40が設けられている。第2のカメラ40には、第2の撮像素子42が設けられ、更に、特定の第2の波長の光を透過する第2のバンドバスフィルター44と、透過した光を第2の撮像素子42に集光する第2のレンズ46とが設けられている。 A second camera 40 is provided in the orthogonal direction of the light from the work (cup noodle) 10 divided into two by the beam splitter 28. The second camera 40 is provided with a second imaging element 42, and further, a second band pass filter 44 for transmitting light of a specific second wavelength, and a second imaging element 42 for transmitting the transmitted light. And a second lens 46 for collecting light.
第1のカメラ30で設定された第1の波長の光と、第2のカメラ40で設定された第2の波長の光については後述する。 The light of the first wavelength set by the first camera 30 and the light of the second wavelength set by the second camera 40 will be described later.
検査装置20には、更に、第1のカメラ30と第2のカメラ40の撮像画像を記憶する画像メモリ50、画像メモリ50に記憶された撮像画像に対して後述する演算を行う演算部52、ストロボ電源26と第1のカメラ30と第2のカメラ40と画像メモリ50と演算部52の動作を制御する制御部54とが設けられている。 The inspection apparatus 20 further includes an image memory 50 for storing captured images of the first camera 30 and the second camera 40, and an operation unit 52 for performing an operation described later on the captured image stored in the image memory 50, A strobe power supply 26, a first camera 30, a second camera 40, an image memory 50, and a control unit 54 for controlling the operation of the arithmetic unit 52 are provided.
画像メモリ50は、制御部54からの制御信号に基づいて、第1のカメラ30の第1の撮像素子32による撮像画像や、第2のカメラ40の第2の撮像素子42による撮像画像を記憶する。 The image memory 50 stores an image captured by the first imaging element 32 of the first camera 30 and an image captured by the second imaging element 42 of the second camera 40 based on a control signal from the control unit 54. Do.
演算部52は、画像メモリ50に記憶された第1のカメラ30の各種撮像画像と、第2のカメラ40の各種撮像画像を用いて、後述する演算を行う。 The calculation unit 52 performs calculations to be described later using various captured images of the first camera 30 stored in the image memory 50 and various captured images of the second camera 40.
制御部54は、ストロボ電源26と第1のカメラ30と第2のカメラ40と画像メモリ50と演算部52とが、同期して動作するように制御する。 The control unit 54 controls the strobe power supply 26, the first camera 30, the second camera 40, the image memory 50, and the calculation unit 52 to operate in synchronization with each other.
画像メモリ50と演算部52と制御部54により、被検査物であるワーク(カップ麺)10を検査する検査部として機能する。 The image memory 50, the operation unit 52, and the control unit 54 function as an inspection unit that inspects the workpiece (cup noodle) 10 that is an inspection object.
(検査装置のカメラ)
本実施形態の検査装置20の第1のカメラ30と第2のカメラ40の詳細について図2を用いて説明する。
(Camera of inspection device)
The details of the first camera 30 and the second camera 40 of the inspection apparatus 20 of the present embodiment will be described with reference to FIG.
第1のカメラ30と第4のカメラ40は、波長を分解して撮像することができるマルチスペクトルカメラ又はハイパースペクトルカメラと呼ばれるカメラである。 The first camera 30 and the fourth camera 40 are cameras called multi-spectral cameras or hyper-spectral cameras capable of imaging with resolution of wavelengths.
図2(a)に示すように、電磁波は、その波長により、ラジオ波、マイクロ波、赤外線、可視光、紫外線、X線、ガンマ線と呼ばれる。波長800nmから400nmの範囲が可視光と呼ばれて人が視認できる電磁波である。 As shown in FIG. 2A, electromagnetic waves are called radio waves, microwaves, infrared rays, visible light, ultraviolet rays, X-rays, and gamma rays depending on their wavelengths. The wavelength range of 800 nm to 400 nm is an electromagnetic wave that is called visible light and can be viewed by people.
図2(b)に示すように、マルチスペクトルカメラ又はハイパースペクトルカメラは、赤外線から紫外線までの電磁波、例えば、波長350nmから1100nmの電磁波を、151に分離して取得する能力を有している。 As shown in FIG. 2B, the multispectral camera or hyperspectral camera has an ability to separate and acquire an electromagnetic wave from infrared rays to ultraviolet rays, for example, an electromagnetic wave with a wavelength of 350 nm to 1100 nm, to 151.
本実施形態の検査装置20では、波長685nmの光の撮像画像(図2(c1))と、波長670nmの光の撮像画像(図2(c2))を用いる。これら波長を選択した理由については後述する。 The inspection apparatus 20 of the present embodiment uses a captured image of light of wavelength 685 nm (FIG. 2 (c1)) and a captured image of light of wavelength 670 nm (FIG. 2 (c2)). The reason for selecting these wavelengths will be described later.
第1のカメラ30における第1のバンドバスフィルター34を、波長685nmを透過するバンドフィルターとして、第1のカメラ30では、第1の撮像素子32により、波長685nmの光の撮像画像を取得する。 With the first band-pass filter 34 in the first camera 30 as a band filter that transmits the wavelength 685 nm, in the first camera 30, the first image sensor 32 acquires a captured image of light having a wavelength of 685 nm.
第2のカメラ40における第2のバンドバスフィルター44を、波長670nmを透過するバンドフィルターとして、第2のカメラ40では、第2の撮像素子42により、波長670nmの光の撮像画像を取得する。 The second band pass filter 44 in the second camera 40 is a band filter that transmits a wavelength of 670 nm, and in the second camera 40, a second image sensor 42 acquires a captured image of light with a wavelength of 670 nm.
(検出原理)
本実施形態の検査装置20の検出原理について図3乃至図5を用いて説明する。
(Detection principle)
The detection principle of the inspection apparatus 20 of the present embodiment will be described using FIGS. 3 to 5.
本実施形態の検査装置20の検査対象であるカレー味のカップ麺を例としてその検査原理について説明する。 The inspection principle will be described by way of an example of a curry-flavored cup noodle to be inspected by the inspection apparatus 20 of the present embodiment.
図3(a)にカレー味のカップ麺の撮像画像を示す。カレー味のカップ麺では肉類の具材としてコロ・チャーが用いられている。コロ・チャーとは、ダイスミンチ(謎肉)に代わって登場した新しい肉類の具材である。カレー味のカップ麺では、コロ・チャーの有無、個数の検査は重要である。 FIG. 3A shows a captured image of a curry-flavored cup noodle. In curry-flavored cup noodles, kolo char is used as an ingredient for meat. Koro Char is a new meat ingredient that has come to replace Diceminch. In cup noodles with curry taste, it is important to check the presence or absence and number of rolls and chars.
しかし、図3(a)に示すように、コロ・チャーは、カップ麺の上面に散布されているカレー味の粉の色と類似の茶色であり、151の色を識別できるマルチスペクトルカメラでも識別することが困難である。 However, as shown in FIG. 3 (a), Koro Char is brown similar to the color of the curry-flavored powder sprinkled on the top of the cup noodles, and can be identified even with a multi-spectral camera capable of identifying 151 colors. It is difficult to do.
カレー味の粉に植物性由来の成分を主成分としているのに対し、コロ・チャーは肉類の具材であり、植物性由来の成分は殆ど含まれていない。本願発明者等はこの点に着目し、カレー味の粉とコロ・チャーとの識別方法について鋭意研究した。その結果、カレー味の粉のスペクトルとコロ・チャーのスペクトルには、植物性由来の成分の有無に起因する相違があることがわかった。 The curry-flavored flour is mainly composed of plant-derived components, whereas Koro-char is a meat ingredient and contains almost no plant-derived components. The inventors of the present application paid attention to this point and intensively studied a method of discriminating between curry-flavored powder and kolo char. As a result, it was found that there is a difference between the spectrum of curry-flavored powder and the spectrum of kolo char due to the presence or absence of plant-derived components.
図3(b)に、カレー味の粉とコロ・チャーのスペクトルを示す。カレー味の粉のスペクトルとコロ・チャーのスペクトルとは、波長400nmから1000nmの範囲に渡ってほぼ同じスペクトル形状である。しかし、波長600nmから700nmの範囲、より詳しくは波長650nmから670nmの範囲において、カレー味の粉のスペクトル強度が下がっている。これは、植物性由来の成分に起因するものである。 FIG. 3 (b) shows the spectrum of curry-flavored powder and kolo char. The spectrum of curry-like powder and the spectrum of kolo char have almost the same spectral shape over the wavelength range of 400 nm to 1000 nm. However, the spectral intensity of the curry-like powder is reduced in the wavelength range of 600 nm to 700 nm, and more specifically, in the wavelength range of 650 nm to 670 nm. This is attributable to the plant-derived component.
図3(c)に、波長620nmから700nmの範囲における、カレー味の粉とコロ・チャーのスペクトルを示す。本願発明者等は、図3(c)に示すスペクトルを検討した結果、波長670nm(λ2)と波長685nm(λ1)のスペクトル強度に着目することに着想した。 FIG. 3 (c) shows spectra of curry-flavored powder and kolo char in the wavelength range of 620 nm to 700 nm. As a result of examining the spectrum shown in FIG. 3C, the inventors of the present application have conceived the idea of focusing on the spectral intensities at a wavelength of 670 nm (λ2) and a wavelength of 685 nm (λ1).
波長620nmから700nmの範囲では、カレー味の粉のスペクトルとコロ・チャーのスペクトルは、共に、波長が長くなるにつれスペクトル強度が高くなる傾向にある。しかし、コロ・チャーのスペクトル強度は徐々に高くなるのに対し、カレー味の粉のスペクトル強度は、植物性由来の成分に起因して、波長670nm前後で低くなっている。 In the wavelength range of 620 nm to 700 nm, the spectrum of curry-flavored powder and the spectrum of colo char tend to increase in spectral intensity as the wavelength increases. However, while the spectral intensity of kolo char is gradually increased, the spectral intensity of curry-flavored powder is low at around a wavelength of 670 nm due to the plant-derived component.
カレー味の粉のスペクトル強度が波長670nm前後で低くなっているので、コロ・チャーの波長670nm(λ2)のスペクトル強度と波長685nm(λ1)のスペクトル強度によるスペクトルの傾きが相対的に緩く、カレー味の粉の波長670nm(λ2)のスペクトル強度と波長685nm(λ1)のスペクトル強度によるスペクトルの傾きが相対的に急となる。本実施形態では、このスペクトルの傾きの緩急の相違に基づいてコロ・チャーとカレー味の粉を識別する。 The spectral intensity of the curry powder is low at around 670 nm, so the spectral intensity of the 670 nm (λ2) spectral intensity of the colo char and the spectral intensity of the 685 nm (λ1) spectrum are relatively loose, and curry The inclination of the spectrum due to the spectral intensity at a wavelength of 670 nm (λ2) of the taste powder and the spectral intensity at a wavelength of 685 nm (λ1) is relatively sharp. In the present embodiment, koro char and curry powder are identified based on the difference in the slope of the spectrum.
また、カレー味の粉のスペクトル強度が波長670nm前後で低くなっているので、図4(a)に示すように、コロ・チャーの波長650(λ3)のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きが相対的に急で、カレー味の粉の波長650nm(λ3)のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きが相対的に緩やかとなる。このスペクトルの傾きの緩急の相違に基づいてコロ・チャーとカレー味の粉を識別することが考えられる。 In addition, since the spectral intensity of curry-like powder is low at around 670 nm, as shown in FIG. 4A, the spectral intensity of the wavelength 650 (λ3) of Coro char and the spectrum of the wavelength 670 nm (λ2) The inclination of the spectrum due to the intensity is relatively steep, and the inclination of the spectrum due to the spectral intensity of the wavelength 650 nm (λ3) of the curry powder and the spectral intensity of the wavelength 670 nm (λ2) is relatively gentle. It is conceivable to distinguish Koro char and curry powder based on the difference in the slope of the spectrum.
しかしながら、波長650(λ3)のスペクトル強度と波長670nm(λ2)のスペクトルの傾きの相違に基づく識別では誤検出の可能性がある。 However, discrimination based on the difference between the spectral intensity of the wavelength 650 (λ3) and the inclination of the spectrum of the wavelength 670 nm (λ2) has a possibility of false detection.
カップ麺の撮像画像には、コロ・チャー、カレー味の粉の他にも、他の具材やカップ自体も撮像されている。図4(b)に示すように、他の具材のじゃがいもの波長650nm(λ3)のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きも相対的に緩やかであり、カップ自体の波長650nm(λ3)のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きも相対的に緩やかである。このようなじゃがいもやカップのスペクトルの傾きは、カレー味の粉の波長650nm(λ3)のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きと識別することが困難であり、誤検出の可能性があり、波長670nm(λ2)と波長685nm(λ1)の方が望ましい。 Other ingredients and cups themselves are also captured in the captured image of the cup noodle in addition to the flour of the kolo char and curry flavor. As shown in FIG. 4 (b), the spectral intensity of the other ingredients is at a relative wavelength of 650 nm (.lambda.3) and 670 nm (.lambda.2). The inclination of the spectrum by the spectral intensity of 650 nm (λ3) and the spectral intensity of wavelength 670 nm (λ2) is also relatively gentle. It is difficult to distinguish the inclination of the spectrum of potatoes and cups from the inclination of the spectrum based on the spectral intensity of the wavelength 650 nm (λ3) of the curry powder and the spectral intensity of the wavelength 670 nm (λ2). There is a possibility that the wavelength of 670 nm (λ2) and the wavelength of 685 nm (λ1) are more desirable.
図5を用いて、スペクトルの傾きの緩急の相違の検出原理について説明する。 The principle of detecting the difference in the slope of the spectrum will be described with reference to FIG.
波長685nm(λ1)の撮像画像の各画素のスペクトル強度をH1、波長670nm(λ2)の撮像画像の各画素のスペクトル強度をH2とすると、正規化分光指数(Normalized Difference Spectral Index:NDSI)は次式となる。 Assuming that the spectral intensity of each pixel of the captured image of wavelength 685 nm (λ1) is H1 and the spectral intensity of each pixel of the captured image of wavelength 670 nm (λ2) is H2, the normalized spectral index (NDSI) is It becomes a formula.
NDSI=(H1−H2)×C/(H1+H2)
ただし、Cは定数である。
NDSI = (H1-H2) x C / (H1 + H2)
However, C is a constant.
このNDSIは、撮像画像の各画素のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きを示す。 This NDSI shows the inclination of the spectrum by the spectral intensity of each pixel of a captured image, and the spectral intensity of wavelength 670 nm ((lambda) 2).
図5(a)は撮像画像の各画素の波長685nm(λ1)のスペクトル強度H1による画像であり、図5(b)は撮像画像の各画素の波長670nm(λ2)のスペクトル強度H2の画像であり、図5(c)は撮像画像の各画素の波長685nm(λ1)のスペクトル強度H1と波長670nm(λ2)のスペクトル強度H2から演算されたNDSIの画像である。図5(c)に示すNDSIの画像は、撮像画像の各画素のスペクトル強度と波長670nm(λ2)のスペクトル強度によるスペクトルの傾きを示している。 FIG. 5 (a) is an image at a spectral intensity H1 of a wavelength 685 nm (λ1) of each pixel of the captured image, and FIG. 5 (b) is an image of a spectral intensity H2 at a wavelength 670 nm (λ2) of each pixel of the captured image FIG. 5C is an image of NDSI calculated from the spectral intensity H1 at a wavelength of 685 nm (λ1) and the spectral intensity H2 at a wavelength of 670 nm (λ2) of each pixel of the captured image. The image of NDSI shown in FIG. 5C shows the inclination of the spectrum due to the spectral intensity of each pixel of the captured image and the spectral intensity at a wavelength of 670 nm (λ 2).
コロ・チャーの波長670nm(λ2)のスペクトル強度と波長685nm(λ1)のスペクトル強度によるスペクトルの相対的に緩やかな傾きのNDSIの値の範囲D1を実験的に把握し、NDSIの値がその範囲D1の値であれば、コロ・チャーの像と判断する。 Experimentally grasp the range D1 of the NDSI value of the relatively gentle slope of the spectrum by the spectral intensity of wavelength 670 nm (λ 2) and the spectral intensity of wavelength 685 nm (λ 1) of Koro Char, and the value of NDSI is the range If it is a value of D1, it is judged as an image of Koro Char.
同様に、カレー味の粉の波長670nm(λ2)のスペクトル強度と波長685nm(λ1)のスペクトル強度によるスペクトルの相対的に急な傾きのNDSIの値の範囲D2を実験的に把握し、NDSIの値がその範囲D2の値であれば、カレー味の粉の像と判断する。 Similarly, the spectrum intensity of the curry flavor powder at wavelength 670 nm (λ 2) and the spectrum intensity at wavelength 685 nm (λ 1) of the relatively steep slope of the spectrum NDSI value range D2 of the value of NDSI is experimentally grasped. If the value is the value of the range D2, it is judged as a curry-like powder image.
具体的には、定数Cを1500とすると、コロ・チャーの波長670nm(λ2)のスペクトル強度と波長685nm(λ1)のスペクトル強度によるスペクトルの相対的に緩やかな傾きのNDSIの値の範囲D1は、約0〜123の範囲の値となり、カレー味の粉の波長670nm(λ2)のスペクトル強度と波長685nm(λ1)のスペクトル強度によるスペクトルの相対的に急な傾きのNDSIの値の範囲D2は、約128〜204の範囲の値となる。 Specifically, assuming that the constant C is 1500, the range D1 of the NDSI values of the relatively gentle slopes of the spectrum by the spectral intensity of the wavelength 670 nm (λ 2) of the coro char and the spectral intensity of the wavelength 685 nm (λ 1) , The spectrum intensity of the curry-flavored powder at a wavelength of 670 nm (λ2) and the spectrum intensity of the spectrum at a wavelength of 685 nm (λ1). , Values in the range of about 128-204.
図5(d)に示す画像は、各画素のスペクトルの傾きを、上述のコロ・チャーのNDSI値の所定の範囲D1とカレー味の粉のNDSI値の所定の範囲D2とで識別したものである。図5(d)に示す画像から、ノイズを除去すると、図5(e)に示す画像となる。これにより、カップ麺の撮像画像中にあるコロ・チャーの像とカレー味の粉の像とが視覚的に識別される。 In the image shown in FIG. 5D, the inclination of the spectrum of each pixel is identified by the predetermined range D1 of the NDSI value of the roller char described above and the predetermined range D2 of the NDSI value of the curry powder. is there. If noise is removed from the image shown in FIG. 5 (d), the image shown in FIG. 5 (e) is obtained. Thereby, the image of Koro char and the image of the curry-like powder in the captured image of the cup noodle are visually identified.
(検査のプログラム処理)
本実施形態の検査装置20の検査のプログラム処理について図6乃至図8を用いて説明する。
(Program processing of examination)
The program processing of the inspection of the inspection apparatus 20 of the present embodiment will be described using FIGS. 6 to 8.
被検査物であるワーク(カップ麺)10に対する検査の前に、第1のカメラ30と第2のカメラ40による撮像画像の輝度の相違を補正するための準備作業を行う(ステップS01)。 Before the inspection of the workpiece (cup noodle) 10 which is the inspection object, a preparatory work is performed to correct the difference in luminance of the captured image by the first camera 30 and the second camera 40 (step S01).
第1のカメラ30では、第1の撮像素子32により、波長685nmの光の撮像画像を取得する。第2のカメラ40では、第2の撮像素子42により、波長670nmの光の撮像画像を取得する。 In the first camera 30, the first imaging element 32 acquires a captured image of light having a wavelength of 685 nm. In the second camera 40, the second imaging element 42 acquires a captured image of light having a wavelength of 670 nm.
ワーク台22上に、図7(a)に示すような校正用白板60を載置し、検査装置20の第1のカメラ30と第2のカメラ40により校正用白板60を撮像する。校正用白板60は、セラミック製の分光光度計用の校正用標準板であり、可視光領域のほぼ全域にわたり90%以上の輝度率を有している。第1のカメラ30と第2のカメラ40により校正用白板の撮像画像である白板画像61、62を取得し、画像メモリ50に記憶しておく。 A calibration white board 60 as shown in FIG. 7A is placed on the work table 22, and the calibration white board 60 is imaged by the first camera 30 and the second camera 40 of the inspection apparatus 20. The white calibration plate 60 is a calibration standard plate for a ceramic spectrophotometer, and has a luminance ratio of 90% or more over substantially the entire visible light region. White board images 61 and 62 which are captured images of the white board for calibration are acquired by the first camera 30 and the second camera 40 and stored in the image memory 50.
また、第1のカメラ30と第2のカメラ40による撮像画像の座標の相違を補正するための準備作業を行う(ステップS02)。ワーク台22上に、図7(b)に示すような校正用チェスボード70を載置し、検査装置20の第1のカメラ30と第2のカメラ40により校正用チェスボード70を撮像する。校正用チェスボード70は、セラミック製の分光光度計用の校正用標準板であり、黒白のチェスボードの図柄であり、可視光領域のほぼ全域にわたり黒部分は20%以下の輝度率を有し、白部分は90%以上の輝度率を有している。第1のカメラ30と第2のカメラ40により校正用チェスボード70の撮像画像であるチェスボード画像71、72を取得し、画像メモリ50に記憶しておく。 In addition, preparation work is performed to correct the difference between the coordinates of the captured image by the first camera 30 and the second camera 40 (step S02). The calibration chess board 70 as shown in FIG. 7B is placed on the work table 22, and the calibration chess board 70 is imaged by the first camera 30 and the second camera 40 of the inspection apparatus 20. The calibration chess board 70 is a calibration standard board for a ceramic spectrophotometer, is a black and white chess board pattern, and a black portion has a luminance ratio of 20% or less over substantially the entire visible light region. The white portion has a luminance rate of 90% or more. Chessboard images 71 and 72 which are captured images of the calibration chessboard 70 are acquired by the first camera 30 and the second camera 40 and stored in the image memory 50.
次に、第2のカメラ40による輝度補正画像92の座標を、第1のカメラ30による輝度補正画像91の座標にあわせる座標補正処理を行うために、演算部52により、第1のカメラ30によるチェスボード画像71と第2のカメラ40によるチェスボード画像72を用いて、座標補正するためのキャリブレーションデータ73を生成する(ステップS03)。キャリブレーションデータ73を画像メモリ50に記憶する。 Next, in order to perform coordinate correction processing to match the coordinates of the luminance correction image 92 by the second camera 40 with the coordinates of the luminance correction image 91 by the first camera 30, the arithmetic unit 52 performs the correction processing by the first camera 30. The calibration data 73 for coordinate correction is generated using the chessboard image 71 and the chessboard image 72 by the second camera 40 (step S03). The calibration data 73 is stored in the image memory 50.
なお、第1のカメラ30による輝度補正画像91の座標を、第2のカメラ40による輝度補正画像92の座標にあわせる座標補正処理を行うためのキャリブレーションデータを生成するようにしてもよい。 Note that calibration data may be generated to perform coordinate correction processing in which the coordinates of the luminance correction image 91 by the first camera 30 are aligned with the coordinates of the luminance correction image 92 by the second camera 40.
続いて、被検査物であるワーク(カップ麺)10に対する検査を開始する。被検査物であるワーク(カップ麺)10は、ベルトコンベア等の搬送機構(図示せず)により搬送され、ワーク台22の所定位置を順次通過する。ワーク(カップ麺)10がワーク台22の所定位置に達したことを、センサ(図示せず)により検知すると、搬送機構(図示せず)はトリガー信号を出力する。 Subsequently, the inspection on the workpiece (cup noodle) 10 to be inspected is started. The workpiece (cup noodle) 10 to be inspected is transported by a transport mechanism (not shown) such as a belt conveyor, and sequentially passes a predetermined position of the workpiece table 22. When it is detected by a sensor (not shown) that the work (cup noodle) 10 has reached a predetermined position on the work base 22, the transport mechanism (not shown) outputs a trigger signal.
制御部54は、搬送機構(図示せず)からのトリガー信号の出力を検知する(ステップS04)。 Control unit 54 detects the output of the trigger signal from the transport mechanism (not shown) (step S04).
制御部54は、トリガー信号を検知すると、ストロボ電源26を制御して照明用傘24内のストロボ電球(図示せず)を発光させると同時に、第1のカメラ30と第2のカメラ40を制御してワーク(カップ麺)10を撮像する(ステップS05)。これにより、第1のカメラ30からワーク(カップ麺)10の撮像画像である生画像81と、第2のカメラ40からワーク(カップ麺)10の撮像画像である生画像82を取得し、画像メモリ50に記憶する。 When detecting the trigger signal, the control unit 54 controls the strobe power supply 26 to make the strobe light bulb (not shown) in the lighting umbrella 24 emit light, and at the same time control the first camera 30 and the second camera 40 Then, the work (cup noodle) 10 is imaged (step S05). Thereby, the raw image 81 which is a captured image of the work (cup noodle) 10 from the first camera 30 and the raw image 82 which is a captured image of the work (cup noodle) 10 from the second camera 40 are obtained It is stored in the memory 50.
次に、演算部52は、画像メモリ50に記憶された白板画像61、62、チェスボード画像71、72、生画像81、82を用いて、前述の検出原理に基づく演算を行って判定画像120を生成する。 Next, using the white board images 61 and 62, chessboard images 71 and 72, and raw images 81 and 82 stored in the image memory 50, the operation unit 52 performs an operation based on the above-described detection principle to obtain a judgment image 120. Generate
まず、白板画像61、62と生画像81、82とから、輝度補正画像91、92を生成する輝度補正処理を実行する(ステップS06)。演算部52により、第1のカメラ30の生画像81の各画素の値R1と、第1のカメラ30の白板画像61の各画素の値W1とから次式により輝度補正画像91の各画素の値B1を演算する。 First, the brightness correction processing for generating the brightness correction images 91 and 92 from the white plate images 61 and 62 and the raw images 81 and 82 is executed (step S06). From the value R1 of each pixel of the raw image 81 of the first camera 30 and the value W1 of each pixel of the white plate image 61 of the first camera 30 by the calculation unit 52, Calculate the value B1.
B1=R1÷W1×C
ただし、Cは定数であり、例えば、100である。
B1 = R1 ÷ W1 × C
However, C is a constant, for example, 100.
演算部52により、第2のカメラ40の生画像82の各画素の値R2と、第2のカメラ40の白板画像62の各画素の値W2とから次式により輝度補正画像92の各画素の値B2を演算する。 From the value R2 of each pixel of the raw image 82 of the second camera 40 and the value W2 of each pixel of the white plate image 62 of the second camera 40 by the calculation unit 52, Calculate the value B2.
B2=R2÷W2×C
ただし、Cは定数であり、例えば、100である。
B2 = R2 ÷ W2 × C
However, C is a constant, for example, 100.
生画像81、82は、例えば、中心部が明るく、外周部が暗いという明るさの揺らぎがあるが、その揺らぎの程度や揺らぎの場所は、第1のカメラ30と第2のカメラ40とで同じではない。輝度補正ステップは、各撮像画像における明るさの揺らぎによる変動を補正すると共に、第1のカメラ30と第2のカメラ30による明るさの揺らぎの相違を補正する。 In the raw images 81 and 82, for example, there is a fluctuation in brightness that the central part is bright and the outer peripheral part is dark, but the degree of the fluctuation and the place of the fluctuation are between the first camera 30 and the second camera 40. not the same. The luminance correction step corrects the fluctuation due to the fluctuation of the brightness in each captured image and corrects the difference in the fluctuation of the brightness by the first camera 30 and the second camera 30.
演算された輝度補正画像91、92は画像メモリ50に記憶する。 The calculated luminance corrected images 91 and 92 are stored in the image memory 50.
次に、画像メモリ50に記憶された輝度補正画像91と輝度補正画像92と間の座標値を補正する座標補正処理を実行する(ステップS07)。第2のカメラ40による輝度補正画像92の座標を、第1のカメラ30による輝度補正画像91の座標にあわせる座標補正処理を行うため、演算部52により、画像メモリ50に記憶された第2のカメラ40による輝度補正画像92に、キャリブレーションデータ73を適用して、第2のカメラ40による輝度補正画像92の座標補正画像102を生成する。座標補正画像102を画像メモリ50に記憶する。 Next, coordinate correction processing for correcting coordinate values between the luminance correction image 91 and the luminance correction image 92 stored in the image memory 50 is executed (step S07). In order to perform coordinate correction processing to match the coordinates of the luminance correction image 92 by the second camera 40 with the coordinates of the luminance correction image 91 by the first camera 30, the second stored in the image memory 50 by the arithmetic unit 52. The calibration data 73 is applied to the luminance correction image 92 by the camera 40 to generate a coordinate correction image 102 of the luminance correction image 92 by the second camera 40. The coordinate correction image 102 is stored in the image memory 50.
次に、第1のカメラ30による輝度補正画像91と第2のカメラ40による座標補正画像102とを用いて、各画素の正規化分光指数(Normalized Difference Spectral Index:NDSI)を演算して、NDSI検査画像110を生成する(ステップS08)。 Next, using the luminance correction image 91 by the first camera 30 and the coordinate correction image 102 by the second camera 40, the Normalized Difference Spectral Index (NDSI) of each pixel is calculated, and the NDSI is calculated. An inspection image 110 is generated (step S08).
第1のカメラ30による輝度補正画像91の各画素のスペクトル強度をH1、第2のカメラ40による座標補正画像102の各画素のスペクトル強度をH2とすると、正規化分光指数(Normalized Difference Spectral Index:NDSI)は次式となる。 Assuming that the spectral intensity of each pixel of the luminance-corrected image 91 by the first camera 30 is H1 and the spectral intensity of each pixel of the coordinate-corrected image 102 by the second camera 40 is H2, Normalized Difference Spectral Index: NDSI) becomes the following equation.
NDSI=(H1−H2)×C/(H1+H2)
ただし、Cは定数であり、本実施形態では1500である。
NDSI = (H1-H2) x C / (H1 + H2)
However, C is a constant and is 1500 in this embodiment.
NDSI検査画像110を画像メモリ50に記憶する。 The NDSI inspection image 110 is stored in the image memory 50.
次に、画像メモリ50に記憶されたNDSI検査画像110からコロ・チャーとカレー味の粉とを判別する判別処理を開始する(ステップS09)。 Next, a discrimination process of discriminating the collo char and the curry-like powder from the NDSI inspection image 110 stored in the image memory 50 is started (step S09).
例えば、NDSI検査画像110の各画素の値が、コロ・チャーに対する所定の範囲D1内であるか、カレー味(c)の粉に対する所定の範囲D2内であるかに基づいて、各画素がコロ・チャーであるかカレー味の粉であるかを判別し、コロ・チャーの部分とカレー味の粉の部分を色分けした判定画像120を生成する(ステップS10)。 For example, based on whether the value of each pixel of the NDSI inspection image 110 is within the predetermined range D1 for the roller char or the predetermined range D2 for the curry flavor (c) powder, each pixel is Determine whether it is char or curry-like powder, and generate a judgment image 120 in which the portion of colo char and the portion of curry-like powder are color-coded (step S10).
このステップS10の処理の詳細について、図9乃至図13を用いて説明する。 The details of the process of step S10 will be described with reference to FIGS.
単純に、NDSI検査画像110の各画素の値が、所定の範囲D1内であるか、所定の範囲D2内であるかに基づいて、コロ・チャーの部分と粉の部分を色付けした判定画像120を生成した場合、生画像81、82のカップ麺外側の背景部分や、カップ麺のカップ自体の像や、他の具材の像、例えば、じゃがいもの像も色付けされてしまうことがある。 A judgment image 120 in which the portion of the roller char and the portion of the powder are colored simply based on whether the value of each pixel of the NDSI inspection image 110 is within the predetermined range D1 or within the predetermined range D2. In some cases, background portions outside of the cup noodles of the raw images 81 and 82, an image of the cup noodle cup itself, and an image of other ingredients, for example, an image of a potato may be colored.
本実施形態では、第1のカメラ30の生画像81において、所定のしきい値以下の強度の各画素を消して、検出対象外とする。これにより、カップ麺外側の背景部分が、赤色又は青色に色付けされるのを防ぐことができる。 In the present embodiment, in the raw image 81 of the first camera 30, each pixel having an intensity equal to or less than a predetermined threshold value is erased and is not detected. This can prevent the background portion of the cup noodle outside from being colored in red or blue.
また、本実施形態では、第1のカメラ30の輝度補正画像91において、所定のしきい値以上の強度の各画素を消して、検出対象外とする。これにより、カップ麺のカップ自体の像やじゃがいも等の他の具材の像が、赤色又は青色に色付けされるのを防ぐことができる。 Further, in the present embodiment, in the luminance correction image 91 of the first camera 30, each pixel having an intensity equal to or higher than a predetermined threshold value is erased and is not detected. This can prevent the image of the cup noodle itself and the image of other ingredients such as potatoes from being colored in red or blue.
図9にNDSI検査画像を示す。図9(a1)はNDSI検査画像110を示す図であり、図9(a2)はNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 FIG. 9 shows an NDSI examination image. FIG. 9 (a1) shows the NDSI inspection image 110, and FIG. 9 (a2) is a graph showing the NDSI value along the line AA 'of the NDSI inspection image 110. As shown in FIG.
図9に示すように、NDSI画像110の各画素のNDSIは0〜250の値となる。NDSI検査画像110の各画素のNDSI値が、所定の範囲D1内であるか、所定の範囲D2内であるかに基づいて、コロ・チャーの部分と粉の部分を判別する。 As shown in FIG. 9, the NDSI of each pixel of the NDSI image 110 has a value of 0 to 250. Based on whether the NDSI value of each pixel of the NDSI inspection image 110 is within the predetermined range D1 or within the predetermined range D2, the portion of the roller char and the portion of the powder are determined.
図10は、第1のカメラ30の生画像81と、第1のカメラ30の輝度補正画像91とを用いて、NDSI画像110をマスクする処理の説明図である。 FIG. 10 is an explanatory diagram of a process of masking the NDSI image 110 using the raw image 81 of the first camera 30 and the luminance correction image 91 of the first camera 30.
図10(a1)は生画像81を示す図であり、図10(a2)は生画像81のA−A′線に沿ったマスクを示すグラフである。図10(a1)の生画像81の各画素は、その明るさから0〜255の範囲の値となる。図10(a2)のマスクは、生画像81の各画素の値が40以下の領域を除去するためのマスクである。生画像81の各画素の値が40以下の領域が「0」であり、各画素の値が40より大きい領域が「1」であるマスクとなる。「0」の領域はマスクされ、「1」の領域はマスクされない。 FIG. 10A1 is a view showing a raw image 81, and FIG. 10A2 is a graph showing a mask along line A-A 'of the raw image 81. As shown in FIG. Each pixel of the raw image 81 of FIG. 10 (a1) has a value in the range of 0 to 255 based on the brightness. The mask in FIG. 10A2 is a mask for removing a region in which the value of each pixel of the raw image 81 is 40 or less. An area in which the value of each pixel of the raw image 81 is 40 or less is “0”, and an area in which the value of each pixel is larger than 40 is “1”. Areas of "0" are masked and areas of "1" are not masked.
図10(b1)は輝度補正画像91を示す図であり、図10(b2)は輝度補正画像91のA−A′線に沿ったマスクを示すグラフである。図10(b1)の輝度補正画像91の各画素は、その明るさから0〜255の範囲の値となる。図10(b2)のマスクは、輝度補正画像91の各画素の値が153以上の領域を除去するためのマスクである。輝度補正画像91の各画素の値が153以上の領域が「0」であり、各画素の値が153より小さい領域が「1」であるマスクとなる。「0」の領域はマスクされ、「1」の領域はマスクされない。 FIG. 10 (b1) is a view showing the luminance correction image 91, and FIG. 10 (b2) is a graph showing a mask along the line AA 'of the luminance correction image 91. As shown in FIG. Each pixel of the luminance correction image 91 in FIG. 10B1 has a value in the range of 0 to 255 based on the brightness. The mask in FIG. 10B is a mask for removing an area in which the value of each pixel of the luminance correction image 91 is 153 or more. An area in which the value of each pixel of the luminance correction image 91 is 153 or more is “0”, and an area in which the value of each pixel is smaller than 153 is “1”. Areas of "0" are masked and areas of "1" are not masked.
図9に示すNDSI検査画像110を、図10(a2)のマスクと図10(b2)のマスクによりマスクされた状態を図10(c1)(c2)に示す。図10(c1)はマスクされたNDSI検査画像110を示し、図10(c2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 10 (c1) and 10 (c2) show a state in which the NDSI inspection image 110 shown in FIG. 9 is masked by the mask of FIG. 10 (a2) and the mask of FIG. 10 (b2). FIG. 10 (c 1) shows the masked NDSI inspection image 110, and FIG. 10 (c 2) is a graph showing the NDSI value along the line AA ′ of the NDSI inspection image 110.
図10(c1)(c2)に示すNDSI検査画像110では、図9に示す元のNDSI検査画像110から、カップ麺外側の背景部分や、カップ麺のカップ自体の像やじゃがいも等の他の具材の像の部分が除去されていることがわかる。 From the original NDSI inspection image 110 shown in FIG. 9 in the NDSI inspection image 110 shown in FIG. 10 (c1) (c2), other components such as a background portion outside the cup noodles, an image of the cup noodle cup itself, a potato It can be seen that the part of the material image has been removed.
本実施形態では、図10(c1)(c2)に示すNDSI検査画像110の各画素の値が、所定の範囲D1内であるか、所定の範囲D2内であるかに基づいて、コロ・チャーの部分と粉の部分を判別する。 In the present embodiment, based on whether the value of each pixel of the NDSI inspection image 110 shown in FIGS. 10C1 and 10C2 is within the predetermined range D1 or within the predetermined range D2, Determine the part of the and the part of the powder.
図11は、図10(c1)(c2)に示すNDSI検査画像110からコロ・チャーの領域を判別する処理の説明図である。 FIG. 11 is an explanatory diagram of a process of determining the area of the roller char from the NDSI inspection image 110 shown in FIGS. 10 (c1) and 10 (c2).
図11(a1)はマスクされたNDSI検査画像110を示し、図11(a2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 FIG. 11 (a1) shows the masked NDSI inspection image 110, and FIG. 11 (a2) is a graph showing the NDSI value along the line AA 'of the NDSI inspection image 110.
マスクされたNDSI検査画像110から、NDSI値の範囲D1(0〜123の範囲)を抽出して、その抽出結果を2値化すると、図11(b1)(b2)に示すようになる。図11(b1)は2値化されたNDSI検査画像110を示し、図11(b2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 When the range D1 (range of 0 to 123) of the NDSI value is extracted from the masked NDSI inspection image 110 and the extraction result is binarized, it becomes as shown in FIG. 11 (b1) (b2). FIG. 11 (b 1) shows the binarized NDSI inspection image 110, and FIG. 11 (b 2) is a graph showing the NDSI value along the line AA ′ of the NDSI inspection image 110.
図11(b1)(b2)に示す2値化されたNDSI検査画像110に対して、「1」の画素に対して近隣画素の最大輝度に置き換える膨張処理を行うと、図11(c1)(c2)に示すようになる。図11(c1)は膨張処理されたNDSI検査画像110を示し、図11(c2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。膨張処理の詳細については後述する。 When the binarized NDSI inspection image 110 shown in FIG. 11 (b1) (b2) is subjected to expansion processing to replace the pixel “1” with the maximum luminance of the neighboring pixels, FIG. It becomes as shown in c2). FIG. 11 (c 1) shows the expanded NDSI inspection image 110, and FIG. 11 (c 2) is a graph showing the NDSI value along the line AA ′ of the NDSI inspection image 110. Details of the expansion processing will be described later.
マスクされたNDSI検査画像110を、NDSI値の範囲D1(0〜123の範囲)を抽出して2値化し、更に膨張処理すると、図11(c1)(c2)に示すように、コロ・チャーの領域が正しく抽出される。 When the masked NDSI inspection image 110 is extracted and binarized by extracting the range D1 (range of 0 to 123) of the NDSI value and further dilation processing, as shown in FIG. 11 (c1) (c2), Area is correctly extracted.
図12は、図10(c1)(c2)に示すNDSI検査画像110からカレー味の粉の領域を判別する処理の説明図である。 FIG. 12 is an explanatory diagram of a process of determining the region of the curry-flavored powder from the NDSI inspection image 110 shown in (c1) and (c2) in FIG.
図12の処理では、図10(c1)(c2)に示すNDSI検査画像110から、図11の処理で抽出されたコロ・チャーの領域を除去する。図12(a1)(a2)はコロ・チャーの領域を除去したNDSI検査画像110を示す。図12(a1)はコロ・チャーの領域が除去されたNDSI検査画像110を示し、図12(a2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 In the process of FIG. 12, the area of the roller char extracted in the process of FIG. 11 is removed from the NDSI inspection image 110 shown in FIGS. 10 (c1) and 10 (c2). 12 (a1) and 12 (a2) show the NDSI inspection image 110 from which the area of the roller char has been removed. FIG. 12 (a1) shows the NDSI inspection image 110 from which the area of the roller char has been removed, and FIG. 12 (a2) is a graph showing the NDSI value along the line A-A 'of the NDSI inspection image 110. .
図12(a1)(a2)のNDSI検査画像110から、NDSI値の範囲D2(128〜204の範囲)を抽出して、その抽出結果を2値化すると、図12(b1)(b2)に示すようになる。図12(b1)は2値化されたNDSI検査画像110を示し、図12(b2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 When the range D2 (range of 128 to 204) of the NDSI value is extracted from the NDSI inspection image 110 of FIG. 12 (a1) (a2) and the extraction result is binarized, it is shown in FIG. 12 (b1) (b2) It will be shown. FIG. 12 (b 1) shows the binarized NDSI inspection image 110, and FIG. 12 (b 2) is a graph showing the NDSI value along the line A-A ′ of the NDSI inspection image 110.
図12(b1)(b2)に示す2値化されたNDSI検査画像110に対して、「1」の画素に対して、近隣画素の最大輝度に置き換える膨張処理と、近隣画素の最小輝度に置き換える収縮処理を行うと、図12(c1)(c2)に示すようになる。図12(c1)は膨張処理及び収縮処理されたNDSI検査画像110を示し、図12(c2)は、そのNDSI検査画像110のA−A′線に沿ったNDSI値を示すグラフである。 With regard to the binarized NDSI inspection image 110 shown in FIGS. 12 (b1) and 12 (b2), expansion processing to replace the pixel of “1” with the maximum luminance of the neighboring pixel and replacing with the minimum luminance of the neighboring pixel When the contraction process is performed, it is as shown in FIG. 12 (c1) (c2). FIG. 12 (c 1) shows the expanded and contracted NDSI inspection image 110, and FIG. 12 (c 2) is a graph showing the NDSI value along line A-A ′ of the NDSI inspection image 110.
前述したように、図11(b1)(b2)に示す2値化されたNDSI検査画像110に対して膨張処理を行い、 図12(b1)(b2)に示す2値化されたNDSI検査画像110に対して、膨張処理と、収縮処理を行う。ここで、膨張処理、収縮処理の詳細について説明する。 As described above, expansion processing is performed on the binarized NDSI inspection image 110 shown in FIGS. 11 (b1) and (b2), and the binarized NDSI inspection image shown in FIGS. 12 (b1) and (b2) The expansion process and the contraction process are performed on 110. Here, the details of the expansion process and the contraction process will be described.
膨張処理、収縮処理では一般的に二値化された白黒の画像に対して処理が行われる。注目画素の周辺に1画素でも白い画素があれば白に置き換える処理を膨張(Dilation)処理、逆に周辺に1画素でも黒い画素があれば黒に置き換える処理を収縮(Erosion)処理という。本実施形態のように、二値化された画像ではなく、グレー画像に対して処理を行う場合は、膨張処理の場合、注目画素の近傍の最大輝度値を注目画素の輝度値に置き換える。収縮処理の場合、最小輝度値に置き換えることで、グレー画像に対して処理を行います。なお、膨張処理、収縮処理は単独で処理を行ってもよいが、膨張処理、収縮処理を繰り返して処理を行ってもよい。膨張処理、収縮処理を用いることで、欠け、断線、ホコリやゴミといった欠陥の検査や、細い線状のパターンの文字や線などの抽出を行うことができる。 In expansion processing and contraction processing, processing is generally performed on a binarized black-and-white image. The process of replacing white pixels as white as one pixel at the periphery of the pixel of interest is referred to as dilation process, and the process of replacing black pixels as black as one pixel at the periphery as black is referred to as erosion process. When processing is performed on a gray image instead of a binarized image as in the present embodiment, in the case of dilation processing, the maximum luminance value in the vicinity of the target pixel is replaced with the luminance value of the target pixel. In the case of contraction processing, the gray image is processed by replacing it with the minimum luminance value. The expansion process and the contraction process may be performed alone, but the expansion process and the contraction process may be repeated to perform the process. By using expansion processing and contraction processing, inspection of defects such as chipping, breakage, dust, and dust can be performed, and characters and lines of a thin linear pattern can be extracted.
図12(a1)(a2)に示すNDSI検査画像110を、NDSI値の範囲D2(128〜204の範囲)を抽出して2値化し、更に膨張処理及び収縮処理すると、図12(c1)(c2)に示すように、カレー味の粉の領域が正しく抽出される。 If the NDSI inspection image 110 shown in FIG. 12 (a1) (a2) is binarized by extracting the range D2 (range 128 to 204) of the NDSI value, and further expansion processing and contraction processing, FIG. 12 (c1) (c1) As shown in c2), the area of curry-like powder is correctly extracted.
図13は、図11(c1)(c2)に示すコロ・チャーの領域の抽出結果と、図12(c1)(c2)に示すカレー味の粉の領域の抽出結果とを重ね合わせた判定画像120の示す図である。図13(a1)は抽出結果を重ね合わせた判定画像120を示し、図13(a2)は、その判定画像120のA−A′線に沿った抽出結果を示すグラフである。塗りつぶされた領域がコロ・チャーの領域であり、ハッチングされた領域がカレー味の粉の領域である。 FIG. 13 shows a judgment image obtained by superposing the extraction result of the region of koro char shown in FIG. 11 (c1) (c2) and the extraction result of the region of curry taste powder shown in FIG. 12 (c1) (c2) FIG. FIG. 13 (a1) shows a judgment image 120 on which the extraction results are superimposed, and FIG. 13 (a2) is a graph showing the extraction results along the line AA 'of the judgment image 120. FIG. The filled area is the area of the roll, and the hatched area is the area of the curry-like powder.
このようにしてステップS10の処理が終了すると、次に、画像メモリ50に記憶された判定画像120に基づいて、ワーク(カップ麺)10の具材が予め定めた規定通りであるか否か判定する(ステップS11)。この判断は、判定画像120をモニター(図示せず)に表示し、検査員が目視で判断してもよいし、画素数をカウントして判断してもよい。 Thus, when the process of step S10 is completed, next, based on the determination image 120 stored in the image memory 50, it is determined whether or not the ingredients of the work (cup noodle) 10 are in accordance with a predetermined rule. (Step S11). This determination may be made by displaying the determination image 120 on a monitor (not shown), and the inspector may make the determination visually or by counting the number of pixels.
検査員が目視で判断する場合は、塗りつぶされた領域とハッチングされた領域とが所定面積あるか否かを目視で判断する。 When the inspector judges visually, it is visually judged whether the filled area and the hatched area have a predetermined area or not.
画素数をカウントして判断する場合は、判定画像120におけるコロ・チャーの領域、すなわち、塗りつぶされた領域の画素数をカウントして、所定値以下か否かにより判断する。また、判定画像120におけるカレー味の粉の領域、すなわち、ハッチングされた領域の画素数をカウントして、所定値以下か否かにより判断する。 When judging by counting the number of pixels, the number of pixels of the area of the roller image in the judgment image 120, that is, the filled area is counted, and it is judged whether or not it is less than a predetermined value. Further, the number of pixels of the curry-like powder region in the determination image 120, that is, the hatched region is counted, and it is determined whether or not the number is equal to or less than a predetermined value.
ステップS11の判定の結果、ワーク(カップ麺)10中にコロ・チャーやカレー味の粉が規定通りに収納されていないと判断されれば、そのワーク(カップ麺)10はリジェクトされ(ステップS12)、次のワーク(カップ麺)10の検出処理に移行する。 As a result of the determination in step S11, if it is determined that the flour of curry or curry taste is not stored as prescribed in the work (cup noodle) 10, the work (cup noodle) 10 is rejected (step S12) ), Shift to the detection process of the next work (cup noodle) 10.
ステップS10の判定の結果、ワーク(カップ麺)10中にコロ・チャーやカレー味の粉が規定通りに収納されていると判断されれば、そのワーク(カップ麺)10をリジェクトすることなく次のワーク(カップ麺)10の検出処理に移行する。 If, as a result of the determination in step S10, it is determined that the flour of curry or curry taste is stored as prescribed in the work (cup noodle) 10, the work (cup noodle) 10 is not rejected next, without being rejected. It moves to the detection processing of work (cup noodle) 10 of.
[変形実施形態]
上記実施形態に限らず種々の変形が可能である。上記実施形態における、被検査物、検査対象の具材、各種範囲の数値、各種寸法、各部材の材料は、一例であり、これに限定されるものではない。
[Modified embodiment]
Not limited to the above embodiment, various modifications are possible. The inspection object, the material to be inspected, the numerical values of the various ranges, the various dimensions, and the materials of the respective members in the above-described embodiment are merely examples, and the present invention is not limited thereto.
10…ワーク(カップ麺)
20…検査装置
22…ワーク台
24…照明用傘
26…ストロボ電源
28…ビームスプリッタ
30…第1のカメラ
32…第1の撮像素子
34…第1のバンドバスフィルター
36…第1のレンズ
40…第2のカメラ
42…第2の撮像素子
44…第2のバンドバスフィルター
46…第2のレンズ
50…画像メモリ
52…演算部
54…制御部
60…校正用白板
61、62…白板画像
70…校正用チェスボード
71、72…チェスボード画像
73…キャリブレーションデータ
81、82…生画像
91、92…輝度補正画像
102…座標補正画像
110…NDSI検査画像
120…判定画像
10 ... Work (cup noodles)
20 ... inspection device 22 ... work stand 24 ... umbrella for illumination 26 ... strobe power supply 28 ... beam splitter 30 ... first camera 32 ... first imaging element 34 ... first band bus filter 36 ... first lens 40 ... Second camera 42 Second imaging element 44 Second band-pass filter 46 Second lens 50 Image memory 52 Operation unit 54 Control unit 60 White board 61 for calibration 60 White board image 70 Calibration chess board 71, 72 ... Chess board image 73 ... Calibration data 81, 82 ... Raw image 91, 92 ... Brightness correction image 102 ... Coordinate correction image 110 ... NDSI inspection image 120 ... Determination image
Claims (8)
前記第1の撮像部により撮像された検査対象の第1の撮像画像の各画素のスペクトル強度と、前記第2の撮像部により撮像された前記検査対象の第2の撮像画像の各画素のスペクトル強度とから演算された各画素の正規化分光指数により構成された検査画像を生成し、
前記検査画像に基づいて、前記検査対象の状態を検査する
ことを特徴とする検査方法。 The inspection target is imaged by a first imaging unit that captures an image of a first wavelength, and a second imaging unit that captures an image of a second wavelength,
The spectral intensity of each pixel of the first captured image of the inspection object captured by the first imaging unit, and the spectrum of each pixel of the second captured image of the inspection object captured by the second imaging unit Generate an inspection image consisting of the normalized spectral index of each pixel computed from the intensity,
An inspection method comprising: inspecting a state of the inspection target based on the inspection image.
前記検査対象に含まれる第1の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第1の傾きが、前記検査対象に含まれる第2の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第2の傾きと相違するように、前記第1の波長と前記第2の波長を選択し、
前記検査画像の各画素の前記正規化分光指数の相違に基づいて、前記検査対象に含まれる前記第1の部分と前記第2の部分とを識別する
ことを特徴とする検査方法。 In the inspection method according to claim 1,
The spectral intensity for the first wavelength with respect to the first portion contained in the inspection object and the first inclination of the spectrum due to the spectral intensity of the second wavelength are the second for the second portion contained in the inspection object The first wavelength and the second wavelength are selected to be different from a spectral intensity for one wavelength and a second slope of the spectrum due to the spectral intensity of the second wavelength,
An inspection method comprising: identifying the first portion and the second portion included in the inspection target based on the difference in the normalized spectral index of each pixel of the inspection image.
前記検査対象に含まれる前記第1の部分及び前記第2の部分以外の第3の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第3の傾きが、前記第1の傾き及び/又は前記第2の傾きと相違するように、前記第1の波長と前記第2の波長を選択する
ことを特徴とする検査方法。 In the inspection method according to claim 2,
The third gradient of the spectrum by the spectral intensity for the first wavelength and the spectral intensity of the second wavelength with respect to the third portion other than the first portion and the second portion included in the inspection object, The first wavelength and the second wavelength are selected to be different from the first inclination and / or the second inclination.
前記検査対象はカップ麺であり、
前記検査対象に含まれる前記第1の部分はコロ・チャーであり、
前記検査対象に含まれる前記第1の部分は粉であり、
前記第1の波長は685nmであり、
前記第2の波長は670nmである
ことを特徴とする検査方法。 In the inspection method according to any one of claims 1 to 3,
The inspection object is cup noodles,
The first part included in the inspection object is a roller char,
The first part included in the inspection object is powder,
The first wavelength is 685 nm,
The second wavelength is 670 nm.
第2の波長の画像を撮像する第2の撮像部と、
前記第1の撮像部により撮像された検査対象の第1の撮像画像の各画素のスペクトル強度と、前記第2の撮像部により撮像された前記検査対象の第2の撮像画像の各画素のスペクトル強度とから演算された各画素の正規化分光指数により構成された検査画像を生成し、前記検査画像に基づいて、前記検査対象の状態を検査する検査部と
を有することを特徴とする検査装置。 A first imaging unit for capturing an image of a first wavelength;
A second imaging unit for capturing an image of a second wavelength;
The spectral intensity of each pixel of the first captured image of the inspection object captured by the first imaging unit, and the spectrum of each pixel of the second captured image of the inspection object captured by the second imaging unit An inspection unit configured to generate an inspection image composed of a normalized spectral index of each pixel calculated from the intensity, and to inspect the state of the inspection target based on the inspection image; .
前記検査対象に含まれる第1の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第1の傾きが、前記検査対象に含まれる第2の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第2の傾きと相違するように、前記第1の波長と前記第2の波長が選択され、
前記検査部は、前記検査画像の各画素の前記正規化分光指数の相違に基づいて、前記検査対象に含まれる前記第1の部分と前記第2の部分とを識別する
ことを特徴とする検査装置。 In the inspection apparatus according to claim 5,
The spectral intensity for the first wavelength with respect to the first portion contained in the inspection object and the first inclination of the spectrum due to the spectral intensity of the second wavelength are the second for the second portion contained in the inspection object The first and second wavelengths are selected to be different from a spectral intensity for one wavelength and a second slope of the spectrum due to the spectral intensity of the second wavelength,
The inspection unit identifies the first portion and the second portion included in the inspection target based on the difference in the normalized spectral index of each pixel of the inspection image. apparatus.
前記検査対象に含まれる前記第1の部分及び前記第2の部分以外の第3の部分に対する前記第1の波長に対するスペクトル強度と前記第2の波長のスペクトル強度によるスペクトルの第3の傾きが、前記第1の傾き及び/又は前記第2の傾きと相違するように、前記第1の波長と前記第2の波長が選択される
ことを特徴とする検査装置。 In the inspection apparatus according to claim 6,
The third gradient of the spectrum by the spectral intensity for the first wavelength and the spectral intensity of the second wavelength with respect to the third portion other than the first portion and the second portion included in the inspection object, The inspection apparatus, wherein the first wavelength and the second wavelength are selected to be different from the first inclination and / or the second inclination.
前記検査対象はカップ麺であり、
前記検査対象に含まれる前記第1の部分はコロ・チャーであり、
前記検査対象に含まれる前記第1の部分は粉であり、
前記第1の波長は685nmであり、
前記第2の波長は670nmである
ことを特徴とする検査装置。 The inspection apparatus according to any one of claims 5 to 7.
The inspection object is cup noodles,
The first part included in the inspection object is a roller char,
The first part included in the inspection object is powder,
The first wavelength is 685 nm,
The second wavelength is 670 nm.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017198355A JP2019074324A (en) | 2017-10-12 | 2017-10-12 | Inspection method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017198355A JP2019074324A (en) | 2017-10-12 | 2017-10-12 | Inspection method and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019074324A true JP2019074324A (en) | 2019-05-16 |
Family
ID=66543997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017198355A Pending JP2019074324A (en) | 2017-10-12 | 2017-10-12 | Inspection method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019074324A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076552A (en) * | 2019-11-13 | 2021-05-20 | マルハニチロ株式会社 | Device and method for inspection |
-
2017
- 2017-10-12 JP JP2017198355A patent/JP2019074324A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076552A (en) * | 2019-11-13 | 2021-05-20 | マルハニチロ株式会社 | Device and method for inspection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830179B2 (en) | Food inspection assisting system, food inspection assisting apparatus and computer program | |
US11079334B2 (en) | Food inspection apparatus, method of inspecting food, and method of learning in identification unit of food inspection apparatus | |
Qin et al. | Development of a two-band spectral imaging system for real-time citrus canker detection | |
JP2008209211A (en) | Foreign matter inspection apparatus and method | |
JP2014215177A (en) | Inspection device and inspection method | |
KR102240757B1 (en) | Real-time detection system for foreign object contained in fresh-cut vegetable using LCTF-based multispectral imaging technology | |
JP7450917B2 (en) | Multispectral image capturing device, inspection device, and multispectral image capturing method | |
ITMI20091158A1 (en) | AUTOMATED SYSTEM FOR THE REVELATION OF AFLATOSSIN IN FOODS | |
JP2015114226A (en) | Visual inspection device and visual inspection method | |
JP2007279064A (en) | Visual inspection device for ptp encapsuled body | |
KR102205445B1 (en) | Method and System for Detecting Foreign Material on Processing Vegetable Using Multispectral Fluorescence Imaging | |
JP2010227892A (en) | Foreign substance sorting method and foreign substance sorting equipment | |
JP2019074324A (en) | Inspection method and device | |
Wisuthiphaet et al. | Non-destructive detection of the wax bloom on European plum during post-harvest handling | |
JP6715001B2 (en) | Food inspection system and food inspection method | |
JP6734211B2 (en) | Foreign product detection device | |
JP2007178407A (en) | Foreign matter intrusion inspection method for inspection object, and device used therefor | |
CN116806304A (en) | Data processing device, data processing method, data processing program, optical element, photographing optical system, and photographing apparatus | |
JP2009068850A (en) | Method and device for inspecting residual agricultural chemical in agricultural produce by spectral image method | |
JP2003207456A (en) | Foreign object-inspecting apparatus | |
JP6403872B2 (en) | Fruit and vegetable inspection equipment | |
JP2016075660A (en) | Boiled egg quality determination device | |
JP2016067930A (en) | Inspection method of absorbent article | |
WO2024034261A1 (en) | Solid-state imaging device and solid-state imaging system | |
JP2020005053A (en) | Spectral sensitivity measurement method for image sensors, inspection method for spectral sensitivity measurement devices, and spectral sensitivity measurement device |