JP6788091B1 - 検査装置および検査方法 - Google Patents

検査装置および検査方法 Download PDF

Info

Publication number
JP6788091B1
JP6788091B1 JP2019205500A JP2019205500A JP6788091B1 JP 6788091 B1 JP6788091 B1 JP 6788091B1 JP 2019205500 A JP2019205500 A JP 2019205500A JP 2019205500 A JP2019205500 A JP 2019205500A JP 6788091 B1 JP6788091 B1 JP 6788091B1
Authority
JP
Japan
Prior art keywords
image
unit
inspection device
determination
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019205500A
Other languages
English (en)
Other versions
JP2021076552A (ja
Inventor
翼 菊地
翼 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maruha Nichiro Corp
Original Assignee
Maruha Nichiro Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maruha Nichiro Corp filed Critical Maruha Nichiro Corp
Priority to JP2019205500A priority Critical patent/JP6788091B1/ja
Application granted granted Critical
Publication of JP6788091B1 publication Critical patent/JP6788091B1/ja
Publication of JP2021076552A publication Critical patent/JP2021076552A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

【課題】食品の完成品に所望の具材が入っているかどうかを目視によらず正確に識別する。【解決手段】対象物を撮像して対象物の可視画像および近赤外画像を取得する撮像部120と、撮像部120が取得した近赤外画像を波長に基づいて加工する加工部130と、撮像部120が撮像した可視画像と、加工部130が加工した近赤外画像とを合成する画像合成部140と、画像合成部140が合成した画像と判定基準とを比較し、比較の結果に基づいて、対象物の中の所定の具材の有無を判定する判定部150とを有する。【選択図】図1

Description

本発明は、検査装置および検査方法に関する。
一般的に、所望の具材を投入して食品を完成させる食品加工の分野において、その完成品にその具材が入っているかどうかを目視によって検査している。また、検査対象品となる完成品の画像を撮像し、可視光線の2つの波長の画像のスペクトル強度から具材を識別する技術が考えられている(例えば、特許文献1参照)。
特開2019−74324号公報
特許文献1に記載された技術においては、可視光線の波長の画像を用いるものであるが、それらのスペクトル強度に基づいて、互いに類似する色彩の具材等を識別するだけであって、具材が入っているかどうかを正確に検知することは困難であるという問題点がある。
本発明の目的は、完成品に所望の具材が入っているかどうかを目視によらずに正確に識別することができる検査装置および検査方法を提供することにある。
本発明の検査装置は、
対象物を撮像して該対象物の可視画像および近赤外画像を取得する第1の撮像部と、
前記第1の撮像部が取得した近赤外画像を波長に基づいて加工する加工部と、
前記第1の撮像部が取得した可視画像と、前記加工部が加工した画像である加工画像とを合成する画像合成部と、
前記画像合成部が合成した画像と判定基準とを比較して、該比較の結果に基づいて、前記対象物の中の所定の具材の有無を判定する判定部とを有する。
また、本発明の検査方法は、
対象物を撮像して該対象物の可視画像および近赤外画像を取得する処理と、
前記取得した近赤外画像を波長に基づいて加工する処理と、
前記取得した可視画像と、前記加工した画像である加工画像とを合成する処理と、
前記合成した画像と判定基準とを比較する処理と、
前記比較の結果に基づいて、前記対象物の中の所定の具材の有無を判定する処理とを行う。
本発明においては、完成品に所望の具材が入っているかどうかを目視によらずに正確に識別することができる。
本発明の検査装置の第1の実施の形態を示す図である。 図1に示した検査装置における検査方法の一例を説明するためのフローチャートである。 本発明の検査装置の第2の実施の形態を示す図である。 図3に示した検査装置における検査方法の一例を説明するためのフローチャートである。 本発明の検査装置の第3の実施の形態を示す図である。 図5に示した出力部における出力態様の一例を示す図である。 図5に示した検査装置における検査方法の一例を説明するためのフローチャートである。 本発明の検査装置の第4の実施の形態を示す図である。 図8に示した排除部の動きの一例を示す図である。 図8に示した排除部の動きの一例を示す図である。 図8に示した検査装置における検査方法の一例を説明するためのフローチャートである。 本発明の検査装置の第5の実施の形態を示す図である。 図12に示した入力部の入力態様の一例を示す図である。 図12に示したデータベースに記憶されている対応付けの一例を示す図である。 図12に示した検査装置における検査方法の一例を説明するためのフローチャートである。
以下に、本発明の実施の形態について図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の検査装置の第1の実施の形態を示す図である。本形態における検査装置100は図1に示すように、撮像部120と、加工部130と、画像合成部140と、判定部150とを有する。なお、図1には、本発明の検査装置が具備する構成要素のうち、本形態にかかわる主要な要素のみを示している。
撮像部120は、対象物を撮像して対象物の画像を取得する第1の撮像部である。このとき、撮像部120は、ハイパースペクトルカメラを用いて対象物を撮像して対象物の可視画像および近赤外画像を取得する。
加工部130は、撮像部120が取得した近赤外画像を波長に基づいて加工する。加工部130は、所定のソフトウェアを用いて、近赤外画像を加工する。ここで加工部130が行う加工は、例えば、互いに異なる波長間の差が大きくなるように波長に応じた色に着色する加工である。ここで、互いに異なる波長間の差が大きくなるような波長に応じた色とは、例えば、赤色(波長:700nm)と緑色(波長:550nm)との色(波長)の組み合わせが挙げられる。
画像合成部140は、撮像部120が取得した可視画像と、加工部130が加工した画像である加工画像とを合成する。このとき、画像合成部140は、撮像部120が取得した可視画像と、加工部130が加工した加工画像とを、所定の割合で合成する。例えば、撮像部120が取得した可視画像を約80%とし、加工部130が加工した加工画像を約20%として、画像合成部140が可視画像と加工画像とを合成すると、判定部150が判定しやすい画像が得られる。なお、この割合は、上述したように80%と20%とが好ましいが、その割合の値から所定の値分、増減した値であっても良い。
判定部150は、画像合成部140が合成した画像と判定基準とを比較して、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する。なお、有無が判定される具材として、エビ等の食材が挙げられる。また、判定基準は、対象物の過去に判定を行った画像およびその判定結果から得られた学習データ(学習モデル)である。
以下に、図1に示した判定部150における判定方法について、いくつか例を挙げて説明する。例えば、判定部150は、加工部130が加工した画像の中にRGBの値が判定基準として設定されている範囲内にあるものが存在する場合、対象物の中に具材があると判定するものであっても良い。また、判定部150は、対象物の中の具材以外の箇所の色(例えば、RGBの値。以下、同じ)と具材の色との差異が、判定基準として設定されている範囲を超えている場合、その部分が具材に相当すると判定するものであっても良い。また、判定部150は、対象物のある部分の色とその周囲の部分との色の差異が、判定基準として設定されている範囲を超えている場合、その部分が具材に相当すると判定するものであっても良い。また、判定部150は、例えば、画像合成部140が合成した画像の配色や所定の色に着色された箇所の全体に対する相対位置や大きさと、判定基準である、対象物の中に具材がある画像および具材が無い画像の配色や所定の色に着色された箇所の全体に対する相対位置や大きさとを比較し、それらの互いの差異が所定の範囲に含まれるかどうかを判定する。そして、判定部150は、この差異が所定の範囲に含まれるかどうかに基づいて、対象物の中の所定の具材の有無を判定するものであっても良い。
以下に、図1に示した検査装置100における検査方法について説明する。図2は、図3に示した検査装置100における検査方法の一例を説明するためのフローチャートである。
まず、撮像部120が対象物を撮像して、対象物の可視画像および近赤外画像を取得する(ステップS1)。続いて、加工部130が、撮像部120が取得した近赤外画像をその波長に基づいて加工する(ステップS2)。すると、画像合成部140が、撮像部120が取得した可視画像と、加工部130が加工した画像である加工画像とを合成する(ステップS3)。続いて、判定部150が、画像合成部140が合成した画像と判定基準とを比較し、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する(ステップS4)。
このように、検査装置100は、対象物の可視画像と近赤外画像とを取得し、取得した近赤外画像をその波長に基づいて加工し、可視画像と加工した近赤外画像とを合成し、合成した画像と、判定基準とに基づいて、対象物の中の具材の有無を判定する。そのため、完成品に所望の具材が入っているかどうかを目視によらずに正確に識別することができる。
(第2の実施の形態)
図3は、本発明の検査装置の第2の実施の形態を示す図である。本形態における検査装置101は図3に示すように、撮像部111,121と、加工部131と、画像合成部141と、判定部151とを有する。なお、図3には、本発明の検査装置が具備する構成要素のうち、本形態にかかわる主要な要素のみを示している。
撮像部111は、対象物を撮像して対象物の可視画像を取得する第2の撮像部である。撮像部121は、対象物を撮像して対象物の近赤外画像を取得する第1の撮像部である。撮像部121は、ハイパースペクトルカメラを用いて対象物を撮像して対象物の近赤外画像を取得する。具体的には、撮像部121は、ハイパースペクトルカメラを用いて、光を波長ごとに分光して撮像した画像のうち、近赤外線の波長のものを取得する。ここで、本発明は、識別対象となる具材の中に水分が多く含まれていることに着目して、水分が多く含まれる箇所を検出する手段を用いる。例えば、水分は波長が970nm付近の光を吸収する性質があるため、その波長を領域に含む近赤外線の画像を検出手段として用いるものでも良い。近赤外画像では、水分の多い箇所が黒い画像となる。ここで用いるハイパースペクトルカメラは、波長が700〜1010nmのものをターゲットとする。なお、水分は波長が1450nmや1940nm付近の光も吸収するが、本形態においては、970nm付近のものを対象とする。このように、近赤外画像で所定の濃度(色)となっている部分が、水分含量がより多い部分であると認識される。
加工部131は、撮像部121が取得した近赤外画像を波長に基づいて加工する。加工部131は、例えば、撮像部121が取得した近赤外画像を波長に応じた色を用いて着色する。具体的には、加工部131は、ハイパースペクトルカメラを用いて撮像した画像のうち、所定の波長を吸収する箇所を所定の色に着色する。このとき、加工部131は、所定の波長を吸収する箇所を他の箇所よりも目立たせる、または区別しやすいような色(例えば、それらの波長の箇所に着色する色を示すそれぞれの数値の互いの差が所定の値を超える色)を用いて着色するものが好ましい。上述したように、本発明のおいては、水分の多い箇所を具材として検出することを目的としていることから、加工部131は、波長が970nm付近の光を吸収する箇所を所定の色(第1の色)に着色する。なお、加工部131は、対象物のそれ以外の箇所について、第1の色とは異なる第2の色を用いて着色する。
画像合成部141は、撮像部111が取得した可視画像と、加工部131が加工した画像である加工画像とを合成する。このとき、画像合成部141は、撮像部111が取得した可視画像と、加工部131が加工した加工画像とを、所定の割合(例えば、80%と20%)で合成する。
判定部151は、画像合成部141が合成した画像と判定基準とを比較して、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する。なお、有無が判定される具材として、エビ等の食材が挙げられる。また、判定基準は、画像の特徴を示す特徴量であって、対象物の過去に判定を行った画像およびその判定結果から得られた学習データ(学習モデル)である。
以下に、図3に示した加工部131における加工方法について、一例を挙げて説明する。加工部131は、所定の解析ソフトウェア(例えば、perception studio/core)を用いて、近赤外画像を加工する。加工部131は、波長が970nm付近の光を吸収する箇所とそれ以外の箇所とを互いに異なる色でマーキング(着色)する。このマーキングの色は、例えば、波長が970nm付近の光を吸収する箇所が赤色、それ以外の箇所が緑色といった、そのマーキング間で識別しやすい色が好ましい。このように、加工部131が加工対象を識別するためにスペクトル(波長)の値を用いる。加工部131が波長を識別する際、近赤外画像の所定の単位(例えば、画素)当たりの波長を識別するものであっても良いし、所定の波長範囲に含まれるエリアを近赤外画像から識別するものであっても良い。
以下に、図3に示した判定部151における判定方法について、いくつか例を挙げて説明する。例えば、判定部151は、画像合成部141が合成した画像の中にRGBの値が判定基準として設定されている範囲内にあるものが存在する場合、対象物の中に具材があると判定するものであっても良い。また、判定部151は、対象物の中の具材以外の箇所の色(例えば、RGBの値。以下、同じ)と具材の色との差異が、判定基準として設定されている範囲を超えている場合、その部分が具材に相当すると判定するものであっても良い。また、判定部151は、対象物のある部分の色とその周囲の部分との色の差異が、判定基準として設定されている範囲を超えている場合、その部分が具材に相当すると判定するものであっても良い。また、判定部151は、例えば、画像合成部141が合成した画像の配色や所定の色に着色された箇所の全体に対する相対位置や大きさと、判定基準である、対象物の中に具材がある画像および具材が無い画像の配色や所定の色に着色された箇所の全体に対する相対位置や大きさとを比較し、それらの互いの差異が所定の範囲に含まれるかどうかを判定する。そして、判定部151は、この差異が所定の範囲に含まれるかどうかに基づいて、対象物の中の所定の具材の有無を判定するものであっても良い。また、判定部151が判定に用いる判定基準(特徴量)としては、上述したような色のほか、例えば、形状、大きさ、対象物における相対位置等である。
以下に、図3に示した検査装置101における検査方法について説明する。図4は、図3に示した検査装置101における検査方法の一例を説明するためのフローチャートである。
まず、撮像部111が対象物を撮像して、対象物の可視画像を取得する(ステップS11)。また、撮像部121が対象物を撮像して、対象物の近赤外画像を取得する(ステップS12)。このステップS11の処理とステップS12の処理との順序は特に規定しない。続いて、加工部131が、撮像部121が取得した近赤外画像をその波長に基づいて加工する(ステップS13)。すると、画像合成部141が、撮像部111が取得した可視画像と、加工部131が加工した加工画像とを合成する(ステップS14)。続いて、判定部151が、画像合成部141が合成した画像と判定基準とを比較し、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する(ステップS15)。
このように、検査装置101は、対象物の可視画像と近赤外画像とを取得し、取得した近赤外画像をその波長に基づいて加工し、可視画像と加工画像とを合成した画像と、判定基準とに基づいて、対象物の中の具材の有無を判定する。そのため、完成品に所望の具材が入っているかどうかを目視によらずに正確に識別することができる。
(第3の実施の形態)
図5は、本発明の検査装置の第3の実施の形態を示す図である。本形態における検査装置102は図5に示すように、撮像部111,121と、加工部131と、画像合成部141と、判定部151と、出力部162とを有する。なお、図5には、本発明の検査装置が具備する構成要素のうち、本形態にかかわる主要な要素のみを示している。
撮像部111,121、加工部131、画像合成部141および判定部151は、第2の実施の形態と同じものである。
出力部162は、判定部151が判定した結果を出力する。このとき、出力部162は、判定部151が判定した結果と画像合成部141が合成した画像とを出力するものであっても良い。
図6は、図5に示した出力部162における出力態様の一例を示す図である。図5に示した出力部162は図6に示すように、判定部151が行った結果、完成品に具材である「エビ」が入っていないこと、または「エビ」が入っていることを表示する。図6に示した出力態様は、情報の表示であるが、情報の印刷や、他の装置への送信、音声の出力、判定の結果に応じた音出力や振動、発光等であっても良い。
以下に、図5に示した検査装置102における検査方法について説明する。図7は、図5に示した検査装置102における検査方法の一例を説明するためのフローチャートである。
まず、撮像部111が対象物を撮像して、対象物の可視画像を取得する(ステップS21)。また、撮像部121が対象物を撮像して、対象物の近赤外画像を取得する(ステップS22)。このステップS21の処理とステップS22の処理との順序は特に規定しない。続いて、加工部131が、撮像部121が取得した近赤外画像をその波長に基づいて加工する(ステップS23)。すると、画像合成部141が、撮像部111が取得した可視画像と、加工部131が加工した加工画像とを合成する(ステップS24)。続いて、判定部151が、画像合成部141が合成した画像と判定基準とを比較し、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する(ステップS25)。すると、出力部162が、判定部151における判定結果を出力する(ステップS26)。
このように、検査装置102は、対象物の可視画像と近赤外画像とを取得し、取得した近赤外画像をその波長に基づいて加工し、可視画像と加工画像とを合成した画像と、判定基準とに基づいて、対象物の中の具材の有無を判定する。そして、検査装置102は、判定結果を出力する。そのため、完成品に所望の具材が入っているかどうか正確な検査結果を認識することができる。
(第4の実施の形態)
図8は、本発明の検査装置の第4の実施の形態を示す図である。本形態における検査装置103は図8に示すように、撮像部111,121と、加工部131と、画像合成部141と、判定部151と、排除部173とを有する。なお、図8には、本発明の検査装置が具備する構成要素のうち、本形態にかかわる主要な要素のみを示している。
撮像部111,121、加工部131、画像合成部141および判定部151は、第2の実施の形態と同じものである。
排除部173は、判定部151が、対象物の中に具材が無い(入っていない)と判定した場合、その対象物を所定の検査ラインから排除する。
図9および図10は、図8に示した排除部173の動きの一例を示す図である。図9は、対象物が流れる検査ラインを上から見た図である。図10は、対象物が流れる検査ラインを横から見た図である。図9および図10に示すように、検査ライン203上を矢印のA方向に流れている対象物213を撮像部111,121が上から撮像する。撮像部111,121がそれぞれ撮像して取得した2つの画像を検査装置103本体へ出力し、検査装置103の加工部131が、撮像部121が撮像して取得した画像を加工し、画像合成部141が、撮像部111が撮像して取得した画像と加工部131が加工した画像とを合成し、合成した画像と判定基準とに基づいて判定部151が判定を行う。判定部151における判定に基づいて、排除部173が動作する。具体的には、判定部151における結果が、対象物213に具材が入っていないというものである場合、排除部173は、その対象物213を検査ライン203から排除するように横方向(矢印のB方向)に押し出す。これにより、具材が入っていないと判定された対象物213を検査ライン203から排除することができる。
以下に、図8に示した検査装置103における検査方法について説明する。図11は、図8に示した検査装置103における検査方法の一例を説明するためのフローチャートである。
まず、撮像部111が対象物を撮像して、対象物の可視画像を取得する(ステップS31)。また、撮像部121が対象物を撮像して、対象物の近赤外画像を取得する(ステップS32)。このステップS31の処理とステップS32の処理との順序は特に規定しない。続いて、加工部131が、撮像部121が取得した近赤外画像をその波長に基づいて加工する(ステップS33)。すると、画像合成部141が、撮像部111が取得した可視画像と、加工部131が加工した加工画像とを合成する(ステップS34)。続いて、判定部151が、画像合成部141が合成した画像と判定基準とを比較し、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する(ステップS35)。判定部151が対象物の中に具材が無いと判定した場合、排除部173がその対象物を検査ラインから排除する(ステップS36)。一方、判定部151が対象物の中に具材があると判定した場合、排除部173は排除の動作を行わない。
このように、検査装置103は、対象物の可視画像と近赤外画像とを取得し、取得した近赤外画像をその波長に基づいて加工し、可視画像と加工画像とを合成した画像と、判定基準とに基づいて、対象物の中の具材の有無を判定する。そして、検査装置103は、対象物の中に具材が無いと判定した場合、その対象物を検査ラインから排除する。そのため、所望の具材が入っていない対象物(完成品)がその後段の処理に回ってしまうことを防止することができる。
(第5の実施の形態)
図12は、本発明の検査装置の第5の実施の形態を示す図である。本形態における検査装置104は図12に示すように、撮像部111,121と、加工部131と、画像合成部141と、判定部154と、出力部162と、入力部184と、データベース194とを有する。なお、図12には、本発明の検査装置が具備する構成要素のうち、本形態にかかわる主要な要素のみを示している。
撮像部111,121、加工部131および画像合成部141は、第2の実施の形態と同じものである。出力部162は、第3の実施の形態と同じものである。
入力部184は、検査装置104の外部から受け付けた操作に基づいて情報を入力する。入力部184は、タッチパネル機能やキーボード機能等の一般的な情報入力手段を用いて、それらに対して利用者が行った操作に基づいて、情報を入力する。
データベース194は、画像合成部141が合成した画像を示す画像情報と、出力部162が出力した結果情報と、出力された結果情報に対して入力部184が入力した入力情報とを対応付けて記憶する。
判定部154は、第2の実施の形態の判定部151が有する機能に加えて、学習機能を有し、データベース194に記憶された対応付けに基づいて、具材の有無を判定するための判定基準を更新していく。つまり、判定部154は、結果情報とその結果情報に対応付けられた入力情報とが異なる場合、その結果情報に対応付けられた画像情報と入力情報とに基づいて判定基準を更新する。また、判定部154は、画像合成部141が合成した画像と判定基準とを比較する際、その画像を判定するための範囲が判定基準に含まれていない場合等、その画像が持つパラメータでは判定基準を用いた判定が困難である場合、その画像と類似する画像を過去に判定した画像から検索し、検索した画像の判定結果を用いて判定を行う。また、判定部154は、判定基準として設定されている要素以外の要素、例えば、過去に判定を行った判定日時や判定場所等、判定の環境を用いて、現在の環境と類似した過去の環境で行った判定結果を参照して判定を行うものであっても良い。また、判定部154が使用する判定基準は、上述したような色のほか、形状、大きさ、対象物における相対位置等である。このように判定部154は、AI(Artificial Intelligence)機能を用いて、対象物の中の具材の有無を判定する。このように、判定基準として用いられる学習データは、対象物の中の具材の有無を判定する基準として、より適したものへ更新されていく。
図13は、図12に示した入力部184の入力態様の一例を示す図である。図12に示した入力部184には図13に示すように、対象物固有に付与された識別番号と、具材の有無を選択するためのラジオボタンとを示すGUI(Graphical User Interface)が表示される。このラジオボタンを操作することで選択された情報が入力される。例えば、図13に示すように、No.1234の対象物について「エビ有り」が選択されると、入力部184からNo.1234の識別場号の対象物について、具材が入っているという情報が入力される。また、No.1234の対象物について「エビ無し」が選択されると、入力部184からNo.1234の識別場号の対象物について、具材が入っていないという情報が入力される。
図14は、図12に示したデータベース194に記憶されている対応付けの一例を示す図である。図12に示したデータベース194には図14に示すように、画像情報と結果情報と入力情報とが対応付けられて記憶される。画像情報は、画像合成部141が合成した画像を示す情報である。画像情報は、画像を他の画像と識別できる情報であれば良く、例えば、画像固有に付与された番号であっても良いし、それぞれの画像を表示させるための情報(RGBや明るさ)であっても良い。結果情報は、出力部162が出力した結果を示す情報である。具体的には、結果情報は、判定部154が判定した結果である、具材の有無を示す情報である。入力情報は、結果情報に対して入力部184に入力された情報である。具体的には、入力情報は、図13に示したような入力部184へ入力された情報であって、結果情報が正しいかどうかに用いられる情報である。
以下に、図12に示した検査装置104における検査方法について説明する。図15は、図12に示した検査装置104における検査方法の一例を説明するためのフローチャートである。
まず、撮像部111が対象物を撮像して、対象物の可視画像を取得する(ステップS41)。また、撮像部121が対象物を撮像して、対象物の近赤外画像を取得する(ステップS42)。このステップS41の処理とステップS42の処理との順序は特に規定しない。続いて、加工部131が、撮像部121が取得した近赤外画像をその波長に基づいて加工する(ステップS43)。すると、画像合成部141が、撮像部111が取得した可視画像と、加工部131が加工した加工画像とを合成する(ステップS44)。続いて、判定部154が、画像合成部141が合成した画像と判定基準とを比較し、その比較の結果に基づいて、対象物の中の所定の具材の有無を判定する(ステップS45)。すると、出力部162が、判定部154における判定結果を出力する(ステップS46)。その後、出力された結果に対して、入力部184が外部からの操作に基づいて入力情報を受け付けると(ステップS47)、画像合成部141が合成した画像を示す画像情報と、出力部162が出力した結果情報と、入力部184が受け付けた入力情報とが対応付けられてデータベース194に記憶される。そして、判定部154が、データベース194に互いに対応付けられた結果情報と入力情報とが、互いに同じであるかどうかを判定する(ステップS48)。判定部154が、データベース194に互いに対応付けられた結果情報と入力情報とが、互いに同じであると判定した場合、処理は終了する。一方、判定部154が、データベース194に互いに対応付けられた結果情報と入力情報とが、互いに同じではないと判定した場合は、判定部154は、判定基準を更新する(ステップS49)。このような場合、具体的には判定部154は、入力情報に合わせた結果となるように、学習機能を用いて判定基準を更新する。つまり、判定部154は、例えば、入力情報が「エビ有り」であり、結果情報が「エビ無し」である場合、これらの情報と対応付けられている画像情報が「エビ有り」と判定されるような判定基準に更新していく。このとき、判定部154は、判定基準を更新するか否かや、どのように更新していくか等を、それ以外の情報も用いて決定しても良い。
このように、検査装置104は、対象物の可視画像と近赤外画像とを取得し、取得した近赤外画像をその波長に基づいて加工し、可視画像と加工画像とを合成した画像に基づいて、対象物の中の具材の有無を判定する。そして、検査装置104は、判定結果を出力する。その後、検査装置104は、出力した判定結果に対して入力した入力情報と判定結果とを比較し、比較結果に基づいて判定基準を更新していく。そのため、完成品に所望の具材が入っているかどうかを判定するための基準をさらに正確なものとしていくことができる。ここでは、入力情報が目視による判定結果であることから、可視光画像を用いる(合成する)ことで、近赤外画像を加工した画像のみを目視により判定するよりも正確なものとなる。
以上、各構成要素に各機能(処理)それぞれを分担させて説明したが、この割り当ては上述したものに限定しない。また、構成要素の構成についても、上述した形態はあくまでも例であって、これに限定しない。また、各実施の形態を組み合わせたものであっても良い。
100〜104 検査装置
111,120,121 撮像部
130,131 加工部
140,141 画像合成部
150,151,154 判定部
162 出力部
173 排除部
184 入力部
194 データベース
203 検査ライン
213 対象物

Claims (13)

  1. 対象物を撮像して該対象物の可視画像および近赤外画像を取得する第1の撮像部と、
    前記第1の撮像部が取得した近赤外画像を波長に基づいて加工する加工部と、
    前記第1の撮像部が取得した可視画像と、前記加工部が加工した画像である加工画像とを合成する画像合成部と、
    前記画像合成部が合成した画像と判定基準とを比較して、該比較の結果に基づいて、前記対象物の中の所定の具材の有無を判定する判定部とを有する検査装置。
  2. 請求項1に記載の検査装置において、
    前記対象物を撮像して該対象物の可視画像を取得する第2の撮像部を有し、
    前記画像合成部は、前記第2の撮像部が取得した可視画像と、前記加工部が加工した画像である加工画像とを合成する検査装置。
  3. 請求項1に記載の検査装置において、
    前記画像合成部は、前記第1の撮像部が取得した可視画像と、前記加工部が加工した加工画像とを、所定の割合で合成する検査装置。
  4. 請求項1から3のいずれか1項に記載の検査装置において、
    前記加工部は、前記近赤外画像を波長に応じた色を用いて着色する検査装置。
  5. 請求項4に記載の検査装置において、
    前記加工部は、所定の波長を吸収する箇所を第1の色に着色し、それ以外の箇所を前記第1の色とは異なる第2の色に着色し、
    前記判定部は、前記第1の色に着色された箇所と前記第2の色に着色された箇所と前記判定基準とに基づいて、前記具材の有無を判定する検査装置。
  6. 請求項1から5のいずれか1項に記載の検査装置において、
    前記判定部が判定した結果を出力する出力部を有する検査装置。
  7. 請求項6に記載の検査装置において、
    前記出力部は、前記判定部が判定した結果および前記判定基準と比較した画像を出力する検査装置。
  8. 請求項6または請求項7に記載の検査装置において、
    当該検査装置の外部から受け付けた操作に基づいて情報を入力する入力部と、
    前記判定部が前記判定基準と比較した画像を示す画像情報と、前記出力部が出力した結果情報と、該結果情報に対して前記入力部が入力した入力情報とを対応付けて記憶するデータベースとを有し、
    前記判定部は、前記データベースに記憶された対応付けに基づいて、前記判定基準を更新していく検査装置。
  9. 請求項1から8のいずれか1項に記載の検査装置において、
    前記判定部が、前記対象物の中に前記具材が無いと判定した場合、該対象物を所定の検査ラインから排除する排除部を有する検査装置。
  10. 請求項1から9のいずれか1項に記載の検査装置において、
    前記第1の撮像部は、ハイパースペクトルカメラを用いて前記対象物を撮像して該対象物の近赤外画像を取得する検査装置。
  11. 請求項10に記載の検査装置において、
    前記加工部は、前記ハイパースペクトルカメラを用いて撮像した画像のうち、所定の波長を吸収する箇所を所定の色に着色する検査装置。
  12. 請求項1から11のいずれか1項に記載の検査装置において、
    前記判定部は、前記対象物の中の前記具材であるエビの有無を判定する検査装置。
  13. 対象物を撮像して該対象物の可視画像および近赤外画像を取得する処理と、
    前記取得した近赤外画像を波長に基づいて加工する処理と、
    前記取得した可視画像と、前記加工した画像である加工画像とを合成する処理と、
    前記合成した画像と判定基準とを比較する処理と、
    前記比較の結果に基づいて、前記対象物の中の所定の具材の有無を判定する処理とを行う検査方法。
JP2019205500A 2019-11-13 2019-11-13 検査装置および検査方法 Active JP6788091B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019205500A JP6788091B1 (ja) 2019-11-13 2019-11-13 検査装置および検査方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019205500A JP6788091B1 (ja) 2019-11-13 2019-11-13 検査装置および検査方法

Publications (2)

Publication Number Publication Date
JP6788091B1 true JP6788091B1 (ja) 2020-11-18
JP2021076552A JP2021076552A (ja) 2021-05-20

Family

ID=73220023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019205500A Active JP6788091B1 (ja) 2019-11-13 2019-11-13 検査装置および検査方法

Country Status (1)

Country Link
JP (1) JP6788091B1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5329493B2 (ja) * 2010-08-23 2013-10-30 東芝テック株式会社 ラベル発行装置およびプログラム
JP2013024653A (ja) * 2011-07-19 2013-02-04 Toyota Central R&D Labs Inc 距離測定装置及びプログラム
JP2014145639A (ja) * 2013-01-29 2014-08-14 Tdi Product Solution Co Ltd 食品検査装置
JP2015219090A (ja) * 2014-05-16 2015-12-07 三井金属計測機工株式会社 透過検査装置
US10254264B2 (en) * 2017-03-29 2019-04-09 Dragontail Systems Ltd. Apparatus and method for monitoring preparation of a food product
JP2019074324A (ja) * 2017-10-12 2019-05-16 株式会社マイスターエンジニアリング 検査方法及び装置
JP2019128295A (ja) * 2018-01-25 2019-08-01 国立研究開発法人産業技術総合研究所 撮像装置、撮像システム、及び撮像方法

Also Published As

Publication number Publication date
JP2021076552A (ja) 2021-05-20

Similar Documents

Publication Publication Date Title
JP5721673B2 (ja) 塗色データベース作成方法、作成システム、作成プログラム及び記録媒体
CN108876761B (zh) 图像处理装置、电脑可读取记录媒体、图像处理系统
US8064691B2 (en) Method for identifying color in machine and computer vision applications
JP5181970B2 (ja) 画像処理装置および画像処理方法
US20110028850A1 (en) Process for quantitative display of blood flow
JP2005201693A (ja) 色票処理装置、色票処理方法及び色票処理プログラム
CN106161974A (zh) 利用高动态范围功能的车辆用显示装置及其方法
CN106461373A (zh) 用于涂层预测、施涂和检查的实时数字增强成像
JP2017201745A (ja) 画像処理装置、画像処理方法およびプログラム
EP3509284A1 (en) Electronic apparatus and control method thereof
CN108184286A (zh) 灯具的控制方法和控制系统以及电子设备
EP1672340A1 (en) Image display apparatus and image display method
US8526717B2 (en) Rich color transition curve tracking method
JP6788091B1 (ja) 検査装置および検査方法
CN108235831B (zh) 灯具的控制方法和控制系统以及电子设备
JP2010008159A (ja) 外観検査処理方法
JP2009271093A (ja) 色票処理装置、色票処理方法及び色票処理プログラム
JP4836878B2 (ja) 画像識別表示装置及び画像識別表示方法
CN115662324A (zh) 柔性显示屏的显示补偿方法、装置及显示装置
EP3907497A1 (en) Apparatus and method for displaying and/or printing images of a specimen including a fluorophore
US20230080978A1 (en) Machine learning method and information processing apparatus for machine learning
JP2005177144A (ja) 色覚支援装置、色覚支援方法、及び色覚支援プログラム
JP2008089335A (ja) 光学フレア検査装置および検査方法
JP2018063588A (ja) 色判定装置、制御方法、及びプログラム
WO2016013112A1 (ja) 色彩変化度判定装置、色彩変化度判定方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200908

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200908

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201029

R150 Certificate of patent or registration of utility model

Ref document number: 6788091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250