JP2022114462A - 検査装置および検査方法 - Google Patents

検査装置および検査方法 Download PDF

Info

Publication number
JP2022114462A
JP2022114462A JP2022009890A JP2022009890A JP2022114462A JP 2022114462 A JP2022114462 A JP 2022114462A JP 2022009890 A JP2022009890 A JP 2022009890A JP 2022009890 A JP2022009890 A JP 2022009890A JP 2022114462 A JP2022114462 A JP 2022114462A
Authority
JP
Japan
Prior art keywords
image
unit
learning
inspection
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022009890A
Other languages
English (en)
Inventor
智也 渡辺
Tomoya Watanabe
昌樹 伴
Masaki Ban
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nisshin Seifun Group Inc
Original Assignee
Nisshin Seifun Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nisshin Seifun Group Inc filed Critical Nisshin Seifun Group Inc
Publication of JP2022114462A publication Critical patent/JP2022114462A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像認識を利用した食品の盛り付け検査をより簡易に行うことを目的とする。【解決手段】検査装置1は、配置された食材が含まれる画像を取得する取得部10と、学習済み第1モデルNN1を用いて、画像における食材の領域および種類を推定し、推定された食材の領域および種類を画像に関連付けた出力画像を含む第1推定結果を出力する第1推定部11と、第1推定結果に基づいて、食材の種類ごとに、対応する領域が、食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する第1判断部12と、記第1判断部12による判断結果に基づいて、配置された食材の配置に関する検査を行う検査部13とを備える。【選択図】図1

Description

本発明は、検査装置および検査方法に関し、特に画像認識を利用した食品の盛り付け検査技術に関する。
製造ラインなどで製造された食品の品質管理として、食品の盛り付け検査や、具材抜けの検査等の外観検査が知られている。従来から、これらの検査は目視により行われている。近年、画像認識技術の発展に伴い食品製造の分野においても、製造された食品の品質管理に画像認識を利用する技術が開発されている。
例えば、特許文献1は、検査対象の食品について、異なる2つの波長の画像を撮影し、各画素のスペクトル解析を行って検査画像を生成し、検査対象の食品の状態を検査する技術を開示している。
しかしながら、実際の食品製造の現場では、依然として食品の盛り付け検査などの品質検査は目視により行われることが多い。その理由として、食品に盛り付けられる食材は不定形状を有することが多く、同じ食材であっても形状がそれぞれ異なり、また食材はその色味も一定ではない場合があることが挙げられる。そのため、製造された食品に、決められた食材が盛り付けられていることの確認、各食材の個数、量、および盛り付け位置などを含む食品の盛り付け検査は、常に同じ基準で行うことが困難な場合が多い。このことから、画像認識を利用した食品の盛り付け検査は、検出ロジックの作成自体が困難とされることがある。
さらに、近年においては、消費者のニーズの多様化に応じて多品種少量生産や商品ライフサイクルの短縮化が進み、一旦検出ロジックが作成されたとしても、利用範囲が限られてしまうことがあり、画像認識技術を利用した食品の盛り付け検査を現実的な手法として用いることが困難な場合がある。
Shorten, C., Khoshgoftaar, T.M. "A survey on Image Data Augmentation for Deep Learning." J Big Data 6, 60 (2019). https://doi.org/10.1186/s40537-019-0197-0 Khalifa, Nour Eldeen & Loey, Mohamed & Mirjalili, Seyedali. (2021). "A comprehensive survey of recent trends in deep learning for digital images augmentation." Artificial Intelligence Review. 10.1007/s10462-021-10066-4. Naveed, Humza. (2021). "Survey: Image Mixing and Deleting for Data Augmentation."
特開2019-74324号公報 特許第6955734号公報 特許第6929322号公報
従来の技術によれば、画像認識を利用した食品の盛り付け検査を簡易に行うことは困難であった。
本発明は、上述した課題を解決するためになされたものであり、画像認識を利用した食品の盛り付け検査をより簡易に行うことを目的とする。
上述した課題を解決するために、本発明に係る検査装置は、配置された食材が含まれる画像を取得する取得部と、学習済み第1モデルを用いて、前記画像における前記食材の領域および種類を推定し、推定された前記食材の領域および種類を前記画像に関連付けた出力画像を含む第1推定結果を出力する第1推定部と、前記第1推定結果に基づいて、前記食材の種類ごとに、対応する前記領域が、前記食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する第1判断部と、前記第1判断部による判断結果に基づいて、前記食材の配置に関する検査を行う検査部とを備える。
また、本発明に係る検査装置において、前記第1判断部は、前記食材の種類ごとに、前記領域の個数および大きさの少なくとも一方を特定して、前記領域の個数および大きさの少なくとも一方が前記第1基準を満たすか否かを判断してもよい。
また、本発明に係る検査装置において、前記第1推定結果に含まれる前記出力画像を入力とする学習済み第2モデルを用いて、前記出力画像における複数の前記食材の間の相対的な配置関係を推定し、推定された配置関係を前記出力画像に関連付けた第2推定結果を出力する第2推定部と、前記第2推定結果に基づいて、前記配置関係が、前記配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する第2判断部とをさらに備え、前記検査部は、前記第2判断部による判断結果に基づいて、前記食材の配置に関する検査を行ってもよい。
また、本発明に係る検査装置において、さらに、少なくとも前記検査部による検査結果を提示する提示部を備え、前記提示部は、前記画像、前記第1推定結果、前記第1判断部による判断結果、前記第2推定結果、前記第2判断部による判断結果、および前記検査部による検査結果を含む情報報のうちの少なくともいずれかを提示してもよい。
また、本発明に係る検査装置において、さらに、予め設定されたモデルを構築するための学習処理を行う学習装置を備え、前記学習装置は、配置された前記食材を含む画像を第1学習用画像として用い、ニューラルネットワークの第1モデルを学習させて、前記食材の領域および種類を識別する第1特徴量を抽出し、抽出された前記第1特徴量により前記学習済み第1モデルを獲得する第1学習部と、前記第1学習部で獲得された前記学習済み第1モデルを記憶する第1記憶部とを備え、前記第1推定部は、前記第1記憶部から前記学習済み第1モデルを読み込んで前記学習済み第1モデルによる前記画像における前記食材の領域および種類の推定を行ってもよい。
また、本発明に係る検査装置において、前記第1モデルが、インスタンス・セグメンテーションによる画像認識モデルであってもよい。
また、本発明に係る検査装置において、前記学習装置は、前記第1推定部が出力する前記第1推定結果に含まれる前記出力画像を第2学習用画像として用いて、ニューラルネットワークの第2モデルを学習させて、前記第2学習用画像における複数の前記食材の間の相対的な配置関係を識別する第2特徴量を抽出し、抽出された前記第2特徴量により前記学習済みの第2モデルを獲得する第2学習部と、前記第2学習部で獲得された前記学習済みの第2モデルを記憶する第2記憶部とをさらに備えてもよい。
また、本発明に係る検査装置において、さらに、前記第1推定結果に含まれる前記出力画像を変換してより単純化した変換画像を生成する変換部を備え、前記第2学習部は、前記変換画像を前記第2学習用画像として用いて前記第2モデルを学習させ、前記学習済みの第2モデルを獲得してもよい。
また、本発明に係る検査装置において、前記第1推定結果に含まれる前記出力画像は、前記食材の種類ごとに、対応する前記領域が任意の色で塗られたカラーパターン画像であり、前記変換画像は、前記カラーパターン画像の領域各々を同一形状のオブジェクトに置き換えたカラーパターン画像であってもよい。
また、本発明に係る検査装置において、前記第1推定結果に含まれる前記出力画像は、前記食材の種類ごとに、対応する前記領域が任意の色で塗られたカラーパターン画像であり、前記変換画像は、前記カラーパターン画像の領域各々を、カラーパターンの色ごとに形状の異なるオブジェクトに置き換え、かつ、置き換えた前記オブジェクトの色を形状ごとに異なる色とした画像であってもよい。
また、本発明に係る検査装置において、前記第1推定結果に含まれる前記出力画像は、前記食材の種類ごとに、対応する前記領域が任意の色で塗られたカラーパターン画像であり、前記変換画像は、前記カラーパターン画像の領域各々を、カラーパターンの色ごとに形状の異なるオブジェクトに置き換え、かつ、置き換えた前記オブジェクトの前記カラーパターンの色をすべて同一の色とした画像であってもよい。
また、本発明に係る検査装置において、さらに、前記第1推定結果に含まれる前記出力画像の前記領域の推定外形線の最長のものの内部が、当該領域であるとして、前記出力画像を加工した加工画像を生成する加工部を備え、前記第2学習部は、前記加工画像を前記第2学習用画像として用いて前記第2モデルを学習させ、前記学習済みの第2モデルを獲得してもよい。
また、本発明に係る検査装置において、前記学習装置は、さらに、前記食材の領域および種類が前記画像に関連付けられた対象画像のデータ拡張を行って前記第2学習用画像を生成するデータ拡張部を備え、前記データ拡張部は、前記対象画像に付与されている、前記対象画像における複数の前記食材の間の相対的な配置関係の妥当性に関するラベル情報に基づいて前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、前記データ拡張部は、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、前記第1ラベルが付与された前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、前記データ拡張部は、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルが付与された前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、前記データ拡張部は、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルが付与された対象画像のデータ拡張を行って、前記第2ラベルが付与された前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、前記データ拡張部は、前記対象画像における複数の前記食材の間の相対的な配置関係を維持しつつ、前記抽出部が抽出した前記領域を加工後再配置して前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、前記データ拡張部は、前記抽出部が抽出した前記領域のうち、2つ以上の互いに異なる種類の前記食材に対応する領域の位置を互いに置き換えて前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、前記データ拡張部は、前記抽出部が抽出した前記領域のうちの1つ以上を前記対象画像から削除して前記第2学習用画像を生成してもよい。
また、本発明に係る検査装置において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、前記データ拡張部は、前記抽出部が抽出した前記領域の各々の反転、回転、膨張、および収縮のうちの少なくともいずれかを行って前記対象画像のデータ拡張を行ってもよい。
また、上述した課題を解決するために、本発明に係る検査装置は、配置された食材が含まれる画像を取得する取得部と、学習済み第1モデルを用いて、前記画像における前記食材の領域をバウンディングボックスで検出して、複数の前記食材の間の相対的な配置関係と、前記食材の種類とを推定し、推定された前記配置関係を前記画像に関連付けた出力画像を含む第1推定結果を出力する第1推定部と、前記第1推定結果に基づいて、前記配置関係が予め設定された基準を満たすか否かを判断する第1判断部と、前記第1判断部による判断結果に基づいて、前記食材の配置に関する検査を行う検査部とを備える。
また、上述した課題を解決するために、本発明に係る上記検査装置を用いて検査される食品は、食品製造ラインで製造され、前記食材が配置されて盛り付けられる加工麺、冷凍食品、弁当、および惣菜を含む。
また、上述した課題を解決するために、本発明に係る検査方法は、配置された食材が含まれる画像を取得する第1ステップと、学習済み第1モデルを用いて、前記画像における前記食材の領域および種類を推定し、推定された前記食材の領域および種類を前記画像に関連付けた出力画像を含む第1推定結果を出力する第2ステップと、前記第1推定結果に基づいて、前記食材の種類ごとに、対応する前記領域が、前記食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する第3ステップと、前記第3ステップでの判断結果に基づいて、前記食材の配置に関する検査を行う第4ステップとを備える。
また、本発明に係る検査方法において、前記第3ステップは、前記食材の種類ごとに、前記領域の個数および大きさの少なくとも一方を特定して、前記領域の個数および大きさの少なくとも一方が前記第1基準を満たすか否かを判断し、前記第4ステップは、前記判断結果に基づいて、前記食材の配置に関する検査を行ってもよい。
また、本発明に係る検査方法において、前記第1推定結果に含まれる前記出力画像を入力とする学習済み第2モデルを用いて、前記出力画像における複数の前記食材の間の相対的な配置関係を推定し、推定された配置関係を前記出力画像に関連付けた第2推定結果を出力する第5ステップと、前記第2推定結果に基づいて、前記配置関係が、前記配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する第6ステップとをさらに備え、前記第4ステップは、前記第6ステップでの判断結果に基づいて、前記食材の配置に関する検査を行ってもよい。
また、本発明に係る検査方法において、さらに、予め設定されたモデルを構築するための学習処理を行う学習ステップを備え、前記学習ステップは、配置された前記食材が含まれる画像を第1学習用画像として用い、ニューラルネットワークの第1モデルを学習させて、前記食材の領域および種類を識別する第1特徴量を抽出し、抽出された前記第1特徴量により前記学習済み第1モデルを獲得する第7ステップと、前記第7ステップで獲得された前記学習済み第1モデルを第1記憶部に記憶する第8ステップとを備え、前記第3ステップは、前記第1記憶部から前記学習済み第1モデルを読み込んで前記学習済み第1モデルによる前記画像における前記食材の領域および種類の推定を行ってもよい。
また、本発明に係る検査方法において、前記学習ステップは、前記第3ステップで出力する前記第1推定結果に含まれる前記出力画像を第2学習用画像として用いて、ニューラルネットワークの第2モデルを学習させて、前記第2学習用画像における複数の前記食材の間の相対的な配置関係を識別する第2特徴量を抽出し、抽出された前記第2特徴量により前記学習済みの第2モデルを獲得する第9ステップと、前記第9ステップで獲得された前記学習済みの第2モデルを第2記憶部に記憶する第10ステップとをさらに備えていてもよい。
また、本発明に係る検査方法において、さらに、前記第1推定結果に含まれる前記出力画像の前記領域の推定外形線の最長のものの内部が、当該領域であるとして、前記出力画像を加工した加工画像を生成する第11ステップを備え、前記第9ステップは、前記加工画像を前記第2学習用画像として用いて前記第2モデルを学習させ、前記学習済みの第2モデルを獲得してもよい。
また、本発明に係る検査方法において、前記学習ステップは、さらに、前記食材の領域および種類が前記画像に関連付けられた対象画像のデータ拡張を行って前記第2学習用画像を生成する第12ステップを備え、前記第12ステップは、前記対象画像に付与されている、前記対象画像における複数の前記食材の間の相対的な配置関係の妥当性に関するラベル情報に基づいて前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、前記第12ステップは、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、前記第1ラベルが付与された前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、前記第12ステップは、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルが付与された前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、前記第12ステップは、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルが付与された対象画像のデータ拡張を行って、前記第2ラベルが付与された前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、前記第12ステップは、前記対象画像における複数の前記食材の間の相対的な配置関係を維持しつつ、前記第13ステップで抽出された前記領域を加工後再配置して前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、前記第12ステップは、前記第13ステップで抽出された前記領域のうち、2つ以上の互いに異なる種類の前記食材に対応する領域の位置を互いに置き換えて前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、前記第12ステップは、前記第13ステップで抽出された前記領域のうちの1つ以上を前記対象画像から削除して前記第2学習用画像を生成してもよい。
また、本発明に係る検査方法において、さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、前記第12ステップは、前記第13ステップで抽出された前記領域の各々の反転、回転、膨張、および収縮のうちの少なくともいずれかを行って前記対象画像のデータ拡張を行ってもよい。
また、本発明に係る検査方法において、さらに、少なくとも前記第4ステップでの検査結果を提示する第14ステップを備え、前記第14ステップは、前記画像、前記第1推定結果、前記第3ステップでの判断結果、および前記第4ステップでの検査結果を含む情報のうちの少なくともいずれかを提示してもよい。
本発明によれば、学習済み第1モデルを用いて、配置された食材が含まれる画像における食材の領域および種類を推定し、推定された第1推定結果に基づいて、食材の種類ごとに、対応する領域が、食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する。そのため、画像認識を利用した食品の盛り付け検査をより簡易に行うことができる。
図1は、本発明の第1の実施の形態に係る検査装置の構成を示すブロック図である。 図2は、第1の実施の形態に係る検査装置のハードウェア構成の一例を示すブロック図である。 図3は、第1の実施の形態に係る検査装置の動作の一例を示すフローチャートである。 図4は、第1の実施の形態に係る検査装置の動作の概要を示す説明図である。 図5は、第1の実施の形態に係る検査装置が備える表示装置の表示例を示す図である。 図6は、第2の実施の形態に係る検査装置の構成を示すブロック図である。 図7は、第2の実施の形態に係る検査装置が備える第2推定部を説明するための図である。 図8は、第2の実施の形態に係る検査装置の動作の一例を示すフローチャートである。 図9は、第2の実施の形態に係る検査装置の動作の概要を示す説明図である。 図10は、第2の実施の形態に係る検査装置が備える表示装置の表示例を示す図である。 図11は、第2の実施の形態に係る検査装置の効果を説明するための図である。 図12は、第3の実施の形態に係る検査装置の構成を示すブロック図である。 図13は、第3の実施の形態に係る検査装置の動作の一例を示すフローチャートである。 図14は、第4の実施の形態に係る検査装置の構成を示すブロック図である。 図15は、第4の実施の形態に係る検査装置が備える変換部の説明図である。 図16は、第4の実施の形態に係る検査装置が備える変換部の説明図である。 図17は、第5の実施の形態に係る検査装置の構成を示すブロック図である。 図18は、第5の実施の形態に係る検査装置が備える加工部の説明図である。 図19は、第6の実施の形態に係る検査装置の構成を示すブロック図である。 図20は、第6の実施の形態に係る検査装置の概要を説明するための図である。 図21は、第6の実施の形態に係る検査装置が備えるデータ拡張部を説明するための図である。 図22は、第6の実施の形態に係る検査装置の動作の一例を示すフローチャートである。 図23は、本実施の形態に係る検査装置の使用例を説明するための図である。 図24は、本実施の形態に係る検査装置の使用例を説明するための図である。 図25は、本実施の形態に係る検査装置の使用例を説明するための図である。
以下、本発明の好適な実施の形態について、図1から図25を参照して詳細に説明する。また、以下の説明において、本発明に係る検査装置の検査対象は、「配置された食材」であり、食材は、例えば、食品の製造ラインで製造された「食品」を構成し、食材の数は1つおよび複数の場合が含まれる。また、「食材の配置に関する検査」とは、食品の製造ラインで製造等されて、例えば容器に配置された複数の食材各々の種類、その有無、数、量のいずれか1つ以上の検査項目を含んでいてもよく、場所および食材の並び方である配置位置に関する検査を含み、これらを総称して「食品の盛り付け検査」ということがある。また、食材の並び方には当該食材のばらけ方を含むものとする。
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る検査装置1の構成を示すブロック図である。本実施の形態に係る検査装置1は、事前に外部のサーバなどで学習処理されて用意された学習済み第1モデルNN1を用いて、食品の容器等に配置された複数の食材が含まれる画像における複数の食材の領域および種類を推定する。さらに、検査装置1は、推定された結果(第1推定結果)に基づいて、複数の食材の種類ごとに、対応する領域が、複数の食材各々の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する。さらに、検査装置1は、判断結果に基づいて、容器等に配置された食材の配置に関する検査を行う。本実施の形態では、学習済み第1モデルNN1として、食材を互いに区別して食材が存在する画像内の領域をピクセル単位で識別するインスタンス・セグメンテーションを用いる場合を例に挙げて説明する。
[検査装置の機能ブロック]
本実施の形態に係る検査装置1は、取得部10、第1推定部11、第1判断部12、検査部13、提示部14、およびメモリ15を備える。
取得部10は、配置された食材が含まれる画像を取得する。例えば、取得部10は、食品の容器等に配置された複数の食材が含まれる画像を取得することができる。取得部10は、例えば、外部に設置されたカメラ105によって撮影された食品の静止画像または動画像を有線あるいは無線で取得する。本実施の形態において、カメラ105は、食品製造ラインに事前に構築された撮影環境に設けられ、容器等に配置された食材が含まれる画像(以下、「食品の画像」ということがある。)を撮影するものとする。特に、カメラ105は、製造ライン内の撮影環境において固定して設置され、固定された画角で画像を撮影するものとする。取得部10は、カメラ105から取得した食品の画像の輝度の調整やノイズの除去などの公知の前処理を行うことができる。
第1推定部11は、学習済み第1モデルNN1を用いて、取得部10が取得した画像における複数の食材の領域および種類を推定し、推定された複数の食材の領域および種類を取得部10によって取得された画像に関連付けて出力画像を含む第1推定結果を出力する。
より具体的には、第1推定部11は、取得部10が取得した画像を学習済み第1モデルNN1に与え、学習済み第1モデルNN1の演算を行って、入力された画像内のピクセルごとに食材のクラスである食材の種類と、画像に実際に存在する各食材の実体あるいは個体である食材インスタンスの領域を抽出する。
第1推定部11は、後述のメモリ15が備える第1メモリ15Aに記憶されている学習済み第1モデルNN1を読み込んで推定処理を実行する。
ここで、第1推定部11による推定処理について、図4および図5を参照してより詳細に説明する。例えば、図4および図5に示す画像iは、取得部10によって取得された、食品の容器に配置された複数の食材の画像を示しており、例えば、食品「冷やし中華」のトッピングとして、「a」,「b」,「c」,「d」の4種類の食材が配置されている。より具体的には、食品「冷やし中華」には、例えば、食材「a」として「ハム」、食材「b」として「たまご」、食材「c」として「きゅうり」、食材「d」として「トマト」などの予め決められたトッピング食材が容器の中の冷やし中華の麺の上に配置され盛り付けられている。また、これらの食材は各々の数や量が決められており、製造ラインで製造された製品個々の食材の数や量が一定であることが好ましい。
図4および図5に示す出力画像pは、画像iに含まれる各食材インスタンスの領域が抽出されて、各領域「a1」,「b1」,「c1」,「d1」および食材のクラスである種類「a」,「b」,「c」,「d」が推定されて、画像iに関連付けられた画像である。
また、図4に示すように、第1推定部11は、画像iを入力として推定処理を行い、食材インスタンスごとの領域「a1」,「b1」,「c1」,「d1」がカラーパターンで示された画像pを出力する。例えば、任意の色のカラーパターンによって食材の種類(クラス)が区別される。同一種類の食材インスタンスの領域が複数存在する場合、これら複数の領域は、例えば、同一色のカラーパターンで示される。第1推定部11は、同一色あるいは同一模様のカラーパターンで示される食材の領域の数に基づき、食材の種類ごとの個数を検出することができる。特定の種類の食材における領域の数がゼロ個であった場合、その特定の食材は存在しないことを示す。
図1に戻り、第1判断部12は、第1推定部11による第1推定結果に基づいて、複数の食材の種類ごとに、対応する領域が、食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する。
例えば、第1判断部12は、複数の食材の種類ごとに、領域の個数および大きさの少なくとも一方を特定して、領域の個数および大きさの少なくとも一方が第1基準を満たすか否かを判断することができる。
第1基準は、決められた食材が存在しているか否か、食材が決められた個数だけ配置されているか、および、食材が決められた量だけ存在しているかを判断する基準として設定される。
第1基準は、より適切に食材の有無および過不足に関する判断が可能となるよう食材の種類ごとの形状や大きさなどの特質に基づいて設定される。したがって、食材の個数のみで過不足を判断することが好ましい場合には個数についての基準値を用いることができる。あるいは、食材の領域の大きさで過不足を判断することがより適切である場合には領域の大きさに係る基準値を用いることができる。同様に、これらの組み合わせで判断されることもできる。このように、第1基準は、複数の基準を含む場合がある。
例えば、第1判断部12は、食材の種類ごとの領域の大きさとして、画像において抽出された食材の領域の絶対的な面積が食材の量に相当するものとして面積値を第1基準として用いることができる。なお、面積値は画像における領域のピクセル数で表現することができる。あるいは、後述するように、推定された食材の種類ごとの領域の面積の総和を、その食材の量として第1基準を設定することもできる。
また、一つの種類の食材が複数の食材によって構成される場合に、第1判断部12は、各々の領域が含まれる一つの種類の食材全体の面積が一定の面積を超えるか否かを第1基準として用いて、同一種類の食材の過不足についての判断を行うことができる。例えば、ピザのトッピングとして一定の範囲に一定の量だけ配置されるシュレッドチーズ等が挙げられる。例えば、シュレッド状のチーズ各々の領域を囲った面積が、一定面積を超える、かつ、シュレッド状のチーズの数が一定数を超える場合に、第1判断部12は、食材チーズが第1基準を満たし、食材チーズの過不足がないと判断することができる。
例えば、図5の領域Bに示すように、予め設定された第1基準として、食材の種類ごとに予め設定されている食材の個数に対するしきい値、および画像に占める食材の領域における面積に対するしきい値を用いることができる。例えば、図5の食材aの例では、第1推定部11が推定した「推定個数」は「2」個、食材aにおける領域a1の絶対的な面積である「推定面積」は「100」ピクセルである。また、個数について設定された第1基準「個数しきい値」は「3」個、面積について設定された第1基準である「面積しきい値」は「110-200」ピクセルの範囲である。
第1判断部12は、推定された食材各々の個数が第1基準を満たすか否か、および、推定された食材各々の領域の面積が第1基準を満たすか否かを判断する。図5の例では、第1判断部12は、推定された食材aの個数については、項目「個数判定」に示すように「個数しきい値」の「3」個を満たしていない(「NG」)と判断する。さらに、第1判断部12は、推定された食材aにおける領域a1の面積について、項目「面積判定」に示される「面積しきい値」の「110-200」ピクセルの範囲を満たしていない(「NG」)と判断する。
また、第1判断部12は、例えば、図5の領域Bに示される「検査項目」に示すように、食材aの個数が第1基準を満たし、かつ、領域a1の面積が第1基準を満たしているか否かを判断する。なお、例えば、食材b、cについては、領域b1、c1の面積のみが考慮され、食材dについては個数のみが食材の有無および過不足の判断において考慮されている。
検査部13は、第1判断部12による判断結果に基づいて、容器等に配置された複数の食材の配置に関する検査を行う。例えば、検査部13は、食品の容器等に配置された全ての種類の食材「a」,「b」,「c」,「d」について、その有無および過不足に関する第1判断部12による判断が肯定的であった場合には、食材の配置に関する検査は合格であるとの検査結果を出力することができる。一方、複数の種類の食材の一つでも否定的な判断結果が得られた場合には、検査部13は、食材の配置に関する検査は不合格とする検査結果を出力することができる。
例えば、図5の領域Bにおける項目「検査結果」は、食材aからdのうち、食材a、cに係る食材の有無および過不足に関する判断結果が第1基準を満たしていないため、最終的な食材の配置に関する検査結果、即ち、食品の盛り付け検査結果は不合格「NG」となっている。
提示部14は、少なくとも検査部13による検査結果を提示する。例えば、提示部14は、検査結果を表示させる表示装置108を備えることができる。図5に示すように、例えば、提示部14は、表示装置108の表示画面の領域Aにおいて、カメラ105によって撮影された複数の食材の画像iと、第1推定部11による第1推定結果を示す出力画像pと、画像i、および推定結果がカラーパターンで区別された出力画像pを合成した画像sとを表示させることができる。
また、提示部14は、表示装置108の表示画面に設けられた領域Bに、食品の「品種:冷やし中華」、「食材」の種類、「推定個数」、「推定面積」、「個数しきい値」、「面積しきい値」、「個数判定」、「面積判定」、「検査項目」、「判定結果」、「検査結果」のそれぞれの項目に対応する値を表示させることができる。
なお、提示部14は、検査部13による検査結果を検査装置1のユーザに提示することができれば、画面表示だけでなく、音声、その他の形態による情報の提示を行うこともできる。
メモリ15は、取得部10がカメラ105から取得した、食品の容器等に配置された食材が含まれる画像を記憶する。また、メモリ15は、第1推定部11による第1推定結果、第1判断部12が用いる予め設定された第1基準などを記憶している。
メモリ15は、第1メモリ15Aを備える。第1メモリ15Aは、外部のサーバ等で事前に学習処理され構築されたインスタンス・セグメンテーションによる画像認識モデルである学習済み第1モデルNN1およびその結果を用いた判断に用いる閾値情報等の第1基準を記憶する。例えば、第1メモリ15Aは、食品の品種ごとの学習済み第1モデルNN1を事前に記憶することができる。このように、予め複数の食品の各々に対応する学習済み第1モデルNN1および第1基準を記憶しておくことで、同一の製造ラインにおいて異なる食品が製造される場合においても、検査装置1で利用する学習済み第1モデルNN1を切り替えることで、異なる食品の盛り付け検査に対応することが可能である。
[検査装置のハードウェア構成]
次に、本実施の形態に係る検査装置1を実現するハードウェア構成の一例について図2のブロック図を用いて説明する。
図2に示すように、検査装置1は、例えば、バス101を介して接続されるプロセッサ102、主記憶装置103、通信インターフェース(I/F)104、補助記憶装置106、入出力I/O107を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。また、検査装置1は、バス101を介して外部のカメラ105と接続する。また、検査装置1は、バス101を介して接続された表示装置108を備えることができる。
主記憶装置103には、プロセッサ102が各種制御や演算を行うためのプログラムが予め格納されている。プロセッサ102と主記憶装置103とによって、図1に示した取得部10、第1推定部11、第1判断部12、検査部13など、検査装置1の各機能が実現される。
通信I/F104は、検査装置1と各種外部電子機器との間をネットワーク接続するためのインターフェース回路である。通信I/F104によって図1で示した取得部10や提示部14が実現される。なお、通信I/F104より、図1で説明した第1推定部11が用いる学習済み第1モデルNN1およびその結果を用いた判断に用いる閾値情報等がネットワークNWを介して外部端末より受信される構成やメモリーカード等の記憶媒体を利用して取得される構成としてもよい。また、通信I/F104より、図1で説明した第1判断部12および検査部13がそれぞれ用いる予め設定された基準が、ネットワークNWを介して外部端末より受信される構成やメモリーカード等の記憶媒体を利用して取得される構成としてもよい。
カメラ105は、光信号を画像信号に変換して、動画や静止画像を生成することができる。カメラ105で撮影された、食品の容器等に配置された食材が含まれる動画像や静止画像が学習済み第1モデルNN1の入力画像として用いられて、プロセッサ102によりインスタンス・セグメンテーションによる画像内の各ピクセルレベルでの食材の種類がインスタンスごとに検出される。
補助記憶装置106は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。補助記憶装置106には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。
補助記憶装置106は、検査装置1が実行する検査プログラムを格納するプログラム格納領域を有する。また、補助記憶装置106は、インスタンス・セグメンテーションによる食材の検出などの推定処理、推定結果に基づく判断処理、食品の盛り付けに関する検査処理を行うためのプログラムを格納する領域を有する。補助記憶装置106によって、図1で説明したメモリ15および第1メモリ15Aが実現される。また、補助記憶装置106には、学習済み第1モデルNN1およびその結果を用いた判断に用いる閾値情報等の第1基準が記憶されている。さらには、例えば、上述したデータやプログラムやなどをバックアップするためのバックアップ領域などを有していてもよい。
入出力I/O107は、外部機器からの信号を入力したり、外部機器へ信号を出力したりするI/O端子により構成される。
表示装置108は、液晶ディスプレイなどによって構成される。表示装置108によっても図1で説明した提示部14を実現することができる。
ここで、補助記憶装置106のプログラム格納領域に格納されているプログラムは、本明細書で説明する検査方法の順序に沿って時系列に処理が行われるプログラムであってもよく、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであってもよい。また、プログラムは、1つのコンピュータにより処理されるものでもよく、複数のコンピュータによって分散処理されるものであってもよい。
[検査装置の動作]
次に、上述した構成を有する検査装置1の動作について、図3のフローチャートおよび図4の説明図を用いて詳細に説明する。第1メモリ15Aには、事前に図示されない外部のサーバなどで行われた学習処理により得られた学習済み第1モデルNN1およびその結果を用いた判断に用いる閾値情報等の第1基準が格納され、以下の処理が実行される。
まず、検査が開始されると、第1推定部11は、第1メモリ15Aから学習済み第1モデルNN1をロードする(ステップS1)。例えば、ステップS1でロードされる学習済み第1モデルNN1は、Mask R-CNN,DeepMask,FCISなどに代表されるインスタンス・セグメンテーションのアーキテクチャを有する。例えば、図4に示すように、学習済み第1モデルNN1は、食品の容器等に配置された食材a,b,c,dをピクセルごとに識別し、入力された画像iに含まれる食材インスタンスを推定し、食材インスタンスの領域a1,b1,c1,d1を抽出して、領域ごとの食材a,b,c,dを推定する特徴量(第1特徴量)が学習されたモデルである。
次に、取得部10は、カメラ105で撮影された複数の食材が含まれる画像を取得する(ステップS2)。図4に示すように、ステップS2で取得される画像iは、例えば、製造ラインで製造された食品の容器等に配置あるいは盛り付けられた食材a,b,c,dの状態がより把握しやすい上面から撮影された画像である。
次に、第1推定部11は、第2ステップで取得された画像を入力として、ステップS1でロードした学習済み第1モデルNN1の演算を行う(ステップS3)。次に、第1推定部11は、学習済み第1モデルNN1の演算結果である第1推定結果を出力する(ステップS4)。
具体的には、第1推定部11は、学習済み第1モデルNN1を用いて、ステップS2で取得された画像における複数の食材の領域a1,b1,c1,d1および食材の種類a,b,c,dを推定し、推定された複数の食材の領域および種類を入力画像iに関連付けた出力画像pを含む第1推定結果を出力する。出力画像pは、複数の食材の種類ごとに、対応する領域が任意の色で塗られたカラーパターン画像である。
つまり、第1推定結果に含まれる出力画像には、ピクセル情報、および画像内での位置情報が含まれる。本実施の形態では、第1モデルNN1として、このようなインスタンス・セグメンテーションを採用するため、画像内に同一種類の食材が複数個含まれている場合であっても、食材をインスタンスごとに区別して検出することが可能である。
次に、第1判断部12は、ステップS4で出力された第1推定結果に基づいて、複数の食材の種類ごとに、対応する領域が、食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する(ステップS5)。例えば、第1判断部12は、各食材の推定個数、つまり、同一種類の食材の領域あるいはカラーパターンの数に対するしきい値処理を行うことができる。また、第1判断部12は、食材の種類ごとに推定された、食材の領域の画像内に占める面積に対するしきい値処理を行うことができる。
次に、検査部13は、ステップS5で得られた各食材の有無および過不足に関する判断結果に基づいて、食品の容器等に配置された複数の食材の配置に関する検査を行う(ステップS6)。例えば、検査部13は、ステップS5において、すべての種類の食材が、個数および面積に係る第1基準を満たす場合には、食品の容器等に配置された複数の食材の配置に関する検査は合格であるとの検査結果を出力することができる。前述したように、本実施の形態において、容器等に配置された食材の配置に関する検査とは、食材各々の種類、その有無、数、量などに関する食品の盛り付け検査が含まれる。
次に、提示部14は、ステップS6で得られた検査結果を提示する(ステップS7)。例えば、提示部14は、図5に示すように、表示装置108の表示画面の領域Bに、ステップS4で算出された食材a,b,c,dごとの推定個数および推定面積をテーブル形式で表示することができる。また、提示部14は、領域Bに設けられたテーブルに個数および面積についてのステップS5での判断結果を示す値を表示させることができる。また、前述したように、提示部14は、元の画像i、食材インスタンスの領域がカラーパターンで区別された出力画像p、および元の画像iと出力画像pとを合成した画像sをそれぞれ並べて領域Aに表示する。このように、検査結果とともに入力画像および出力画像、さらにはこれらを合成した画像を並べて表示することで、ユーザはより直感的に食品の盛り付け検査の結果を把握することができる。
以上説明したように、第1の実施の形態によれば、食品の容器等に配置された食材が含まれる画像に基づいて、画像内のピクセルごとに食材の種類を推定し、食材のインスタンスごとに領域を抽出するので、画像認識を利用した食品の盛り付け検査をより簡易に行うことができる。
また、第1の実施の形態によれば、画像認識技術の中でも、インスタンス・セグメンテーションに係る物体検出手法を採用するので、個々の食材における色の違い、濃淡、明暗等の存在や形状が一定でない場合であっても、食材の種類、数、および量を画像内のインスタンスごとに容易に推定することができる。
また、第1の実施の形態によれば、食品の容器等に配置された食材の画像を撮影する際に、食品の品種に応じて個別の撮影環境を構築する必要が少なく、検査装置1およびカメラ105はより簡易な構成を有するので、食品の製造ラインに容易に組み込むことが可能である。さらに、同一の製造ラインで異なる食品を製造する場合であっても、食品ごとに用意された学習済み第1モデルNN1を切り替えて用いれば検査が可能である。さらには、従来目視で行われていた食品の盛り付け検査を検査装置1が行うことで省人化に寄与することができる。
なお、説明した実施の形態ではカメラ105が外部に設置されている場合について説明したが、取得部10がカメラを備える構成としてもよい。
また、説明した実施の形態では、一つの検査装置1にすべての機能部が設けられている場合について説明した。しかし、検査装置1が備える各機能部は、一つのコンピュータとして実現される場合以外にも、ネットワーク上に分散した構成とすることもできる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第1の実施の形態では、学習済みの第1モデルNN1を用いて、食品の容器等に配置された複数の食材の種類ごとの有無および過不足に関して予め設定された第1基準を満たすか否かを判断する場合について説明した。これに加えて、第2の実施の形態では、さらに、学習済み第2モデルNN2を用いて、複数の種類の食材間の相対的な配置関係を推定する。
[検査装置の機能ブロック]
図6は、本実施の形態に係る検査装置1Aの構成を示す機能ブロック図である。本実施の形態に係る検査装置1Aは、取得部10、第1推定部11、第1判断部12、検査部13、提示部14、メモリ15、第2推定部16、および第2判断部17を備える。第2メモリ15B、第2推定部16、および第2判断部17をさらに備える点で第1の実施の形態に係る検査装置1と異なる。以下、第1の実施の形態と異なる構成を中心に説明する。
第2メモリ15Bは、外部のサーバなどで事前の学習処理により構築された学習済み第2モデルNN2を記憶する。より具体的には、第2メモリ15Bは、学習済み第2モデルNN2、および学習済み第2モデルNN2の演算の結果に対する判断基準である後述の第2基準を記憶する。
ここで、学習済み第2モデルNN2は、検査対象の複数の種類の食材の間の相対的な配置関係を識別する特徴量(第2特徴量)が学習されたモデルであるが機械学習、特にディープラーニングなどのニューラルネットワークモデルであってもよい。このような学習済み第2モデルNN2を用いることで、未知の食品の画像における食材の盛り付け位置を分類することができる。本実施の形態では、第1メモリ15Aに記憶されている学習済み第1モデルNN1と、第2メモリ15Bに記憶されている学習済み第2モデルNN2との2つの学習モデルが一対となって同一品目の食品の盛り付け検査に用いられる。
図7は、本実施の形態に係る第2推定部16および第2判断部17によって行われる学習済み第2モデルNN2を用いた食材の配置位置に関する推定処理の概要を説明するための図である。図7の(a)および図7の(b)の左側に図示された画像iはそれぞれ取得部10によって取得された食品の画像の例を示している。例えば図7の(a)の食材間の位置(aの隣にb、bの隣にcが盛り付けられている。)が仮に正しい配置関係であるとする。これに対して、図7の(b)では、食材aとbの位置が逆になっている。本実施の形態では、図7の(b)のような食材間の配置関係の誤りを検出するものである。
第1推定部11によって得られた第1推定結果に含まれる出力画像は、図7の(a)および図7の(b)の中央に図示された画像pからわかるように、食材の種類(クラス)がピクセル単位でラベル付けされ、食材のインスタンスごとに領域がカラーパターンで区別されたカラーパターン画像である。事前に構築された学習済み第2モデルNN2は、第1推定部11によって得られた食材インスタンスごとのカラーパターン画像の特徴、すなわち、食材間の相対的な配置関係を学習し、未知のカラーパターン画像が入力された場合にその画像の特徴を抽出し、食材間の相対的な配置関係の正誤を分類する分類器である。
第2モデルNN2としては、良品と不良品を学習し分類する2クラス分類や、オートエンコーダのように良品のみを学習し分類する1クラス分類などが挙げられる。
図6に戻り、第2推定部16は、第1推定部11による第1推定結果に含まれる出力画像を入力とする学習済み第2モデルNN2を用いて、出力画像における複数の種類の食材の間の相対的な配置関係を推定し、推定された配置関係を第1推定部11からの出力画像に関連付けた第2推定結果を出力する。
第2推定部16は、第1推定結果に含まれる、食材インスタンスの領域ごとにカラーパターンが表示された出力画像をそのまま入力として用いる。また、第2推定部16は、入力されたカラーパターンの出力画像において、複数の種類の食材間の相対的な位置である配置関係を示す特徴を抽出し、その特徴から複数の種類の食材間における配置関係の正誤を確率的に分類する。なお、第2推定部16が推定する食材相互の相対的な配置関係は、種類の異なる複数の食材間の配置関係だけでなく、設定に応じて、一つの種類の食材が複数の食材で構成されている場合の個々の食材間における相対的な配置関係であってもよい。
第2判断部17は、第2推定部16による第2推定結果に基づいて、食品の容器等に配置された複数の種類の食材相互の相対的な配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する。例えば、第2判断部17は、確率で示された分類結果に対して予め設定されたしきい値を設けて、推定された配置関係の正誤を判断することができる。
また、一つの種類の食材が複数の食材で構成される場合の配置関係の妥当性を判断するための第2基準は、同一種類の食材を構成する複数の食材が一定の並び方であるか否かを判断する基準として設定することができる。このような第2基準を用いることで、第2判断部17は、同一種類の食材を構成する複数の食材相互の相対的な配置関係の妥当性の有無を判断することができる。
例えば、ピザのトッピングとして配置されるシュレッドチーズを例に挙げて説明する。例えば、シュレッド状の複数のチーズは、互いに一定の距離をもって偏りなくピザの生地の上にばらけて配置されることが好ましいとする。この場合の第2基準として、複数のシュレッド状のチーズの相対的な配置関係の妥当性の有無、換言すると、シュレッドチーズの並び方が基準を満たすか否か、あるいは、トッピングとして配置されたシュレッドチーズのばらけ方の程度が一定であるか否かを判断するための基準が設定される。例えば、第2判断部17は、このような第2基準に基づいて、シュレッドチーズ各々が所定の位置に配置されているか否か、さらには、特定の位置に偏ってトッピングされていないか等の検出を行うことが可能である。
検査部13は、第1判断部12による判断結果、および第2判断部17による判断結果に基づいて、食品の容器等に配置された複数の食材の配置に関する検査を行う。本実施の形態では、検査部13は、第1判断部12による食材の有無および過不足に関する判断結果に加え、第2判断部17による食材の配置位置に関する判断結果から、最終的な食品の盛り付け検査を行う。
提示部14は、検査部13による検査結果を提示する。より具体的には、提示部14は、図10に示すように、表示装置108の表示画面に表示された領域Bに、食材ごとの第1推定部11による「推定個数」、「推定面積」、第1判断部12が用いる「個数しきい値」、「面積しきい値」を表示させる。さらに、提示部14は、しきい値ごとの判断結果の値「個数判定」、「面積判定」、および「検査項目」に基づく検査結果の項目「判定結果」の値を領域Bに表示させる。
また、提示部14は、領域Bに設けられたテーブルの項目「場所検査結果」において、第2推定部16による第2推定結果「確率(0.999)」および第2判断部17による食材間の相対的な配置関係の妥当性に関する判断結果「NG」の値を表示させる。
さらに、提示部14は、第1判断部12による食材の有無および過不足に関する判断結果(項目「判定結果」)と、第2判断部17による食材間の配置関係の妥当性に関する判断結果(「場所検査結果」)とに基づいた、複数の食材の配置に関する最終的な検査結果(「検査結果」)を領域Bに表示させる。
また、提示部14は、取得部10が取得した検査対象の画像iと、第1推定部11による第1推定結果を含む食材の種類ごとのカラーパターンの出力画像pと、検査対象の画像iおよび出力画像pを合成した画像sとを領域Aに並べて表示させることができる。
[検査装置の動作]
次に、上述した構成を有する検査装置1Aの動作について、図8のフローチャートおよび図9の説明図を参照して説明する。事前に外部のサーバなどで第1学習モデルNN1および第2学習モデルNN2の学習処理が行われるものとする。また、第1メモリ15Aには、事前に構築された学習済みの第1学習モデルNN1およびその演算結果に対する判断処理に用いるしきい値情報等を含む第1基準が記憶されている。同様に、第2メモリ15Bには、学習済みの第2学習モデルNN2およびその演算結果に対する判断処理に用いるしきい値情報等を含む第2基準が記憶されているものとする。
まず、第1推定部11は、第1メモリ15Aから学習済み第1モデルNN1をロードする(ステップS10)。次に、第2推定部16は、第2メモリ15Bから学習済み第2モデルNN2をロードする(ステップS11)。
次に、取得部10は、カメラ105で撮影された、食品の容器等に配置された複数の食材が含まれる画像を取得する(ステップS12)。次に、第1推定部11は、ステップS10でロードした学習済み第1モデルNN1の演算を行う(ステップS13)。
具体的には、図9に示すように、第1推定部11は、学習済み第1モデルNN1を用いて、ステップS10で取得された画像iにおける複数の食材の領域a1,b1,c1,d1および食材の種類a,b,c,dを推定し、推定された複数の食材の領域および種類を入力画像iに関連付けた出力画像pを含む第1推定結果を出力する。出力画像pは、複数の食材の種類ごとに、対応する領域が任意の色で塗られたカラーパターン画像である。
つまり、第1推定結果に含まれる出力画像には、ピクセル情報、および画像内での位置情報が含まれる。本実施の形態では、第1モデルNN1として、このようなインスタンス・セグメンテーションを採用するため、画像内に同一種類の食材が複数個含まれている場合であっても、食材をインスタンスごとに区別して検出することが可能である。
次に、第1推定部11は、学習済み第1モデルNN1の演算結果である第1推定結果を第2推定部16に入力する(ステップS14)。より具体的には、第1推定部11は、図9のステップS13に示すように、食材インスタンスの領域ごとにカラーパターンが割り当てられた出力画像pを第2推定部16に入力する。なお、第1推定部11による第1推定結果は、第1判断部12にも渡される。
次に、第2推定部16は、ステップS11でロードされた学習済み第2モデルNN2の演算を行い、演算結果を第2判断部17へ渡す(ステップS15)。より詳細には、第2推定部16は、第1推定結果に含まれる出力画像を入力とする学習済み第2モデルNN2を用いて、出力画像における複数の種類の食材間の配置関係を推定し、推定された配置関係を出力画像に関連付けた第2推定結果を出力する。
次に、第1判断部12は、ステップS13での学習済み第1モデルNN1の演算による第1推定結果に基づいて、食材の種類ごとの有無および過不足に関して予め設定された第1基準を満たすか否かを判断する(ステップS16)。より詳細には、第1判断部12は、学習済み第1モデルNN1と対応付けて第1メモリ15Aに記憶されている食材の種類ごとの判断項目やしきい値等の第1基準を第1メモリ15Aから読み出してステップS16の処理を行う。
例えば、第1判断部12は、各食材の推定個数、つまり、同一種類の食材の領域あるいはカラーパターンの数に対するしきい値処理を行うことができる。また、第1判断部12は、食材の種類ごとに推定された、食材の領域の画像内に占める面積に対するしきい値処理を行うことができる。
次に、第2判断部17は、ステップS15で得られた第2推定結果に基づいて、複数種類の食材相互における配置関係が、配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する(ステップS17)。より詳細には、第2判断部17は、学習済み第2モデルNN2と対応付けて第2メモリ15Bに記憶されているしきい値等を含む第2基準を第2メモリ15Bから読み出してステップS17の処理を行う。
例えば、図10の領域Bにおいて、項目「場所検査結果」の値が示すように、第2推定部16によって推定された食材間の相対的な配置関係が正しいか否かを示す確率に基づいて、食材の配置された位置は誤り「NG」であると判断している。
次に、検査部13は、ステップS16で得られた各食材の有無および過不足に関する判断結果、およびステップS17で得られた複数種類の食材間の配置関係の妥当性に関する判断結果に基づいて、食品の容器等に配置された複数の食材の配置に関する検査を行う(ステップS18)。
例えば、検査部13は、ステップS16において、すべての種類の食材が、個数および面積に係る第1基準を満たし、かつ、ステップS17において、複数種類の食材間の配置関係が第2基準を満たす場合には、食品の容器等に配置された複数の食材の配置に関する検査は合格であるとの検査結果を出力することができる。本実施の形態において、容器等に配置された食材の配置に関する検査とは、食材各々の種類、その有無、数、量、および配置位置に関する食品の盛り付け検査が含まれる。
次に、提示部14は、ステップS18で得られた食材の配置に関する検査結果を提示する(ステップS19)。例えば、提示部14は、図10に示すように、表示装置108の表示画面の領域Bに、食材a,b,c,dごとの推定個数および推定面積をテーブル形式で表示することができる。また、提示部14は、領域Bに設けられたテーブルに個数および面積についてのしきい値との比較による判定結果を表示させることができる。
さらに、提示部14は、第2推定部16による第2推定結果および第2判断部17による複数種類の食材間の配置関係における妥当性に関する判断結果を領域Bのテーブルに表示させることができる。また、提示部14は、検査部13によって行われた総合的な食品の盛り付け検査の結果についても領域Bのテーブルに表示させることができる。
また、前述したように、提示部14は、カメラ105で撮影された画像iと、カラーパターンの出力画像pと、画像iおよびカラーパターンの出力画像pを合成した画像sとをそれぞれ並べて領域Aに表示する。また、提示部14は、正しい位置に食材が配置されている食品の画像を参照画像として、領域Aにさらに並べて表示することで、ユーザはより直感的に食材の配置に関する検査結果を把握することができる。
ここで、本実施の形態に係る検査装置1Aを用いて食品の盛り付け検査を行った際の処理時間について、図11を参照して説明する。図11の横軸はデータ区間[msec]、縦軸は検査対象の食品の数である度数を示している。処理時間は、カメラ105で製造された食品の画像を撮影してから、第1推定部11によるインスタンス・セグメンテーションによる推定処理、第2推定部16による分類、さらに、画像の保存、および各数値の保存までの時間を処理時間として記録したものである。なお、インスタンス・セグメンテーションおよび分類器の精度については、予め実用に十分な精度を有する設計とされている。
図11の横軸の最も右端に示される1食目の検査時間が約700msecである。また、2食目以降は、400msecの処理時間となっていることがわかる。これは、食品の製造ラインにおけるタクトタイムを、例えば1.0secとした場合に、処理時間としては余裕があることが示されている。このように、本実施の形態に係る検査装置1Aは、十分な検査精度を保ちながら、より簡易な構成を有しつつ、十分な処理時間が得られることがわかる。
以上、第2の実施の形態によれば、第1推定部11による第1推定結果を第2推定部16の分類器の入力として用いることで、より簡易な構成で画像認識を利用した食材の配置に関する検査を行うことができる。
また、第2の実施の形態によれば、一つの検査装置1Aにおいて、食品の容器等に配置された食材の有無、数、量だけでなく、配置された複数の種類の食材間における相対的な位置についても検査を行うことでき、より効率的かつ効果的な食材の配置に関する検査が実現される。
また、第2の実施の形態によれば、食材が配置される容器等の形状や素材にかかわらず、食材の配置の正誤に関する検査を行うことができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1および第2の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第2の実施の形態では、事前に外部のサーバ等で学習処理が行われて構築された学習済み第1モデルNN1および学習済み第2モデルNN2を用いて、推定処理が行われる場合について説明した。これに対して、第3の実施の形態では、第1モデルNN1の学習を行う第1学習部18、および第2モデルNN2の学習を行う第2学習部19を有する学習装置をさらに備え、それぞれの学習処理を自装置において行う。
[検査装置の機能ブロック]
図12は、本実施の形態に係る検査装置1Bの構成を示すブロック図である。検査装置1Bは、取得部10、第1推定部11、第1判断部12、検査部13、提示部14、メモリ15、第2推定部16、第2判断部17、第1学習部18、および第2学習部19を備える。検査装置1Bは、第1学習部18および第2学習部19をさらに備える点で、第2の実施の形態の構成と異なる。以下、第1および第2の実施の形態と異なる構成を中心に説明する。
第1学習部18は、食品の容器等に配置された食材が含まれる画像を学習用画像(第1学習用画像)として用いて、ニューラルネットワークの第1モデルを学習させて、食材の領域および種類を識別する第1特徴量を抽出し、抽出された第1特徴量により学習済み第1モデルNN1を獲得する。第1学習部18によって得られた学習済み第1モデルNN1は、第1メモリ15Aに記憶される。
より詳細には、第1学習部18は、Mask R-CNNなどのインスタンス・セグメンテーションのアーキテクチャを有するニューラルネットワークモデルを第1モデルNN1として用いる。第1学習部18は、学習用画像に含まれる複数の食材a,b,c,dをピクセルごとに識別し、学習用画像に含まれる食材インスタンスの領域における食材の種類a,b,c,dが推定されるような特徴量を学習する。
例えば、図9に示すように、食材a,b,c,dごとの学習用画像が、第1モデルNN1に入力として与えられる。第1学習部18は、第1モデルNN1の学習演算を行い、食材a,b,c,dの特徴を学習する。学習処理において用いられる学習用画像の数は、後段の検査処理において十分な精度が担保されるだけの枚数が用いられるが、例えば、カメラ105で撮影された食材a,b,c,dそれぞれ10枚の画像を切り出して、学習用画像とすればよい。なお、学習用画像として、取得部10で事前に取得された画像を用いてもよい。
第2学習部19は、第1推定部11による推定結果に含まれる出力画像を学習用画像(第2学習用画像)として用いて、ニューラルネットワークによる第2モデルを学習させて、学習用画像における食材間の相対的な配置関係を識別する第2特徴量を抽出し、抽出された第2特徴量により学習済みの第2モデルNN2を獲得する。第2学習部19によって得られた学習済み第2モデルNN2は、第2メモリ15Bに記憶される。
より具体的には、第2学習部19は、インスタンス・セグメンテーションによるカラーパターンの出力画像を学習して、食材間の配置関係の正誤を分類結果として出力する学習済み第2モデルNN2を構築する。第2モデルNN2としては、良品と不良品を学習し分類する2クラス分類や、オートエンコーダのように良品のみを学習し分類する1クラス分類などが挙げられる。
後述の第6の実施の形態で詳述するが、例えば、第2学習部19は、第1推定部11が学習済み第1モデルNN1の演算を行って出力した一定数の出力画像を複製あるいは加工することで、必要枚数の学習用画像を確保することができる。また、学習用画像としては、図9に示すように、食品の容器等に配置されている、複数種類の食材a,b,c,dを表すカラーパターンの互いの位置が正しい画像と、誤っている画像とが用いられる。なお、食材の配置位置が誤っている画像については、第1推定結果に含まれる出力画像の加工により作成すればよい。
なお、第1学習部18および第2学習部19は、複数の異なる食品の品種ごとに、学習済み第1モデルNN1および学習済み第2モデルNN2を構築し、メモリ15(第1メモリ15A、第2メモリ15B)に記憶することができる。また、第1メモリ15Aは、学習済み第1モデルNN1と対応付けられた、学習済み第1モデルNN1の演算結果に対して用いるしきい値などの第1基準を記憶する。同様に、第2メモリ15Bは、学習済み第2モデルNN2と対応付けられた、学習済み第2モデルNN2の演算結果に対して用いるしきい値等の第2基準を記憶する。
本実施の形態では、第1学習部18、第2学習部19、第1メモリ15A、および第2メモリ15Bは、予め設定されたモデルを構築するための学習処理を行う学習装置を構成する。
[検査装置の動作]
次に、上述した構成を有する検査装置1Bの動作について、図13のフローチャートを用いて説明する。
まず、取得部10は、カメラ105で撮影された、食品の容器等に配置されている複数の食材が含まれる画像を学習用画像として取得する(ステップS101)。次に、第1学習部18は、ステップS101で取得された学習用画像を用いて、予め設定されているインスタンス・セグメンテーションを実現するニューラルネットワークの第1モデルを学習して、学習用画像内のピクセルごとに食材の領域および種類を識別する第1特徴量を抽出し、抽出された第1特徴量により学習済み第1モデルNN1を獲得する(ステップS102)。次に、ステップS102で得られた学習済み第1モデルNN1は第1メモリ15Aに記憶される(ステップS103)。より詳細には、ステップS103では、さらに、学習済み第1モデルNN1の演算結果に対する判断処理(後述のステップS111)で用いられる第1基準が第1メモリ15Aに記憶される。
次に、第2学習部19は、学習済み第1モデルNN1からの出力画像を学習用画像として取得する(ステップS104)。例えば、第2学習部19は、事前に構築された学習済み第1モデルNN1を用いた推定処理により出力された出力画像を取得することができる。
第2学習部19は、取得した学習用画像を用いて、ニューラルネットワークによる第2モデルNN2を学習させて、複数種類の食材間における相対的な配置関係を識別する第2特徴量を学習用画像から抽出し、抽出された第2特徴量により学習済み第2モデルNN2を獲得する(ステップS105)。
その後、ステップS105で得られた学習済み第2モデルNN2は第2メモリ15Bに記憶される(ステップS106)。より詳細には、ステップS106では、さらに、学習済み第2モデルNN2の演算結果に対する判断処理(後述のステップS112)で用いられる第2基準が第2メモリ15Bに記憶される。
取得部10は、カメラ105で撮影された検査用の画像を取得する(ステップS107)。次に、第1推定部11は、ステップS103で第1メモリ15Aに記憶された学習済み第1モデルNN1を読み込み、ステップS107で取得された画像を入力として、学習済み第1モデルNN1の演算を行う(ステップS108)。
また、ステップS108において、第1推定部11は、学習済み第1モデルNN1を用いて、ステップS107で取得された画像における複数の食材の領域および食材の種類を推定し、推定された複数の食材の領域および種類を入力画像に関連付けた出力画像を含む第1推定結果を出力する。出力画像は、複数の食材の種類ごとに、対応する領域が任意の色で塗られたカラーパターン画像である。
第1推定結果に含まれる出力画像には、ピクセル情報、および位置情報が含まれる。本実施の形態では、第1モデルNN1としてインスタンス・セグメンテーションを採用するため、画像に同一種類の食材が複数個盛り付けられている場合であっても、食材のインスタンスごとに区別して検出することが可能である。
次に、第1推定部11は、第1推定結果を第2推定部16に入力する(ステップS109)。第1推定部11は、食材の領域ごとにカラーパターンが割り当てられた出力画像を含む第1推定結果を出力する。この第1推定結果は、第2推定部16の入力画像として用いられる。なお、第1推定結果は、第1判断部12にも渡される。
次に、第2推定部16は、ステップS106で第2メモリ15Bに記憶された学習済み第2モデルNN2を読み込み、第1推定結果に含まれる出力画像を学習済み第2モデルNN2に与え、学習済み第2モデルNN2の演算を行い、演算結果を第2判断部17へ渡す(ステップS110)。
より詳細には、第2推定部16は、第1推定結果に含まれる出力画像を入力とする学習済み第2モデルNN2を用いて、出力画像における複数種類の食材間の配置関係を推定し、推定された配置関係を出力画像に関連付けた第2推定結果を出力する。
次に、第1判断部12は、ステップS13での学習済み第1モデルNN1の演算による第1推定結果に基づいて、食材の種類ごとの有無および過不足に関して予め設定された第1基準を満たすか否かを判断する(ステップS111)。より詳細には、第1判断部12は、学習済み第1モデルNN1と対応付けて第1メモリ15Aに記憶されているしきい値等を含む第1基準を第1メモリ15Aから読み出してステップS111の判断処理を行う。
例えば、第1判断部12は、各食材の推定個数、つまり、同一種類の食材の領域あるいはカラーパターンの数に対するしきい値処理を行うことができる。また、第1判断部12は、食材の種類ごとに推定された、食材の領域の画像内に占める面積に対するしきい値処理を行うことができる。
次に、第2判断部17は、ステップS110で得られた第2推定結果に基づいて、複数種類の食材間の配置関係が、配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する(ステップS112)。より詳細には、第2判断部17は、学習済み第2モデルNN2と対応付けて第2メモリ15Bに記憶されているしきい値等を含む第2基準を第2メモリ15Bから読み出してステップS112の判断処理を行う。
次に、検査部13は、ステップS111で得られた各食材の有無および過不足に関する判断結果、およびステップS112で得られた食材間の配置関係の妥当性に関する判断結果に基づいて、食品の容器等に配置された複数の食材の配置に関する検査を行う(ステップS113)。
例えば、検査部13は、ステップS111において、すべての種類の食材が、個数および面積に係る第1基準を満たし、かつ、ステップS112において、食材間の配置関係が第2基準を満たす場合には、食品の容器等に配置された複数の食材の配置に関する検査は合格であるとの検査結果を出力することができる。本実施の形態において、容器等に配置された食材の配置に関する検査とは、食材各々の種類、その有無、数、量、および配置位置に関する食品の盛り付け検査が含まれる。
次に、提示部14は、ステップS113で得られた食材の配置に関する検査結果を提示する(ステップS114)。
以上説明したように、第3の実施の形態によれば、検査装置1Bは学習装置を備え、第1学習部18がインスタンス・セグメンテーションを実現する第1モデルNN1を学習させ、かつ、第2学習部19は、学習済み第1モデルNN1からの出力画像を学習用画像として用いて食材間の配置関係の正誤を分類する第2モデルNN2を学習する。そのため、より簡易な構成により学習処理から推定処理さらには検査までの処理を一つの検査装置1Bで行うことができる。
また、第3の実施の形態によれば、第2モデルNN2は、学習済み第1モデルNN1の出力画像を入力画像として用いる。そのため、第2モデルNN2の学習用画像を容易に準備することができ、第2モデルNN2の学習処理をより簡素化することができる。
また、第3の実施の形態によれば、学習用画像が容易に取得されるので、第1モデルNN1および第2モデルNN2を食品ごとに構築すれば、製造された食品が少量多品種である場合や製品の改廃が頻繁に行われる場合においても、少量多品種の製品に係る食品の盛り付け検査に容易に対応可能である。
また、第3の実施の形態においても、学習用画像を取得するにあたり、簡易に構築された画像の撮影環境を用い、かつ、取得された画像自体の処理は簡易な処理でよいため、画像処理を利用した食品の盛り付け検査が容易となる。
[第4の実施の形態]
次に、本発明の第4の実施の形態について説明する。なお、以下の説明では、上述した第1から第3の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第2および第3の実施の形態では、第2学習部19および第2推定部16は、学習済み第1モデルNN1の演算により得られた出力画像をそのまま学習用画像および推定処理のための入力画像として用いる場合について説明した。これに対して、第4の実施の形態では、第2学習部19および第2推定部16において用いられる学習用画像および入力画像を変換し、より単純化した画像を第2学習部19の学習用画像として用いる。
[検査装置の機能ブロック]
図14は、本実施の形態に係る検査装置1Cの構成を示すブロック図である。検査装置1Cは、取得部10、第1推定部11、第1判断部12、検査部13、提示部14、メモリ15、第2推定部16、第2判断部17、第1学習部18、第2学習部19、および変換部20を備える。検査装置1Cは、変換部20をさらに備える点で、第3の実施の形態の構成と異なる。以下、第1から第3の実施の形態と異なる構成を中心に説明する。
変換部20は、第1推定部11による第1推定結果に含まれる出力画像を変換してより単純化した変換画像を生成する。例えば、図15の例に示すように、第1推定部11からの出力画像は、食材の種類ごとに、対応する領域が食材の実際の形状を有する。また、各領域が任意の色で塗られたカラーパターン画像である。変換部20は、カラーパターン画像の領域各々を同一形状のオブジェクトに置き換えたカラーパターン画像に変換する。例えば、変換部20は、領域a1,b1,c1,d1の形状を、円形等のオブジェクトに置き換えることができる。この場合、変換部20によって変換された画像は、各領域のカラーパターンの色は互いに異なるが、形状が同一の画像となる。
図15および図16に示すように、カラーパターン画像は、各領域が実際の食材インスタンスの外形を有する複雑な形状を有する。そのため、変換部20は、境界抽出に影響のない微細な変化は除去したより単純化したオブジェクトで各領域を置き換えて、第2モデルNN2を用いた学習処理および推定処理での演算負荷を軽減する。
別の例を挙げると、図16に示すように、変換部20は、第1推定部11からの出力画像のカラーパターン画像の領域各々を、カラーパターンの色ごとに形状の異なるオブジェクトに置き換え、かつ、置き換えたオブジェクトのカラーパターンをすべて同一の色とした画像に変換することができる。つまり、変換部20は、複雑な形状を有する領域を、食材の種類ごとに形状が異なる単純な形状のオブジェクトに置換する。例えば、領域の形状をより単純化した幾何学形状、例えば、三角、四角、丸、星形など、任意の形状の置換した変換画像を生成することができる。一例では、変換画像をモノクロの二値画像とすることができ、これにより、変換画像のデータサイズを小さくすることができる。
当然、変換部20は、カラーパターン画像の領域各々を、カラーパターンの色ごとに形状の異なる形状のオブジェクトに置き換え、かつ、置き換えたオブジェクトを、オブジェクトの形状ごとに異なる色とすることができるのは言うまでもない。
第2学習部19は、変換部20によって変換された画像を学習用画像として用いて、第2モデルNN2の学習を行い、学習済み第2モデルNN2を獲得する。
第2推定部16は、変換部20によって生成された変換画像を入力とする学習済み第2モデルNN2を用いて、変換画像における複数の食材の間の相対的な配置関係の推定を行う。
以上説明したように、第4の実施の形態によれば、変換部20において、第1推定部11からの出力画像をより単純化した変換画像を生成し、変換画像を学習用画像として第2モデルNN2の学習を行う。そのため、第2学習部19における第2モデルNN2の学習処理における演算負荷の軽減やメモリ量の削減が可能となる。また、第2推定部16における学習済み第2モデルNN2の演算を行う際の演算負荷が軽減され得る。
[第5の実施の形態]
次に、本発明の第5の実施の形態について説明する。なお、以下の説明では、上述した第1から第4の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第4の実施の形態では、第1推定部11からの出力画像に含まれる、食材の領域ごとのカラーパターンを変換してより単純化した形状のオブジェクトに置き換えた変換画像を生成する場合について説明した。これに対し、第5の実施の形態では、第1推定部11からの出力画像に含まれる、カラーパターンに含まれる不連続な部分を連続なものに補完した画像を生成し、第2モデルNN2の学習に用いる。
[検査装置の機能ブロック]
図17は、本実施の形態に係る検査装置1Dの構成を示すブロック図である。検査装置1Cは、取得部10、第1推定部11、第1判断部12、検査部13、提示部14、メモリ15、第2推定部16、第2判断部17、第1学習部18、第2学習部19、および加工部21を備える。検査装置1Dは、加工部21を備える点で、変換部20を備えた第4の実施の形態の構成と異なる。以下、第1から第4の実施の形態と異なる構成を中心に説明する。
加工部21は、第1推定部11による推定結果の出力画像に含まれる食材の領域の推定外形線の最長のものの内部が、その食材の領域であるとして、カラーパターンの不連続性を補完して連続にした加工画像を生成する。
具体的には、図18に示すように、第1推定部11からの出力画像において、食材の領域b1に不連続な部分が含まれているとする。例えば、食材自体の形状に空洞があるような場合、あるいは、食材の加工状態によっては隙間が形成されるような場合が考えられる。このような場合には、第2学習部19におけるニューラルネットワークの学習負荷軽減の観点から、事前に領域内の全ての領域は、推定された食材を示していることを明確にしておくことが有効である。
そのため、加工部21は、領域b1の内部に含まれる穴は、食材bを示す領域であるとみなして、領域b1に割り当てられているカラーパターンで領域b1内の不連続な部分を補完して連続な部分とした加工画像を生成する。
第2学習部19は、加工部21によって加工されたカラーパターンの不連続な部分を補完して連続にした加工画像を学習用画像として用いて、第2モデルNN2の学習を行って学習済み第2モデルNN2を獲得する。
第2推定部16は、加工部21によって生成されたカラーパターンの不連続性を補完して連続にした出力画像の加工画像を入力として学習済み第2モデルNN2の演算を行い、食材間の相対的な配置関係を推定し、推定された配置関係を出力画像に関連付けた第2推定結果を出力する。
以上説明したように、第5の実施の形態によれば、加工部21において、第1推定部11からの出力画像に含まれる食材の領域におけるカラーパターンの不連続な部分を補完して連続な部分とした加工画像を生成し、第2モデルNN2の学習を行う。そのため、第2学習部19における第2モデルNN2の学習における演算負荷を軽減してより効率的に学習を行うことが可能となる。
[第6の実施の形態]
次に、本発明の第6の実施の形態について説明する。なお、以下の説明では、上述した実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
上述した第3の実施の形態では、第1モデルNN1の学習を行う第1学習部18、および第2モデルNN2の学習を行う第2学習部19を有する学習装置をさらに備える構成について説明した。また、第3の実施の形態では、第2学習部19が第2モデルNN2の学習を行う場合に、学習済み第1モデルNN1の演算で得られた出力画像のみを学習用画像として用いる場合について説明した。これに対し、第6の実施の形態では、学習装置がデータ拡張を行って、第2モデルNN2の学習で用いる学習用画像を水増しする。
図20は、本実施の形態に係る検査装置1Eで行われるデータ拡張処理の概要を説明するための図である。図20の破線枠DAに示される画像データは、食材間の配置関係の正誤を分類する第2モデルNN2を学習するための学習用データセットである。各学習用画像tには、食材間の配置関係が正しい、または誤っていることを示すラベル情報(「良」、「不良」)が付与されている。第2モデルNN2の分類精度を向上させる場合、食材間の配置関係の正しい(以下、「良品」または「良」という場合がある。)、および配置関係が誤っている(以下、「不良品」または「不良」という場合がある。)両方のラベルに係る学習用画像の数を増やして学習を行うことが有効であると考えられる。
しかし、検査装置1Eを食品の製造ラインの検査に用いた場合、良品に係る学習用画像を多数取得することは比較的容易であるが、不良品に係る学習用画像はほとんど取得できない。特に、本実施の形態に係る第2モデルNN2は、良品および不良品の2つのクラスを分類する分類器であり、精度の確保およびその向上のためには十分な量の不良品に係る学習用画像を用意して学習を行うことが望ましい。
例えば、非特許文献1から3は、学習用画像をデータ拡張処理によって生成する技術を開示している。また、特許文献2は、画像データの特徴部分の境界が不自然となることを防ぐため、拡張対象物の位置形態情報を特定してデータ拡張処理を行い、学習用画像を生成する技術を開示している。また、特許文献3は、画像の特徴部分を加工して、加工データに基づいてデータ拡張を行い、学習用画像を効率的に生成する技術を開示している。
しかし、非特許文献1から3、および特許文献2、3が開示する従来技術はいずれも、所謂良品画像のデータ拡張を行って、同じラベルである良品画像を大量に生成するものであり、良品画像に基づいたデータ拡張を行ってラベルの異なる不良品画像を大量に生成することは困難であった。
これに対し、本実施の形態では、第2モデルNN2の学習用画像に特有の性質を利用することで、製造ラインで取得することが比較的困難な不良品に係る学習用画像を生成することを可能とする。より詳細には、本実施の形態では、第2モデルNN2の学習用画像が、食材を互いに区別して食材が存在する画像内の領域をピクセル単位で識別するインスタンス・セグメンテーションで得られたカラーパターンの画像であること、および、学習用画像のラベル情報が食材間の相対的な位置関係の正誤であるということに着目する。
本実施の形態に係る検査装置1Eでは、これらの着目点に基づいて、比較的容易に取得可能な良品に係る対象画像のデータ拡張を行って、実際の製造ラインで取得することが比較的困難な不良品に係る学習用画像を大量に生成することを可能とする。
[検査装置の機能ブロック]
図19は、本実施の形態に係る検査装置1Eの構成を示すブロック図である。検査装置1Eは、取得部10、第1推定部11、第1判断部12、検査部13、提示部14、メモリ15、第2推定部16、第2判断部17、第1学習部18、第2学習部19、抽出部22、およびデータ拡張部23を備える。検査装置1Eは、学習装置において抽出部22およびデータ拡張部23をさらに備える点で、特に、第3から第5の実施の形態の構成と異なる。以下、第3から第5の実施の形態と異なる構成を中心に説明する。
抽出部22は、データ拡張を行う対象の画像(対象画像)から、食材の種類ごとの領域を抽出する。対象画像とは、後述のデータ拡張部23がデータ拡張を行う対象の画像であり、予め食材間の相対的な位置関係の正誤に係るラベル情報が付与された画像である。例えば、第1推定部11が出力した第1推定結果に含まれる、推定された食材の領域および種類が画像に関連付けられた出力画像を対象画像として用いることができる。あるいは、ユーザや技術者等が事前に作成した画像を対象画像として用いる場合等、ラベル情報が付与された画像を予め外部から取得して対象画像として用いることもできる。本実施の形態では、特に、食材ごとの領域がカラーパターンとして表される出力画像に、ラベル情報が付与された画像を対象画像として用いるものとする。抽出部22は、設定に応じて、予め指定されたカラーパターンに係る食材の領域のみを対象画像から抽出することもできる。
例えば、図21の対象画像データDA0のフォルダに含まれる3枚の画像のうち、抽出部22は、太枠で囲われた画像p(以下、「対象画像p」ということがある。)に含まれる食材a、b、c、およびdの領域a1、b1、c1、およびd1を抽出する。対象画像pには、予め食材間の相対的な配置関係が正しいことを示す第1ラベル「良」が付与されている。また、抽出部22が抽出する食材a、b、c、およびdの領域a1、b1、c1、およびd1の情報には、それぞれの領域の色情報および座標情報が含まれる。
対象画像は、カラーパターンの出力画像である場合に限らず、例えば、第4の実施の形態で説明したように、カラーパターンの出力画像をさらに単純化した形状のオブジェクトに置き換えた変換画像を用いることもできる。同様に、対象画像として、第5の実施の形態で説明した、カラーパターンに含まれる不連続な部分を連続なものに補完した加工画像を用いることもできる。
データ拡張部23は、食材の領域および種類が画像に関連付けられた対象画像のデータ拡張を行って学習用画像(第2学習用画像)を生成する。より具体的には、データ拡張部23は、対象画像に付与されている、複数の食材の間の相対的な配置関係の妥当性に関するラベル情報に基づいて学習用画像を生成する。なお、ラベル情報は、第2判断部17が、食品の容器等に配置された複数の種類の食材相互の相対的な配置関係の妥当性を判断するための第2基準に対応する情報である。つまり、第2基準を満たす画像には、予め第1ラベル「良」が付与され、第2基準を満たさない画像には、第2ラベル「不良」が付与される。
データ拡張部23は、対象画像における複数の食材の間の相対的な配置関係が妥当であることを示す第1ラベル「良」が付与された対象画像のデータ拡張を行って、複数の食材の間の相対的な配置関係が妥当でないことを示す第2ラベル「不良」が付与された学習用画像を生成することができる。さらに、データ拡張部23は、第1ラベル「良」が付与された対象画像のデータ拡張を行って、同じラベル情報である第1ラベル「良」が付与された学習用画像を生成することもできる。同様に、データ拡張部23は、第2ラベル「不良」が付与された対象画像のデータ拡張を行って、さらに、第2ラベル「不良」が付与された学習用画像を生成することもできる。
例えば、データ拡張部23は、対象画像における複数の食材の間の相対的な配置関係を維持しつつ、抽出部22が抽出した領域を加工して学習用画像を生成することができる。具体的には、図21のデータ拡張DA1に示すように、太枠で囲われた第1ラベル「良」が付与された対象画像pに含まれる領域a1、b1、c1、およびd1の互いの位置関係は維持したまま、領域a1、b1、c1、およびd1の各々を回転させて、連番で第1ラベル「良」の学習用画像を生成することができる。図21のデータ拡張DA1の例では、左側に示す学習用画像は、対象画像pの領域a1を、中心座標を起点として、乱数角度分を回転させており、真ん中に示す学習用画像は、さらに領域b1を回転させ、右側に示す学習用画像は、さらに領域c1を回転させている。
このように、データ拡張部23は、第1ラベル「良」が付与された1枚の対象画像pから領域a1、b1、c1、およびd1の各々の領域を回転させて、各領域を同じ位置に再配置することで、同じラベルに係る第1ラベル「良」が付与された学習用画像を連番で大量に生成することができる。図21に示したデータ拡張DA1では、各領域を回転させる場合を例示したが、領域間の位置関係を維持しつつ行うことができる加工処理であれば、領域の大きさや形状を変更して、同じ位置に再配置する他の処理も含まれる。
次に、第1ラベル「良」が付与された対象画像のデータ拡張を行って、第2ラベル「不良」が付与された学習用画像を生成する例について説明する。この場合、データ拡張部23は、抽出部22が抽出した領域のうち、2つ以上の互いに異なる種類の食材に対応する領域の位置を互いに置き換えて学習用画像を生成することができる。
例えば、図21に示すデータ拡張DA2では、対象画像データDA0の第1ラベル「良」が付与された太枠の対象画像pの領域b1とc1との互いの位置を置き換え、再配置して、左側に示す第2ラベル「不良」が付与された学習用画像を生成している。同様に、真ん中に示す画像は、対象画像pの領域a1とd1とを置き換え、かつ、再配置して生成された第2ラベル「不良」が付与された学習用画像である。右側に示す画像は、対象画像pの領域b1とd1とを置き換え、かつ、再配置して生成された第2ラベル「不良」が付与された学習用画像である。
データ拡張部23は、第1ラベル「良」が付与された対象画像に対し、任意の2色を置き換える組み合わせの数を計算し、そのすべての組み合わせの画像を生成することで、大量の第2ラベル「不良」が付与された学習用画像を生成することができる。
次に、第1ラベル「良」が付与された対象画像のデータ拡張を行って、第2ラベル「不良」が付与された学習用画像を生成する別の例について説明する。この場合、例えば、データ拡張部23は、抽出部22が抽出した領域のうちの1つ以上を対象画像から削除して学習用画像を生成することができる。
具体的には、図21のデータ拡張DA3に示すように、データ拡張部23は、第1ラベル「良」が付与された太枠の対象画像pに含まれる領域a1、b1、c1、およびd1のうち、1つの領域のみを抜き出して、その他の領域を削除および再配置することで第2ラベル「不良」を付与した学習用画像を生成している。
さらに、第1ラベル「良」が付与された対象画像のデータ拡張を行って、第2ラベル「不良」が付与された学習用画像を生成する別の例を挙げる。この場合、データ拡張部23は、抽出部22が抽出した領域の各々の反転、回転、膨張、および収縮のうちの少なくともいずれかを行って対象画像のデータ拡張を行うことができる。
例えば、図21に示すデータ拡張DA4のように、データ拡張部23は、第1ラベル「良」が付与された太枠の対象画像pを縦方向に上下反転させて再配置することで、第2ラベル「不良」を付与した学習用画像を生成することができる。
図21に示すデータ拡張DA5では、データ拡張部23は、第1ラベル「良」が付与された太枠の対象画像pを横方向に左右反転させて再配置することで、第2ラベル「不良」を付与した学習用画像を生成している。
データ拡張部23は、対象画像のデータ拡張を行って得られた第1ラベル「良」または第2ラベル「不良」が付与された学習用画像のデータ拡張をさらに行って、第1ラベル「良」または第2ラベル「不良」が付与された学習用画像を生成してもよい。例えば、データ拡張部23は、図21のデータ拡張DA4で示したように、第1ラベル「良」を有する対象画像を垂直軸で鏡像させた第2ラベル「不良」を有する学習用画像に対して、各カラーパターンの領域の中心座標を起点に、発生させた乱数角度分を回転させて第2ラベル「不良」を付与した学習用画像を生成することができる。
このように、データ拡張部23は、第1ラベル「良」が付与された対象画像に基づいて、第2ラベル「不良」が付与された学習用画像を所望の枚数だけ生成することができる。なお、データ拡張部23がデータ拡張処理を繰り返して不良品に係る学習用画像を生成する際に、良品に係る学習用画像が生成される場合があるが、事前の設定により、生成される学習用画像から良品に係る学習用画像を除けばよい。
[検査装置の動作]
次に、上述した構成を有する検査装置1Eの動作について、図22を参照して説明する。図22は、検査装置1Eにおける第2モデルNN2の学習用画像の生成から第2モデルNN2の学習処理までの各ステップを示すフローチャートである。
まず、学習装置は、データ拡張を行う対象の画像である対象画像を取得する(ステップS201)。例えば、学習装置は、第1推定部11による学習済みの第1モデルNN1の演算結果として得られた複数の食材の領域および種類が入力画像iに関連付けられたカラーパターンの出力画像pを、対象画像として用いることができる。
次に、学習装置は、ステップS201で取得した対象画像のラベル情報を取得する(ステップS202)。例えば、学習装置は、外部からの入力による対象画像のラベル情報を取得することができる。
次に、学習装置は、学習用画像を生成する際の事前の設定を行う(ステップS203)。具体的には、ステップS202でラベル情報を取得した対象画像のうちから、特定の対象画像を選択することができる。また、ステップS203では、対象画像に含まれる食材ごとの領域のカラー数や、抽出部22が抽出するカラーパターンの領域の色を指定することができる。さらに、ステップS203では、生成する学習用画像の枚数や、領域の回転角度範囲などを事前に設定する。
次に、抽出部22は、ステップS203での設定情報に基づいて、食材の領域に係るカラーパターンを対象画像から抽出する(ステップS204)。続いて、データ拡張部23は、抽出部22によって抽出された領域の加工などを行い、対象画像のデータ拡張を行って、学習用画像を生成する(ステップS205)。
例えば、データ拡張部23は、ステップS205で、第1ラベル「良」が付与された対象画像における複数の食材の間の相対的な配置関係を維持しつつ、抽出部22がステップS202で抽出した領域を加工して学習用画像を生成することができる。この場合、データ拡張部23は、生成した学習用画像に第2ラベル「不良」を付与する(ステップS206)。
次に、第2学習部19は、ステップS206で得られた学習用画像を用いて第2モデルNN2の学習を行い、学習済み第2モデルNN2を獲得する(ステップS207)。ステップS207で用いる学習用画像には、第2モデルNN2の分類精度の観点から十分な枚数の良品画像および不良品画像を含むことができる。
次に、学習装置は、ステップS207で得られた学習済みの第2モデルNN2を第2メモリ15Bに記憶する(ステップS208)。その後、処理は、例えば、図8のステップS10に戻され、学習済みの第1モデルNN1およびデータ拡張によって生成された学習用画像で学習した学習済みの第2モデルNN2の演算を行い、食材の配置に関する検査を行うことができる(図8のステップS10からS19)。
以上説明したように、第6の実施の形態によれば、検査装置1Eは、インスタンス・セグメンテーションを用いた学習済み第1モデルNN1の演算で得られた対象画像のデータ拡張を行い、第2モデルNN2の学習に用いる学習用画像を水増しする。そのため、食品の製造ラインで取得することが比較的容易な良品画像に基づいて、その取得が比較的困難な不良品画像を大量に生成することができる。その結果として、十分な数の不良品に係る学習用画像を用意することができ、学習済み第2モデルNN2の分類精度を一層向上させることができる。
[第7の実施の形態]
次に、本発明の第7の実施の形態について説明する。なお、以下の説明では、上述した第1から第6の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
第1から第6の実施の形態では、インスタンス・セグメンテーションを行う学習済み第1モデルNN1を用いて複数の食材の領域および種類を推定し、推定された食材の領域および種類を画像に関連付けた出力画像を含む第1推定結果を出力し、食材の配置に関する検査を行う場合について説明した。また、食材間の配置関係については、学習済み第2学習モデルNN2を用いて分類を行った。
これに対し、第7の実施の形態では、第1モデルNN1として、食材の種類(クラス)と画像内での位置をバウンディングボックスで囲って物体検出を行うモデルなど、例えば、R-CNN,YOLO,Mask R-CNN,SSD等の任意のディープラーニングモデルを用いることができる。なお、バウンディングボックスとは、画像内の物体を囲む境界線または境界領域のことであり、通常は矩形状を有することが当業者には理解される。
本実施の形態では、第1モデルNN1は、取得部10によって取得された食品の画像を入力あるいは学習用画像として用い、出力にはアンカーボックスとグリッドごとのラベルである各食材とバウンディングボックスを示す領域が含まれる。より詳細には、学習済み第1モデルNN1の演算によって得られる出力は、例えば、食材を示すラベルによらずグリッド内に食材中心を含む確率(score)、グリッド内に含まれる食材中心の分類ラベルである食材のクラス(class)、およびグリッド内に食材中心があるバウンディングボックスのグリッド内での相対位置(縦、横)とサイズ(幅、高さ)を示す位置情報が含まれる。
第1学習部18は、取得部10で取得された入力画像を学習用画像として用いて、学習用画像から食材のクラスとその食材を含むバウンディングボックスを予測するような特徴量を学習する。
第1推定部11は、学習済み第1モデルNN1の演算により、入力画像に含まれる各食材の種類と、その食材を囲むバウンディングボックスを推定することが可能である。第1推定部11は、複数の食材の間の相対的な配置関係と、食材の種類とを推定し、推定された配置関係を画像に関連付けた出力画像を含む第1推定結果を出力する。
第1判断部12は、第1推定結果に基づいて、配置関係が予め設定された基準を満たすか否かを判断する。また、第1判断部12は、各食材の有無を第1推定部11による推定結果から判断することができる。
ここで、同一種類の食材が複数の食材で構成される場合には、第1判断部12は、推定された複数の食材のバウンディングボックスの4頂点や中心点に基づいて、食材間の相対的な配置関係が設定された基準を満たすか否かを判断することができる。このような構成により、第1判断部12は同一種類の食材の並び方、あるいはばらけ方の程度についての妥当性を判断することができる。例えば、ピザのトッピングとして配置されるシュレッドチーズなどが一定の位置に配置されているか否かを判断することが可能となる。
検査部13は、第1判断部12による判断結果に基づいて、食品の容器等に配置されている複数の食材の配置に関する検査を行う。
以上説明したように、第7の実施の形態によれば、第1モデルNN1として、画像内の食材の位置を特定してバウンディングボックスで囲む物体検出モデルを用いても、食品の容器等に配置された食材の有無、および食材の配置関係の妥当性を含む食品の盛り付け検査を行うことができる。
[検査装置の使用例]
ここで、本発明の実施の形態に係る検査装置1の使用例を図23から図25を参照して説明する。
図23は、検査装置1が備える表示装置108に表示された検査画面の一例を示している。画面左側の画像iは、カメラ105で撮影された食品を示している。また、画面右側の画像sは、インスタンス・セグメンテーションを用いて推定された食材の盛り付け位置を示すカラーパターン画像と元画像iとを合成した画像である。本例では、食品の品種は「製品B」、検査対象の食材は「わさび」、「きざみのり」、「きゅうり」、「ねぎ」の4種である。
検査画面には、食材各々に対して設定された第1基準(「検査項目」)および判断結果(「結果総合」、「認識個数」、「認識総面積」)が表示されている。また、検査画面には、食材間における配置位置の分類結果が示されている(「場所検査(Class/Score)、「0.96076」)。また、検査対象の食品の検査結果は、合格「OK」であることが画面の右上に表示されている。食材間の配置位置に関する第2基準は項目「Score閾値」に表示されている。
前述したように、検査装置1において、ユーザが、学習済みの第1モデルNN1および学習済み第2モデルNN2、ならびにこれらの演算結果に対するしきい値等の判断基準を食品の品種ごとに切り替えることで、1台の検査装置1で複数の異なる食品の盛り付け検査を行うことができる。ユーザは、例えば、検査画面に表示されたアイコンmc(「検査設定変更」)をクリック、あるいは検査画面がタッチパネルである場合にはタッチ操作をして、検査対象の食品の品種の切り替え等の設定変更を行うことができる。
ユーザが、図23に示す検査画面に表示されたアイコンmcをタッチ操作あるいはクリックすると、設定変更画面に遷移する前に、例えば、パスワード要求画面に切り替わる。検査対象の食品を別の品種の食品に変更する場合には、ユーザは、キーボード等を用いた入力操作を行って、ユーザ名およびパスワードを入力する。このようなパスワード要求を行うことで、ユーザに与えられた権限に応じて変更可能な設定項目を制限することができる。
図24は、表示装置108に表示される設定変更画面の一例を示している。検査対象の食品の品種を変更する場合には、ユーザは、「検査設定ファイル」の設定画面に表示されたメニューf(「ファイル選択」)のプルダウンリストの品種から、所望とされる食品の品種を入力することができる。図20の例では、食品「製品A」、「製品B」、「製品C」の3種類の食品の品種の中から選択される。
例えば、ユーザが「製品B」を選択すると、メモリ15から食品「製品B」に対応する学習済み第1モデルNN1(「Segmentationモデル」)および学習済み第2モデルNN2(「Classificationモデル」)が追従して呼び出される。さらに、学習済み第1モデルNN1および学習済み第2モデルNN2の演算結果に対する判断基準として用いられる食材毎のしきい値(「検査しきい値」、「検査項目」)なども、メモリ15から呼び出される。
図25の設定変更画面の一例に示すように、ユーザは、ファイル選択メニューfで「製品B」を選択し、さらに確定アイコンeによって品種の呼出しを確定する。設定変更画面の領域dl、ct等には、現在設定されている学習済み第1モデルNN1、学習済み第2モデルNN2、判断基準として用いられる食材毎のしきい値などが表示されている。また、図25の例では、食材間の配置位置の検査に用いられるモデルとして、学習済み第2モデルNN2の他に、予め用意された他の位置補正モデルが選択可能である。ユーザは、領域pcにディレクトリ表示されている位置補正モデルあるいは、領域dlに表示される学習済み第2モデルNN2の何れかを選択することができる。
また、ユーザは、学習済み第1モデルNN1の演算結果に対する判断基準として用いる食材毎のしきい値を含む第1基準(「検査項目」)を、食材ごとにプルダウン選択して変更することができる。例えば、ユーザは、食材「きゅうり」に対する「検査項目」について、「個数」「単一面積」「総面積」およびこれらの組み合わせと「未検査」をプルダウンで選択することができる。同様に、ユーザは各食材の検査項目に対して設定されるしきい値を、プルダウン選択で変更できる。
各食材の「検査項目」の変更、しきい値の変更などの設定変更を行った場合には、ユーザは、アイコンwをクリックして設定の上書き保存、あるいはアイコンnをクリックして新規ファイルを作成することができる。また、アイコンdで不要となったファイルを削除することができる。
以上、本発明の検査装置および検査方法における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。
例えば、説明した実施の形態では、検査装置による検査処理が開始されると、製造ラインにおける食品の製造の流れに応じて、カメラ105で撮影された検査対象の画像を取得部10が取得する場合について説明した。しかし、検査装置は、食品の製造ラインで食品が製造されている際だけでなく、例えば、製造ラインが稼働していない場合であっても、過去に撮影された製造食品の画像を取得して、検査処理を行うこともできる。例えば、製造ラインのメンテナンスを行う場合などが挙げられる。
また、説明した実施の形態では、検査対象の食品として、製造ラインで製造され、食材が配置されて盛り付けられる加工麺、冷凍食品、弁当、および惣菜などが含まれる。なお、検査対象の食品は、食材が容器の中に配置されているものだけでなく、容器を用いずに食材が配置されているものも含まれる。
また、説明した実施の形態では、検査対象の食材の種類の数が複数である場合を例示したが、食材の種類の数は単数であってもよい。
なお、第1モデルNN1および第2モデルNN2の学習処理を行う学習装置は検査装置とは別個独立な構成とすることができる。
なお、ここで開示された実施の形態に関連して記述された様々の機能ブロック、モジュール、および回路は、汎用プロセッサ、GPU、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、FPGAあるいはその他のプログラマブル論理デバイス、ディスクリートゲートあるいはトランジスタロジック、ディスクリートハードウェア部品、または上述した機能を実現するために設計された上記いずれかの組み合わせを用いて実行されうる。
汎用プロセッサとしてマイクロプロセッサを用いることが可能であるが、代わりに、従来技術によるプロセッサ、コントローラ、マイクロコントローラ、あるいは状態機器を用いることも可能である。プロセッサは、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアに接続された1つ以上のマイクロプロセッサ、またはこのような任意の構成である計算デバイスの組み合わせとして実現することも可能である。
1…検査装置、10…取得部、11…第1推定部、12…第1判断部、13…検査部、14…提示部、15…メモリ、15A…第1メモリ、101…バス、102…プロセッサ、103…主記憶装置、104…通信I/F、105…カメラ、106…補助記憶装置、107…入出力I/O、108…表示装置、NW…ネットワーク。

Claims (37)

  1. 配置された食材が含まれる画像を取得する取得部と、
    学習済み第1モデルを用いて、前記画像における前記食材の領域および種類を推定し、推定された前記食材の領域および種類を前記画像に関連付けた出力画像を含む第1推定結果を出力する第1推定部と、
    前記第1推定結果に基づいて、前記食材の種類ごとに、対応する前記領域が、前記食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する第1判断部と、
    前記第1判断部による判断結果に基づいて、前記食材の配置に関する検査を行う検査部と
    を備える検査装置。
  2. 請求項1に記載の検査装置において、
    前記第1判断部は、前記食材の種類ごとに、前記領域の個数および大きさの少なくとも一方を特定して、前記領域の個数および大きさの少なくとも一方が前記第1基準を満たすか否かを判断する
    ことを特徴とする検査装置。
  3. 請求項1または請求項2に記載の検査装置において、
    前記第1推定結果に含まれる前記出力画像を入力とする学習済み第2モデルを用いて、前記出力画像における複数の前記食材の間の相対的な配置関係を推定し、推定された配置関係を前記出力画像に関連付けた第2推定結果を出力する第2推定部と、
    前記第2推定結果に基づいて、前記配置関係が、前記配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する第2判断部と
    をさらに備え、
    前記検査部は、前記第2判断部による判断結果に基づいて、前記食材の配置に関する検査を行う
    ことを特徴とする検査装置。
  4. 請求項3に記載の検査装置において、
    さらに、少なくとも前記検査部による検査結果を提示する提示部を備え、
    前記提示部は、前記画像、前記第1推定結果、前記第1判断部による判断結果、前記第2推定結果、前記第2判断部による判断結果、および前記検査部による検査結果を含む情報のうちの少なくともいずれかを提示する
    ことを特徴とする検査装置。
  5. 請求項1から4のいずれか1項に記載の検査装置において、
    さらに、予め設定されたモデルを構築するための学習処理を行う学習装置を備え、
    前記学習装置は、
    配置された前記食材を含む画像を第1学習用画像として用い、ニューラルネットワークの第1モデルを学習させて、前記食材の領域および種類を識別する第1特徴量を抽出し、抽出された前記第1特徴量により前記学習済み第1モデルを獲得する第1学習部と、
    前記第1学習部で獲得された前記学習済み第1モデルを記憶する第1記憶部と
    を備え、
    前記第1推定部は、前記第1記憶部から前記学習済み第1モデルを読み込んで前記学習済み第1モデルによる前記画像における前記食材の領域および種類の推定を行う
    ことを特徴とする検査装置。
  6. 請求項5に記載の検査装置において、
    前記第1モデルが、インスタンス・セグメンテーションによる画像認識モデルである
    ことを特徴とする検査装置。
  7. 請求項5または請求項6に記載の検査装置において、
    前記学習装置は、
    前記第1推定部が出力する前記第1推定結果に含まれる前記出力画像を第2学習用画像として用いて、ニューラルネットワークの第2モデルを学習させて、前記第2学習用画像における複数の前記食材の間の相対的な配置関係を識別する第2特徴量を抽出し、抽出された前記第2特徴量により前記学習済みの第2モデルを獲得する第2学習部と、
    前記第2学習部で獲得された前記学習済みの第2モデルを記憶する第2記憶部と
    をさらに備えることを特徴とする検査装置。
  8. 請求項7に記載の検査装置において、
    さらに、前記第1推定結果に含まれる前記出力画像を変換してより単純化した変換画像を生成する変換部を備え、
    前記第2学習部は、前記変換画像を前記第2学習用画像として用いて前記第2モデルを学習させ、前記学習済みの第2モデルを獲得する
    ことを特徴とする検査装置。
  9. 請求項8に記載の検査装置において、
    前記第1推定結果に含まれる前記出力画像は、前記食材の種類ごとに、対応する前記領域が任意の色で塗られたカラーパターン画像であり、
    前記変換画像は、前記カラーパターン画像の領域各々を同一形状のオブジェクトに置き換えたカラーパターン画像である
    ことを特徴とする検査装置。
  10. 請求項8に記載の検査装置において、
    前記第1推定結果に含まれる前記出力画像は、前記食材の種類ごとに、対応する前記領域が任意の色で塗られたカラーパターン画像であり、
    前記変換画像は、前記カラーパターン画像の領域各々を、カラーパターンの色ごとに形状の異なるオブジェクトに置き換え、かつ、置き換えた前記オブジェクトの色を形状ごとに異なる色とした画像である
    ことを特徴とする検査装置。
  11. 請求項8に記載の検査装置において、
    前記第1推定結果に含まれる前記出力画像は、前記食材の種類ごとに、対応する前記領域が任意の色で塗られたカラーパターン画像であり、
    前記変換画像は、前記カラーパターン画像の領域各々を、カラーパターンの色ごとに形状の異なるオブジェクトに置き換え、かつ、置き換えた前記オブジェクトの色をすべて同一の色とした画像である
    ことを特徴とする検査装置。
  12. 請求項7に記載の検査装置において、
    さらに、前記第1推定結果に含まれる前記出力画像の前記領域の推定外形線の最長のものの内部が、当該領域であるとして、前記出力画像を加工した加工画像を生成する加工部を備え、
    前記第2学習部は、前記加工画像を前記第2学習用画像として用いて前記第2モデルを学習させ、前記学習済みの第2モデルを獲得する
    ことを特徴とする検査装置。
  13. 請求項7から12のいずれか1項に記載の検査装置において、
    前記学習装置は、
    さらに、前記食材の領域および種類が前記画像に関連付けられた対象画像のデータ拡張を行って前記第2学習用画像を生成するデータ拡張部を備え、
    前記データ拡張部は、前記対象画像に付与されている、前記対象画像における複数の前記食材の間の相対的な配置関係の妥当性に関するラベル情報に基づいて前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  14. 請求項13に記載の検査装置において、
    前記データ拡張部は、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、前記第1ラベルを付与した前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  15. 請求項13または請求項14に記載の検査装置において、
    前記データ拡張部は、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルを付与した前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  16. 請求項13または請求項15に記載の検査装置において、
    前記データ拡張部は、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルが付与された対象画像のデータ拡張を行って、前記第2ラベルを付与した前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  17. 請求項13から16のいずれか1項に記載の検査装置において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、
    前記データ拡張部は、前記対象画像における複数の前記食材の間の相対的な配置関係を維持しつつ、前記抽出部が抽出した前記領域を加工後再配置して前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  18. 請求項13から16のいずれか1項に記載の検査装置において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、
    前記データ拡張部は、前記抽出部が抽出した前記領域のうち、2つ以上の互いに異なる種類の前記食材に対応する領域の位置を互いに置き換えて前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  19. 請求項13から16のいずれか1項に記載の検査装置において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、
    前記データ拡張部は、前記抽出部が抽出した前記領域のうちの1つ以上を前記対象画像から削除して前記第2学習用画像を生成する
    ことを特徴とする検査装置。
  20. 請求項13から16のいずれか1項に記載の検査装置において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する抽出部を備え、
    前記データ拡張部は、前記抽出部が抽出した前記領域の各々の反転、回転、膨張、および収縮のうちの少なくともいずれかを行って前記対象画像のデータ拡張を行う
    ことを特徴とする検査装置。
  21. 配置された食材が含まれる画像を取得する取得部と、
    学習済み第1モデルを用いて、前記画像における前記食材の領域をバウンディングボックスで検出して、複数の前記食材の間の相対的な配置関係と、前記食材の種類とを推定し、推定された前記配置関係を前記画像に関連付けた出力画像を含む第1推定結果を出力する第1推定部と、
    前記第1推定結果に基づいて、前記配置関係が予め設定された基準を満たすか否かを判断する第1判断部と、
    前記第1判断部による判断結果に基づいて、前記食材の配置に関する検査を行う検査部と
    を備える検査装置。
  22. 請求項1から21のいずれか1項に記載の検査装置を用いて検査される食品において、
    食品製造ラインで製造され、前記食材が配置されて盛り付けられる加工麺、冷凍食品、弁当、および惣菜を含む食品。
  23. 配置された食材が含まれる画像を取得する第1ステップと、
    学習済み第1モデルを用いて、前記画像における前記食材の領域および種類を推定し、推定された前記食材の領域および種類を前記画像に関連付けた出力画像を含む第1推定結果を出力する第2ステップと、
    前記第1推定結果に基づいて、前記食材の種類ごとに、対応する前記領域が、前記食材の有無および過不足に関して予め設定された第1基準を満たすか否かを判断する第3ステップと、
    前記第3ステップでの判断結果に基づいて、前記食材の配置に関する検査を行う第4ステップと
    を備える検査方法。
  24. 請求項23に記載の検査方法において、
    前記第3ステップは、前記食材の種類ごとに、前記領域の個数および大きさの少なくとも一方を特定して、前記領域の個数および大きさの少なくとも一方が前記第1基準を満たすか否かを判断し、
    前記第4ステップは、前記判断結果に基づいて、前記食材の配置に関する検査を行う
    ことを特徴とする検査方法。
  25. 請求項23または請求項24に記載の検査方法において、
    前記第1推定結果に含まれる前記出力画像を入力とする学習済み第2モデルを用いて、前記出力画像における複数の前記食材の間の相対的な配置関係を推定し、推定された配置関係を前記出力画像に関連付けた第2推定結果を出力する第5ステップと、
    前記第2推定結果に基づいて、前記配置関係が、前記配置関係の妥当性に関して予め設定された第2基準を満たすか否かを判断する第6ステップと
    をさらに備え、
    前記第4ステップは、前記第6ステップでの判断結果に基づいて、前記食材の配置に関する検査を行う
    ことを特徴とする検査方法。
  26. 請求項23から25のいずれか1項に記載の検査方法において、
    さらに、予め設定されたモデルを構築するための学習処理を行う学習ステップを備え、
    前記学習ステップは、
    配置された前記食材が含まれる画像を第1学習用画像として用い、ニューラルネットワークの第1モデルを学習させて、前記食材の領域および種類を識別する第1特徴量を抽出し、抽出された前記第1特徴量により前記学習済み第1モデルを獲得する第7ステップと、
    前記第7ステップで獲得された前記学習済み第1モデルを第1記憶部に記憶する第8ステップと
    を備え、
    前記第3ステップは、前記第1記憶部から前記学習済み第1モデルを読み込んで前記学習済み第1モデルによる前記画像における前記食材の領域および種類の推定を行う
    ことを特徴とする検査方法。
  27. 請求項26に記載の検査方法において、
    前記学習ステップは、
    前記第3ステップで出力する前記第1推定結果に含まれる前記出力画像を第2学習用画像として用いて、ニューラルネットワークの第2モデルを学習させて、前記第2学習用画像における複数の前記食材の間の相対的な配置関係を識別する第2特徴量を抽出し、抽出された前記第2特徴量により前記学習済みの第2モデルを獲得する第9ステップと、
    前記第9ステップで獲得された前記学習済みの第2モデルを第2記憶部に記憶する第10ステップと
    をさらに備えることを特徴とする検査方法。
  28. 請求項27に記載の検査方法において、
    さらに、前記第1推定結果に含まれる前記出力画像の前記領域の推定外形線の最長のものの内部が、当該領域であるとして、前記出力画像を加工した加工画像を生成する第11ステップを備え、
    前記第9ステップは、前記加工画像を前記第2学習用画像として用いて前記第2モデルを学習させ、前記学習済みの第2モデルを獲得する
    ことを特徴とする検査方法。
  29. 請求項27または請求項28に記載の検査方法において、
    前記学習ステップは、
    さらに、前記食材の領域および種類が前記画像に関連付けられた対象画像のデータ拡張を行って前記第2学習用画像を生成する第12ステップを備え、
    前記第12ステップは、前記対象画像に付与されている、前記対象画像における複数の前記食材の間の相対的な配置関係の妥当性に関するラベル情報に基づいて前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  30. 請求項29に記載の検査方法において、
    前記第12ステップは、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、前記第1ラベルが付与された前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  31. 請求項29または請求項30に記載の検査方法において、
    前記第12ステップは、前記対象画像における複数の前記食材の間の相対的な配置関係が妥当であることを示す第1ラベルが付与された対象画像のデータ拡張を行って、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルを付与した前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  32. 請求項29または請求項31に記載の検査方法において、
    前記第12ステップは、複数の前記食材の間の相対的な配置関係が妥当でないことを示す第2ラベルが付与された対象画像のデータ拡張を行って、前記第2ラベルを付与した前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  33. 請求項29から32のいずれか1項に記載の検査方法において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、
    前記第12ステップは、前記対象画像における複数の前記食材の間の相対的な配置関係を維持しつつ、前記第13ステップで抽出された前記領域を加工後再配置して前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  34. 請求項29から32のいずれか1項に記載の検査方法において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、
    前記第12ステップは、前記第13ステップで抽出された前記領域のうち、2つ以上の互いに異なる種類の前記食材に対応する領域の位置を互いに置き換えて前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  35. 請求項29から32のいずれか1項に記載の検査方法において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、
    前記第12ステップは、前記第13ステップで抽出された前記領域のうちの1つ以上を前記対象画像から削除して前記第2学習用画像を生成する
    ことを特徴とする検査方法。
  36. 請求項29から32のいずれか1項に記載の検査方法において、
    さらに、前記食材の種類ごとの前記領域を、前記対象画像から抽出する第13ステップを備え、
    前記第12ステップは、前記第13ステップで抽出された前記領域の各々の反転、回転、膨張、および収縮のうちの少なくともいずれかを行って前記対象画像のデータ拡張を行う
    ことを特徴とする検査方法。
  37. 請求項23から36のずれか1項に記載の検査方法において、
    さらに、少なくとも前記第4ステップでの検査結果を提示する第14ステップを備え、
    前記第14ステップは、前記画像、前記第1推定結果、前記第3ステップでの判断結果、および前記第4ステップでの検査結果を含む情報のうちの少なくともいずれかを提示する
    ことを特徴とする検査方法。
JP2022009890A 2021-01-26 2022-01-26 検査装置および検査方法 Pending JP2022114462A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021010028 2021-01-26
JP2021010028 2021-01-26

Publications (1)

Publication Number Publication Date
JP2022114462A true JP2022114462A (ja) 2022-08-05

Family

ID=82658644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022009890A Pending JP2022114462A (ja) 2021-01-26 2022-01-26 検査装置および検査方法

Country Status (1)

Country Link
JP (1) JP2022114462A (ja)

Similar Documents

Publication Publication Date Title
WO2013136591A1 (ja) 画像検査方法および検査領域設定方法
JP5929238B2 (ja) 画像検査方法および画像検査装置
CN109961064B (zh) 身份证文本定位方法、装置、计算机设备及存储介质
JP2021093161A (ja) 産業機器ゲージのデジタル化及びアラームのためのコンピュータビジョンシステム
JP2013140090A (ja) 画像検査装置の検査領域設定方法
US20210272272A1 (en) Inspection support apparatus, inspection support method, and inspection support program for concrete structure
JP7027978B2 (ja) 検査装置、検査方法、及び検査プログラム
US11210778B2 (en) Image processing method and image processing apparatus that generate an inspection region serving as a target of image processing
US20210312605A1 (en) Information processing apparatus, information processing method of information processing apparatus, and storage medium
JP6857586B2 (ja) 画像抽出装置,画像抽出方法および画像抽出プログラムならびにそのプログラムを格納した記録媒体
JP2016103759A (ja) 画像処理装置、画像処理方法、及びプログラム
CN106406693B (zh) 图像选中方法及装置
US20230377232A1 (en) Image generating method, image generating device, and storage medium
JP2022114462A (ja) 検査装置および検査方法
CN114902280A (zh) 分析装置及分析方法
KR20240044495A (ko) 점검 지원 시스템, 점검 지원 방법, 및, 점검 지원 프로그램
JP7416071B2 (ja) 判定装置、および判定プログラム
CN115829929A (zh) 产品表面图像的缺陷检测方法、装置、设备及存储介质
CN115661851A (zh) 获取样本数据及构件识别方法及电子设备
JP2020060398A (ja) 推定器生成装置、検査装置、推定器生成方法、及び推定器生成プログラム
JP2021174194A (ja) 学習用データ処理装置、学習装置、学習用データ処理方法、およびプログラム
CN110779877A (zh) 医学文献状态定时检测平台
WO2024090054A1 (ja) 画像処理方法、プログラム、および、画像処理装置
WO2024095721A1 (ja) 画像処理装置および画像処理方法
WO2022230147A1 (ja) 認識装置、認識方法、認識プログラム、モデル学習装置、モデル学習方法、及びモデル学習プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220616