JP2023039521A - 特定方法、特定装置、および、特定システム - Google Patents
特定方法、特定装置、および、特定システム Download PDFInfo
- Publication number
- JP2023039521A JP2023039521A JP2021146675A JP2021146675A JP2023039521A JP 2023039521 A JP2023039521 A JP 2023039521A JP 2021146675 A JP2021146675 A JP 2021146675A JP 2021146675 A JP2021146675 A JP 2021146675A JP 2023039521 A JP2023039521 A JP 2023039521A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- specific
- area
- class activation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】特定領域と非特定領域とを含む物体の画像から特定領域を特定する場合において、特定領域以外の領域を誤って特定領域として特定する可能性を低減する技術を提供する。
【解決手段】物体の予め定められた特定領域を特定する特定方法は、物体の画像のうちで特定領域を含む第1訓練画像と、物体の画像のうちで特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、物体の画像である対象画像を入力して第1クラス活性化マップを生成する第1マップ生成工程と、第1クラス活性化マップを用いて、対象画像に含まれる特定領域を特定する特定工程と、を含む。
【選択図】図5
【解決手段】物体の予め定められた特定領域を特定する特定方法は、物体の画像のうちで特定領域を含む第1訓練画像と、物体の画像のうちで特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、物体の画像である対象画像を入力して第1クラス活性化マップを生成する第1マップ生成工程と、第1クラス活性化マップを用いて、対象画像に含まれる特定領域を特定する特定工程と、を含む。
【選択図】図5
Description
本開示は、特定方法、特定装置、および、特定システムの技術に関する。
従来、工作機械に用いられる工具について、撮像した画像や、機械学習モデルを用いて、被加工物を加工する工具の刃先の摩耗量を算出する技術が知られている(特許文献1、特許文献2)。
従来の技術において、摩耗量を算出する場合、例えば、工具の撮像画像を画像処理することで摩耗領域を特定する。この場合において、工具に付着した汚れや異物などを誤って摩耗領域として特定する場合があった。このような課題は、工具の摩耗領域を特定する技術に限られず、物体の特定の領域を特定する技術に共通する。
本開示は、以下の形態として実現することが可能である。
(1)本開示の第1形態によれば、特定方法が提供される。物体の予め定められた特定領域を特定する特定方法は、前記物体の画像のうちで前記特定領域を含む第1訓練画像と、前記物体の画像のうちで前記特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、前記物体の画像である対象画像を入力して第1クラス活性化マップを生成する第1マップ生成工程と、前記第1クラス活性化マップを用いて、前記対象画像に含まれる前記特定領域を特定する特定工程と、を含む。この形態によれば、マップ生成部は、学習済みの学習モデルに対象画像を入力して、対象画像に含まれる特定領域を特定するために、第1クラス活性化マップを生成する。これにより、学習モデルに入力された対象画像について特定のクラス(クラス分類)に寄与した度合いを数値データとして取得して、数値データを可視化した第1クラス活性化マップを取得することができる。このとき、特定領域と非特定領域とは、学習モデルに入力された対象画像について特定のクラス(クラス分類)に寄与した度合いが異なるため数値に差が生じる。よって、第1クラス活性化マップを用いて、物体の予め定められた特定領域を特定することで、非特定領域の少なくとも一部を誤って特定領域として特定する可能性を低減できる。
(2)上記形態であって、前記特定工程では、前記第1クラス活性化マップのうちで特定の条件を満たす領域を前記特定領域と判定し、前記第1クラス活性化マップのうちで前記特定領域以外の領域を前記非特定領域と判定することによって、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、第1クラス活性化マップから特定領域を特定するために、特定の条件を設定する。このようにすると、第1クラス活性化マップを生成する際に、学習モデルに入力された対象画像について特定のクラス(クラス分類)に寄与した度合いに応じた条件を特定の条件として設定することができる。これにより、第1クラス活性化マップと特定の条件とを比較することによって、対象画像に含まれる特定領域と非特定領域とを明確に区別した状態で、特定領域を特定することができる。
(3)上記形態であって、さらに、前記第1マップ生成工程の後に実行される第1マスク処理工程を有し、前記第1マスク処理工程は、前記第1クラス活性化マップの各画素値を予め定められた第1閾値と比較することで前記第1クラス活性化マップを2値化することによって、前記特定領域を含む領域を第1抽出領域、前記第1抽出領域以外の領域を第1非抽出領域に設定した第1マスク画像を生成する第1マスク画像生成工程と、前記対象画像に対して前記第1マスク画像を適用することによって第1処理後画像を取得する第1処理工程と、を含み、前記特定工程は、前記第1処理後画像を用いて、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、対象画像から、特定領域ではない非特定領域を大まかに取り除いた第1マスク画像を用いて、特定領域を特定することができる。
(4)上記形態であって、前記特定工程は、最終処理画像を用いて、前記対象画像に含まれる前記特定領域を特定し、前記最終処理画像は、前記第1処理後画像の各画素値を予め定められた第3閾値と比較することで前記第1処理後画像を2値化する2値化処理と、前記第1処理後画像に含まれるエッジを抽出するエッジ抽出処理と、の少なくとも一方を実行した後の画像であってもよい。この形態によれば、2値化処理とエッジ抽出処理との少なくとも一方の処理によって、第1処理後画像の特定領域をより明確にした状態で、対象画像に含まれる特定領域を特定することができる。
(5)上記形態であって、前記第1マップ生成工程に用いる前記学習モデルは、第1学習モデルであり、前記特定方法は、さらに、前記第1マスク処理工程の後に実行される第2マップ生成工程であって、前記学習モデルとしての第2学習モデルに前記第1処理後画像を入力して第2クラス活性化マップを生成する第2マップ生成工程と、前記第2マップ生成工程の後に実行される第2マスク処理工程と、を有し、前記第2マスク処理工程は、前記第2クラス活性化マップの各画素値を予め定められた第2閾値と比較することで前記第2クラス活性化マップを2値化することによって、前記特定領域を含む領域を第2抽出領域、前記第2抽出領域以外の領域を第2非抽出領域に設定した第2マスク画像を生成する第2マスク画像生成工程と、前記対象画像と、前記第1処理後画像と、のいずれか一方に対して、前記第2マスク画像を適用することによって第2処理後画像を取得する第2処理工程と、を含み、前記特定工程は、前記第2処理後画像を用いて、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、特定領域と特定領域の周囲の領域とを抽出して生成した第1処理後画像を用いて、第2クラス活性化マップを生成する。これにより、特定領域と類似する特徴を有する非特定領域が存在した場合に、非特定領域を大まかに取り除いた状態で生成された第2クラス活性化マップにおいて、特定のクラス(クラス分類)に寄与した度合いに応じて、特定領域を特定することができる。
(6)上記形態であって、前記特定工程では、前記第2クラス活性化マップのうちで特定の条件を満たす領域を前記特定領域と判定し、前記第2クラス活性化マップのうちで前記特定領域以外の領域を前記非特定領域と判定することによって、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、第2クラス活性化マップから特定領域を特定するために、特定の条件を設定する。このようにすると、クラス活性化マップを生成する際に、特定のクラス(クラス分類)に寄与した度合いに応じた条件を特定の条件として設定することができる。これにより、第2クラス活性化マップと特定の条件とを比較することによって、対象画像に含まれる特定領域と非特定領域とを明確に区別した状態で、特定領域を特定することができる。
(7)上記形態であって、前記特定工程は、最終処理画像を用いて、前記対象画像に含まれる前記特定領域を特定し、前記最終処理画像は、前記第2処理後画像の各画素値を予め定められた第3閾値と比較して2値化することで前記第2処理後画像を2値化する2値化処理と、前記第2処理後画像に含まれるエッジを抽出するエッジ抽出処理と、の少なくとも一方を実行した後の画像であってもよい。この形態によれば、2値化処理とエッジ抽出処理との少なくとも一方の処理によって、第2処理後画像の特定領域Wをより明確にした状態で、対象画像に含まれる特定領域を特定することができる。
(8)上記形態であって、前記物体は工具であり、前記特定領域は、前記対象画像のうちで、前記工具が摩耗した摩耗領域であり、前記非特定領域は、前記対象画像のうちで前記特定領域としての前記摩耗領域以外の領域であってもよい。この形態によれば、非特定領域の一部を誤って特定領域として特定する可能性を低減させた状態において、工具の摩耗領域を特定することができる。
(9)上記形態であって、前記第2訓練画像の種類として、前記非特定領域としての異物領域を含む異物特定画像であって、前記異物領域は、前記工具に付着した汚れと、前記工具に付着した異物と、の少なくとも1つを含む領域である異物特定画像と、前記非特定領域としての本体領域を含む工具本体特定画像であって、前記本体領域は、前記工具のうちで前記特定領域および前記異物領域を除いた領域である工具本体特定画像と、前記非特定領域としての背景領域を含む背景特定画像であって、前記背景領域は、前記特定領域と、前記異物領域と、前記本体領域とのいずれにも該当しない領域である背景特定画像と、を有してもよい。この形態によれば、第2訓練画像は、複数の種類の訓練画像から構成され、異物特定画像と、工具本体特定画像と、背景特定画像と、を有する。これにより、学習モデルに学習させるクラスを細分化することで、クラス活性化マップにおいて、特定領域と非特定領域とをより判別しやすい数値データを生成できる。よって、非特定領域のうちで特定領域Wでない領域を、誤って特定領域として特定する可能性をさらに低減できる。
(10)上記形態であって、さらに、前記特定工程によって前記摩耗領域として特定された前記特定領域を用いて、前記工具の摩耗量を測定する摩耗量測定工程を含んでもよい。この形態によれば、特定領域に基づいて、工具の摩耗量を測定することができる。
(11)本開示の第2形態によれば、特定装置が提供される。物体の予め定められた特定領域を特定する特定装置は、前記物体の画像のうちで前記特定領域を含む第1訓練画像と、前記物体の画像のうちで前記特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、前記物体の画像である対象画像を入力して第1クラス活性化マップを生成するマップ生成部と、前記第1クラス活性化マップを用いて、前記対象画像に含まれる前記特定領域を特定する特定部と、を含む。この形態によれば、マップ生成部は、学習済みの学習モデルに対象画像を入力して、対象画像に含まれる特定領域を特定するために、第1クラス活性化マップを生成する。これにより、学習モデルに入力された対象画像について特定のクラス(クラス分類)に寄与した度合いを数値データとして取得して、数値データを可視化した第1クラス活性化マップを取得することができる。このとき、特定領域と非特定領域とは、対象画像について特定のクラス(クラス分類)に寄与した度合いが異なるため数値に差が生じる。よって、第1クラス活性化マップを用いて、物体の予め定められた特定領域を特定することで、非特定領域の少なくとも一部を誤って特定領域として特定する可能性を低減できる。
(12)本開示の第3形態によれば、特定システムが提供される。物体の予め定められた特定領域を特定する特定システムは、上記形態に記載の前記特定装置と、前記対象画像を得るために前記物体を撮像する撮像装置と、を備える。この形態によれば、撮像装置によって撮像した対象画像に含まれる特定領域を、特定装置によって特定できる。
本開示は、上記の特定方法、特定装置、および、特定システム以外の種々の形態で実現することが可能である。例えば、特定装置の製造方法、特定装置の制御方法、その制御方法を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体等の形態で実現することができる。
(2)上記形態であって、前記特定工程では、前記第1クラス活性化マップのうちで特定の条件を満たす領域を前記特定領域と判定し、前記第1クラス活性化マップのうちで前記特定領域以外の領域を前記非特定領域と判定することによって、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、第1クラス活性化マップから特定領域を特定するために、特定の条件を設定する。このようにすると、第1クラス活性化マップを生成する際に、学習モデルに入力された対象画像について特定のクラス(クラス分類)に寄与した度合いに応じた条件を特定の条件として設定することができる。これにより、第1クラス活性化マップと特定の条件とを比較することによって、対象画像に含まれる特定領域と非特定領域とを明確に区別した状態で、特定領域を特定することができる。
(3)上記形態であって、さらに、前記第1マップ生成工程の後に実行される第1マスク処理工程を有し、前記第1マスク処理工程は、前記第1クラス活性化マップの各画素値を予め定められた第1閾値と比較することで前記第1クラス活性化マップを2値化することによって、前記特定領域を含む領域を第1抽出領域、前記第1抽出領域以外の領域を第1非抽出領域に設定した第1マスク画像を生成する第1マスク画像生成工程と、前記対象画像に対して前記第1マスク画像を適用することによって第1処理後画像を取得する第1処理工程と、を含み、前記特定工程は、前記第1処理後画像を用いて、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、対象画像から、特定領域ではない非特定領域を大まかに取り除いた第1マスク画像を用いて、特定領域を特定することができる。
(4)上記形態であって、前記特定工程は、最終処理画像を用いて、前記対象画像に含まれる前記特定領域を特定し、前記最終処理画像は、前記第1処理後画像の各画素値を予め定められた第3閾値と比較することで前記第1処理後画像を2値化する2値化処理と、前記第1処理後画像に含まれるエッジを抽出するエッジ抽出処理と、の少なくとも一方を実行した後の画像であってもよい。この形態によれば、2値化処理とエッジ抽出処理との少なくとも一方の処理によって、第1処理後画像の特定領域をより明確にした状態で、対象画像に含まれる特定領域を特定することができる。
(5)上記形態であって、前記第1マップ生成工程に用いる前記学習モデルは、第1学習モデルであり、前記特定方法は、さらに、前記第1マスク処理工程の後に実行される第2マップ生成工程であって、前記学習モデルとしての第2学習モデルに前記第1処理後画像を入力して第2クラス活性化マップを生成する第2マップ生成工程と、前記第2マップ生成工程の後に実行される第2マスク処理工程と、を有し、前記第2マスク処理工程は、前記第2クラス活性化マップの各画素値を予め定められた第2閾値と比較することで前記第2クラス活性化マップを2値化することによって、前記特定領域を含む領域を第2抽出領域、前記第2抽出領域以外の領域を第2非抽出領域に設定した第2マスク画像を生成する第2マスク画像生成工程と、前記対象画像と、前記第1処理後画像と、のいずれか一方に対して、前記第2マスク画像を適用することによって第2処理後画像を取得する第2処理工程と、を含み、前記特定工程は、前記第2処理後画像を用いて、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、特定領域と特定領域の周囲の領域とを抽出して生成した第1処理後画像を用いて、第2クラス活性化マップを生成する。これにより、特定領域と類似する特徴を有する非特定領域が存在した場合に、非特定領域を大まかに取り除いた状態で生成された第2クラス活性化マップにおいて、特定のクラス(クラス分類)に寄与した度合いに応じて、特定領域を特定することができる。
(6)上記形態であって、前記特定工程では、前記第2クラス活性化マップのうちで特定の条件を満たす領域を前記特定領域と判定し、前記第2クラス活性化マップのうちで前記特定領域以外の領域を前記非特定領域と判定することによって、前記対象画像に含まれる前記特定領域を特定してもよい。この形態によれば、第2クラス活性化マップから特定領域を特定するために、特定の条件を設定する。このようにすると、クラス活性化マップを生成する際に、特定のクラス(クラス分類)に寄与した度合いに応じた条件を特定の条件として設定することができる。これにより、第2クラス活性化マップと特定の条件とを比較することによって、対象画像に含まれる特定領域と非特定領域とを明確に区別した状態で、特定領域を特定することができる。
(7)上記形態であって、前記特定工程は、最終処理画像を用いて、前記対象画像に含まれる前記特定領域を特定し、前記最終処理画像は、前記第2処理後画像の各画素値を予め定められた第3閾値と比較して2値化することで前記第2処理後画像を2値化する2値化処理と、前記第2処理後画像に含まれるエッジを抽出するエッジ抽出処理と、の少なくとも一方を実行した後の画像であってもよい。この形態によれば、2値化処理とエッジ抽出処理との少なくとも一方の処理によって、第2処理後画像の特定領域Wをより明確にした状態で、対象画像に含まれる特定領域を特定することができる。
(8)上記形態であって、前記物体は工具であり、前記特定領域は、前記対象画像のうちで、前記工具が摩耗した摩耗領域であり、前記非特定領域は、前記対象画像のうちで前記特定領域としての前記摩耗領域以外の領域であってもよい。この形態によれば、非特定領域の一部を誤って特定領域として特定する可能性を低減させた状態において、工具の摩耗領域を特定することができる。
(9)上記形態であって、前記第2訓練画像の種類として、前記非特定領域としての異物領域を含む異物特定画像であって、前記異物領域は、前記工具に付着した汚れと、前記工具に付着した異物と、の少なくとも1つを含む領域である異物特定画像と、前記非特定領域としての本体領域を含む工具本体特定画像であって、前記本体領域は、前記工具のうちで前記特定領域および前記異物領域を除いた領域である工具本体特定画像と、前記非特定領域としての背景領域を含む背景特定画像であって、前記背景領域は、前記特定領域と、前記異物領域と、前記本体領域とのいずれにも該当しない領域である背景特定画像と、を有してもよい。この形態によれば、第2訓練画像は、複数の種類の訓練画像から構成され、異物特定画像と、工具本体特定画像と、背景特定画像と、を有する。これにより、学習モデルに学習させるクラスを細分化することで、クラス活性化マップにおいて、特定領域と非特定領域とをより判別しやすい数値データを生成できる。よって、非特定領域のうちで特定領域Wでない領域を、誤って特定領域として特定する可能性をさらに低減できる。
(10)上記形態であって、さらに、前記特定工程によって前記摩耗領域として特定された前記特定領域を用いて、前記工具の摩耗量を測定する摩耗量測定工程を含んでもよい。この形態によれば、特定領域に基づいて、工具の摩耗量を測定することができる。
(11)本開示の第2形態によれば、特定装置が提供される。物体の予め定められた特定領域を特定する特定装置は、前記物体の画像のうちで前記特定領域を含む第1訓練画像と、前記物体の画像のうちで前記特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、前記物体の画像である対象画像を入力して第1クラス活性化マップを生成するマップ生成部と、前記第1クラス活性化マップを用いて、前記対象画像に含まれる前記特定領域を特定する特定部と、を含む。この形態によれば、マップ生成部は、学習済みの学習モデルに対象画像を入力して、対象画像に含まれる特定領域を特定するために、第1クラス活性化マップを生成する。これにより、学習モデルに入力された対象画像について特定のクラス(クラス分類)に寄与した度合いを数値データとして取得して、数値データを可視化した第1クラス活性化マップを取得することができる。このとき、特定領域と非特定領域とは、対象画像について特定のクラス(クラス分類)に寄与した度合いが異なるため数値に差が生じる。よって、第1クラス活性化マップを用いて、物体の予め定められた特定領域を特定することで、非特定領域の少なくとも一部を誤って特定領域として特定する可能性を低減できる。
(12)本開示の第3形態によれば、特定システムが提供される。物体の予め定められた特定領域を特定する特定システムは、上記形態に記載の前記特定装置と、前記対象画像を得るために前記物体を撮像する撮像装置と、を備える。この形態によれば、撮像装置によって撮像した対象画像に含まれる特定領域を、特定装置によって特定できる。
本開示は、上記の特定方法、特定装置、および、特定システム以外の種々の形態で実現することが可能である。例えば、特定装置の製造方法、特定装置の制御方法、その制御方法を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体等の形態で実現することができる。
A.第1実施形態:
図1は、本実施形態の特定方法を実行する特定システム1の概略構成を示す図である。特定システム1は、物体の予め定められた特定領域Wを特定する。具体的には、特定システム1は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いた学習済みの学習モデルMDに、物体の画像を入力してクラス活性化マップC1,C2(後述の図6)を生成する。そして、生成されたクラス活性化マップC1,C2を用いて、物体の画像に含まれる特定領域Wを特定する。本実施形態では、特定対象となる物体は、切削工具の一例としてのスカイビング工具70(後述の図2)である。また、本実施形態では、特定領域Wは、スカイビング工具70の外周面側において、被加工物を切削する過程で摩耗した摩耗領域Wである。つまり、本実施形態では、特定システム1は、スカイビング工具70を撮像した画像から、被加工物を加工するスカイビング工具70の工具加工部74の摩耗領域Wを特定する。なお、特定対象となる物体の形状はこれに限られるものではなく、例えば、旋削やエンドミル加工などの他の切削工具であってもよい。
図1は、本実施形態の特定方法を実行する特定システム1の概略構成を示す図である。特定システム1は、物体の予め定められた特定領域Wを特定する。具体的には、特定システム1は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いた学習済みの学習モデルMDに、物体の画像を入力してクラス活性化マップC1,C2(後述の図6)を生成する。そして、生成されたクラス活性化マップC1,C2を用いて、物体の画像に含まれる特定領域Wを特定する。本実施形態では、特定対象となる物体は、切削工具の一例としてのスカイビング工具70(後述の図2)である。また、本実施形態では、特定領域Wは、スカイビング工具70の外周面側において、被加工物を切削する過程で摩耗した摩耗領域Wである。つまり、本実施形態では、特定システム1は、スカイビング工具70を撮像した画像から、被加工物を加工するスカイビング工具70の工具加工部74の摩耗領域Wを特定する。なお、特定対象となる物体の形状はこれに限られるものではなく、例えば、旋削やエンドミル加工などの他の切削工具であってもよい。
図2は、スカイビング工具70および本実施形態における撮像領域ARを示す図である。スカイビング工具70は、円環形状の被加工物の内周面を切削し、被加工物の内周面に歯車を形成するために使用される切削工具である。図2には、互いに直交する軸としてのX軸およびZ軸が描かれている。Z軸に沿ったZ方向は、スカイビング工具70の中心軸CLに沿った方向である。X軸に沿ったX方向は、スカイビング工具70の中心軸CLから外周面側に向かう方向であり、スカイビング工具70の径方向に沿った方向である。以下において、X軸、Z軸に沿った方向で正負を問わないものを、それぞれX方向,Z方向と呼ぶ。これ以降の図および説明についても同様とする。
スカイビング工具70は、中心軸CLを有する円環形状である。切削加工時には、スカイビング工具70は、工作機械のうちで回転可能な工具支持部80に取り付けられ、工具支持部80により回転される。スカイビング工具70は、複数の工具刃71と、すくい面72とを有する。複数の工具刃71は、スカイビング工具70の外周面に形成されている。工具刃71は、外周端面71aを有する。工具刃71の中心軸CL方向から見た形状は、スカイビング工具70の内周面を基部として、外周端面71aに向かって先細る略台形形状である。また、工具刃71は、中心軸CL方向に対して傾斜した方向に沿って延伸している。すくい面72は、スカイビング工具70の中心軸CL方向における端面であり、径方向にて中心から外方に向かって上昇するように傾斜している。加工時には、すくい面72が先端となるように、スカイビング工具70は工具支持部80に取り付けられ、被加工物に向かって進行しつつ回転されることにより、被加工物の内周面が切削される。スカイビング工具70は、主に、すくい面72と工具刃71の外周面との境界である工具加工部74が切削により摩耗する。
図1に示すように、特定システム1は、撮像装置5と、特定装置10と、を備える。撮像装置5は、物体を撮像する。以下において、撮像装置5によって撮像された物体の画像のうちで、学習モデルMDの学習に用いるための画像を訓練画像TP(後述の図4)とする。なお、後述する図4の訓練画像TPや図6の対象画像Pは白黒の画像であるが、実際にはカラー画像である。また、特定領域Wを特定するために学習済みの学習モデルMDに入力される画像を対象画像P(後述の図6)とする。撮像装置5は、例えば、CCD(Charge Coupled Device)イメージセンサである。なお、学習モデルMDに入力される訓練画像TPおよび対象画像Pは、撮像装置5以外の他の装置によって予め撮像された画像データであってもよい。
特定装置10は、対象画像Pを学習済みの学習モデルMDに入力して、物体の特定領域Wを特定するための機能を備える。特定装置10は、通信部30と、ディスプレイ40と、入力操作部50と、記憶部60と、CPU100と、を備える。特定装置10は、例えば、各構成要素30,40,50,60,100を備えるコンピュータである。撮像装置5と特定装置10とは、通信部30を介して通信可能に接続されており、撮像装置5によって撮像された訓練画像TPや対象画像Pは、特定装置10へ送信される。ディスプレイ40は、例えば、液晶ディスプレイであり、CPU100の指令に応じて、情報を表示する。入力操作部50は、例えば、キーボードやマウスを有し、ユーザからの指示を受け付ける。
記憶部60は、特定システム1の動作を制御する各種プログラムと、対象画像Pからクラス活性化マップC1,C2やクラスの分類結果を生成するための学習モデルMDと、撮像装置5から送信された画像データと、を含む各種情報を記憶する。学習モデルMDは、機械学習を用いて学習されるモデルである。本実施形態では、学習モデルMDのアルゴリズムとして、畳み込みニューラルネットワークが用いられる。また、本実施形態では、学習モデルMDは、第1学習モデルMD1および第2学習モデルMD2を有する。第1学習モデルMD1および第2学習モデルMD2の学習方法、および、第1学習モデルMD1と第2学習モデルMD2との相違点については後述する。記憶部60は、RAMやROM、書き換え可能な不揮発性メモリなどを含む。なお、記憶部60に記憶される学習モデルMDは、1種類でもよく、3種類以上であってもよい。
CPU100は、記憶部60に記憶された各種プログラムを展開することにより、画像取得部110と、分類部130と、マップ生成部140と、画像処理部150と、特定部160として機能する。画像取得部110は、通信部30を介して、撮像装置5によって撮像された画像を受け付ける。分類部130は、学習済みの学習モデルMDに入力された対象画像Pなどの画像を、予め学習したクラスのいずれかにクラス分類する。マップ生成部140は、学習済みの学習モデルMDを用いて、対象画像Pなどの物体の画像について特定のクラス(クラス分類)に寄与した度合い(以下、寄与度)を数値として出力する。そして、マップ生成部140は、寄与度の数値差を色調差として示すクラス活性化マップC1,C2を生成する。画像処理部150は、後述する第1マスク処理工程や第2マスク処理工程、2値化処理、エッジ抽出処理などの各種処理を実行する。特定部160は、生成されたクラス活性化マップC1,C2を用いて、対象画像Pに含まれる特定領域Wを特定する。さらに、特定部160は、特定された特定領域Wに基づいて、工具の摩耗量WA(後述の図6)を測定する。特定部160による特定領域Wの特定に係る結果や摩耗量WAの測定結果は、適宜ディスプレイ40に表示される。なお、CPU100の少なくとも一部の機能は、ハードウェア回路によって実現されてもよい。なお、特定装置10において、分類部130は、必須ではなく、省略してもよい。
図3は、学習モデルMDの作成方法を示すフローチャートである。図4は、訓練画像TPおよび教師データTDの一例を示す図である。図4に示すx軸、y軸は、画像座標系である。図4に示すように、訓練画像TPは、+X方向(図2の撮像方向)側からスカイビング工具70の外周面を撮像した画像である。図4に示す一例では、訓練画像TPは、図2の撮像領域ARを撮像した工具画像P1から抽出された画像である。
まず、図3に示すように、教師データTDを準備する(ステップS12)。教師データTDは、図4に示すように、第1訓練画像TP1と、第2訓練画像TP2と、を少なくとも含む複数の訓練画像TPと、複数の訓練画像TPそれぞれの正解ラベルL1~L4と、を互いに関連付けたデータである。第1訓練画像TP1は、物体(本実施形態では、スカイビング工具70)の画像のうちで特定領域Wを含む画像である。特定領域Wは、本実施形態では、工具加工部74の摩耗領域Wである。本実施形態では、第1訓練画像TP1は、摩耗領域Wと摩耗領域Wの周辺領域を含む摩耗特定画像TP11である。第2訓練画像TP2は、物体の画像のうちで特定領域Wは含まず非特定領域NWを含む画像である。本実施形態では、特定装置10によって特定領域Wを特定する際に、非特定領域NWのうちで特定領域Wと類似する特徴を有する領域を誤って特定領域Wとして特定する可能性を低減させるために、非特定領域NWをさらに細分化した3種類の第2訓練画像TP2を用いている。具体的には、第2訓練画像TP2は、異物特定画像TP23と、工具本体特定画像TP22と、背景特定画像TP21と、の3種類である。
本実施形態では、スカイビング工具70を撮像した1枚の工具画像P1から、例えば目視などによって各領域を判定することで、摩耗特定画像TP11と、異物特定画像TP23と、工具本体特定画像TP22と、背景特定画像TP21と、の複数の画像を、訓練画像TPとして抽出している。なお、工具画像P1に異物領域Dや摩耗領域Wが存在しない場合には、異物特定画像TP23や摩耗特定画像TP11は生成されない。
異物特定画像TP23は、非特定領域NWとしての異物領域Dと、異物領域Dの周辺領域、例えば、非特定領域NWとしての本体領域Tと、を含む。異物領域Dは、スカイビング工具70の画像における摩耗領域W(特定領域W)以外の領域のうちで、スカイビング工具70に付着した汚れと、スカイビング工具70に付着した異物との少なくとも1つを含む領域である。本実施形態では、異物領域Dは、スカイビング工具70の表面に付着した汚れを含む領域である。本体領域Tは、スカイビング工具70のうちで異物領域Dと特定領域Wとしての摩耗領域Wとを除いた領域であり、工具本体の画像領域である。図4の右下に示す異物特定画像TP23では、異物領域Dの形状は、概ね円形状であり、異物領域Dは本体領域Tに囲まれるように位置している。異物領域Dを含む第2訓練画像TP2としての異物特定画像TP23には、正解ラベルとして、異物領域Dを含む画像であることを示す「ラベルL4:異物部」(以下、異物部L4)を関連付けて、これを第4教師データTD4とする。
工具本体特定画像TP22は、非特定領域NWとしての本体領域Tの画像である。本体領域Tを含む第2訓練画像TP2としての工具本体特定画像TP22には、正解ラベルとして、本体領域Tの画像であることを示す「ラベルL3:本体部」(以下、本体部L3)を関連付けて、これを第3教師データTD3とする。
背景特定画像TP21は、非特定領域NWとしての背景領域Bの画像である。背景領域Bは、工具画像P1のうちで、摩耗領域Wと、異物領域Dと、本体領域Tと、のいずれにも該当しない背景の領域である。背景特定画像TP21には、正解ラベルとして、背景領域Bの画像であることを示す「ラベルL2:背景部」(以下、背景部L2)を関連付けて、これを第2教師データTD2とする。
摩耗特定画像TP11は、特定領域Wとしての摩耗領域Wと、摩耗領域Wの周辺領域、本実施形態では本体領域Tおよび背景領域Bを含む。図4に示す摩耗特定画像TP11では、摩耗領域Wは、本体領域Tと背景領域Bとの間においてy方向に沿って延びるように位置している。また、図4に示す摩耗特定画像TP11では、摩耗領域Wの形状は、y方向を長手方向、x方向を短手方向とする細長形状である。摩耗領域Wを含む第1訓練画像TP1としての摩耗特定画像TP11には、正解ラベルとして、摩耗領域Wを含む画像であることを示す「ラベルL1:摩耗部」(以下、摩耗部L1)を関連付けて、これを第1教師データTD1とする。このようにして、訓練画像TPと正解ラベルL1~L4とを関連付けた教師データTD1~TD4を複数準備する。なお、学習済みの学習モデルMDを用いたクラス分類の結果は、正解ラベルL1~L4の名称で出力される。よって、以下において、4つのクラスを「摩耗部L1」、「背景部L2」、「本体部L3」、および、「異物部L4」とも呼ぶ。また、分類するクラスの数や種類、教師データTDの数や種類は、これに限られるものではない。
次に、図3に示すように、複数の教師データTD1~TD4を学習モデルMD、詳細には第1学習モデルMD1および第2学習モデルMD2に入力して、学習モデルMDを学習する(ステップS15)。具体的には、まず、入力層と、1以上の畳み込み層およびプーリング層と、全結合層と、活性化関数としてソフトマックス関数を用いた出力層とで構成される畳み込みニューラルネットワークに対して、複数の教師データTD1~TD4を入力し、その出力結果を得る。そして、得られた出力結果と各教師データTD1~TD4との誤差をそれぞれ計算して、この誤差を低減するように、畳み込みニューラルネットワークのパラメータを更新することで、学習モデルMDを学習する。
第1学習モデルMD1と、第2学習モデルMD2とは、アルゴリズム(本実施形態では、畳み込みニューラルネットワーク)や畳み込み層およびプーリング層の数などの層構造は同じであるが、学習モデルMDを学習する際の設定条件が異なる。ここで言う設定条件とは、例えば、カーネルサイズやストライドであり、対象画像Pと後述する第1処理後画像M10(後述の図6)とのいずれか一方の画像における特徴量を抽出して、クラス活性化マップC1,C2を生成するための各種パラメータに影響する項目を指す。本実施形態では、第1学習モデルMD1は、対象画像Pに含まれる摩耗領域Wと異物領域Dとを精度よく区別するための設定条件が設定された学習モデルMDである。また、本実施形態では、第2学習モデルMD2は、後述する第1処理後画像M10に含まれる摩耗領域Wを精度よく特定する、すなわち、摩耗領域Wの特徴量をより抽出できる設定条件が設定された学習モデルMDである。
さらに、教師データTDを構成する複数の訓練画像TPには、特定領域Wと非特定領域NWとを含む画像(例えば、図4に示す訓練画像TP)以外に、摩耗していない新品のスカイビング工具70から生成した訓練画像TPが含まれてもよい。このとき、初期工具画像から生成した訓練画像TPには、摩耗領域Wは存在しない。よって、初期工具画像から生成した訓練画像TPには、正解ラベルL1(摩耗部)に代えて、新品であることを示す正解ラベルを用いる。新品であることを示す正解ラベルは、1枚の初期工具画像から生成した複数の訓練画像TPのうちで、すくい面72と工具刃71の外周面との境界である工具加工部74とその周辺領域を含む画像に関連付けられる。また、スカイビング工具70について、撮像時の条件によっては、スカイビング工具70の外周面と背景領域Bとの間にエッジが抽出される場合が生じ得る。この場合、例えば、初期工具画像から生成した複数の訓練画像TPについて、予め工具加工部74のエッジ幅を測定して、平均値を補正値として算出し、記憶部60に記憶させる。そして、学習済みの学習モデルMDに対象画像Pを入力して、特定装置10が摩耗量WAを測定する際に、算出した摩耗量WAから補正値を差し引くことで、最終的な摩耗量WAを測定する。
図5は、第1実施形態の特定方法を示すフローチャートである。図6は、本実施形態の特定方法の各工程を説明するための図である。図6では、図5および後述する図7~図9に示す特定方法の各工程に対応するステップ番号を付している。本実施形態では、図5に示すステップS20~ステップS90を実行することで、スカイビング工具70の特定領域Wである摩耗領域Wが特定されて、スカイビング工具70の摩耗量WAが測定される。
図5に示すように、まず、ステップS20において、学習済みの第1学習モデルMD1に対して、図6のステップS20に示す対象画像Pを入力する。対象画像Pは、スカイビング工具70のうちで摩耗した部分を撮像した画像であり、本実施形態では、工具画像P1から摩耗した工具加工部74およびその周辺領域を抽出した画像である。具体的には、本実施形態では、スカイビング工具70と撮像装置5とが予め定められた位置関係となるように設定されている。これにより、例えば、撮像装置5によって撮像された画像に対してエッジ抽出を実行することで、摩耗領域Wを含む領域を対象画像Pとして切り出すことができる。つまり、本実施形態では、撮像領域ARが摩耗領域Wを含むように予め設定されている。よって、本実施形態では、後のステップS30を実行するに際し、分類部130によるクラス分類の結果を出力する必要がない。
図5に示すように、ステップS20の後に、第1マップ生成工程(ステップS30)が実行される。第1マップ生成工程(ステップS30)では、マップ生成部140は、第1学習モデルMD1に入力された対象画像Pについて特定のクラスL1~L4(クラス分類)に寄与した度合い(以下、第1寄与度)を数値として出力する。そして、マップ生成部140は、図6のステップS30に示すように、第1寄与度の数値差を色調差として示す第1クラス活性化マップC1を生成する。第1クラス活性化マップC1は、摩耗領域Wを特定する過程において、第1学習モデルMD1による判断根拠を可視化した画像である。マップ生成部140は、第1クラス活性化マップC1を生成するために、例えば、全結合層の直前の畳み込み層において生成された特徴マップを入力して、特定領域Wと非特定領域NWとに対する特徴マップの勾配を計算する。そして、計算された勾配に基づいて、特徴マップ内の重要度を計算する。これにより、マップ生成部140は、重要度が高い領域、つまり、第1寄与度が大きい領域を特定領域Wとしての摩耗領域Wとして可視化し、重要度が低い領域、つまり、第1寄与度が小さい領域を非特定領域NW(異物領域D、本体領域T、背景領域B)として可視化する。本実施形態では、第1学習モデルMD1によって、摩耗領域Wである可能性が高いと判断された領域ほど第1寄与度が大きく、非特定領域NW(異物領域D、本体領域T、背景領域B)である可能性が高いと判断された領域ほど第1寄与度が小さくなるように設定されている。第1クラス活性化マップC1の生成は、例えば、Grad-CAM(Gradient-weighted Class Activation Mapping)を用いる。また、第1クラス活性化マップC1を生成する場合には、Grad-CAMに代えて、例えば、Grad-CAM++やScore-CAM(Score-weighted Class Activation Mapping)が用いられてもよい。
図6のステップS30では、第1クラス活性化マップC1を模式的に図示している。第1クラス活性化マップC1の色調差は、ハッチングの種類、および、ハッチングの濃さによって示されている。具体的には、ハッチングの濃さが濃いほど第1寄与度が大きく、ハッチングの濃さが薄いほど第1寄与度が小さくなるように描かれている。また、クロスハッチングが付されている領域は、ドットハッチングが付されている領域よりも第1寄与度が大きくなるように描かれている。つまり、図6のステップS30に示す第1クラス活性化マップC1では、クロスハッチングの濃さが濃い領域ほど摩耗領域Wである可能性が高く、ドットハッチングの濃さが薄い領域ほど非特定領域NWである可能性が高いと判定されたことが視覚的に表されている。なお、実際の第1クラス活性化マップC1には、第1寄与度に応じた色調が付されており、例えば、第1寄与度が大きい場合には赤色で表され、第1寄与度が小さい場合には青色で表される。また、第1クラス活性化マップC1の画像と対象画像Pとは、画像座標系におけるx軸、y軸それぞれにおいて同じ画素数であり、同じ大きさである。
図5に示すように、第1マップ生成工程(ステップS30)の後に、第1マスク処理工程(ステップS40)が実行される。図7は、本実施形態の第1マスク処理工程(ステップS40)の詳細を示すフローチャートである。第1マスク処理工程(ステップS40)では、図7に示すように、第1マスク画像生成工程(ステップS420~ステップS440)と、第1処理工程(ステップS450)と、がこの順で実行される。
第1マスク画像生成工程では、画像処理部150は、第1クラス活性化マップC1を用いて、白黒の二値画像である第1マスク画像M1を生成する。具体的には、第1クラス活性化マップC1の各画素のうち、特定領域Wとしての摩耗領域Wおよび摩耗領域Wの周囲(例えば、所定画素分の領域)と想定される領域を白画像である第1抽出領域WR1、それ以外の非特定領域NWと想定される領域を黒画像である第1非抽出領域BR1に設定することで、第1マスク画像M1を生成する。第1クラス活性化マップC1に含まれる領域を、第1抽出領域WR1と第1非抽出領域BR1とに分類するためには、特定の条件としての第1条件がユーザによって設定される。本実施形態では、図7のステップS420に示すように、第1クラス活性化マップC1の各画素値に対して、予め定められた第1閾値が設定される。第1閾値は、摩耗領域Wとその周囲(例えば、摩耗領域Wから所定画素分離れた領域)とが第1抽出領域WR1に設定されるような値に設定されることが好ましい。本実施形態では、第1条件は、第1クラス活性化マップC1のうちで第1閾値以上であることとしている。第1クラス活性化マップC1は、数値としての第1寄与度を色調差として図示している。そこで、ステップS420において、画像処理部150は、第1クラス活性化マップC1の各画素値に対して、第1寄与度が第1閾値以上であるか否かを判定する。そして、画像処理部150は、第1クラス活性化マップC1の各画素値のうちで、第1閾値以上の領域を白画像の領域である第1抽出領域WR1とする(ステップS430:Yes)。一方で、画像処理部150は、第1抽出領域WR1以外の領域である第1閾値未満の領域を黒画像の領域である第1非抽出領域BR1とする(ステップS435:No)。なお、ユーザは、予め第1閾値を設定して、記憶部60に記憶させてもよく、第1クラス活性化マップC1を生成した後に、第1クラス活性化マップC1を参照して所望の第1閾値を設定してもよい。
ステップS430およびステップS435の後に、ステップS440の第1マスク処理が実行される。第1マスク処理では、画像処理部150が、第1クラス活性化マップC1のうちで、第1抽出領域WR1を白画像とし、第1非抽出領域BR1を黒画像として第1マスク画像M1を生成する。
図7に示すように、ステップS440の後に、第1処理工程(ステップS450)が実行される。第1処理工程(ステップS450)では、画像処理部150は、図6のステップS450に示すように、第1マスク画像M1を対象画像Pに適用して、第1処理後画像M10を取得する。具体的には、画像処理部150は、対象画像Pに第1マスク画像M1を重ね合わせることで、対象画像Pから第1非抽出領域BR1を取り除いた第1処理後画像M10を取得する。これにより、対象画像Pから特定領域Wではない非特定領域NWを大まかに取り除いた第1処理後画像M10が取得できる。なお、図6のステップS450に示す第1処理後画像M10において、第1非抽出領域BR1は、本来であれば黒画像となるが、第1処理後画像M10を用いた第2クラス活性化マップC2を生成する際に、黒画像の領域を摩耗領域Wとして第2寄与度が高く設定される可能性がある。よって、画像処理部150は、第1処理後画像M10における第1非抽出領域BR1を白画像に画像処理している。ステップS450までの各工程の実行により、第1マスク処理工程(ステップS40)は終了する。
図5に示すように、ステップS40の後に、ステップS50が実行される。ステップS50において、図6のステップS450に示す第1処理後画像M10を、学習済みの第2学習モデルMD2に入力する。
図5に示すように、ステップS50の後に、第2マップ生成工程(ステップS60)が実行される。第2マップ生成工程(ステップS60)は、第2学習モデルMD2に入力された第1処理後画像M10について特定のクラスL1~L4(クラス分類)に寄与した度合い(以下、第2寄与度)を数値として出力する。そして、図6のステップS60に示すように、第2寄与度の数値差を色調差として示す第2クラス活性化マップC2を生成する。第2クラス活性化マップC2は、第1処理後画像M10を第2学習モデルMD2に入力して摩耗領域Wを特定する過程において、第2学習モデルMD2による判断根拠を可視化した画像である。本実施形態では、第2学習モデルMD2によって、摩耗領域Wである可能性が高いと判断された領域ほど第2寄与度が大きく、非特定領域NW(異物領域D、本体領域T、背景領域B)である可能性が高いと判断された領域ほど第2寄与度が小さくなるように設定されている。よって、第2クラス活性化マップC2では、重要度が高い領域、つまり、第2寄与度が大きい領域を摩耗領域Wとして可視化する。そして、重要度が低い領域、つまり、第2寄与度が小さい領域を、非特定領域NW(異物領域D、本体領域T、背景領域B)として可視化する。第2クラス活性化マップC2の生成には、例えば、Grad-CAM、Grad-CAM++、Score-CAMを用いる。なお、第2クラス活性化マップC2の生成に係る原理は、入力される画像が異なること以外は第1クラス活性化マップC1と同様である。
図6のステップS60では、図6のステップS30に示す第1クラス活性化マップC1と同様に、第2クラス活性化マップC2の色調差は、ハッチングの濃さ、および、ハッチングの種類によって示されている。具体的には、ハッチングの濃さが濃いほど第2寄与度が大きく、ハッチングの濃さが薄いほど第2寄与度が小さくなるように描かれている。また、クロスハッチングが付されている領域は、ドットハッチングが付されている領域よりも第2寄与度が大きくなるように描かれている。なお、実際の第2クラス活性化マップC2は、第1クラス活性化マップC1と同様に、第2寄与度に応じて色調が付されている。また、第2クラス活性化マップC2の画像と対象画像Pと第1処理後画像M10とは、画像座標系におけるx軸、y軸それぞれにおいて同じ画素数であり、同じ大きさである。
図5に示すように、第2マップ生成工程(ステップS60)の後に、第2マスク処理工程(ステップS70)が実行される。図8は、本実施形態の第2マスク処理工程(ステップS70)の詳細を示すフローチャートである。第2マスク処理工程(ステップS70)では、図8に示すように、第2マスク画像生成工程(ステップS720~ステップS740)と、第2処理工程(ステップS750)と、がこの順で実行される。
第2マスク画像生成工程では、画像処理部150は、第2クラス活性化マップC2を用いて、白黒の二値画像である第2マスク画像M2を生成する。具体的には、第2クラス活性化マップC2の各画素のうち、摩耗領域Wと想定される領域を白画像である第2抽出領域WR2、それ以外の非特定領域NWと想定される領域を黒画像である第2非抽出領域BR2に設定することで、第2マスク画像M2を生成する。第2クラス活性化マップC2に含まれる領域を、第2抽出領域WR2と第2非抽出領域BR2とに分類するためには、特定の条件としての第2条件がユーザによって設定される。本実施形態では、図8に示すように、第2クラス活性化マップC2の各画素値に対して、予め定められた第2閾値が設定される。このとき、第2閾値は、特定領域Wとしての摩耗領域Wと想定される領域のみを第2抽出領域WR2として抽出できるように設定されることが好ましい。よって、第2閾値は、摩耗領域Wとその周囲(例えば、摩耗領域Wから所定画素分離れた領域)を第1抽出領域WR1とするために設定される第1閾値と比べて、高い値に設定されることが好ましい。本実施形態では、第2条件は、第2クラス活性化マップC2のうちで第2閾値以上であることとしている。第2クラス活性化マップC2は、数値としての第2寄与度を色調差として図示している。そこで、ステップS720において、画像処理部150は、第2クラス活性化マップC2に含まれる領域に対して、第2寄与度が第2閾値以上であるか否かを判定する。そして、画像処理部150は、第2クラス活性化マップC2の各画素値のうちで、第2閾値以上の領域を白画像の領域である第2抽出領域WR2とする(ステップS730:Yes)。一方で、画像処理部150は、第2クラス活性化マップC2の各画素値のうちで、第2抽出領域WR2以外の領域である第2閾値未満の領域を黒画像の領域である第2非抽出領域BR2とする(ステップS735:No)。
ステップS730およびステップS735の後に、ステップS740の第2マスク処理が実行される。第2マスク処理では、画像処理部150が、第2クラス活性化マップC2のうちで、第2抽出領域WR2を白画像として、第2非抽出領域BR2を黒画像として第2マスク画像M2を生成する。
図8に示すように、ステップS740の後に、第2処理工程(ステップS750)が実行される。第2処理工程(ステップS750)では、画像処理部150は、第2マスク画像M2を、対象画像Pと第1処理後画像M10とのいずれか一方に適用して、図6のステップS750に示す第2処理後画像M20を取得する。具体的には、対象画像Pと第1処理後画像M10とのいずれか一方の画像に対して、第2マスク画像M2を重ね合わせる。これにより、対象画像Pと第1処理後画像M10とのいずれか一方の画像から、第2非抽出領域BR2を取り除いた第2処理後画像M20が取得できる。ステップS750までの各工程の実行により、第2マスク処理工程(ステップS70)は終了する。
図5に示すように、第2マスク処理工程(ステップS70)の後に、特定領域Wとしての摩耗領域Wを特定する特定工程(ステップS80)が実行される。図9は、本実施形態の特定工程(ステップS80)の詳細を示すフローチャートである。ステップS870では、画像処理部150は、第2処理後画像M20の各画素の画素値と、予め定められた第1閾値および第2閾値とは異なる第3閾値と比較して2値化する2値化処理と、第2処理後画像M20に含まれるエッジE1,E2を抽出するエッジ抽出処理と、の少なくとも一方を実行する。これにより、最終処理画像Fを取得する。本実施形態では、図6のステップS870に示すように、第2処理後画像M20に対してエッジ抽出処理を実行した後の画像を最終処理画像Fとしている。このように、画像処理部150が、第2処理後画像M20に対して、2値化処理と、エッジ抽出処理と、の少なくとも一方を実行することで、特定領域Wと非特定領域NWとの境界を明確に抽出した状態で、後のステップS890を実行できる。
図9に示すように、ステップS870の後に、ステップS890が実行される。ステップS890では、特定部160が、最終処理画像Fを用いて、対象画像Pに含まれる特定領域Wを特定する。例えば、特定部160は、最終処理画像Fのうちで抽出されたx軸において離れた2つの境界(エッジ)に挟まれた領域を摩耗領域Wとして特定する。また、特定部160は、対象画像Pに最終処理画像Fにおける2つの境界(エッジ)を重ね合わせることで、対象画像Pに含まれる摩耗領域Wを特定してもよい。
図9のステップS890においてスカイビング工具70の摩耗領域Wが特定された後に、図5に示す摩耗量測定工程(ステップS90)が実行される。本実施形態では、特定部160は、最終処理画像Fを用いて、スカイビング工具70の摩耗量WAを測定する。スカイビング工具70の摩耗量WAは、例えば、以下のようにして測定される。
図6に示すように、最終処理画像Fに含まれる摩耗領域Wのx軸に間隔をあけたエッジE1,E2のうちで、x軸方向において最小座標値を示す点を第1点W1とし、x軸方向において最大座標値を示す点を第2点W2とする。まず、特定部160は、最終処理画像Fにおける第1点W1と第2点W2とのそれぞれの座標を取得する。図6のステップS90に示す例では、最終処理画像Fにおける第1点W1の座標を(Wx1,Wy1)とし、最終処理画像Fにおける第2点W2の座標を(Wx2,Wy2)としている。次に、特定部160は、x軸方向における、第1点W1と第2点W2との距離を、摩耗量WAとして算出する。なお、特定装置10は、対象画像Pに最終処理画像FのエッジE1,E2を重ね合わせた画像を用いて、摩耗量WAを測定してもよい。また、特定装置10は、生成されたクラス活性化マップC1,C2や測定された摩耗量WAを用いて、さらに、工具刃71の外周面における面粗さを予測してもよい。
上記実施形態によれば、図5および図6に示すように、学習済みの学習モデルMDとしての第1学習モデルMD1に、対象画像Pを入力して、クラス活性化マップとしての第1クラス活性化マップC1を生成する。具体的には、対象画像Pから特定領域Wを特定する過程で、第1学習モデルMD1に入力された対象画像Pについて特定のクラスL1~L4(クラス分類)に寄与した度合いを数値として出力する。そして、特定のクラスL1~L4(クラス分類)に寄与した度合いを示す数値の差を色調差として示す第1クラス活性化マップC1を生成する。この生成された第1クラス活性化マップC1を用いて、対象画像Pに含まれる特定領域Wを特定する。このようにすると、学習済みの第1学習モデルMD1を用いて、対象画像Pに含まれる特定領域Wを特定する場合に、第1学習モデルMD1による判断根拠を数値データとして取得することができる。よって、第1クラス活性化マップC1を用いて対象画像Pに含まれる特定領域Wを特定することで、非特定領域NWの少なくとも一部を誤って特定領域Wとして特定する可能性を低減できる。例えば、第1クラス活性化マップC1において、第1寄与度を予め定められた閾値と比較することで、異物領域Dと摩耗領域Wとを明確に区別できる。
また、上記実施形態によれば、マップ生成部140は、第1学習モデルMD1に入力された対象画像Pについて特定のクラスL1~L4(クラス分類)に寄与した度合いである第1寄与度に基づいて、第1クラス活性化マップC1を生成する。このとき、特定領域Wとしての摩耗領域Wと、非特定領域NWとは、第1寄与度が大きく異なる。そこで、第1クラス活性化マップC1のうちで、摩耗領域Wと摩耗領域Wの周囲の領域とが第1抽出領域WR1として抽出されるように、第1寄与度に応じた特定の条件として第1閾値(第1条件)を設定する。そして、画像処理部150は、第1クラス活性化マップC1のうちで第1条件を満たす領域を第1抽出領域WR1とし、第1条件を満たさない領域を非抽出領域BR1として第1マスク画像M1を生成する。この第1マスク画像M1を対象画像Pに適用することで、画像処理部150は、摩耗領域Wと摩耗領域Wの周囲の領域とが抽出された第1処理後画像M10を取得する。よって、異物領域Dなどの摩耗領域Wに類似する特徴を有する非特定領域NWが抽出されていない画像を第1処理後画像M10として取得することができる。さらに、図8に示すように、第1処理後画像M10から生成された第2クラス活性化マップC2のうちで、摩耗領域Wが第2抽出領域WR2として抽出されるように、特定の条件として第2閾値(第2条件)を設定する。そして、画像処理部150は、第2クラス活性化マップC1のうちで第2条件を満たす領域を第2抽出領域WR2とし、第2条件を満たさない領域を第2非抽出領域BR2として第2マスク画像M2を生成する。この第2マスク画像M2を対象画像Pと第1処理後画像M10とのいずれか一方の画像に適用することで、画像処理部150は、第2処理後画像M20を取得する。これにより、摩耗領域Wと類似する特徴を有する領域(例えば、異物領域D)を取り除いた第2処理後画像M20を用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定することができる。よって、工具に付着した汚れや異物などを誤って摩耗領域Wとして特定する可能性を低減できる。
また、上記実施形態によれば、第1条件は、予め設定された第1閾値以上であることとしている。そのため、例えば、ユーザが所望の第1閾値を設定することで、第1抽出領域WR1と第1非抽出領域BR1とを決定することができる。また、上記実施形態によれば、第2条件は、予め設定された第2閾値以上であることとしている。そのため、例えば、ユーザが、所望の第2閾値を設定することで、第2抽出領域WR2と第2非抽出領域BR2とを決定することができる。
また、上記実施形態によれば、図5および図6に示すように、第1学習モデルMD1とは異なる第2学習モデルMD2に、対象画像Pから非特定領域NWを大まかに取り除いた第1処理後画像M10を入力して、第2クラス活性化マップC2を生成する。このとき、第2学習モデルMD2は、第1処理後画像M10に含まれる特定領域Wとしての摩耗領域Wの特徴量をより抽出できる学習モデルMDである。そのため、第2クラス活性化マップC2から第2マスク画像M2を生成する際に、摩耗領域Wと、摩耗領域Wに類似する特徴を有する領域(例えば、異物領域D)と、の数値(第2寄与度)が大きく異なる。これにより、摩耗領域Wに類似する特徴を有する領域を第2非抽出領域BR2として容易に設定できる。よって、異物領域Dなどの摩耗領域Wに類似する特徴を有する領域を誤って摩耗領域Wとして特定する可能性をさらに低減できる。
また、上記実施形態によれば、図6および図9に示すように、第2処理後画像M20に含まれるエッジE1,E2を抽出するエッジ抽出処理を実行した後の最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定する。また、上記実施形態によれば、第2処理後画像M20を予め定められた閾値と比較して2値化する2値化処理が実行されてもよい。このようにすると、2値化処理とエッジ抽出処理との少なくとも一方の処理によって、特定対象となる特定領域Wをより明確にした状態で、特定部160は、対象画像Pに含まれる特定領域Wを特定することができる。
また、上記実施形態によれば、図5に示すように、学習モデルMDを用いて生成したクラス活性化マップC1,C2に基づいて、工具の一例としてのスカイビング工具70の摩耗領域Wを特定する。そして、特定された摩耗領域Wに基づいて、スカイビング工具70の摩耗量WAを測定する。これにより、非特定領域NWの一部を誤って特定領域Wとして特定する可能性を低減させた状態において、工具の摩耗量WAを測定することができる。つまり、工具の摩耗量WAを測定する場合に精度を向上させることができる。よって、算出された工具の摩耗量WAの信憑性を確認するための作業に要する時間を減らすことができる。
また、上記実施形態によれば、図1に示すように、特定システム1は、特定対象とする物体を撮像するための撮像装置5を備える。そして、対象画像Pから特定領域Wを特定する装置としての特定装置10と撮像装置5とは、通信部30を介して接続されている。そのため、撮像装置5によって撮像した対象画像Pに含まれる特定領域Wを、特定装置10によって特定できる。これにより、訓練画像TPや対象画像Pの準備する工程と、対象画像Pから特定領域Wを特定する工程とを一連の流れとして実行することができる。
B.第2実施形態:
図10は、第2実施形態の特定方法を示すフローチャートである。なお、第2実施形態の特定方法に用いる特定システム1の構成は、前述した第1実施形態と同一である。また、本実施形態においても、第1実施形態と同様に、工具の一例としてのスカイビング工具70の摩耗領域Wを特定領域Wとして特定する。第1実施形態における各ステップと同一のステップ、および、第1実施形態の構成と同一の構成については、同一の符号を付すと共に説明を省略する。
図10は、第2実施形態の特定方法を示すフローチャートである。なお、第2実施形態の特定方法に用いる特定システム1の構成は、前述した第1実施形態と同一である。また、本実施形態においても、第1実施形態と同様に、工具の一例としてのスカイビング工具70の摩耗領域Wを特定領域Wとして特定する。第1実施形態における各ステップと同一のステップ、および、第1実施形態の構成と同一の構成については、同一の符号を付すと共に説明を省略する。
図10に示すように、まず、ステップS220において、学習済みの第2学習モデルMD2に対して、図6のステップS20に示す対象画像Pを入力する。本実施形態においても、対象画像Pは、工具画像P1(図4)から摩耗した工具加工部74(図2)およびその周辺領域を抽出した画像である。ステップS220の後に、第3マップ生成工程(ステップS230)が実行される。第3マップ生成工程(ステップS230)では、マップ生成部140は、第2学習モデルMD2に入力された対象画像Pについて特定のクラスL1~L4(クラス分類)に寄与した度合い(以下、第3寄与度)を数値として出力する。そして、マップ生成部140は、第3寄与度の数値差を色調差として示す第3クラス活性化マップを生成する。第3クラス活性化マップは、対象画像Pを第2学習モデルMD2に入力して摩耗領域Wを特定する過程において、第2学習モデルMD2による判断根拠を可視化した画像である。具体的には、マップ生成部140は、特定領域Wとしての摩耗領域Wを特定するに際して、重要度が高い領域、つまり、第3寄与度が大きい領域を摩耗領域Wとして可視化する。そして、マップ生成部140は、重要度が低い領域、つまり、第3寄与度が小さい領域を非特定領域NW(背景領域B、本体領域T、異物領域D)として可視化する。本実施形態では、第2学習モデルMD2によって、摩耗領域Wである可能性が高いと判断された領域ほど第3寄与度が大きく、非特定領域NW(背景領域B、本体領域T、異物領域D)である可能性が高いと判断された領域ほど第3寄与度が小さくなるように設定されている。なお、第3クラス活性化マップの画像と対象画像Pとは、画像座標系におけるx軸、y軸それぞれにおいて同じ画素数であり、同じ大きさである。
第3マップ生成工程(ステップS230)の後に、第3マスク処理工程(ステップS300)が実行される。図11は、本実施形態の第3マスク処理工程(ステップS300)の詳細を示すフローチャートである。第3マスク処理工程(ステップS300)では、図11に示すように、第3マスク画像生成工程(ステップS310~ステップS340)と、第3処理工程(ステップS350)と、がこの順で実行される。
第3マスク画像生成工程では、画像処理部150は、第3クラス活性化マップを用いて、白黒の二値画像である第3マスク画像を生成する。具体的には、第3クラス活性化マップの各画素のうち、摩耗領域Wと想定される領域を白画像である第3抽出領域、それ以外の非特定領域NWと想定される領域を黒画像である第3非抽出領域に設定することで第3マスク画像を生成する。第3クラス活性化マップに含まれる領域を、第3抽出領域と第3非抽出領域とに分類するためには、特定の条件としての第3条件がユーザによって設定される。本実施形態では、第3クラス活性化マップの各画素値に対して、予め定められた第4閾値が設定される。このとき、第4閾値は、特定領域Wとしての摩耗領域Wとして想定される領域のみを第3抽出領域として抽出できるように設定されていることが好ましい。よって、第4閾値は、摩耗領域Wとその周囲(例えば、摩耗領域Wから所定画素分離れた領域)を第1抽出領域WR1とするために設定される第1閾値と比べて、高い値に設定されることが好ましい。また、第4閾値は、摩耗領域Wのみを第2抽出領域WR2とするために設定される第2閾値と同一であってもよい。本実施形態では、第3条件は、第3クラス活性化マップのうちで第4閾値以上であることとしている。ステップS320において、画像処理部150は、第3クラス活性化マップに含まれる領域に対して、第3寄与度が第3閾値以上であるか否かを判定する。そして、画像処理部150は、第3クラス活性化マップの各画素値のうちで、第4閾値以上の領域を白画像の領域である第3抽出領域とする(ステップS330:Yes)。一方で、画像処理部150は、第3クラス活性化マップの各画素値のうちで、特定領域W以外の領域である第4閾値未満の領域を黒画像の領域である第3非抽出領域とする(ステップS335:No)。なお、ステップS320に係る特定の条件は、他の条件であってもよい。
ステップS330およびステップS335の後に、ステップS340の第3マスク処理が実行される。第3マスク処理では、画像処理部150が、第3クラス活性化マップのうちで、第3抽出領域を白画像として、第3非抽出領域を黒画像として第3マスク画像を生成する。
ステップS340の後に、第3処理工程(ステップS350)が実行される。第3処理工程(ステップS350)では、画像処理部150は、第3マスク画像を対象画像Pに適用して、第3処理後画像を取得する。具体的には、対象画像Pに第3マスク画像を重ね合わせる。これにより、対象画像Pから第3非抽出領域を取り除いた第3処理後画像が取得できる。ステップS350までの各工程の実行により、第3マスク処理工程(ステップS300)は終了する。
図10に示すように、第3マスク処理工程(ステップS300)の後に、特定領域Wとしての摩耗領域Wを特定する特定工程(ステップS80が実行される。特定工程(ステップS80)では、まず、画像処理部150が、第3処理後画像の各画素の画素値を予め定められた閾値、例えば、第3閾値と比較して2値化する2値化処理と、第3処理後画像に含まれるエッジE1,E2を抽出するエッジ抽出処理と、の少なくとも一方を実行する(ステップS870)。これにより、最終処理画像Fを取得する。そして、特定部160が、最終処理画像Fを用いて、対象画像Pに含まれる特定領域Wを特定する(ステップS890)。特定工程(ステップS80)の後に、スカイビング工具70の摩耗量WAを測定する摩耗量測定工程(ステップS90)が実行される。摩耗量測定工程(ステップS90)の実行態様は、第1実施形態と同様である。
上記第2実施形態によれば、図10および図11に示すように、マップ生成部140は、学習済みの第2学習モデルMD2に、対象画像Pを入力して、第3クラス活性化マップを生成する。そして、第3マスク画像を生成する際に、第3クラス活性化マップの数値データを用いるため、画像処理部150は、非特定領域NWを第3非抽出領域である黒画像とした第3マスク画像を生成することができる。そして、この第3マスク画像を対象画像Pに適用することで、異物領域Dなどの摩耗領域Wに類似する特徴を有する非特定領域NWが抽出されていない画像(第3処理後画像)を用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定できる。よって、対象画像Pに含まれる摩耗領域Wの特徴をより抽出できる。なお、本実施形態では、1種類の学習モデルMDとして第2学習モデルMD2を作成すればよい。
C.第3実施形態:
上記実施形態では、スカイビング工具70と撮像装置5とが予め定められた位置関係となるように設定されることで、特定領域Wとしての摩耗領域Wが含まれる画像を対象画像Pとして切り出していた。これに対して、スカイビング工具70などの特定対象となる物体と撮像装置5とは位置決めがなされていなくてもよい。本実施形態では、特定対象となる物体と撮像装置5との位置決めがなされていない場合の摩耗領域Wを含む画像の特定方法について説明する。特定対象となる物体と撮像装置5との位置決めがなされていない場合には、例えば、分類部130が、第1マップ生成工程(ステップS30)を開始する前に、第1学習モデルMD1に入力された画像を、予め学習した4つのクラスL1~L4のいずれかに分類する。そして、マップ生成部140は、クラス分類の結果に応じて、図5に示す第1マップ生成工程(ステップS30)を実行するか否かを決定する。
上記実施形態では、スカイビング工具70と撮像装置5とが予め定められた位置関係となるように設定されることで、特定領域Wとしての摩耗領域Wが含まれる画像を対象画像Pとして切り出していた。これに対して、スカイビング工具70などの特定対象となる物体と撮像装置5とは位置決めがなされていなくてもよい。本実施形態では、特定対象となる物体と撮像装置5との位置決めがなされていない場合の摩耗領域Wを含む画像の特定方法について説明する。特定対象となる物体と撮像装置5との位置決めがなされていない場合には、例えば、分類部130が、第1マップ生成工程(ステップS30)を開始する前に、第1学習モデルMD1に入力された画像を、予め学習した4つのクラスL1~L4のいずれかに分類する。そして、マップ生成部140は、クラス分類の結果に応じて、図5に示す第1マップ生成工程(ステップS30)を実行するか否かを決定する。
図12は、本実施形態の特定方法を示すフローチャートである。なお、本実施形態の特定方法に用いる特定システム1の構成は、前述した第1実施形態(図1)と同一である。また、本実施形態においても、第1実施形態と同様に、工具の一例としてのスカイビング工具70の摩耗領域Wを特定領域Wとして特定する。第1実施形態における各ステップと同一のステップ、および、第1実施形態の構成と同一の構成については、同一の符号を付すと共に説明を省略する。
本実施形態では、図12に示すように、ステップS20の後に、ステップS25を実行する。ステップS25において、分類部130は、訓練画像TPと正解ラベルL1~L4とが紐付けられた教師データTD1~TD4のうちで、対象画像Pがどの訓練画像TPと類似するかを判断し、判断結果として1つの正解ラベルL1~L4を出力する。そして、マップ生成部140は、分類部130によるクラス分類の結果が「摩耗部L1」である場合には、第1マップ生成工程(ステップS30)を実行する(ステップS25:Yes)。第1マップ生成工程(ステップS30)以降の工程(ステップS40~ステップS90)についても、第1実施形態と同様に実行される。
一方で、マップ生成部140は、分類部130によるクラス分類の結果が「摩耗部L1」以外である場合には、第1マップ生成工程(ステップS30)を実行することなく、特定方法を終了する(ステップS25:No)。なお、本実施形態では、クラス分類の結果が「摩耗部L1」以外である場合とは、「背景部L2」「本体部L3」「異物部L4」のいずれかのクラスがクラス分類結果として出力された場合である。
上記第3実施形態によれば、図12に示すように、第1マップ生成工程(ステップS30)を実行する前に、分類部130が、第1学習モデルMD1に入力された画像を、予め学習した4つのクラスL1~L4のいずれかに分類する。そして、クラス分類の結果が「摩耗部L1」である場合には、第1マップ生成工程(ステップS30)以降の工程(ステップS30~ステップS90)を実行する。一方で、クラス分類結果が「摩耗部L1」以外である場合には、第1マップ生成工程(ステップS30)を実行することなく、本実施形態の特定方法を終了する。これにより、撮像領域ARが予め定められていない場合には、第1学習モデルMD1に入力された画像が摩耗領域Wを含むか否かを判別した上で、第1マップ生成工程(ステップS30)以降の工程(ステップS30~ステップS90)を実行することができる。また、振動などによってスカイビング工具70が予め定められた位置から移動したことで撮像領域ARに摩耗領域Wが含まれないこととなった場合においても、後の工程(ステップS30~ステップS90)を実行するか否かをクラス分類結果に応じて決定できる。
また、上記実施第3形態によれば、対象画像Pのうちで摩耗領域Wと異物領域Dとは、形状が異なる一方で、色調が類似している。そこで、上記実施形態では、分類部130は、摩耗部L1と、背景部L2と、本体部L3と、異物部L4と、の4つのクラスL1~L4に分類している。このように、学習モデルMDに学習させるクラスL1~L4を細分化することで、クラス活性化マップC1,C2において、摩耗領域Wとそれ以外の領域である非特定領域NWとをより判別しやすい数値データを生成できる。
D.他の実施形態:
D-1.他の実施形態1:
上記第1実施形態では、図9に示すように、第2処理後画像M20に対して、2値化処理と、エッジ抽出処理と、の少なくとも一方を実行することによって得られた最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第2処理後画像M20を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。また、上記第2実施形態では、図10に示すように、第3処理後画像に対して、2値化処理と、エッジ抽出処理と、の少なくとも一方を実行することによって得られた最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第3処理後画像を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。このような形態であっても、クラス活性化マップC1,C2において、摩耗領域Wと、摩耗領域Wに類似する特徴を有する非特定領域NW(例えば、異物領域D)と、の数値(第2寄与度)が大きく異なる。これにより、摩耗領域Wに類似する特徴を有する領域を第2非抽出領域BR2として容易に設定できる。よって、異物領域Dなどの摩耗領域Wに類似する特徴を有する領域を誤って摩耗領域Wとして特定する可能性をさらに低減できる。
D-1.他の実施形態1:
上記第1実施形態では、図9に示すように、第2処理後画像M20に対して、2値化処理と、エッジ抽出処理と、の少なくとも一方を実行することによって得られた最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第2処理後画像M20を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。また、上記第2実施形態では、図10に示すように、第3処理後画像に対して、2値化処理と、エッジ抽出処理と、の少なくとも一方を実行することによって得られた最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第3処理後画像を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。このような形態であっても、クラス活性化マップC1,C2において、摩耗領域Wと、摩耗領域Wに類似する特徴を有する非特定領域NW(例えば、異物領域D)と、の数値(第2寄与度)が大きく異なる。これにより、摩耗領域Wに類似する特徴を有する領域を第2非抽出領域BR2として容易に設定できる。よって、異物領域Dなどの摩耗領域Wに類似する特徴を有する領域を誤って摩耗領域Wとして特定する可能性をさらに低減できる。
D-2.他の実施形態2:
上記第1実施形態では、第2マスク画像M2に対して第2マスク処理を実行した第2処理後画像M20から作成した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第2マスク画像M2を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。また、上記第2実施形態では、第3マスク画像に対して第3マスク処理を実行した第3処理後画像から作成した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第3マスク画像を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。このような形態であっても、第2マスク画像M2を生成する際に、第2クラス活性化マップC2の数値データを用いるため、画像処理部150は、非特定領域NWを第2非抽出領域BR2である黒画像とした第2マスク画像M2を生成することができる。また、第3マスク画像を生成する際に、第3クラス活性化マップの数値データを用いるため、画像処理部150は、非特定領域NWを第3非抽出領域である黒画像とした第3マスク画像を生成することができる。これにより、異物領域Dなどの摩耗領域Wに類似する特徴を有する非特定領域NWが抽出されていない画像を用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定できる。よって、対象画像Pに含まれる摩耗領域Wの特徴をより抽出できる。
上記第1実施形態では、第2マスク画像M2に対して第2マスク処理を実行した第2処理後画像M20から作成した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第2マスク画像M2を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。また、上記第2実施形態では、第3マスク画像に対して第3マスク処理を実行した第3処理後画像から作成した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第3マスク画像を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。このような形態であっても、第2マスク画像M2を生成する際に、第2クラス活性化マップC2の数値データを用いるため、画像処理部150は、非特定領域NWを第2非抽出領域BR2である黒画像とした第2マスク画像M2を生成することができる。また、第3マスク画像を生成する際に、第3クラス活性化マップの数値データを用いるため、画像処理部150は、非特定領域NWを第3非抽出領域である黒画像とした第3マスク画像を生成することができる。これにより、異物領域Dなどの摩耗領域Wに類似する特徴を有する非特定領域NWが抽出されていない画像を用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定できる。よって、対象画像Pに含まれる摩耗領域Wの特徴をより抽出できる。
D-3.他の実施形態3:
上記第1実施形態では、第1クラス活性化マップC1を用いて生成した第2クラス活性化マップC2に対して、第2マスク処理と、2値化処理やエッジ抽出処理と、をこの順に実行することによって取得した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第1クラス活性化マップC1や第2クラス活性化マップC2を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。この場合、特定部160は、例えば、第2クラス活性化マップC2の各画素値と、第2閾値と、を比較することによって、対象画像Pに含まれる特定領域Wを特定すればよい。また、上記第2実施形態では、第3クラス活性化マップに対して、第3マスク処理と、2値化処理やエッジ抽出処理と、をこの順に実行することによって取得した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第3クラス活性化マップを用いて、対象画像Pに含まれる特定領域Wを特定してもよい。このような形態であっても、マップ生成部140は、学習モデルMDに入力された対象画像Pなどの物体の画像について特定のクラスL1~L4(クラス分類)に寄与した度合いである寄与度に基づいて、クラス活性化マップC1,C2を生成する。このとき、特定領域Wとしての摩耗領域Wと、非特定領域NWとは、寄与度が大きく異なる。よって、特定部160は、寄与度の差を用いて、対象画像Pに含まれる特定領域Wを特定することができる。
上記第1実施形態では、第1クラス活性化マップC1を用いて生成した第2クラス活性化マップC2に対して、第2マスク処理と、2値化処理やエッジ抽出処理と、をこの順に実行することによって取得した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第1クラス活性化マップC1や第2クラス活性化マップC2を用いて、対象画像Pに含まれる特定領域Wを特定してもよい。この場合、特定部160は、例えば、第2クラス活性化マップC2の各画素値と、第2閾値と、を比較することによって、対象画像Pに含まれる特定領域Wを特定すればよい。また、上記第2実施形態では、第3クラス活性化マップに対して、第3マスク処理と、2値化処理やエッジ抽出処理と、をこの順に実行することによって取得した最終処理画像Fを用いて、特定部160は、対象画像Pに含まれる特定領域Wを特定していた。これに対して、特定部160は、第3クラス活性化マップを用いて、対象画像Pに含まれる特定領域Wを特定してもよい。このような形態であっても、マップ生成部140は、学習モデルMDに入力された対象画像Pなどの物体の画像について特定のクラスL1~L4(クラス分類)に寄与した度合いである寄与度に基づいて、クラス活性化マップC1,C2を生成する。このとき、特定領域Wとしての摩耗領域Wと、非特定領域NWとは、寄与度が大きく異なる。よって、特定部160は、寄与度の差を用いて、対象画像Pに含まれる特定領域Wを特定することができる。
D-4.他の実施形態4:
上記実施形態では、特定装置10は、学習済みの学習モデルMDにおいて、特定領域Wである可能性が高いと判断された領域ほど寄与度が大きく、非特定領域NWである可能性が高いと判断された領域ほど寄与度が小さくなるように設定されていた。これに対して、特定装置10は、特定領域Wである可能性が高いと判断された領域ほど寄与度が小さく、非特定領域NWである可能性が高いと判断された領域ほど寄与度が大きくなるように設定されていてもよい。この場合、特定部160は、例えば、第1閾値や第2閾値、第4閾値以下である領域を特定領域Wと判定し、特定領域W以外の領域を非特定領域NWと判定するように設定する。このような形態であっても、寄与度に応じてクラス活性化マップC1,C2を生成することができる。
上記実施形態では、特定装置10は、学習済みの学習モデルMDにおいて、特定領域Wである可能性が高いと判断された領域ほど寄与度が大きく、非特定領域NWである可能性が高いと判断された領域ほど寄与度が小さくなるように設定されていた。これに対して、特定装置10は、特定領域Wである可能性が高いと判断された領域ほど寄与度が小さく、非特定領域NWである可能性が高いと判断された領域ほど寄与度が大きくなるように設定されていてもよい。この場合、特定部160は、例えば、第1閾値や第2閾値、第4閾値以下である領域を特定領域Wと判定し、特定領域W以外の領域を非特定領域NWと判定するように設定する。このような形態であっても、寄与度に応じてクラス活性化マップC1,C2を生成することができる。
D-5.他の実施形態5:
上記実施形態では、工具の摩耗量WAは、特定部160によって測定されていた。これに対して、工具の摩耗量WAは、生成されたクラス活性化マップC1,C2を用いて、特定装置10以外の装置によって測定されてもよい。また、工具の摩耗量WAは、生成されたクラス活性化マップC1,C2を出力(例えば、印刷)して、ユーザが定規等を用いて測定してもよい。このような形態であっても、対象画像Pのうちで、特定部160によって特定された特定領域Wに基づいて、工具の摩耗量WAを測定することができる。
上記実施形態では、工具の摩耗量WAは、特定部160によって測定されていた。これに対して、工具の摩耗量WAは、生成されたクラス活性化マップC1,C2を用いて、特定装置10以外の装置によって測定されてもよい。また、工具の摩耗量WAは、生成されたクラス活性化マップC1,C2を出力(例えば、印刷)して、ユーザが定規等を用いて測定してもよい。このような形態であっても、対象画像Pのうちで、特定部160によって特定された特定領域Wに基づいて、工具の摩耗量WAを測定することができる。
D-6.他の実施形態6:
上記実施形態では、特定領域Wと非特定領域NWとの境界において、x軸方向において最大座標値を示す点と、最小座標値を示す点との距離を工具の摩耗量WAとしていた。これに対して、工具の摩耗量WAは、他の方法によって測定されてもよい。工具の摩耗量WAは、例えば、対象画像Pに含まれる特定領域Wの面積から算出されてもよい。このような形態であっても、対象画像Pのうちで、特定部160によって特定された特定領域Wに基づいて、工具の摩耗量WAを測定することができる。
上記実施形態では、特定領域Wと非特定領域NWとの境界において、x軸方向において最大座標値を示す点と、最小座標値を示す点との距離を工具の摩耗量WAとしていた。これに対して、工具の摩耗量WAは、他の方法によって測定されてもよい。工具の摩耗量WAは、例えば、対象画像Pに含まれる特定領域Wの面積から算出されてもよい。このような形態であっても、対象画像Pのうちで、特定部160によって特定された特定領域Wに基づいて、工具の摩耗量WAを測定することができる。
D-7.他の実施形態7:
上記実施形態では、第1学習モデルMD1を作成するときに入力される訓練画像TPと、第2学習モデルMD2を作成するときに入力される訓練画像TPとは同一であった。これに対して、第1学習モデルMD1の作成時に入力された訓練画像TPとは異なる画像を入力して第2学習モデルMD2を学習させてもよい。この場合、例えば、複数の第1処理後画像M10を畳み込みニューラルネットワークに入力して第2学習モデルMD2を作成する。このような形態であっても、対象画像Pに含まれる特定領域Wを特定するために第2クラス活性化マップC2を生成することができる。また、このような形態であれば、第2学習モデルMD2に対して、第1処理後画像M10を入力して第2クラス活性化マップC2を生成する際の精度をさらに向上させることができる。
上記実施形態では、第1学習モデルMD1を作成するときに入力される訓練画像TPと、第2学習モデルMD2を作成するときに入力される訓練画像TPとは同一であった。これに対して、第1学習モデルMD1の作成時に入力された訓練画像TPとは異なる画像を入力して第2学習モデルMD2を学習させてもよい。この場合、例えば、複数の第1処理後画像M10を畳み込みニューラルネットワークに入力して第2学習モデルMD2を作成する。このような形態であっても、対象画像Pに含まれる特定領域Wを特定するために第2クラス活性化マップC2を生成することができる。また、このような形態であれば、第2学習モデルMD2に対して、第1処理後画像M10を入力して第2クラス活性化マップC2を生成する際の精度をさらに向上させることができる。
D-8.他の実施形態8:
上記実施形態では、特定領域Wは、被加工物を加工する工具の工具加工部74の摩耗領域Wであった。これに対して、特定領域Wは、摩耗領域W以外の領域であってもよい。例えば、特定システム1を用いて、工具の表面に付着した異物を特定してもよい。つまり、特定領域Wは、異物領域Dであってもよい。工具の表面に付着した異物は、例えば、工具の外周面が摩耗して削り取られたときに生じた切り屑である。この場合、特定領域Wとして特定したい領域が含まれる画像を第1訓練画像TP1とし、正解ラベルと関連付けた教師データTDを準備して、学習モデルMDを作成する。このような形態であれば、所望の領域を特定領域Wとして特定することができる。
上記実施形態では、特定領域Wは、被加工物を加工する工具の工具加工部74の摩耗領域Wであった。これに対して、特定領域Wは、摩耗領域W以外の領域であってもよい。例えば、特定システム1を用いて、工具の表面に付着した異物を特定してもよい。つまり、特定領域Wは、異物領域Dであってもよい。工具の表面に付着した異物は、例えば、工具の外周面が摩耗して削り取られたときに生じた切り屑である。この場合、特定領域Wとして特定したい領域が含まれる画像を第1訓練画像TP1とし、正解ラベルと関連付けた教師データTDを準備して、学習モデルMDを作成する。このような形態であれば、所望の領域を特定領域Wとして特定することができる。
D-9.他の実施形態9:
上記実施形態では、特定システム1を用いて、工具の工具加工部74の摩耗領域Wを特定していた。これに対して、特定対象とする物体は、工具以外の物体であってもよい。特定対象とする物体は、例えば、スカイビング工具70によって切削加工される被加工物であってもよい。この場合、特定領域Wは、例えば、切削加工が行われる過程で、被加工物の表面に生じた傷である。また、特定システム1は、切削加工や研磨加工以外の他分野において、製品を製造する際に、製品に付着した異物を特定するために用いられてもよい。この場合、例えば、特定システム1は、食品や医薬品を製造する工程において、毛髪や害虫、原材料を梱包する資材の破片等の異物が製品に付着していないことを確認するために用いられてもよい。このような形態であっても、学習済みの学習モデルMDに入力された対象画像Pについて特定のクラスL1~L4(クラス分類)に寄与した度合いである寄与度に基づいて、クラス活性化マップC1,C2を生成することができる。そして、生成されたクラス活性化マップC1,C2を用いて、対象画像Pに含まれる特定領域Wを特定することができる。また、このような形態であれば、特定対象とする物体や特定領域W、非特定領域NWなど適用対象を限定しないため、様々な場面において、本実施形態の特定方法を実行できる。よって、特定システム1や特定装置10の汎用性が高まる。
上記実施形態では、特定システム1を用いて、工具の工具加工部74の摩耗領域Wを特定していた。これに対して、特定対象とする物体は、工具以外の物体であってもよい。特定対象とする物体は、例えば、スカイビング工具70によって切削加工される被加工物であってもよい。この場合、特定領域Wは、例えば、切削加工が行われる過程で、被加工物の表面に生じた傷である。また、特定システム1は、切削加工や研磨加工以外の他分野において、製品を製造する際に、製品に付着した異物を特定するために用いられてもよい。この場合、例えば、特定システム1は、食品や医薬品を製造する工程において、毛髪や害虫、原材料を梱包する資材の破片等の異物が製品に付着していないことを確認するために用いられてもよい。このような形態であっても、学習済みの学習モデルMDに入力された対象画像Pについて特定のクラスL1~L4(クラス分類)に寄与した度合いである寄与度に基づいて、クラス活性化マップC1,C2を生成することができる。そして、生成されたクラス活性化マップC1,C2を用いて、対象画像Pに含まれる特定領域Wを特定することができる。また、このような形態であれば、特定対象とする物体や特定領域W、非特定領域NWなど適用対象を限定しないため、様々な場面において、本実施形態の特定方法を実行できる。よって、特定システム1や特定装置10の汎用性が高まる。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
1…特定システム、5…撮像装置、10…特定装置、30…通信部、40…ディスプレイ、50…入力操作部、60…記憶部、70…スカイビング工具、71…工具刃、71a…外周端面、72…すくい面、74…工具加工部、80…工具支持部、100…CPU、110…画像取得部、130…分類部、140…マップ生成部、150…画像処理部、160…特定部、AR…撮像領域、B…背景領域、BR1,BR2…非抽出領域、C1…第1クラス活性化マップ、C2…第2クラス活性化マップ、CL…中心軸、D…異物領域、E1,E2…エッジ、F…最終処理画像、L1…摩耗部、L2…背景部、L3…本体部、L4…異物部、M1…第1マスク画像、M2…第2マスク画像、M10…第1処理後画像、M20…第2処理後画像、MD…学習モデル、MD1…第1学習モデル、MD2…第2学習モデル、NW…非特定領域、P…対象画像、P1…工具画像、T…本体領域、TD,TD1,TD2,TD3,TD4…教師データ、TP…訓練画像、TP1…第1訓練画像、TP2…第2訓練画像、TP11…摩耗特定画像、TP21…背景特定画像、TP22…工具本体特定画像、TP23…異物特定画像、W…特定領域,摩耗領域、W1…第1点、W2…第2点、WA…摩耗量、WR1,WR2…抽出領域
Claims (12)
- 物体の予め定められた特定領域を特定する特定方法であって、
前記物体の画像のうちで前記特定領域を含む第1訓練画像と、前記物体の画像のうちで前記特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、前記物体の画像である対象画像を入力して第1クラス活性化マップを生成する第1マップ生成工程と、
前記第1クラス活性化マップを用いて、前記対象画像に含まれる前記特定領域を特定する特定工程と、を含む、特定方法。 - 請求項1に記載の特定方法であって、
前記特定工程では、
前記第1クラス活性化マップのうちで特定の条件を満たす領域を前記特定領域と判定し、
前記第1クラス活性化マップのうちで前記特定領域以外の領域を前記非特定領域と判定することによって、前記対象画像に含まれる前記特定領域を特定する、特定方法。 - 請求項1に記載の特定方法であって、さらに、
前記第1マップ生成工程の後に実行される第1マスク処理工程を有し、
前記第1マスク処理工程は、
前記第1クラス活性化マップの各画素値を予め定められた第1閾値と比較することで前記第1クラス活性化マップを2値化することによって、前記特定領域を含む領域を第1抽出領域、前記第1抽出領域以外の領域を第1非抽出領域に設定した第1マスク画像を生成する第1マスク画像生成工程と、
前記対象画像に対して前記第1マスク画像を適用することによって第1処理後画像を取得する第1処理工程と、を含み、
前記特定工程は、
前記第1処理後画像を用いて、前記対象画像に含まれる前記特定領域を特定する、特定方法。 - 請求項3に記載の特定方法であって、
前記特定工程は、
最終処理画像を用いて、前記対象画像に含まれる前記特定領域を特定し、
前記最終処理画像は、
前記第1処理後画像の各画素値を予め定められた第3閾値と比較することで第1処理後画像を2値化する2値化処理と、
前記第1処理後画像に含まれるエッジを抽出するエッジ抽出処理と、の少なくとも一方を実行した後の画像である、特定方法。 - 請求項3に記載の特定方法であって、
前記第1マップ生成工程に用いる前記学習モデルは、第1学習モデルであり、
前記特定方法は、さらに、
前記第1マスク処理工程の後に実行される第2マップ生成工程であって、前記学習モデルとしての第2学習モデルに前記第1処理後画像を入力して第2クラス活性化マップを生成する第2マップ生成工程と、
前記第2マップ生成工程の後に実行される第2マスク処理工程と、を有し、
前記第2マスク処理工程は、
前記第2クラス活性化マップの各画素値を予め定められた第2閾値と比較することで前記第2クラス活性化マップを2値化することによって、前記特定領域を含む領域を第2抽出領域、前記第2抽出領域以外の領域を第2非抽出領域に設定した第2マスク画像を生成する第2マスク画像生成工程と、
前記対象画像と、前記第1処理後画像と、のいずれか一方に対して、前記第2マスク画像を適用することによって第2処理後画像を取得する第2処理工程と、を含み、
前記特定工程は、
前記第2処理後画像を用いて、前記対象画像に含まれる前記特定領域を特定する、特定方法。 - 請求項5に記載の特定方法であって、
前記特定工程では、
前記第2クラス活性化マップのうちで特定の条件を満たす領域を前記特定領域と判定し、
前記第2クラス活性化マップのうちで前記特定領域以外の領域を前記非特定領域と判定することによって、前記対象画像に含まれる前記特定領域を特定する、特定方法。 - 請求項5に記載の特定方法であって、
前記特定工程は、
最終処理画像を用いて、前記対象画像に含まれる前記特定領域を特定し、
前記最終処理画像は、
前記第2処理後画像の各画素値を予め定められた第3閾値と比較して2値化することで前記第2処理後画像を2値化する2値化処理と、
前記第2処理後画像に含まれるエッジを抽出するエッジ抽出処理と、の少なくとも一方を実行した後の画像である、特定方法。 - 請求項1から請求項7までのいずれか一項に記載の特定方法であって、
前記物体は工具であり、
前記特定領域は、前記対象画像のうちで、前記工具が摩耗した摩耗領域であり、
前記非特定領域は、前記対象画像のうちで前記特定領域としての前記摩耗領域以外の領域である、特定方法。 - 請求項8に記載の特定方法であって、
前記第2訓練画像の種類として、
前記非特定領域としての異物領域を含む異物特定画像であって、前記異物領域は、前記工具に付着した汚れと、前記工具に付着した異物と、の少なくとも1つを含む領域である異物特定画像と、
前記非特定領域としての本体領域を含む工具本体特定画像であって、前記本体領域は、前記工具のうちで前記特定領域および前記異物領域を除いた領域である工具本体特定画像と、
前記非特定領域としての背景領域を含む背景特定画像であって、前記背景領域は、前記特定領域と、前記異物領域と、前記本体領域とのいずれにも該当しない領域である背景特定画像と、を有する、特定方法。 - 請求項8または請求項9に記載の特定方法であって、
さらに、前記特定工程によって前記摩耗領域として特定された前記特定領域を用いて、前記工具の摩耗量を測定する摩耗量測定工程を含む、特定方法。 - 物体の予め定められた特定領域を特定する特定装置であって、
前記物体の画像のうちで前記特定領域を含む第1訓練画像と、前記物体の画像のうちで前記特定領域以外の領域である非特定領域を含む第2訓練画像と、を少なくとも含む複数の訓練画像を入力して学習させた畳み込みニューラルネットワークを用いた学習モデルに、前記物体の画像である対象画像を入力して第1クラス活性化マップを生成するマップ生成部と、
前記第1クラス活性化マップを用いて、前記対象画像に含まれる前記特定領域を特定する特定部と、を含む、特定装置。 - 物体の予め定められた特定領域を特定する特定システムであって、
請求項11に記載の特定装置と、
前記対象画像を得るために前記物体を撮像する撮像装置と、を備える、特定システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021146675A JP2023039521A (ja) | 2021-09-09 | 2021-09-09 | 特定方法、特定装置、および、特定システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021146675A JP2023039521A (ja) | 2021-09-09 | 2021-09-09 | 特定方法、特定装置、および、特定システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023039521A true JP2023039521A (ja) | 2023-03-22 |
Family
ID=85613858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021146675A Pending JP2023039521A (ja) | 2021-09-09 | 2021-09-09 | 特定方法、特定装置、および、特定システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023039521A (ja) |
-
2021
- 2021-09-09 JP JP2021146675A patent/JP2023039521A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6705777B2 (ja) | 機械学習装置、検査装置及び機械学習方法 | |
CN110570410B (zh) | 一种自动识别检测焊缝缺陷的检测方法 | |
CN107316047A (zh) | 图像处理装置、图像处理方法以及存储介质 | |
CN107315011A (zh) | 图像处理装置、图像处理方法及存储介质 | |
JP2009258968A (ja) | 画像検査装置 | |
JP7214432B2 (ja) | 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法 | |
JP6972047B2 (ja) | 加工条件解析装置、レーザ加工装置、レーザ加工システムおよび加工条件解析方法 | |
EP3358526A1 (en) | System and method for scoring color candidate poses against a color image in a vision system | |
CN111965197B (zh) | 一种基于多特征融合的缺陷分类方法 | |
CN116061006B (zh) | 一种刀具监控方法、装置、设备及介质 | |
US20230062924A1 (en) | Methods and devices for determining a location associated with a gemstone | |
WO2015115499A1 (ja) | 工具検査方法及び工具検査装置 | |
US20220076404A1 (en) | Defect management apparatus, method and non-transitory computer readable medium | |
JP7151426B2 (ja) | 管ガラス検査方法、学習方法及び管ガラス検査装置 | |
JP3699949B2 (ja) | パターン計測方法、このパターン計測方法を用いる半導体装置の製造方法、プログラムおよびコンピュータ読み取り可能な記録媒体、並びにパターン計測装置 | |
JP2023039521A (ja) | 特定方法、特定装置、および、特定システム | |
US11562505B2 (en) | System and method for representing and displaying color accuracy in pattern matching by a vision system | |
CN114945801A (zh) | 图案边缘检测方法、图案边缘检测装置、记录有用于让计算机执行图案边缘检测的程序的记录介质 | |
WO2022065273A1 (ja) | 外観検査のためのモデル作成装置及び外観検査装置 | |
WO2020083676A1 (en) | Predicting correctness of algorithmic segmentation | |
WO2022065272A1 (ja) | 外観検査のためのモデル作成装置及び外観検査装置 | |
Skinner | A geometric morphometric analysis of projectile point maintenance using experimental resharpening techniques: an examination of PFP1 curation, Cooper’s ferry site, Idaho | |
JP2020088263A (ja) | 不良解析装置、不良解析方法、及び不良解析プログラム、並びに教師データ作成装置、教師データ作成方法、及び教師データ作成プログラム | |
CN110825028B (zh) | 三维模型生成装置 | |
JP7188930B2 (ja) | 刻印検査装置、刻印検査方法および物品検査装置 |