JP2024035922A - 表面検査装置 - Google Patents

表面検査装置 Download PDF

Info

Publication number
JP2024035922A
JP2024035922A JP2022140548A JP2022140548A JP2024035922A JP 2024035922 A JP2024035922 A JP 2024035922A JP 2022140548 A JP2022140548 A JP 2022140548A JP 2022140548 A JP2022140548 A JP 2022140548A JP 2024035922 A JP2024035922 A JP 2024035922A
Authority
JP
Japan
Prior art keywords
image
surface inspection
inspection device
likeness
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022140548A
Other languages
English (en)
Inventor
寛之 山本
Hiroyuki Yamamoto
拓 星谷
Hiroshi Hoshitani
良太 藤田
Ryota Fujita
悠真 平田
Yuma Hirata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Shibaura Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Machine Co Ltd filed Critical Shibaura Machine Co Ltd
Priority to JP2022140548A priority Critical patent/JP2024035922A/ja
Publication of JP2024035922A publication Critical patent/JP2024035922A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Machine Tool Sensing Apparatuses (AREA)
  • Milling, Broaching, Filing, Reaming, And Others (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2024035922000001
【課題】被検体の表面状態の定量評価を、検査員による結果のばらつきなく安定して行うことができる表面検査装置を提供する。
【解決手段】被検体の表面の凹凸の分布状態を定量評価する表面検査装置は、被検体の表面の画像を取得する画像取得部と、取得した画像を複数の小領域に分割する領域分割部と、小領域における凹凸状態の凸部らしさおよび凹部らしさを学習した学習モデルに基づいて、小領域の各画素の画素値を、当該画素の凸部らしさまたは凹部らしさを示す数値データに変換する数値化処理部と、を備える。
【選択図】図5

Description

本発明は、例えばきさげ加工等の加工が施された被検体の表面状態の定量評価を行う表面検査装置に関する。
工作機械の摺動面には、平面度の確保、油溜まりの確保を目的としてきさげ加工が施される。きさげ加工とは、スクレーパー等の工具を用いて、鋳物等の表面を平らに仕上げる金属加工法である。きさげ加工によって形成された面はきさげ面と呼ばれる。きさげ面は、平面度、当たり面の割合、単位面積毎の当たりの数が主な評価基準となっている。このうち、当たり面の割合と単位面積毎の当たりの数は、検査員の目視検査で判断されており、属人性が高くなっている。
このような問題を解決するために、例えば、画像分析を用いて、きさげ面を当たり部と非当たり部とに識別した2値画像を生成することによって、きさげ面の品質を定量評価する方法が提案されている(例えば非特許文献1)。
堤博貴、山形敬登、磯部浩巳、福田勝巳:"きさげ面の坪当たり計測のための簡易型画像計測システムの開発"、2013年度精密工学会春季大会学術講演会講演論文集、pp.49-50、2013
非特許文献1のシステムでは、当たり部と非当たり部とを識別した2値画像を生成する際のしきい値の設定が難しく、より安定して定量評価が可能なシステムの実現が求められていた。
本発明は上記に鑑みてなされたものであって、被検体の表面状態の定量評価を、検査員による結果のばらつきなく安定して行うことができる表面検査装置を提供することを目的とする。
上記した課題を解決し、目的を達成するために、本発明に係る表面検査装置は、被検体の表面の凹凸の分布状態を定量評価する表面検査装置であって、前記被検体の表面の画像を取得する画像取得部と、取得した前記画像を複数の小領域に分割する領域分割部と、前記小領域における凹凸状態の凸部らしさおよび凹部らしさを学習した学習モデルに基づいて、前記小領域の各画素の画素値を、当該画素の凸部らしさまたは凹部らしさを示す数値データに変換する数値化処理部と、を備えることを特徴とする。
本発明に係る表面検査装置は、被検体の表面検査を、検査員による結果のばらつきなく安定して行うことができるという効果を奏する。
図1は、実施形態の表面検査装置の概略構成を示す模式図である。 図2は、実施形態の表面検査装置が備える携帯端末のハードウエア構成の一例を示すハードウエアブロック図である。 図3は、表面検査装置が行う画像処理の内容を説明する図である。 図4は、表面検査装置が有する学習モデルの一例を示す図である。 図5は、実施形態の表面検査装置の機能構成の一例を示す機能ブロック図である。 図6は、実施形態の表面検査装置が行う処理の流れの一例を示すフローチャートである。
以下に、本開示に係る表面検査装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能、且つ、容易に想到できるもの、或いは実質的に同一のものが含まれる。
(実施の形態)
本開示の実施の形態は、例えば、きさげ面のように、作業員の手作業で加工された被検体12の表面状態を定量的の評価する表面検査装置10の例である。
(表面検査装置の概略構成)
図1を用いて、表面検査装置10の概略構成を説明する。図1は、実施形態の表面検査装置の概略構成を示す模式図である。
本実施の形態に係る表面検査装置10は、携帯端末18に内蔵されて、カメラ20が撮影した被検体12の表面の画像を画像分析することによって、被検体12の表面状態を定量評価する。
表面検査装置10が内蔵された携帯端末18は、例えばタブレット端末である。携帯端末18は、カメラ20と表示デバイス34とを備える。カメラ20は、携帯端末18の表示デバイス34の裏面側に設置されて、検査員22の操作指示を受けて画像を撮影する。
表示デバイス34は、カメラ20が撮影した画像や、表面検査装置10による評価結果等を表示する。表示デバイス34は、例えば液晶ディスプレイや有機ELディスプレイである。
被検体12は、照明16で照明された状態で、カメラ20で撮影される。照明16は、例えば白熱電球やLED等であるが、例えば直流点灯が可能で、フリッカー(ちらつき)のない状態で連続点灯できるものが望ましい。なお、点灯した際にフリッカーが生じる場合は、カメラ20が、フリッカーを低減した状態で画像入力する機能を有するのが望ましい。
被検体12の近傍には、タグ14が貼付されており、カメラ20は、被検体12とタグ14とが同じ画像に写るように撮影を行う。
タグ14は2次元コードやバーコード等であるが、これらに限定されるものではない。タグ14は、予め決められた形状と大きさを有する。タグ14には、被検体12を一意に特定する識別情報と、検査員22を一意に特定する識別情報とが登録されている。なお、タグ14は、本開示におけるマーカの一例である。
(表面検査装置のハードウエア構成)
図2を用いて、表面検査装置10のハードウエア構成を説明する。図2は、実施形態の表面検査装置が備える携帯端末のハードウエア構成の一例を示すハードウエアブロック図である。
表面検査装置10(携帯端末18)は、各部を制御するための制御部31を備える。制御部31は、CPU(Central Processing Unit)31aと、ROM(Read Only Memory)31bと、RAM(Random Access Memory)31cとを備える。CPU31aは、アドレスバス、データバス等の内部バス33を介して、ROM31bと、RAM31cと接続する。CPU31aは、ROM31bや記憶部32に記憶された各種プログラムや各種データを、RAM31cに展開する。CPU31aは、RAM31cに展開された各種プログラムに従って動作することで、表面検査装置10の各部を制御する。即ち、制御部31は、一般的なコンピュータの構成を有する。
制御部31は、内部バス33を介して、記憶部32と、表示デバイス34と、操作デバイス35と、カメラコントローラ36と、通信コントローラ37と接続する。
記憶部32は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置である。また、記憶部32は、電源を切っても記憶情報が保持されるフラッシュメモリ等の不揮発性メモリであってもよい。記憶部32は、制御プログラム32aと、学習データ32bと、評価データ32cとを記憶する。また、記憶部32は、カメラ20が撮影した入力画像I(x,y)(図3参照)や分割画像J(x,y)(図3参照)等の処理中の画像データを記憶する。
制御プログラム32aは、表面検査装置10の全体の動作を制御するプログラムである。
学習データ32bは、複数の被検体12に対して、当該被検体12の表面を撮影した画像と、被検体12の凸部らしさ、または凹部らしさとの関係を学習した学習モデルを有する。学習モデルは、例えばニューラルネットワークで記述される。詳しくは後述する(図4参照)。
評価データ32cは、被検体12の表面を撮影した画像に対して、学習データ32bを作用させることによって、被検体12の単位面積当たりの凸部の割合や凸部の数を定量化した結果を示すデータである。なお、評価データ32cは、被検体12の単位面積当たりの凹部の割合や凹部の数を定量化したものであってもよい。また、評価データ32cは、タグ14に登録された情報や、いずれも後述する入力画像I(x,y)や、評価結果を示す評価画像K(x,y)や2値画像L(x,y)を含んでもよい。
表示デバイス34は、制御部31の指示によって生成された各種画面を表示する。表示デバイス34は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)等のデバイスで構成される。
操作デバイス35は、操作者の入力操作を取得して制御部31に送信する。操作デバイス35は、例えばタッチパネル等のデバイスで構成される。
カメラコントローラ36は、制御部31からの指令に応じて、カメラ20の動作を制御するコントローラである。
通信コントローラ37は、制御部31からの指令によって、表面検査装置10(携帯端末18)と非図示のサーバ装置等との通信を制御するコントローラである。表面検査装置10(携帯端末18)は、所定のタイミングで、自身が取得した被検体12の評価結果等の情報を、サーバ装置に送信する。サーバ装置は、複数の表面検査装置10から送信された被検体12の評価結果を集約して管理する。
(表面検査装置が行う画像処理)
図3を用いて、表面検査装置10が行う画像処理の内容を説明する。図3は、表面検査装置が行う画像処理の内容を説明する図である。
図3に示す入力画像I(x,y)は、カメラ20が撮影した画像の一例である。入力画像I(x,y)には、被検体12とタグ14とが写っている。なお、被検体12とタグ14とは、予め同じ向きを向くように貼付されているものとする。
表面検査装置10は、検査員22が、画像を撮影する指示を与えたことを検知した際に、カメラ20で入力画像I(x,y)を撮影するが、このとき、タグ14が水平に写っていることを条件として撮影を行う。なお、このとき、更にカメラ20と被検体12との距離を測定して、タグ14が水平に写って、尚且つカメラ20と被検体12との距離が所定の範囲である場合にのみ、入力画像I(x,y)を取得するようにしてもよい。カメラ20と被検体12との距離が所定の範囲であるかは、例えば、入力画像I(x,y)に写るタグ14の大きさによって判断することができる。
このように、入力画像I(x,y)における被検体12の向きを規定するのは、入力画像I(x,y)に写る被検体12の向きが常に同じになるようにして、被検体12の向きの違いによる評価結果のばらつきを防止するためである。
表面検査装置10は、撮影した入力画像I(x,y)に写った被検体12の表面状態を評価するために、まず、入力画像I(x,y)を、所定のサイズに領域分割する。具体的には、表面検査装置10は、入力画像I(x,y)の中から被検体12の領域のみを抽出して、抽出された被検体12の領域を、タグ14と同じサイズに、縦横に分割する。例えば、きさげ面の評価を、縦横1インチの領域を基準に行う場合は、縦横1インチのサイズのタグ14を、被検体の近傍に貼付しておく。なお、入力画像I(x,y)の中から、被検体12の領域のみを抽出する処理は、例えば、被検体12を載置する台の色や明るさを被検体12とは異なる色や明るさにしておくことによって、入力画像I(x,y)の色や明るさを分析することによって行うことができる。また、入力画像I(x,y)の中から、タグ14の領域を抽出する処理は、例えば、一般に広く利用されている2次元コードの読み取りアプリケーションが、2次元コードを読み取る前に、タグ14の領域を特定する処理として行われる。
被検体12の領域をタグ14のサイズに分割することによって、図3に示す分割画像J(x,y)が得られる。分割画像J(x,y)は、例えば、縦128画素、横128画素に標本化されて、各画素8ビット(即ち、画素値は0から255のいずれかの値をとる)に量子化された画像である。なお、分割画像J(x,y)のサイズは一例であって、縦128画素、横128画素に限定されるものではない。
表面検査装置10は、分割画像J(x,y)の注目する画素毎に、当該画素の周辺の複数の画素の画素値の分布状態に基づいて、予め決められた規則に基づいて、後述する特徴マップM(図4参照)を生成する。表面検査装置10は、特徴マップMが有する複数の特徴値を、後述するネットワークN(図4参照)に入力する。ネットワークNは、与えられた複数の分割画像J(x,y)によって、着目する画素の凸部らしさ(当たり部らしさ)、または凹部らしさ(非当たり部らしさ)に対応する数値を出力するように学習されたネットワークである。なお、ネットワークNの構造について、詳しくは後述する。
分割画像J(x,y)の各画素に対してネットワークNを作用させることによって、例えば、図3に示す評価画像K(x,y)が得られる。評価画像K(x,y)は、分割画像J(x,y)と同じサイズの画像であり、ネットワークNが出力した凸部らしさに対応する画素値を有する。ここでは、一例として、凸部らしさは、0.0(最も凸部らしくない)から1.0(最も凸部らしい)の間の値をとるものとする。なお、評価画像K(x,y)は、凹部らしさに対応する画素値を格納する画像であってもよい。その場合、評価画像K(x,y)には、0.0(最も凹部らしくない)から1.0(最も凹部らしい)の間の値が格納される。
表面検査装置10は、評価画像K(x,y)を、所定の閾値で2値化することによって、例えば、凸部、即ち当たり部を黒(画素値0)、凹部、即ち非当たり部を白(画素値255)とする2値画像L(x,y)を生成する。2値化の閾値は任意に設定してよいが、例えば0.5(凸部らしさ、即ち当たり部らしさが50%)に設定される。なお、画素値に0.0から1.0の値が格納されている評価画像K(x,y)を、そのまま2値化してもよいし、評価画像K(x,y)の画素値を0から255の間の値に変換した後で2値化してもよい。また、表面検査装置10は、凸部、即ち当たり部が白(画素値255)、凹部、即ち非当たり部が黒(画素値0)の2値画像L(x,y)を生成してもよい。
このようにして生成された2値画像L(x,y)における、凸部を構成する画素の総画素数を算出することによって、表面検査装置10は、分割画像J(x,y)における凸部(当たり部)の面積割合を算出する。また、表面検査装置10は、凸部の数を算出する。凸部の数は、被検体12の単位面積当たりの当たりの数を表す。そして、表面検査装置10は、被検体12における分割画像J(x,y)の位置を特定する情報(例えば、左からA番目、上からB番目等の位置を特定する情報)と、算出された2値画像L(x,y)と、凸部の面積割合と、凸部の数と、読み取ったタグ14の情報とを関連付けて、評価データ32c(図2参照)に記憶する。なお、評価データ32cは、検査員22の指示を受けて、複数の被検体12の評価結果を管理するサーバ装置に送信される。
表面検査装置10は、全ての分割画像J(x,y)に対して、同様の処理を行う。
(学習モデルの構造)
図4を用いて、表面検査装置10が、分割画像J(x,y)の着目する画素の凸部らしさ、または凹部らしさを算出する学習モデルの構造を説明する。図4は、表面検査装置が有する学習モデルの一例を示す図である。
学習モデルは、ネットワークNによって記述される。ネットワークNは、いわゆるCNN(Convolutional Neural Network)を形成する。ネットワークNは、入力層L1と中間層L2と出力層L3の3層構造のニューラルネットワークを形成する。入力層L1には、分割画像J(x,y)が有する画素値に係る情報が入力される。中間層L2は、入力層L1の複数の出力の積和演算(畳み込み)を行うことによって、入力層L1に入力された値の特徴をより明確にする。出力層L3は、中間層L2の複数の出力に対して、情報圧縮の操作であるプーリング処理(Pooling)を行うことによって、被検体12の凸部らしさ(当たり部らしさ)を表す数値(例えば0から1の間の数値、1が最も凸部らしい)と、凹部らしさ(非当たり部らしさ)を表す数値(例えば0から1の間の数値、1が最も凹部らしい)とを出力する。
ネットワークNの入力層L1と中間層L2とを接続する複数のリンク、および中間層L2と出力層L3とを接続する複数のリンクには、それぞれ異なる重み係数が付与される。重み係数の値は、ネットワークNの学習を繰り返すことによって決定される。学習は、複数の被検体12から取得した分割画像J(x,y)をネットワークNに入力した際に得られる凸部らしさ、凹部らしさについて、学習を行うオペレータが正解を指示することによって行う。このような学習を繰り返し実行することによって、与えられた正解に近い値を出力するように、各リンクに付与される重み係数の値が調整される。このような学習を行うことによって、ネットワークNは、被検体12の表面の明るさの分布を、凸部の領域と凹部の領域とに識別する規則を学習する。そして、ネットワークN(学習モデル)は、被検体12の表面の分割画像J(x,y)と、当該分割画像J(x,y)における凸部と凹部とを識別した結果と、を関連付けることができる。
入力層L1は、複数のノード(ノード60a、ノード60b、…ノード60n)を有する。各ノードには、分割画像J(x,y)の着目している画素およびその近傍の画素の画素値に係る値が入力される。
本実施形態では、分割画像J(x,y)の着目している画素P(a,b)の画素値と、画素P(a,b)の近傍の画素値とから算出した複数の特徴量が、入力層L1に入力されるものとする。より具体的には、図4に示すように、分割画像J(x,y)の画素P(a,b)の画素値と、画素P(a,b)の近傍の画素の画素値とから算出された複数の特徴量が、入力層L1の各ノード(ノード60a、ノード60b、…ノード60n)に入力される。複数の特徴量とは、例えば、分割画像J(x,y)を平滑化した値、分割画像J(x,y)に所定のサイズのカーネルを作用させて、近傍画素の最大値または最小値を算出した結果、分割画像J(x,y)に所定のサイズのカーネルを作用させて算出したエッジ強度等の、画像の局所特徴量である。どのような局所特徴量を用いるかは、被検体12の種類やきさげの特徴等に基づいて、適宜決定すればよい。算出された複数の局所特徴量は、図4に示す特徴マップMを形成する。そして、特徴マップMに格納された、画素P(a,b)における画像の局所特徴量が、それぞれ、ノード60a、ノード60b、…ノード60nに入力される。
中間層L2は、複数のノード(ノード70a、ノード70b、…ノード70m)を有する。中間層L2が有するノードは、いずれも、入力層L1の全てのノードと接続される。
出力層L3は、複数のノード(ノード80a、ノード80b)を有する。出力層L3が有するノードは、いずれも、中間層L2の全てのノードと接続される。ノード80aは、被検体12の凸部らしさを表す数値を出力する。ノード80bは、被検体12の凹部らしさを表す数値を出力する。
なお、図4において、分割画像J(x,y)の画素P(a,b)の画素値と、画素P(a,b)の近傍の画素の画素値とを、直接ノード60a、ノード60b、…ノード60nに入力してもよい。即ち、特徴マップMを生成しなくてもよい。
また、図4において、中間層L2を、更に複数の層に分割して、積和演算を複数回繰り返してもよい。
(表面検査装置の機能構成)
図5を用いて、表面検査装置10の機能構成を説明する。図5は、実施形態の表面検査装置の機能構成の一例を示す機能ブロック図である。
表面検査装置10の制御部31は、制御プログラム32aをRAM31cに展開して動作させることによって、図5に示す画像取得部51と、マーカ抽出部52と、領域分割部53と、数値化処理部54と、2値化処理部55と、評価結果出力部56と、表示制御部57と、操作制御部58と、通信制御部59とを機能部として実現する。なお、これらの機能の一部または全ては、専用ハードウエアによって実現されてもよい。
画像取得部51は、被検体12の表面の画像(図3の入力画像I(x,y))を取得する。また、画像取得部51は、被検体12の近傍に貼付されたタグ14が所定の向きに写っていることを条件として、被検体12の表面の画像を取得する。
マーカ抽出部52は、入力画像I(x,y)の中から、被検体12の近傍に貼付されたタグ14を抽出する。また、マーカ抽出部52は、抽出されたタグ14に登録されている各種情報を読み取る。更に、マーカ抽出部52は、抽出されたタグ14の向きが正しいか、即ち、タグ14が水平に写っているかを判定する。
領域分割部53は、取得した入力画像I(x,y)を複数の小領域に分割する。なお、領域分割部53は、入力画像I(x,y)を、当該入力画像I(x,y)から抽出されたタグ14と同じ大きさの複数の小領域に分割する。また、領域分割部53は、分割された複数の小領域を、それぞれ128×128画素等の予め設定された所定のサイズにスケーリング(リサイズ)することによって、分割画像J(x,y)を生成する。
数値化処理部54は、入力画像I(x,y)を分割した小領域における凹凸状態の凸部らしさおよび凹部らしさを学習したネットワークN(学習モデル)に基づいて、小領域の各画素の画素値を、当該画素の凸部らしさまたは凹部らしさを示す数値データに変換する。これによって、評価画像K(x,y)が得られる。
2値化処理部55は、数値化処理部54によって変換された数値データを、所定の凸部らしさまたは凹部らしさを表す数値で2値化することによって、凸部および凹部の位置を特定する。また、2値化処理部55は、2値化処理の結果に基づいて、凸部の割合、凸部の数等を算出する。
評価結果出力部56は、数値化処理部54によって生成された評価画像K(x,y)や、2値化処理部55によって生成された2値画像L(x,y)や、凸部の割合、凸部の数等を表示デバイス34に出力する。また、評価結果出力部56は、これらの画像や数値を、評価データ32cとして記憶部32に記憶する。
表示制御部57は、制御部31に対して、表面検査装置10(携帯端末18)が備える表示デバイス34に出力する各種表示情報を生成させる。
操作制御部58は、表面検査装置10(携帯端末18)が備える操作デバイス35の操作情報を取得する。また、操作制御部58は、制御部31に対して、操作デバイス35の操作情報に対応する制御を行わせる。
通信制御部59は、表面検査装置10(携帯端末18)とサーバ装置との間の通信を制御する。
(表面検査装置が行う処理の流れ)
図6を用いて、表面検査装置10が行う処理の流れを説明する。図6は、実施形態の表面検査装置が行う処理の流れの一例を示すフローチャートである。
画像取得部51は、被検体12の画像を撮影する(ステップS11)。
マーカ抽出部52は、撮影された入力画像I(x,y)の中からタグ14を抽出する(ステップS12)。なお、このとき、マーカ抽出部52は、タグ14に登録されている情報を読み取る。
マーカ抽出部52は、抽出されたタグ14の向きが正しいか、即ち、タグ14が水平に写っているかを判定する(ステップS13)。抽出されたタグ14の向きが正しいと判定される(ステップS13:Yes)とステップS14に進む。一方、抽出されたタグ14の向きが正しいと判定されない(ステップS13:No)とステップS11に戻って、再度被検体12の撮影を行う。
ステップS13において、抽出されたタグ14の向きが正しいと判定されると、画像取得部51は、撮影した入力画像I(x,y)を、例えば記憶部32に記憶する(ステップS14)。
領域分割部53は、入力画像I(x,y)を、当該入力画像I(x,y)から抽出されたタグ14と同じ大きさの複数の小領域に分割する(ステップS15)。
更に、領域分割部53は、ステップS15で分割された小領域に対して、所定のスケーリングを行う(ステップS16)。スケーリングによって、例えば128×128画素等の予め設定されたサイズの分割画像J(x,y)が得られる。
数値化処理部54は、分割画像J(x,y)の各画素に対して、凸部らしさまたは凹部らしさを算出する(ステップS17)。ステップS17の処理によって、分割画像J(x,y)から評価画像K(x,y)が生成される。
2値化処理部55は、数値化処理部54が生成した評価画像K(x,y)から、例えば凸部を黒、凹部を白とする2値画像L(x,y)を生成する(ステップS18)。
評価結果出力部56は、例えば、ステップS18で生成された2値画像L(x,y)と、当該2値画像L(x,y)における凸部の割合、凸部の数等を表示デバイス34に出力する(ステップS19)。なお、フローチャートには記載しないが、出力された情報は、適宜、評価データ32cに記憶される。
評価結果出力部56は、全ての分割画像J(x,y)を処理したかを判定する(ステップS20)。全ての分割画像J(x,y)を処理したと判定される(ステップS20:Yes)と、表面検査装置10は、図6の処理を終了する。一方、全ての分割画像J(x,y)を処理したと判定されない(ステップS20:No)と、ステップS16に戻って、次の分割画像J(x,y)の処理を行う。
(実施の形態の変形例)
前述した実施の形態にあっては、画像取得部51が取得した被検体12の画像に写っているタグ14の向きが正しい(水平に写っている)場合にのみ、図6に示すステップS14以降の処理を実行する形態とした。
この部分は、タグ14の向きが水平でない場合に、取得した入力画像I(x,y)を回転させて、タグ14が水平に写るように補正した後で、向きを補正した画像に対して、図6に示すステップS14以降の処理を行うようにしてもよい。これによって、表面検査装置10(携帯端末18)の向きを変えて、被検体12の画像を何度も撮影する手間を省くことができる。
(本実施形態の作用効果)
以上説明したように、本実施形態の表面検査装置10は、被検体12の表面の凹凸の分布状態を定量評価するものであって、被検体12の表面の画像を取得する画像取得部51と、取得した画像を複数の小領域に分割する領域分割部53と、小領域における凹凸状態の凸部らしさおよび凹部らしさを学習したネットワークN(学習モデル)に基づいて、小領域の各画素の画素値を、当該画素の凸部らしさまたは凹部らしさを示す数値データに変換する数値化処理部54と、を備える。したがって、被検体12の表面状態の定量評価を、検査員による結果のばらつきなく行うことができる。
また、本実施形態の表面検査装置10は、数値化処理部54によって変換された数値データを、所定の凸部らしさまたは凹部らしさを表す数値で2値化することによって、凸部および凹部の位置を特定する2値化処理部55を更に備える。したがって、検査員による、評価結果の妥当性の目視確認がしやすい情報を得ることができる。
また、本実施形態の表面検査装置10において、画像取得部51は、被検体12の近傍に貼付されたタグ14(マーカ)が所定の向きに写っていることを条件として、被検体12の表面の画像を取得する。したがって、被検体12を常に同じ向きで画像化することができるため、被検体12の表面状態の評価を同一条件で行うことができる。
また、本実施形態の表面検査装置10において、領域分割部53は、画像を、タグ14の大きさの小領域に分割する。したがって、異なる被検体12に対して、分割画像のサイズを常に一定に揃えることができる。
また、本実施形態の本実施形態の表面検査装置10において、ネットワークN(学習モデル)は、被検体12の表面の画像と、当該画像における凸部と凹部とを識別した結果と、を関連付けることによって、被検体12の表面の明るさの分布を、凸部の領域と凹部の領域とに識別する規則を学習したモデルである。したがって、検査員による評価結果の変動を防止することができる。
また、本実施形態の表面検査装置10において、ネットワークN(学習モデル)はニューラルネットワークで記述される。したがって、事前に学習を行うことによって、高い信頼性で被検体12の表面状態を評価することができる。
また、本実施形態の表面検査装置10において、被検体12は、表面にきさげ加工が施されている。したがって、表面検査装置10は、被検体12の表面のきさげ加工の品質を定量評価することができる。
なお、本実施形態では、表面検査装置10が、きさげ加工が施された被検体12の表面状態を評価する例を説明した。しかし、表面検査装置10の適用範囲はこれに限定されない。即ち、本実施形態の表面検査装置10は、きさげ加工以外の加工が施された被検体12の表面状態の評価にも適用することができる。
また、本実施形態では、ネットワークNによって、被検体12の凸部らしさと、凹部らしさとを評価したが、ネットワークNによって、被検体12の凸部らしさと、凹部らしさと、被検体12以外の領域らしさとを評価してもよい。これによって、被検体12の領域のみを抽出する処理を省略することができる。
具体的には、図4で説明したネットワークNを、出力層L3が3つのノードを有するように修正する。そして、出力層L3は、凸部らしさ(1,0,0)、凹部らしさ(0,1,0)、被検体12以外の領域(0,0,1)の3種類の情報を出力するものとする。これによって、修正されたネットワークNは、被検体12以外の領域であることを認識できるため、被検体12以外の領域を評価結果から除外することができる。
以上、本発明の実施形態について説明したが、上述した実施形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能である。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、この実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 表面検査装置
12 被検体
14 タグ(マーカ)
16 照明
18 携帯端末
20 カメラ
22 検査員
32b 学習データ
32c 評価データ
51 画像取得部
52 マーカ抽出部
53 領域分割部
54 数値化処理部
55 2値化処理部
56 評価結果出力部
I(x,y) 入力画像(画像)
J(x,y) 分割画像
K(x,y) 評価画像
L(x,y) 2値画像
M 特徴マップ
N ネットワーク(学習モデル)

Claims (7)

  1. 被検体の表面の凹凸の分布状態を定量評価する表面検査装置であって、
    前記被検体の表面の画像を取得する画像取得部と、
    取得した前記画像を複数の小領域に分割する領域分割部と、
    前記小領域における凹凸状態の凸部らしさおよび凹部らしさを学習した学習モデルに基づいて、前記小領域の各画素の画素値を、当該画素の凸部らしさまたは凹部らしさを示す数値データに変換する数値化処理部と、
    を備える表面検査装置。
  2. 前記数値化処理部によって変換された前記数値データを、所定の凸部らしさまたは凹部らしさを表す数値で2値化することによって、凸部および凹部の位置を特定する2値化処理部を更に備える、
    請求項1に記載の表面検査装置。
  3. 前記画像取得部は、前記被検体の近傍に貼付されたマーカが所定の向きに写っていることを条件として、当該被検体の表面の画像を取得する、
    請求項1または2に記載の表面検査装置。
  4. 前記領域分割部は、前記画像を、前記マーカの大きさの小領域に分割する、
    請求項3に記載の表面検査装置。
  5. 前記学習モデルは、
    前記被検体の表面の画像と、当該画像における凸部と凹部とを識別した結果と、を関連付けることによって、前記被検体の表面の明るさの分布を、凸部の領域と凹部の領域とに識別する規則を学習したモデルである、
    請求項1または請求項2に記載の表面検査装置。
  6. 前記学習モデルはニューラルネットワークで記述される、
    請求項5に記載の表面検査装置。
  7. 前記被検体は、表面にきさげ加工が施されている、
    請求項1または請求項2に記載の表面検査装置。
JP2022140548A 2022-09-05 2022-09-05 表面検査装置 Pending JP2024035922A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022140548A JP2024035922A (ja) 2022-09-05 2022-09-05 表面検査装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022140548A JP2024035922A (ja) 2022-09-05 2022-09-05 表面検査装置

Publications (1)

Publication Number Publication Date
JP2024035922A true JP2024035922A (ja) 2024-03-15

Family

ID=90198189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022140548A Pending JP2024035922A (ja) 2022-09-05 2022-09-05 表面検査装置

Country Status (1)

Country Link
JP (1) JP2024035922A (ja)

Similar Documents

Publication Publication Date Title
Tran et al. A two-step sequential automated crack detection and severity classification process for asphalt pavements
JP5385593B2 (ja) ひび割れ検出方法
CN106920245B (zh) 一种边界检测的方法及装置
JP6811217B2 (ja) コンクリート表面上のひび割れ特定方法、ひび割れ特定装置、ひび割れ特定システム及びプログラム
JP5852919B2 (ja) ひび割れ検出方法
CN113167742B (zh) 混凝土构造物的点检辅助装置、点检辅助方法及记录介质
TWI743837B (zh) 訓練資料增量方法、電子裝置與電腦可讀取記錄媒體
Qu et al. Concrete surface crack detection with the improved pre-extraction and the second percolation processing methods
JP5705711B2 (ja) ひび割れ検出方法
JP4870016B2 (ja) ひび割れ検出方法
US20230342907A1 (en) Image analysis apparatus, image analysis method, and program
JP7298176B2 (ja) 欠点検査装置および学習済みモデル
JP2024035922A (ja) 表面検査装置
CN107610101B (zh) 一种测量数字图像视觉平衡质量的方法
JP2005252451A (ja) 画質検査方法及び画質検査装置
JP7449739B2 (ja) 検査システム、学習装置、学習プログラム、学習方法、検査装置、検査プログラム、検査方法
Prasetio et al. Design of Defect Classification on Clay Tiles using Support Vector Machine (SVM)
JP4980739B2 (ja) ひび割れ検出方法
JP2018077719A (ja) 破面解析装置および破面解析方法
JP2011232302A (ja) 画像検査方法及び画像検査装置
CN111179226A (zh) 视野图的识别方法、装置及计算机存储介质
JP2021064215A (ja) 表面性状検査装置及び表面性状検査方法
JP7023425B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
WO2021192627A1 (ja) 検査システム、学習装置、学習プログラム、学習方法、検査装置、検査プログラム、検査方法
JP6961319B2 (ja) 評価方法及び評価装置