JP2021064215A - Surface property inspection device and surface property inspection method - Google Patents

Surface property inspection device and surface property inspection method Download PDF

Info

Publication number
JP2021064215A
JP2021064215A JP2019188896A JP2019188896A JP2021064215A JP 2021064215 A JP2021064215 A JP 2021064215A JP 2019188896 A JP2019188896 A JP 2019188896A JP 2019188896 A JP2019188896 A JP 2019188896A JP 2021064215 A JP2021064215 A JP 2021064215A
Authority
JP
Japan
Prior art keywords
defect
candidate region
certainty
defect candidate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019188896A
Other languages
Japanese (ja)
Other versions
JP7356010B2 (en
Inventor
梅村 純
Jun Umemura
純 梅村
厚裕 日比
Atsuhiro Hibi
厚裕 日比
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2019188896A priority Critical patent/JP7356010B2/en
Publication of JP2021064215A publication Critical patent/JP2021064215A/en
Application granted granted Critical
Publication of JP7356010B2 publication Critical patent/JP7356010B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a surface property inspection device and a surface property inspection method for inspecting the surface property of an object with higher accuracy than before.SOLUTION: A surface property inspection device uses a model 141 learned by deep learning to calculate the certainty factor of each defect seed on a pixel-by-pixel basis from a captured image Icam that images the surface of an object, generates a certainty factor map image Imap_i with the certainty factor as a pixel value for each defect seed, performs labeling to extract a defect candidate area blob_j based on the pixel value of the certainty factor map image for each defect seed, calculates, as feature quantities, geometric features of the defect candidate area blob_j, statistic of the pixel value of the captured image Icam in the defect candidate area blob_j, and statistic of the certainty factor in the defect candidate area blob_j, and determines, from the calculated feature quantities, the defect seed on the surface of the object and the score for each defect seed.SELECTED DRAWING: Figure 3

Description

本発明は、対象物の表面性状を光学的に検査する表面性状検査装置及び表面性状検査方法に関する。 The present invention relates to a surface property inspection device and a surface property inspection method for optically inspecting the surface properties of an object.

従来から、対象物の表面に生じた、凹凸、疵、色ムラ異常、粗度の異常といった表面性状に関する種々の欠陥を検出する技術がよく知られている(例えば、特許文献1、特許文献2及び特許文献3参照)。近年、鋼板品質の向上にともない、鋼板の表面に存在する欠陥に対する要求が厳しくなってきており、要求を満たす鋼板を安定して出荷するために、鋼板表面を撮像装置で撮像し、撮像画像から自動的に欠陥を検出する検査装置について、検出精度の向上が望まれている。 Conventionally, techniques for detecting various defects related to surface properties such as irregularities, flaws, color unevenness abnormalities, and roughness abnormalities generated on the surface of an object are well known (for example, Patent Document 1 and Patent Document 2). And Patent Document 3). In recent years, with the improvement of steel sheet quality, the demand for defects existing on the surface of the steel sheet has become stricter, and in order to stably ship the steel sheet satisfying the demand, the surface of the steel sheet is imaged with an imaging device and the captured image is used. It is desired to improve the detection accuracy of an inspection device that automatically detects defects.

鋼板等の対象物の表面性状の従来の検査は、図1に示すフローに従って行うのが一般的である。まず、対象物の表面を撮像した撮像画像を閾値処理により二値化する(ステップS1)。次いで、二値化によって得られた各領域をラベリングして画素の集合体(ブロブ)として認識し、そのブロブを、それぞれ、対象物の表面上で欠陥が占める領域である欠陥候補領域として抽出する(ステップS3)。そして、抽出された欠陥候補領域について、面積等の幾何学的特徴や、画素値の統計量を特徴量として算出する(ステップS5)。次いで、算出した特徴量から、対象物に生じ得る欠陥の種類である欠陥種、及び、欠陥種毎の評点(例えば、欠陥の重篤度のランク欠陥の重篤度を示す点数)を判定する(ステップS7)。 Conventional inspection of the surface texture of an object such as a steel plate is generally performed according to the flow shown in FIG. First, the captured image obtained by capturing the surface of the object is binarized by threshold processing (step S1). Next, each region obtained by binarization is labeled and recognized as an aggregate of pixels (blobs), and the blobs are extracted as defect candidate regions, which are regions occupied by defects on the surface of the object. (Step S3). Then, for the extracted defect candidate region, geometric features such as area and statistics of pixel values are calculated as feature quantities (step S5). Next, from the calculated features, the defect type, which is a type of defect that can occur in the object, and the score for each defect type (for example, the score indicating the severity of the defect) are determined. (Step S7).

特開平5−164701号公報Japanese Unexamined Patent Publication No. 5-164701 特開平11−45328号公報Japanese Unexamined Patent Publication No. 11-45328 特許第2535257号公報Japanese Patent No. 2535257

図1に示す従来の欠陥判定フローでは、輪郭が明瞭な欠陥や一定の大きさの欠陥などは検出可能であるが、撮像画像内に非常に薄くしか映らない欠陥や不定形の欠陥を検出することは難しい。 In the conventional defect determination flow shown in FIG. 1, a defect having a clear outline or a defect having a certain size can be detected, but a defect that appears only very thinly in the captured image or an irregular defect is detected. It's difficult.

例えば、撮像画像内に非常に薄くしか映らない欠陥を検出するためには、ステップS1の閾値処理において、閾値を低く設定することが考えられるが、その場合には、ノイズや模様といった欠陥以外の領域を大量に検出してしまうことになり、欠陥ではない領域が欠陥として検出される過検出が大量発生するおそれがある。また、有害な欠陥が、ノイズや模様と一体となった欠陥候補として抽出されることで、ステップS7の判定ロジックで設定した有害な欠陥の特徴量分布とは異なる特徴量を有することにより、有害な欠陥が見逃されるという未検出が発生するおそれがある。 For example, in order to detect a defect that appears only very faintly in the captured image, it is conceivable to set the threshold value low in the threshold processing in step S1, but in that case, other than defects such as noise and patterns. A large amount of regions will be detected, and there is a risk that a large number of overdetections will occur in which regions that are not defects are detected as defects. Further, since harmful defects are extracted as defect candidates integrated with noise and patterns, they have a characteristic amount different from the characteristic amount distribution of harmful defects set in the determination logic in step S7, which is harmful. There is a risk that undetected defects will be overlooked.

また、不定形の欠陥については、面積、形状等の幾何学的特徴が一定ではないため、特徴量空間において、欠陥の特徴量として通常想定される範囲に比べ、より広い範囲にわたって分布したり、他の欠陥種の領域と重なったりすることがある。そのため、ステップS7の判定ロジックの設定が難しく、未検出や過検出が発生しやすいという課題が生じる。 In addition, since geometric features such as area and shape of amorphous defects are not constant, they may be distributed over a wider range in the feature space than the range normally assumed as the feature of defects. It may overlap with the area of other defect species. Therefore, it is difficult to set the determination logic in step S7, and there arises a problem that undetection or overdetection is likely to occur.

本発明は上記課題に鑑みてなされたものであり、対象物の表面性状を従来よりも高精度に検査する表面性状検査装置及び表面性状検査方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a surface property inspection device and a surface property inspection method for inspecting the surface properties of an object with higher accuracy than before.

本発明の実施形態に係る表面性状検査装置は、深層学習による学習済みモデルを用いて、対象物の表面を撮像した撮像画像から画素単位又は領域単位で欠陥種毎の確信度を算出して、前記確信度を画素値とした確信度マップ画像を前記欠陥種毎に生成する深層学習判定処理部と、前記欠陥種毎の前記確信度マップ画像の画素値に基づいて、ラベリングを行い欠陥候補領域を抽出するラベリング部と、前記欠陥候補領域の幾何学的特徴と、前記欠陥候補領域における前記撮像画像の画素値の統計量と、前記欠陥候補領域における前記確信度の統計量との少なくともいずれか一つを特徴量として算出する特徴量算出部と、を備える。 The surface property inspection apparatus according to the embodiment of the present invention uses a trained model by deep learning to calculate the certainty of each defect type from the captured image obtained by capturing the surface of the object in pixel units or region units. Based on the deep learning determination processing unit that generates a certainty map image with the certainty as a pixel value for each defect type and the pixel value of the certainty map image for each defect type, labeling is performed to perform a defect candidate region. At least one of a labeling unit for extracting a defect, a geometric feature of the defect candidate region, a statistic of the pixel value of the captured image in the defect candidate region, and a statistic of the certainty in the defect candidate region. It is provided with a feature amount calculation unit that calculates one as a feature amount.

本発明の実施形態に係る表面性状検査方法は、深層学習による学習済みモデルを用いて、対象物の表面を撮像した撮像画像から画素単位又は領域単位で欠陥種毎の確信度を算出して、前記確信度を画素値とした確信度マップ画像を前記欠陥種毎に生成する深層学習判定処理ステップと、前記欠陥種毎の前記確信度マップ画像の画素値に基づいて、ラベリングを行い欠陥候補領域を抽出するラベリングステップと、前記欠陥候補領域の幾何学的特徴と、前記欠陥候補領域における前記撮像画像の画素値の統計量と、前記欠陥候補領域における前記確信度の統計量との少なくともいずれか一つを特徴量として算出する特徴量算出ステップと、を備える。 In the surface property inspection method according to the embodiment of the present invention, the certainty of each defect type is calculated for each pixel or region from the captured image obtained by capturing the surface of the object by using the trained model by deep learning. Based on the deep learning determination processing step of generating a certainty map image with the certainty as a pixel value for each defect type and the pixel value of the certainty map image for each defect type, labeling is performed to perform a defect candidate region. At least one of a labeling step for extracting a defect, a geometric feature of the defect candidate region, a statistic of the pixel value of the captured image in the defect candidate region, and a statistic of the certainty in the defect candidate region. It includes a feature amount calculation step of calculating one as a feature amount.

本発明によれば、深層学習による学習済みモデルを用いて、対象物の表面を撮像した撮像画像から画素単位又は領域単位で欠陥種毎の確信度を算出して、確信度マップ画像を欠陥種毎に生成し、確信度マップ画像から特徴量を算出することにより、従来よりも対象物の表面の欠陥の検出精度を向上させることができる。 According to the present invention, using a trained model by deep learning, the certainty of each defect type is calculated from the captured image of the surface of the object in pixel units or region units, and the certainty map image is used as the defect type. By generating each feature and calculating the feature amount from the certainty map image, it is possible to improve the detection accuracy of defects on the surface of the object as compared with the conventional case.

従来の表面性状検査方法のフローを示す図である。It is a figure which shows the flow of the conventional surface property inspection method. 本発明の第1〜第3実施形態に係る表面性状検査装置のハードウェア構成の模式図である。It is a schematic diagram of the hardware structure of the surface property inspection apparatus which concerns on 1st to 3rd Embodiment of this invention. 第1実施形態に係る表面性状検査方法のフローを示す図である。It is a figure which shows the flow of the surface property inspection method which concerns on 1st Embodiment. 対象物の表面の撮像画像の一例を示す模式図である。It is a schematic diagram which shows an example of the captured image of the surface of an object. 撮像画像内の注目画素とその近傍領域を示す模式図である。It is a schematic diagram which shows a pixel of interest in a captured image and a region around it. 深層学習判定処理により得られる欠陥種別の確信度マップ画像の一例を示す模式図である。It is a schematic diagram which shows an example of the certainty degree map image of the defect type obtained by the deep learning determination process. 第2実施形態に係る表面性状検査方法のフローを示す図である。It is a figure which shows the flow of the surface property inspection method which concerns on 2nd Embodiment. 第3実施形態に係る表面性状検査方法のフローを示す図である。It is a figure which shows the flow of the surface property inspection method which concerns on 3rd Embodiment.

以下、図面を参照して本発明の実施形態を説明する。以下の各実施形態では、同一又は同様の構成には同一の符号を用い、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each of the following embodiments, the same reference numerals are used for the same or similar configurations, and duplicate description will be omitted.

<第1実施形態>
まず、第1実施形態に係る表面性状検査装置100の構成について説明する。図2は、表面性状検査装置100のハードウェア構成を模式的に示す図である。表面性状検査装置100は、鋼板等の対象物の表面性状を光学的に検査する装置であり、図2に示すように、撮像装置11と、プロセッサ12と、表示部13と、記憶部14と、を備える。
<First Embodiment>
First, the configuration of the surface property inspection device 100 according to the first embodiment will be described. FIG. 2 is a diagram schematically showing a hardware configuration of the surface property inspection device 100. The surface property inspection device 100 is a device that optically inspects the surface properties of an object such as a steel plate, and as shown in FIG. 2, includes an image pickup device 11, a processor 12, a display unit 13, and a storage unit 14. , Equipped with.

撮像装置11は、レンズ等の光学素子と、Charge Coupled Device(CCD)又はComplementary Metal Oxide Semiconductor(CMOS)等の撮像素子と、を有する。ここで、撮像装置11は、グレー画像を撮像可能なものであってもよいし、カラー画像を撮像可能なものであってもよい。撮像装置11はA/Dコンバータを備えており、撮像素子から出力されたアナログ信号をデジタル信号に変換し、撮像装置11で撮像されて得られた撮像画像を構成する信号として、当該デジタル信号をプロセッサ12に出力する。 The image pickup device 11 includes an optical element such as a lens and an image pickup device such as a Charge Coupled Device (CCD) or a Complementary Metal Oxide Semiconductor (CMOS). Here, the image pickup apparatus 11 may be capable of capturing a gray image or may be capable of capturing a color image. The image pickup device 11 includes an A / D converter, converts an analog signal output from the image pickup device into a digital signal, and uses the digital signal as a signal constituting the captured image obtained by the image pickup device 11. Output to processor 12.

プロセッサ12は、Central Processing Unit(CPU)を有し、表面性状検査装置100を構成する各要素を統括的に制御する。また、プロセッサ12は、記憶部14に記憶されたプログラムに従って表面性状検査方法(図3)を実行する。 The processor 12 has a Central Processing Unit (CPU) and controls each element constituting the surface texture inspection device 100 in an integrated manner. Further, the processor 12 executes the surface texture inspection method (FIG. 3) according to the program stored in the storage unit 14.

具体的には、プロセッサ12は、記憶部14に格納された深層学習による学習済みモデル141を用いて、撮像装置11により対象物の表面を撮像した撮像画像から画素単位で欠陥種毎の確信度を算出して、確信度を画素値とした確信度マップ画像を欠陥種毎に生成する深層学習判定処理部と、欠陥種毎に確信度マップ画像の各画素を画素値に基づいて、ラベリングを行い欠陥候補領域を抽出するラベリング部と、欠陥候補領域の幾何学的特徴を特徴量として算出する特徴量算出部と、特徴量から対象物の表面の欠陥種及び欠陥種毎の評点を判定する判定部として機能する。プロセッサ12により実行される表面性状検査方法(図3)については、後で詳細に説明する。 Specifically, the processor 12 uses the trained model 141 by deep learning stored in the storage unit 14 to capture the surface of the object by the imaging device 11, and the degree of certainty for each defect type on a pixel-by-pixel basis. A deep learning judgment processing unit that calculates and generates a certainty map image with the certainty as a pixel value for each defect type, and labeling each pixel of the certainty map image for each defect type based on the pixel value. A labeling unit that extracts defect candidate regions, a feature amount calculation unit that calculates geometric features of defect candidate regions as feature quantities, and a feature quantity that determines the defect type on the surface of the object and the score for each defect type. Functions as a judgment unit. The surface texture inspection method (FIG. 3) executed by the processor 12 will be described in detail later.

なお、特徴量算出部は、欠陥候補領域の幾何学的特徴だけを特徴量とするだけでなく、欠陥候補領域の幾何学的特徴と、欠陥候補領域における撮像画像の画素値の統計量と、欠陥候補領域における確信度の統計量との少なくとも何れか一つを特徴量とすることができる。また、判定部の機能を、プロセッサ12に含めることなく、表面性状検査装置100に接続された他の検査装置等に設けるようにすることもできる。 It should be noted that the feature amount calculation unit not only uses the geometrical features of the defect candidate region as the feature amount, but also the geometrical features of the defect candidate region, the statistic of the pixel value of the captured image in the defect candidate region, and the statistics. At least one of the statistic of the certainty in the defect candidate region can be used as the feature quantity. Further, the function of the determination unit may be provided in another inspection device or the like connected to the surface property inspection device 100 without including the function of the determination unit in the processor 12.

表示部13は、液晶ディスプレイ(LCD)、プラズマディスプレイ、又は有機エレクトロ・ルミネッセンス(EL)ディスプレイ等のディスプレイを備え、プロセッサ12による処理結果を表示する。 The display unit 13 includes a display such as a liquid crystal display (LCD), a plasma display, or an organic electroluminescence (EL) display, and displays the processing result by the processor 12.

記憶部14は、Read Only Memory(ROM)及びRandom Access Memory(RAM)を有する。ROMは、プロセッサ12によって表面性状検査方法(図3等)を実行するための表面性状検査処理プログラム等の各種プログラムやこれらのプログラムの実行時に必要なデータを格納する。ROMに格納された各種プログラムやデータはRAMにロードされて実行される。 The storage unit 14 has a Read Only Memory (ROM) and a Random Access Memory (RAM). The ROM stores various programs such as a surface texture inspection processing program for executing the surface texture inspection method (FIG. 3 and the like) by the processor 12 and data necessary for executing these programs. Various programs and data stored in the ROM are loaded into the RAM and executed.

記憶部14は、表面性状検査処理プログラムの実行時に必要なデータとして、深層学習による学習済みモデル141を格納している。学習済みモデル141は、対象物の表面の様々な欠陥を撮像した撮像画像データに対して、予め、検査員が目視検査する等といった別途の検査を行ったうえで、当該欠陥の欠陥種として、検査の判定結果として妥当と思われる欠陥種のラベルを、画素単位又は領域単位に付与して得られた大量の学習データを、ディープニューラルネットワーク(DNN)に学習させることで得られる。 The storage unit 14 stores the trained model 141 by deep learning as data necessary when executing the surface texture inspection processing program. The trained model 141 is used as a defect type of the defect after performing a separate inspection such as a visual inspection by an inspector in advance on the captured image data obtained by imaging various defects on the surface of the object. It is obtained by causing a deep neural network (DNN) to learn a large amount of training data obtained by assigning a label of a defect type that is considered to be appropriate as a judgment result of the inspection to each pixel or region.

なお、記憶部14は、ハードディスクドライブ(HDD)等の磁気メモリ、又は光ディスク等の光メモリを備えるようにしてもよい。あるいは、表面性状検査装置100に着脱可能な記録媒体に各種プログラムやデータを格納するようにしてもよい。 The storage unit 14 may include a magnetic memory such as a hard disk drive (HDD) or an optical memory such as an optical disk. Alternatively, various programs and data may be stored in a recording medium that can be attached to and detached from the surface property inspection device 100.

なお、プロセッサ12は、CPU等の汎用ハードウェアの代わりに、プロセッサ12の各機能に特化した専用ハードウェアにより構成されていてもよい。例えば、上述の深層学習判定処理部、ラベリング部、特徴量算出部、及び判定部の各機能を特定用途向け集積回路(ASIC)に実装してもよい。以下の第2実施形態及び第3実施形態に係るプロセッサ12についても同様である。 The processor 12 may be configured by dedicated hardware specialized for each function of the processor 12 instead of general-purpose hardware such as a CPU. For example, the above-mentioned functions of the deep learning determination processing unit, the labeling unit, the feature amount calculation unit, and the determination unit may be implemented in an integrated circuit (ASIC) for a specific application. The same applies to the processor 12 according to the following second and third embodiments.

次に、図3〜図6を参照して、表面性状検査装置100により実行される表面性状検査処理を説明する。 Next, the surface property inspection process executed by the surface property inspection device 100 will be described with reference to FIGS. 3 to 6.

プロセッサ12は、まず、記憶部14に格納された深層学習による学習済みモデル141を用いて、撮像装置11により対象物の表面を撮像して得られた撮像画像Icam(グレー画像)から画素単位で欠陥種の確信度を算出して、確信度を画素値とした確信度マップ画像Imap_iを欠陥種毎に生成する(ステップS11)。ここで“i”は、欠陥種を表すインデックスであり、正の整数である。 First, the processor 12 uses the trained model 141 by deep learning stored in the storage unit 14 to image the surface of the object by the image pickup device 11, and obtains the captured image Icam (gray image) in pixel units. The certainty of the defect type is calculated, and the certainty map image Imap_i with the certainty as the pixel value is generated for each defect type (step S11). Here, "i" is an index representing a defect type and is a positive integer.

図4に、対象物の表面を撮像した撮像画像Icam(グレー画像)の一例を示す。ステップS11では、図5に示すように、学習済みモデル141を用いて、撮像画像Icam内の注目画素60を中心とした近傍領域61の各画素の輝度値に基づいて、注目画素60に存在する欠陥について、欠陥種毎に確信度が算出される。近傍領域61の幅W及び高さHは、検出対象となる欠陥の大きさによって決定され、深層学習モデルのネットワーク構造によって表される。画素pでの欠陥種iの確信度Imap_i(p)は式(1)のように与えられる。

Figure 2021064215
ここで、DNN(i, Icam(q|q∈R(p)))は、撮像画像Icamの画素pが、欠陥種i(i=1、2、…N)である確信度を与える深層学習モデルであり、R(p)は、画素p(注目画素60)の近傍領域61を与える関数であり、qは関数R(p)によって規定された近傍領域61内の画素である。撮像画像Icam内の各画素pについて、式(1)により確信度Imap_i(p)を求めることにより、確信度マップ画像Imap_iが生成される。 FIG. 4 shows an example of a captured image Icam (gray image) obtained by capturing the surface of an object. In step S11, as shown in FIG. 5, the trained model 141 is used and exists in the attention pixel 60 based on the brightness value of each pixel in the vicinity region 61 centered on the attention pixel 60 in the captured image Icam. For defects, the certainty is calculated for each defect type. The width W and height H of the neighboring region 61 are determined by the size of the defect to be detected, and are represented by the network structure of the deep learning model. The certainty Imap_i (p) of the defect type i in the pixel p is given by Eq. (1).
Figure 2021064215
Here, DNN (i, Icam (q | q ∈ R (p))) is a deep learning that gives the certainty that the pixel p of the captured image Icam is the defect type i (i = 1, 2, ... N). In the model, R (p) is a function that gives a neighborhood region 61 of the pixel p (pixel of interest 60), and q is a pixel in the neighborhood region 61 defined by the function R (p). The certainty map image Imap_i is generated by obtaining the certainty Imap_i (p) by the equation (1) for each pixel p in the captured image Icam.

図4の撮像画像Icamから求められた確信度マップ画像の一例を図6に示す。図6において、確信度マップ画像Imap_1、Imap_2、Imap_3及びImap_4は、それぞれ、欠陥種1、2、3及び4に対応する。確信度マップ画像の各画素値は、輝度値を表しており、輝度値が高いほど欠陥種毎の確信度が高いことを意味する。 An example of the certainty map image obtained from the captured image Icam of FIG. 4 is shown in FIG. In FIG. 6, the confidence map images Imap_1, Imap_2, Imap_3 and Imap_4 correspond to defect types 1, 2, 3 and 4, respectively. Each pixel value of the certainty map image represents a luminance value, and the higher the luminance value, the higher the certainty for each defect type.

図6では、確信度マップ画像Imap_1において輝度値が高い領域が現れ、他の確信度マップ画像Imap_2、Imap_3及びImap_4では、画像全域において輝度値が極めて低い。すなわち、図4の撮像画像Icamに映った物について欠陥種1の確信度が高く、欠陥種2〜4の確信度が極めて低いことを示している。なお、確信度マップ画像において、確信度を輝度値ではなく色で表すようにしてもよい。 In FIG. 6, a region having a high luminance value appears in the certainty map image Imap_1, and in the other certainty map images Imap_2, Imap_3 and Imap_4, the luminance value is extremely low in the entire image. That is, it is shown that the certainty of the defect type 1 is high and the certainty of the defect types 2 to 4 is extremely low for the object reflected in the captured image Icam of FIG. In the certainty map image, the certainty may be expressed by a color instead of a luminance value.

次に、プロセッサ12は、欠陥種i毎に、確信度マップ画像Imap_iを各画素の画素値に基づいてラベリングすることにより、対象物の表面上で欠陥が占める領域である欠陥候補領域を抽出する(ステップS13)。具体的には、ステップS13において、プロセッサ12は、確信度マップ画像Imap_iにおいて輝度値が近い(輝度値の差分が規定値以下の)隣接する画素を連結して一つのブロブとみなし、確信度マップ画像Imap_iから得られる各ブロブを、欠陥候補領域blob_jとして抽出する。ここで“j”は、欠陥候補領域を識別するインデックスであり、整数値である。 Next, the processor 12 extracts the defect candidate region, which is the region occupied by the defect on the surface of the object, by labeling the certainty map image Imap_i based on the pixel value of each pixel for each defect type i. (Step S13). Specifically, in step S13, the processor 12 concatenates adjacent pixels having similar brightness values (the difference between the brightness values is less than or equal to the specified value) in the certainty map image Imap_i and regards them as one blob, and regards the certainty map. Each blob obtained from the image Imap_i is extracted as a defect candidate region blob_j. Here, "j" is an index that identifies a defect candidate area, and is an integer value.

すなわち、各ブロブとして一まとまりとなる欠陥候補領域blob_jは、各欠陥種iに対応した欠陥が占める領域に相当する。そのため、欠陥候補領域blob_jの幾何学的特徴は、直接、欠陥種iの幾何学的特徴に対応することとなる。 That is, the defect candidate region blob_j, which is a group for each blob, corresponds to the region occupied by the defects corresponding to each defect type i. Therefore, the geometric features of the defect candidate region blob_j directly correspond to the geometric features of the defect type i.

次に、プロセッサ12は、欠陥候補領域blob_jの幾何学的特徴を特徴量として算出する(ステップS15)。なお、プロセッサ12は、欠陥候補領域blob_jの幾何学的特徴だけでなく、欠陥候補領域blob_jにおける撮像画像Icamの画素値の統計量と、欠陥候補領域blob_jにおける確信度Imap_i(p)の統計量をも特徴量として算出するようにしてもよい。 Next, the processor 12 calculates the geometric feature of the defect candidate region blob_j as a feature amount (step S15). The processor 12 not only obtains the geometrical features of the defect candidate region blob_j, but also the statistics of the pixel values of the captured image Icam in the defect candidate region blob_j and the statistics of the certainty Imap_i (p) in the defect candidate region blob_j. May be calculated as a feature amount.

欠陥候補領域blob_jの幾何学的特徴は、欠陥候補領域blob_jの周囲長、面積、及び形状のうち少なくとも1つを含む。欠陥候補領域blob_jにおける撮像画像Icamの画素値の統計量は、欠陥候補領域blob_jにおける撮像画像Icamの輝度の平均、分散、最大、最小、及び分布等のうち少なくとも1つを含む。欠陥候補領域blob_jにおける確信度Imap_i(p)の統計量は、欠陥候補領域blob_jにおける確信度Imap_i(p)の平均、分散、最大、最小、及び分布等のうち少なくとも1つを含む。こうした特徴量は、それぞれ欠陥種i毎に算出される。 The geometric features of the defect candidate region blob_j include at least one of the perimeter, area, and shape of the defect candidate region blob_j. The statistic of the pixel value of the captured image Icam in the defect candidate region blob_j includes at least one of the average, variance, maximum, minimum, distribution, etc. of the brightness of the captured image Icam in the defect candidate region blob_j. The statistic of the confidence Imap_i (p) in the defect candidate region blob_j includes at least one of the mean, variance, maximum, minimum, distribution, etc. of the confidence Imap_i (p) in the defect candidate region blob_j. These features are calculated for each defect type i.

画素pが属する欠陥候補領域blob_jにおける特徴量feat_kjは、式(2)のように与えられる。

Figure 2021064215
ここで、“k”は特徴量の種類(幾何学的特徴、各種の統計量)を識別するインデックスであり、整数値である。Feat_kは、種類kの特徴量を計算する関数である。 The feature amount feat_kj in the defect candidate region blob_j to which the pixel p belongs is given as in Eq. (2).
Figure 2021064215
Here, "k" is an index that identifies the type of feature quantity (geometric feature, various statistics), and is an integer value. Feat_k is a function that calculates the features of type k.

次に、プロセッサ12は、ステップS15で算出された特徴量feat_kjの分布から、公知の手法により欠陥種及び欠陥種毎の評点(例えば、欠陥の重篤度のランク又は欠陥の重篤度を示す点数)を判定する(ステップS17)。具体的には、プロセッサ12は、IF−THENルール又はサポートベクターマシン(SVM)等の判別器を用いて、特徴量feat_kjの分布から撮像画像Icam内の欠陥を評価する。 Next, the processor 12 indicates the defect type and the score for each defect type (for example, the rank of the severity of the defect or the severity of the defect from the distribution of the feature amount feat_kj calculated in step S15) by a known method. (Score) is determined (step S17). Specifically, the processor 12 evaluates defects in the captured image Icam from the distribution of the feature amount feat_kj by using a discriminator such as an IF-THEN rule or a support vector machine (SVM).

なお、プロセッサ12は、欠陥候補領域blob_jに対応する幾何学的特徴を情報として得た時点で、「見つかった欠陥候補は全部欠陥である」として取り扱い、処理を終了するようにしてもよい。 The processor 12 may end the process by treating it as "all the found defect candidates are defects" when the geometric feature corresponding to the defect candidate region blob_j is obtained as information.

また、プロセッサ12は、ステップS17において、算出された特徴量feat_kjの分布の内容を確認し、その内容によっては、プロセッサ12で欠陥種毎の評点を判定する処理を行わなくてもよく、適宜、算出された特徴量feat_kjの分布を、オペレータに確認させる等してもよい。そうすることで、予め欠陥の特性を把握している場合(例えば、この位置にこのサイズの欠陥が必ず生じるが、それがある特定の欠陥種である、といったことを把握している場合)等には、評点を判定するまでもなく、オペレータ等を介して、直接、正しい欠陥種としての判定をすることが可能となる。 Further, the processor 12 confirms the content of the calculated distribution of the feature amount feat_kj in step S17, and depending on the content, the processor 12 does not have to perform a process of determining the score for each defect type, as appropriate. The operator may be asked to confirm the calculated distribution of the feature amount feat_kj. By doing so, when the characteristics of the defect are known in advance (for example, when a defect of this size always occurs at this position, but it is known that it is a specific defect type), etc. It is possible to directly determine the correct defect type via an operator or the like without having to determine the score.

また、プロセッサ12は、ステップS15で算出された特徴量feat_kjの分布を、表面性状検査装置100内では処理せず、表面性状検査装置100に接続された他の装置に送信し、当該他の装置において、算出された特徴量feat_kjの分布を用いて、検査に係る種々の処理を行うようにすることも可能である。当該他の装置における種々の処理については、公知の検査に係る処理を用いることが可能であり、IF−THENルール又はサポートベクターマシン(SVM)等の判別器を用いることも可能である。こうすることで、装置配置や組合せの自由度を高めることができる。 Further, the processor 12 does not process the distribution of the feature amount feat_kj calculated in step S15 in the surface property inspection device 100, but transmits the distribution to another device connected to the surface property inspection device 100, and the other device In, it is also possible to perform various processes related to the inspection by using the calculated distribution of the feature amount feat_kj. For various processes in the other apparatus, known processes related to inspection can be used, and a discriminator such as an IF-THEN rule or a support vector machine (SVM) can also be used. By doing so, the degree of freedom in device arrangement and combination can be increased.

以上のように、第1実施形態によれば、従来の閾値処理を用いずに、深層学習による学習済みモデル141を用いて、撮像画像Icam内の注目画素60を中心とした近傍領域61の輝度パターンから、注目画素60における、欠陥種毎の確信度を算出して確信度マップ画像を生成し、欠陥候補領域を抽出するようにした。これにより、閾値処理のみでは検出が困難であった薄い欠陥や、特徴量空間における分布によって検出が困難であった不定型な欠陥を精度よく検出することができる。また、撮像画像Icamから画素単位で欠陥種毎の確信度を算出することで、欠陥の発生位置によって欠陥種が分かれるなどの欠陥判定の知見を、判定ロジック(ステップS17)における欠陥種判定に直接反映させることができる。 As described above, according to the first embodiment, the brightness of the vicinity region 61 centered on the pixel 60 of interest in the captured image Icam is used by using the trained model 141 by deep learning without using the conventional threshold processing. From the pattern, the certainty of each defect type in the pixel 60 of interest is calculated to generate a certainty map image, and the defect candidate region is extracted. As a result, it is possible to accurately detect thin defects that were difficult to detect only by threshold processing and irregular defects that were difficult to detect due to the distribution in the feature space. In addition, by calculating the certainty of each defect type from the captured image Icam on a pixel-by-pixel basis, the knowledge of defect determination such that the defect type is divided according to the position where the defect occurs can be directly applied to the defect type determination in the determination logic (step S17). It can be reflected.

また、本発明の第1実施形態によれば、単純に、対象物の表面を撮像した撮像画像に映った欠陥そのものに対して、学習済みモデルを用いた深層学習を適用して、欠陥種が何であるかや、良品又は不良品であるかといった判定をしているのではなく、撮像画像に対して学習済みモデルを用いた深層学習を適用して、欠陥種毎の確信度を算出し、確信度を画素値とした確信度マップ画像を作成し、その確信度マップ画像に現れた確信度の「像」について、特徴量を求めるようにしている。 Further, according to the first embodiment of the present invention, the defect type is simply applied to the defect itself reflected in the captured image obtained by capturing the surface of the object by applying deep learning using the trained model. Rather than determining what the product is, whether it is a non-defective product or a defective product, deep learning using a trained model is applied to the captured image to calculate the certainty for each defect type. A certainty map image with the certainty as a pixel value is created, and the feature amount is obtained for the "image" of the certainty appearing in the certainty map image.

そのため、本発明の第1実施形態によれば、学習済みモデルを用いた深層学習を適用することによって、撮像画像内に非常に薄くしか映らない欠陥や不定形の欠陥を高精度に検出することができる。 Therefore, according to the first embodiment of the present invention, by applying deep learning using the trained model, defects that appear only very thinly or irregular defects in the captured image can be detected with high accuracy. Can be done.

<第2実施形態>
次に、第2実施形態について説明する。第2実施形態に係る表面性状検査装置のハードウェア構成は、図2に示す表面性状検査装置100と同様である。以下の第2実施形態では、第1実施形態と異なる点のみを説明する。
<Second Embodiment>
Next, the second embodiment will be described. The hardware configuration of the surface property inspection device according to the second embodiment is the same as that of the surface property inspection device 100 shown in FIG. In the second embodiment below, only the differences from the first embodiment will be described.

第2実施形態のプロセッサ12は、記憶部14に記憶されたプログラムに従って表面性状検査方法(図7)を実行する。具体的には、プロセッサ12は、表面性状検査方法の実行時、第1実施形態の深層学習判定処理部、ラベリング部、特徴量算出部、及び判定部としての機能に加え、撮像画像に対して閾値処理を施すことにより二値画像を生成する閾値処理部と、二値画像の各画素を画素値に基づいてラベリングすることにより、第2欠陥候補領域を抽出する第2ラベリング部と、第2欠陥候補領域の幾何学的特徴と、第2欠陥候補領域における撮像画像の画素値の統計量との少なくともいずれか一つを第2特徴量として算出する第2特徴量算出部として機能する。 The processor 12 of the second embodiment executes the surface texture inspection method (FIG. 7) according to the program stored in the storage unit 14. Specifically, when the surface texture inspection method is executed, the processor 12 not only functions as a deep learning determination processing unit, a labeling unit, a feature amount calculation unit, and a determination unit of the first embodiment, but also with respect to the captured image. A threshold processing unit that generates a binary image by performing threshold processing, a second labeling unit that extracts a second defect candidate region by labeling each pixel of the binary image based on the pixel value, and a second. It functions as a second feature amount calculation unit that calculates at least one of the geometric feature of the defect candidate region and the statistic of the pixel value of the captured image in the second defect candidate region as the second feature amount.

次に、図7を参照して、第2実施形態の表面性状検査方法を説明する。図7に示す表面性状検査方法は、第1実施形態のフロー(図3)と従来の閾値処理を用いたフロー(図1)とを組み合わせることによって実現される。 Next, the surface texture inspection method of the second embodiment will be described with reference to FIG. 7. The surface texture inspection method shown in FIG. 7 is realized by combining the flow of the first embodiment (FIG. 3) and the flow using the conventional threshold processing (FIG. 1).

プロセッサ12は、第1実施形態のステップS11、S13及びS15と並行して、以下のステップS21、S23及びS25(それぞれ、図1のステップS1、S3及びS5に対応)を実行する。 The processor 12 executes the following steps S21, S23 and S25 (corresponding to steps S1, S3 and S5 of FIG. 1, respectively) in parallel with steps S11, S13 and S15 of the first embodiment.

すなわち、プロセッサ12は、撮像画像Icamに対して閾値処理を施すことにより二値画像を生成する(ステップS21)。ステップS21では、撮像画像Icamにおいて、輝度値が閾値以上の画素に1を割り当て、輝度値が閾値より小さい画素に0に割り当てることで、輝度値が0と1とからなる二値画像を生成する。 That is, the processor 12 generates a binary image by performing threshold processing on the captured image Icam (step S21). In step S21, in the captured image Icam, 1 is assigned to a pixel having a brightness value equal to or higher than the threshold value, and 0 is assigned to a pixel having a brightness value smaller than the threshold value to generate a binary image having a brightness value of 0 and 1. ..

次に、プロセッサ12は、ステップS21で生成された二値画像を各画素の画素値に基づいてラベリングすることにより、第2欠陥候補領域を抽出する(ステップS23)。ステップS23では、二値画像において輝度値が1の画素を連結してブロブとして認識し、そのブロブを第2欠陥候補領域として抽出する。 Next, the processor 12 extracts the second defect candidate region by labeling the binary image generated in step S21 based on the pixel value of each pixel (step S23). In step S23, pixels having a brightness value of 1 are connected in a binary image and recognized as a blob, and the blob is extracted as a second defect candidate region.

すなわち、各ブロブとして一まとまりとなる第2欠陥候補領域は、当該領域に対応した欠陥が占める領域に相当する。そのため、第2欠陥候補領域の幾何学的特徴は、直接、当該領域に対応した欠陥の幾何学的特徴に対応することとなる。 That is, the second defect candidate region, which is a group of each blob, corresponds to the region occupied by the defects corresponding to the region. Therefore, the geometric feature of the second defect candidate region directly corresponds to the geometric feature of the defect corresponding to the region.

次に、プロセッサ12は、第2欠陥候補領域の幾何学的特徴を第2特徴量として算出する(ステップS25)。なお、プロセッサ12は、第2欠陥候補領域の幾何学的特徴だけでなく、第2欠陥候補領域における撮像画像Icamの画素値の統計量をも第2特徴量として算出するようにしてもよい。第2欠陥候補領域の幾何学的特徴は、第2欠陥候補領域の周囲長、面積、及び形状のうち少なくとも1つを含む。第2欠陥候補領域における撮像画像Icamの画素値の統計量は、第2欠陥候補領域における撮像画像Icamの輝度の平均、分散、最大、最小、及び分布等のうち少なくとも1つを含む。 Next, the processor 12 calculates the geometric feature of the second defect candidate region as the second feature amount (step S25). The processor 12 may calculate not only the geometric feature of the second defect candidate region but also the statistic of the pixel value of the captured image Icam in the second defect candidate region as the second feature amount. The geometric feature of the second defect candidate region includes at least one of the perimeter, area, and shape of the second defect candidate region. The statistic of the pixel value of the captured image Icam in the second defect candidate region includes at least one of the average, variance, maximum, minimum, distribution, and the like of the brightness of the captured image Icam in the second defect candidate region.

ステップS15で算出した特徴量feat_kjの種類kと、ステップS25で算出した第2特徴量の種類とは同じであるが、両者を区別するため、プロセッサ12は、ステップS15で算出した特徴量feat_kjのいずれかに対して、深層学習から導出したことを示すフラグを立て、ステップS25で算出した第2特徴量に対して、従来の閾値処理から導出したことを示すフラグを立てる。これにより、後述するステップS17において特徴量feat_kjと第2特徴量とを識別できるようにする。 The type k of the feature amount feat_kj calculated in step S15 and the type of the second feature amount calculated in step S25 are the same, but in order to distinguish between the two, the processor 12 uses the feature amount feat_kj calculated in step S15. A flag indicating that it is derived from deep learning is set for any of them, and a flag indicating that it is derived from the conventional threshold processing is set for the second feature amount calculated in step S25. This makes it possible to distinguish between the feature amount feat_kj and the second feature amount in step S17, which will be described later.

次に、プロセッサ12は、ステップS15で算出した特徴量feat_kj及びステップS25で算出した第2特徴量から、第1実施形態と同様の手法により、撮像画像Icamに映った欠陥の欠陥種及び欠陥種毎の評点を判定する(ステップS17)。 Next, the processor 12 uses the feature amount feat_kj calculated in step S15 and the second feature amount calculated in step S25 to perform the defect type and the defect type of the defect reflected in the captured image Icam by the same method as in the first embodiment. The score for each is determined (step S17).

なお、プロセッサ12は、欠陥候補領域blob_jに対応する幾何学的特徴を情報として得た時点で、「見つかった欠陥候補は全部欠陥である」として取り扱い、処理を終了するようにしてもよい。 The processor 12 may end the process by treating it as "all the found defect candidates are defects" when the geometric feature corresponding to the defect candidate region blob_j is obtained as information.

また、プロセッサ12は、算出された特徴量feat_kjの分布や第2特徴量の内容を確認し、その内容によっては、プロセッサ12で欠陥種毎の評点を判定する処理を行わなくてもよく、適宜、算出された特徴量feat_kjの分布や第2特徴量を、オペレータに確認させる等してもよい。そうすることで、予め欠陥の特性を把握している場合(例えば、この位置にこのサイズの欠陥が必ず生じるが、それがある特定の欠陥種である、といったことを把握している場合)等には、評点を判定するまでもなく、オペレータ等を介して、直接、正しい欠陥種としての判定をすることが可能となる。 Further, the processor 12 confirms the calculated distribution of the feature amount feat_kj and the contents of the second feature amount, and depending on the contents, it is not necessary for the processor 12 to perform a process of determining the score for each defect type, as appropriate. , The operator may be asked to confirm the calculated distribution of the feature amount feat_kj and the second feature amount. By doing so, when the characteristics of the defect are known in advance (for example, when a defect of this size always occurs at this position, but it is known that it is a specific defect type), etc. It is possible to directly determine the correct defect type via an operator or the like without having to determine the score.

また、プロセッサ12は、算出された特徴量feat_kjの分布や第2特徴量を、表面性状検査装置100内では処理せず、表面性状検査装置100に接続された他の装置に送信し、当該他の装置において、算出された特徴量feat_kjの分布や第2特徴量を用いて、検査に係る種々の処理を行うようにすることも可能である。当該他の装置における種々の処理については、公知の検査に係る処理を用いることが可能であり、IF−THENルール又はサポートベクターマシン(SVM)等の判別器を用いることも可能である。こうすることで、装置配置や組合せの自由度を高めることができる。 Further, the processor 12 does not process the calculated distribution of the feature amount feat_kj and the second feature amount in the surface property inspection device 100, but transmits the calculated feature amount feat_kj to another device connected to the surface property inspection device 100. It is also possible to perform various processes related to the inspection by using the calculated distribution of the feature amount feat_kj and the second feature amount in the device of. For various processes in the other apparatus, known processes related to inspection can be used, and a discriminator such as an IF-THEN rule or a support vector machine (SVM) can also be used. By doing so, the degree of freedom in device arrangement and combination can be increased.

以上のように、本発明の第2実施形態によれば、単純に、対象物の表面を撮像した撮像画像に映った欠陥そのものに対して、学習済みモデルを用いた深層学習を適用して、欠陥種が何であるかや、良品又は不良品であるかといった判定をしているのではなく、撮像画像に対して学習済みモデルを用いた深層学習を適用して、欠陥種毎の確信度を算出し、確信度を画素値とした確信度マップ画像を作成し、その確信度マップ画像に現れた確信度の「像」について、特徴量を求めるようにしている。 As described above, according to the second embodiment of the present invention, deep learning using the trained model is simply applied to the defects themselves reflected in the captured image obtained by capturing the surface of the object. Rather than determining what the defect type is and whether it is a non-defective product or a defective product, deep learning using a trained model is applied to the captured image to determine the degree of certainty for each defect type. A certainty map image is created by calculating and using the certainty as a pixel value, and a feature amount is obtained for the "image" of the certainty appearing in the certainty map image.

そのため、本発明の第2実施形態によれば、第1実施形態のフロー(図3)と、閾値処理を用いた従来のフロー(図1)とを組み合わせることで、深層学習のモデル学習に必要な大量の教師データを、閾値処理を用いた従来のフローで判定及び検出することができる欠陥種に至るまで、全ての欠陥種に対して収集する必要をなくすことができる。これにより、表面性状検査の負荷低減と欠陥種判定及び検出の高精度化とを両立することができる。 Therefore, according to the second embodiment of the present invention, by combining the flow of the first embodiment (FIG. 3) and the conventional flow using the threshold processing (FIG. 1), it is necessary for model learning of deep learning. It is possible to eliminate the need to collect a large amount of teacher data for all defect types, including defect types that can be determined and detected by a conventional flow using threshold processing. As a result, it is possible to reduce the load of surface texture inspection and improve the accuracy of defect type determination and detection.

<第3実施形態>
次に、第3実施形態について説明する。第3実施形態に係る表面性状検査装置のハードウェア構成は、図2に示す表面性状検査装置100と同様である。以下の第3実施形態では、第1及び第2実施形態と異なる点のみを説明する。
<Third Embodiment>
Next, the third embodiment will be described. The hardware configuration of the surface property inspection device according to the third embodiment is the same as that of the surface property inspection device 100 shown in FIG. In the following third embodiment, only the differences from the first and second embodiments will be described.

第3実施形態のプロセッサ12は、記憶部14に記憶されたプログラムに従って表面性状検査方法(図8)を実行する。具体的には、プロセッサ12は、表面性状検査方法の実行時、第1実施形態の深層学習判定処理部、ラベリング部、特徴量算出部、及び判定部としての機能に加え、撮像画像に対して第1閾値処理を施すことにより第1二値画像を生成する第1閾値処理部と、確信度マップ画像に対して第2閾値処理を施すことにより、欠陥種毎に第2二値画像を生成する第2閾値処理部と、第1二値画像と第2二値画像とを統合して統合画像を生成する統合部として更に機能する。 The processor 12 of the third embodiment executes the surface texture inspection method (FIG. 8) according to the program stored in the storage unit 14. Specifically, when the surface texture inspection method is executed, the processor 12 has functions as a deep learning determination processing unit, a labeling unit, a feature amount calculation unit, and a determination unit of the first embodiment, and also for an captured image. A first threshold processing unit that generates a first binary image by performing the first threshold processing, and a second binary image is generated for each defect type by performing the second threshold processing on the certainty map image. It further functions as an integrated unit that generates an integrated image by integrating the second threshold processing unit and the first binary image and the second binary image.

次に、図8を参照して、第3実施形態の表面性状検査方法を説明する。
まず、プロセッサ12は、撮像画像Icamに対して第1閾値処理を施すことにより第1二値画像を生成する(ステップS31)。ステップS31の第1閾値処理は、第2実施形態の閾値処理(図7のステップS21)と実質的に同じであり、式(3)に示すように、撮像画像Icamの画素pに対し、輝度値Icam(p)が閾値T0以上であればID番号1を割り当て、輝度値Icam(p)が閾値T0より小さければ0を割り当てることで、輝度値Ibin_0(p)が0と1とからなる第1二値画像Ibin_0を生成する。

Figure 2021064215
以下、式(3)のID番号1をid(0)と表記する。 Next, the surface texture inspection method of the third embodiment will be described with reference to FIG.
First, the processor 12 generates a first binary image by performing a first threshold processing on the captured image Icam (step S31). The first threshold processing in step S31 is substantially the same as the threshold processing in the second embodiment (step S21 in FIG. 7), and as shown in the equation (3), the brightness is relative to the pixel p of the captured image Icam. If the value Icam (p) is equal to or higher than the threshold value T0, the ID number 1 is assigned, and if the brightness value Icam (p) is smaller than the threshold value T0, 0 is assigned, so that the brightness value Ibin_0 (p) consists of 0 and 1. 1 Generate a binary image Ibin_0.
Figure 2021064215
Hereinafter, the ID number 1 of the formula (3) is referred to as id (0).

また、プロセッサ12は、第1及び第2実施形態と同様に、撮像画像Icamから、確信度マップ画像Imap_iを欠陥種i毎に生成し(ステップS11)、生成した確信度マップ画像Imap_iに対して第2閾値処理を施すことにより、欠陥種毎に第2二値画像を生成する(ステップS32)。 Further, the processor 12 generates a certainty map image Imap_i from the captured image Icam for each defect type i (step S11), and the processor 12 generates the certainty map image Imap_i with respect to the generated certainty map image Imap_i, as in the first and second embodiments. By performing the second threshold processing, a second binary image is generated for each defect type (step S32).

ステップS32では、式(4)に示すように、確信度マップ画像Imap_iの画素pに対し、確信度Imap_i(p)が閾値Ti以上であればID番号id(i)を割り当て、確信度Imap_i(p)が閾値Tiより小さければ0を割り当てることで、輝度値Ibin_i(p)が0とID番号id(i)とからなる第2二値画像Ibin_iを生成する。

Figure 2021064215
ここで、閾値Tiは欠陥種i毎に設定されている。また、ID番号id(i)は、欠陥種iを識別するため、欠陥種i別に異なる値が与えられる。例えば、id(1)=2、id(2)=3、…、id(N)=N+1のように、id(i)には2以上の整数が与えられる。式(4)のID番号id(i)を2以上の値としているのは、ステップS31の第1閾値処理から得られたID番号id(0)=1と区別するためである。このように、ステップS32では、欠陥種の異なるN個の第2二値画像Ibin_i(i=1、2、…、N)が生成される。 In step S32, as shown in the equation (4), if the certainty Imap_i (p) is equal to or higher than the threshold Ti, the ID number id (i) is assigned to the pixel p of the certainty map image Imap_i, and the certainty Imap_i ( If p) is smaller than the threshold value Ti, 0 is assigned to generate a second binary image Ibin_i in which the luminance value Ibin_i (p) is 0 and the ID number id (i).
Figure 2021064215
Here, the threshold value Ti is set for each defect type i. Further, the ID number id (i) is given a different value for each defect type i in order to identify the defect type i. For example, id (1) = 2, id (2) = 3, ..., id (N) = N + 1, and so on, id (i) is given an integer of 2 or more. The reason why the ID number id (i) in the formula (4) is set to a value of 2 or more is to distinguish it from the ID number id (0) = 1 obtained from the first threshold processing in step S31. As described above, in step S32, N binary images Ibin_i (i = 1, 2, ..., N) having different defect types are generated.

次に、プロセッサ12は、第1二値画像Ibin_0と第2二値画像Ibin_iとを統合して統合画像Ibinを生成する(ステップS33)。統合画像Ibinの画素pでの輝度値Ibin(p)は、式(5)のように与えられる。

Figure 2021064215
式(5)に示すように、統合画像Ibinは、画素p毎に確信度Imap_i(p)が最大となる輝度値Ibin_i(p)(i=0、1、…N)を与える画像である。ここで、i=0での確信度、すなわち、確信度Imap_0(p)は、式(3)の輝度値Ibin_0(p)に付与した確信度であり、第1閾値処理(ステップS31)による欠陥検出を優先する場合には相対的に高い値(例えば、規定値よりも大きい値)に予め設定され、深層学習による欠陥検出を優先する場合には相対的に低い値(例えば、規定値よりも小さい値)に予め設定されている。 Next, the processor 12 integrates the first binary image Ibin_0 and the second binary image Ibin_i to generate the integrated image Ibin (step S33). The brightness value Ibin (p) of the integrated image Ibin at pixel p is given as in Eq. (5).
Figure 2021064215
As shown in the equation (5), the integrated image Ibin is an image that gives a luminance value Ibin_i (p) (i = 0, 1, ... N) that maximizes the certainty Imap_i (p) for each pixel p. Here, the certainty at i = 0, that is, the certainty Imap_0 (p) is the certainty given to the luminance value Ibin_0 (p) of the equation (3), and is a defect due to the first threshold processing (step S31). When priority is given to detection, a relatively high value (for example, a value larger than the specified value) is preset, and when priority is given to defect detection by deep learning, a relatively low value (for example, a value larger than the specified value) is set. It is preset to (small value).

次に、プロセッサ12は、統合画像Ibinの各画素をラベリングすることにより欠陥候補領域を抽出する(ステップS35)。ステップS35では、統合画像Ibinにおいて、同一の輝度値Ibin(p)(同一のID番号id(i))を与える画素を連結して一つのブロブとみなすことで欠陥候補領域blob_jを抽出する。 Next, the processor 12 extracts a defect candidate region by labeling each pixel of the integrated image Ibin (step S35). In step S35, in the integrated image Ibin, the defect candidate region blob_j is extracted by concatenating the pixels giving the same luminance value Ibin (p) (same ID number id (i)) and regarding them as one blob.

次に、プロセッサ12は、第1実施形態と同様に、ステップS35で抽出された欠陥候補領域blob_jの幾何学的特徴を特徴量として欠陥種i毎に算出する(ステップS15)。なお、プロセッサ12は、欠陥候補領域blob_jの幾何学的特徴だけでなく、欠陥候補領域blob_jにおける撮像画像Icamの画素値の統計量と、欠陥候補領域blob_jにおける確信度Imap_i(p)の統計量をも特徴量(式(2)参照)として欠陥種i毎に算出するようにしてもよい。 Next, the processor 12 calculates for each defect type i using the geometric feature of the defect candidate region blob_j extracted in step S35 as a feature quantity, as in the first embodiment (step S15). The processor 12 not only obtains the geometrical features of the defect candidate region blob_j, but also the statistics of the pixel values of the captured image Icam in the defect candidate region blob_j and the statistics of the certainty Imap_i (p) in the defect candidate region blob_j. May be calculated for each defect type i as a feature amount (see equation (2)).

次に、プロセッサ12は、第1実施形態と同様の手法により、ステップS15で算出された特徴量の分布から、撮像画像Icamに映った欠陥の欠陥種及び欠陥種毎の評点を判定する(ステップS17)。 Next, the processor 12 determines the defect type of the defect reflected in the captured image Icam and the score for each defect type from the distribution of the feature amount calculated in step S15 by the same method as in the first embodiment (step). S17).

なお、プロセッサ12は、欠陥候補領域blob_jに対応する幾何学的特徴を情報として得た時点で、「見つかった欠陥候補は全部欠陥である」として取り扱い、処理を終了するようにしてもよい。 The processor 12 may end the process by treating it as "all the found defect candidates are defects" when the geometric feature corresponding to the defect candidate region blob_j is obtained as information.

また、プロセッサ12は、算出された特徴量の分布の内容を確認し、その内容によっては、プロセッサ12で欠陥種毎の評点を判定する処理を行わなくてもよく、適宜、算出された特徴量の分布を、オペレータに確認させる等してもよい。そうすることで、予め欠陥の特性を把握している場合(例えば、この位置にこのサイズの欠陥が必ず生じるが、それがある特定の欠陥種である、といったことを把握している場合)等には、評点を判定するまでもなく、オペレータ等を介して、直接、正しい欠陥種としての判定をすることが可能となる。 Further, the processor 12 confirms the content of the calculated feature amount distribution, and depending on the content, the processor 12 does not have to perform a process of determining the score for each defect type, and the calculated feature amount is appropriately calculated. The operator may be asked to confirm the distribution of. By doing so, when the characteristics of the defect are known in advance (for example, when a defect of this size always occurs at this position, but it is known that it is a specific defect type), etc. It is possible to directly determine the correct defect type via an operator or the like without having to determine the score.

また、プロセッサ12は、算出された特徴量の分布を、表面性状検査装置100内では処理せず、表面性状検査装置100に接続された他の装置に送信し、当該他の装置において、算出された特徴量feat_kjの分布を用いて、検査に係る種々の処理を行うようにすることも可能である。当該他の装置における種々の処理については、公知の検査に係る処理を用いることが可能であり、IF−THENルール又はサポートベクターマシン(SVM)等の判別器を用いることも可能である。こうすることで、装置配置や組合せの自由度を高めることができる。 Further, the processor 12 does not process the calculated distribution of the feature amount in the surface texture inspection device 100, but transmits it to another device connected to the surface property inspection device 100, and the calculation is performed in the other device. It is also possible to perform various processes related to the inspection by using the distribution of the feature amount feat_kj. For various processes in the other apparatus, known processes related to inspection can be used, and a discriminator such as an IF-THEN rule or a support vector machine (SVM) can also be used. By doing so, the degree of freedom in device arrangement and combination can be increased.

以上のように、本発明の第3実施形態によれば、単純に、対象物の表面を撮像した撮像画像に映った欠陥そのものに対して、学習済みモデルを用いた深層学習を適用して、欠陥種が何であるかや、良品又は不良品であるかといった判定をしているのではなく、撮像画像に対して学習済みモデルを用いた深層学習を適用して、欠陥種毎の確信度を算出し、確信度を画素値とした確信度マップ画像を作成し、その確信度マップ画像に現れた確信度の「像」について、特徴量を求めるようにしている。 As described above, according to the third embodiment of the present invention, deep learning using the trained model is simply applied to the defects themselves reflected in the captured image obtained by capturing the surface of the object. Rather than determining what the defect type is and whether it is a non-defective product or a defective product, deep learning using a trained model is applied to the captured image to determine the degree of certainty for each defect type. A certainty map image is created by calculating and using the certainty as a pixel value, and a feature amount is obtained for the "image" of the certainty appearing in the certainty map image.

更に、本発明の第3実施形態では、撮像画像Icamを二値化した第1二値画像Ibin_0と、欠陥種i毎に確信度マップ画像Imap_iを二値化した第2二値画像Ibin_iとを生成し、画素毎に確信度が最大となる輝度値を与えるように第1二値画像Ibin_0と第2二値画像Ibin_iとを統合して統合画像Ibinを生成し、統合画像Ibinを輝度値に基づいてラベリングすることにより欠陥候補領域blob_jを抽出するようにした。これにより、深層学習のモデル学習に必要な大量の教師データを、閾値処理を用いた従来のフローで判定及び検出することができる欠陥種に至るまで、全ての欠陥種に対して収集する必要をなくすことができる。したがって、表面性状検査の負荷低減と欠陥種判定及び検出の高精度化とを両立することができる。また、第1二値画像と第2二値画像という2つの二値画像を一つの統合画像としてまとめ、統合画像に対して、統一的にラベリング及び特徴量算出を行うようにしたことにより、計算負荷を低減させることができる。 Further, in the third embodiment of the present invention, the first binary image Ibin_0 obtained by binarizing the captured image Icam and the second binary image Ibin_i obtained by binarizing the certainty map image Imap_i for each defect type i are obtained. Generate and generate integrated image Ibin by integrating the first binary image Ibin_0 and the second binary image Ibin_i so as to give the brightness value that maximizes the certainty for each pixel, and set the integrated image Ibin to the brightness value. Defect candidate area blob_j is extracted by labeling based on. As a result, it is necessary to collect a large amount of teacher data required for deep learning model learning for all defect types, including defect types that can be determined and detected by the conventional flow using threshold processing. Can be eliminated. Therefore, it is possible to reduce the load of the surface property inspection and to improve the accuracy of defect type determination and detection. In addition, two binary images, a first binary image and a second binary image, are combined into one integrated image, and the integrated image is uniformly labeled and the feature amount is calculated. The load can be reduced.

また、本発明の第3実施形態によれば、学習済みモデルを用いた深層学習を適用することによって、撮像画像内に非常に薄くしか映らない欠陥や不定形の欠陥を高精度に検出することができる。 Further, according to the third embodiment of the present invention, by applying deep learning using the trained model, defects that appear only very thinly or irregular defects in the captured image can be detected with high accuracy. Can be done.

また更に、本発明の第3実施形態によれば、図1に示す(学習済みモデルを用いた深層学習を適用しないような)閾値処理を用いた従来のフローで扱われる特徴量と同じように、確信度から特徴量が得られることから、閾値処理を用いた従来のフローにおいて特徴量を扱っていた際の技術を流用することが可能となる。そのため、従来のフローに比べて、簡単な構成を加えるだけで、検出精度を向上させることが可能となる。 Furthermore, according to the third embodiment of the present invention, the features are the same as those handled in the conventional flow using the threshold processing shown in FIG. 1 (so that deep learning using the trained model is not applied). Since the feature amount can be obtained from the certainty, it is possible to divert the technique used when dealing with the feature amount in the conventional flow using the threshold processing. Therefore, as compared with the conventional flow, it is possible to improve the detection accuracy only by adding a simple configuration.

なお、第1〜第3実施形態における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、上述の各実施形態における表面性状検査処理では、対象物の表面を撮像した撮像画像から、直接的に欠陥種の確信度を算出しているが、対象物の表面を撮像した撮像画像から、一旦、欠陥種を判定し、確からしい欠陥種の候補を絞ったうえで、そうした欠陥種毎の確信度を算出するようにしても良い。
The description contents in the first to third embodiments can be appropriately changed without departing from the spirit of the present invention.
For example, in the surface texture inspection process in each of the above-described embodiments, the certainty of the defect type is calculated directly from the captured image obtained by capturing the surface of the object, but from the captured image obtained by capturing the surface of the object. , Once the defect type is determined, the candidates for the probable defect type are narrowed down, and then the certainty degree for each such defect type may be calculated.

また、上述の各実施形態における表面性状検査処理では、プロセッサ12が、撮像画像Icamから画素単位で欠陥種毎の確信度を算出するようにしたが、撮像画像Icamを規定の領域(例えば、2×2、3×3等の画素領域)に分割し、分割された領域単位で欠陥種毎の確信度を算出するようにしてもよい。また、隣接する分割領域は一部がオーバーラップしてもよい。 Further, in the surface texture inspection process in each of the above-described embodiments, the processor 12 calculates the certainty of each defect type from the captured image Icam on a pixel-by-pixel basis, but the captured image Icam is set to a specified region (for example, 2). It may be divided into (pixel regions such as × 2, 3 × 3), and the certainty of each defect type may be calculated for each divided region. Further, the adjacent divided regions may partially overlap.

また、上述の各実施形態では、撮像画像Icamをグレー画像としたが、カラー画像であってもよい。さらに、撮像画像は、対象物の表面の輝度情報に限らず、対象物の表面の凹凸等の形状情報を画像化した深さ画像であってもよいし、輝度情報と形状情報を多重化した画像でもよい。 Further, in each of the above-described embodiments, the captured image Icam is a gray image, but a color image may be used. Further, the captured image is not limited to the brightness information on the surface of the object, but may be a depth image in which shape information such as unevenness on the surface of the object is imaged, and the brightness information and the shape information are multiplexed. It may be an image.

11 撮像装置
12 プロセッサ
13 表示部
14 記憶部
141 学習済みモデル
60 注目画素
61 近傍領域
100 表面性状検査装置
11 Imaging device 12 Processor 13 Display unit 14 Storage unit 141 Learned model 60 Attention pixel 61 Near area 100 Surface property inspection device

Claims (8)

深層学習による学習済みモデルを用いて、対象物の表面を撮像した撮像画像から画素単位又は領域単位で欠陥種毎の確信度を算出して、前記確信度を画素値とした確信度マップ画像を前記欠陥種毎に生成する深層学習判定処理部と、
前記欠陥種毎の前記確信度マップ画像の画素値に基づいて、ラベリングを行い欠陥候補領域を抽出するラベリング部と、
前記欠陥候補領域の幾何学的特徴と、前記欠陥候補領域における前記撮像画像の画素値の統計量と、前記欠陥候補領域における前記確信度の統計量との少なくともいずれか一つを特徴量として算出する特徴量算出部と、
を備える、表面性状検査装置。
Using a trained model by deep learning, the certainty of each defect type is calculated from the captured image of the surface of the object in pixel units or region units, and a certainty map image using the certainty as the pixel value is obtained. A deep learning determination processing unit generated for each defect type,
A labeling unit that performs labeling and extracts defect candidate regions based on the pixel values of the certainty map image for each defect type.
Calculated as a feature quantity at least one of the geometric feature of the defect candidate region, the statistic of the pixel value of the captured image in the defect candidate region, and the statistic of the certainty in the defect candidate region. Feature amount calculation unit and
A surface property inspection device.
前記特徴量から、前記対象物の表面の欠陥種及び前記欠陥種毎の評点を判定する判定部を備える、請求項1に記載の表面性状検査装置。 The surface property inspection apparatus according to claim 1, further comprising a determination unit for determining a defect type on the surface of the object and a score for each defect type from the feature amount. 前記欠陥候補領域の幾何学的特徴は、前記欠陥候補領域の周囲長、面積、及び形状のうち少なくとも1つを含み、
前記欠陥候補領域における前記撮像画像の画素値の統計量は、前記欠陥候補領域における前記撮像画像の画素値の平均、分散、最大、最小、及び分布のうち少なくとも1つを含み、
前記欠陥候補領域における前記確信度の統計量は、前記欠陥候補領域における前記確信度の平均、分散、最大、最小、及び分布のうち少なくとも1つを含む、請求項1又は2に記載の表面性状検査装置。
The geometric feature of the defect candidate region includes at least one of the peripheral length, area, and shape of the defect candidate region.
The statistic of the pixel values of the captured image in the defect candidate region includes at least one of the average, variance, maximum, minimum, and distribution of the pixel values of the captured image in the defect candidate region.
The surface texture according to claim 1 or 2, wherein the confidence statistic in the defect candidate region comprises at least one of the mean, variance, maximum, minimum, and distribution of the confidence in the defect candidate region. Inspection device.
前記撮像画像に対して閾値処理を施すことにより二値画像を生成する閾値処理部と、
前記二値画像の画素値に基づいて、ラベリングを行い第2欠陥候補領域を抽出する第2ラベリング部と、
前記第2欠陥候補領域の幾何学的特徴と、前記第2欠陥候補領域における前記撮像画像の画素値の統計量との少なくともいずれか一つを、第2特徴量として算出する第2特徴量算出部と、
を備え、
前記判定部は、前記特徴量算出部で算出された前記特徴量及び前記第2特徴量算出部で算出された前記第2特徴量から、前記対象物の表面の欠陥種及び前記欠陥種毎の評点を判定する、請求項2に記載の表面性状検査装置。
A threshold processing unit that generates a binary image by performing threshold processing on the captured image,
A second labeling unit that performs labeling and extracts a second defect candidate region based on the pixel values of the binary image, and
Second feature amount calculation in which at least one of the geometric feature of the second defect candidate region and the statistic of the pixel value of the captured image in the second defect candidate region is calculated as the second feature amount. Department and
With
From the feature amount calculated by the feature amount calculation unit and the second feature amount calculated by the second feature amount calculation unit, the determination unit determines the defect type on the surface of the object and each of the defect types. The surface property inspection device according to claim 2, which determines a score.
前記第2欠陥候補領域の幾何学的特徴は、前記第2欠陥候補領域の周囲長、面積、及び形状のうち少なくとも1つを含み、
前記第2欠陥候補領域における前記撮像画像の画素値の統計量は、前記第2欠陥候補領域における前記撮像画像の画素値の平均、分散、最大、最小、及び分布のうち少なくとも1つを含む、請求項4に記載の表面性状検査装置。
The geometric feature of the second defect candidate region includes at least one of the peripheral length, area, and shape of the second defect candidate region.
The statistic of the pixel value of the captured image in the second defect candidate region includes at least one of the average, variance, maximum, minimum, and distribution of the pixel value of the captured image in the second defect candidate region. The surface property inspection apparatus according to claim 4.
前記撮像画像に対して第1閾値処理を施すことにより第1二値画像を生成する第1閾値処理部と、
前記欠陥種毎に生成された前記確信度マップ画像に対して第2閾値処理を施すことにより、前記欠陥種毎に第2二値画像を生成する第2閾値処理部と、
前記第1二値画像と前記第2二値画像とを統合して統合画像を生成する統合部と、
を備え、
前記ラベリング部は、前記統合画像の画素値に基づいて、ラベリングを行い前記欠陥候補領域を抽出する、請求項1乃至5のいずれか一項に記載の表面性状検査装置。
A first threshold value processing unit that generates a first binary image by performing a first threshold value process on the captured image, and a first threshold value processing unit.
A second threshold processing unit that generates a binary image for each defect type by performing a second threshold processing on the certainty map image generated for each defect type.
An integration unit that integrates the first binary image and the second binary image to generate an integrated image,
With
The surface property inspection apparatus according to any one of claims 1 to 5, wherein the labeling unit performs labeling based on the pixel values of the integrated image and extracts the defect candidate region.
前記第1閾値処理部は、前記第1二値画像の各画素又は各領域に対して欠陥種の確信度を付与し、
前記統合部は、画素毎又は領域毎に欠陥種の確信度が最大となるように前記第1二値画像と前記第2二値画像とを統合する、請求項6に記載の表面性状検査装置。
The first threshold processing unit imparts certainty of the defect type to each pixel or each region of the first binary image.
The surface property inspection apparatus according to claim 6, wherein the integrating unit integrates the first binary image and the second binary image so that the certainty of the defect type is maximized for each pixel or each region. ..
深層学習による学習済みモデルを用いて、対象物の表面を撮像した撮像画像から画素単位又は領域単位で欠陥種毎の確信度を算出して、前記確信度を画素値とした確信度マップ画像を前記欠陥種毎に生成する深層学習判定処理ステップと、
前記欠陥種毎の前記確信度マップ画像の画素値に基づいて、ラベリングを行い欠陥候補領域を抽出するラベリングステップと、
前記欠陥候補領域の幾何学的特徴と、前記欠陥候補領域における前記撮像画像の画素値の統計量と、前記欠陥候補領域における前記確信度の統計量との少なくともいずれか一つを特徴量として算出する特徴量算出ステップと、
を備える、表面性状検査方法。


Using a trained model by deep learning, the certainty of each defect type is calculated from the captured image of the surface of the object in pixel units or region units, and a certainty map image using the certainty as the pixel value is obtained. The deep learning determination processing step generated for each defect type and
A labeling step of performing labeling and extracting a defect candidate region based on the pixel value of the certainty map image for each defect type, and
Calculated as a feature quantity at least one of the geometric feature of the defect candidate region, the statistic of the pixel value of the captured image in the defect candidate region, and the statistic of the certainty in the defect candidate region. Feature calculation steps to be performed and
A method for inspecting surface properties.


JP2019188896A 2019-10-15 2019-10-15 Surface texture inspection device and surface texture inspection method Active JP7356010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019188896A JP7356010B2 (en) 2019-10-15 2019-10-15 Surface texture inspection device and surface texture inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188896A JP7356010B2 (en) 2019-10-15 2019-10-15 Surface texture inspection device and surface texture inspection method

Publications (2)

Publication Number Publication Date
JP2021064215A true JP2021064215A (en) 2021-04-22
JP7356010B2 JP7356010B2 (en) 2023-10-04

Family

ID=75486340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188896A Active JP7356010B2 (en) 2019-10-15 2019-10-15 Surface texture inspection device and surface texture inspection method

Country Status (1)

Country Link
JP (1) JP7356010B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113902710A (en) * 2021-10-12 2022-01-07 菲特(天津)检测技术有限公司 Method and system for detecting surface defects of industrial parts based on anomaly detection algorithm

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RUOXU REN ET AL.: "A Generic Deep-Learning-Based Approach for Automated Surface Inspection", IEEE TRANSACTIONS ON CYBERNETICS, vol. 48, no. 3, JPN6023015303, 2018, pages 929 - 940, XP055492817, ISSN: 0005038375, DOI: 10.1109/TCYB.2017.2668395 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113902710A (en) * 2021-10-12 2022-01-07 菲特(天津)检测技术有限公司 Method and system for detecting surface defects of industrial parts based on anomaly detection algorithm

Also Published As

Publication number Publication date
JP7356010B2 (en) 2023-10-04

Similar Documents

Publication Publication Date Title
WO2023077404A1 (en) Defect detection method, apparatus and system
CN114937055A (en) Image self-adaptive segmentation method and system based on artificial intelligence
CN111325717B (en) Mobile phone defect position identification method and equipment
CN110648330B (en) Defect detection method for camera glass
TW202127371A (en) Image-based defect detection method and computer readable medium thereof
CN113850749A (en) Method for training defect detector
JP5088165B2 (en) Defect detection method and defect detection apparatus
CN115619708A (en) Method for judging fault based on image recognition of oil quality change of main shaft bearing lubricating oil
CN116523923A (en) Battery case defect identification method
JP2021086379A (en) Information processing apparatus, information processing method, program, and method of generating learning model
JP3322958B2 (en) Print inspection equipment
CN105229665A (en) To the enhancing analysis of the snakelike belt wear assessment based on image
CN114170168A (en) Display module defect detection method, system and computer readable storage medium
JP7356010B2 (en) Surface texture inspection device and surface texture inspection method
JP4163199B2 (en) Inspection device, inspection method
CN112017154A (en) Ray defect detection method based on Mask R-CNN model
JP4743231B2 (en) Appearance inspection method and appearance inspection apparatus
CN116381053A (en) Ultrasonic detection method and system for welding metal materials
JP5239275B2 (en) Defect detection method and defect detection apparatus
JP4743230B2 (en) Appearance inspection method and appearance inspection apparatus
JP4403036B2 (en) Soot detection method and apparatus
KR20140082335A (en) Method and apparatus of inspecting mura of flat display
JP2007081513A (en) Blot defect detecting method for solid-state imaging element
JP4247993B2 (en) Image inspection apparatus, image inspection method, control program, and readable storage medium
JP6185539B2 (en) Optical connector ferrule end face inspection device and inspection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7356010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151