JP2018190282A - Inspection device, inspection method and computer program - Google Patents

Inspection device, inspection method and computer program Download PDF

Info

Publication number
JP2018190282A
JP2018190282A JP2017094070A JP2017094070A JP2018190282A JP 2018190282 A JP2018190282 A JP 2018190282A JP 2017094070 A JP2017094070 A JP 2017094070A JP 2017094070 A JP2017094070 A JP 2017094070A JP 2018190282 A JP2018190282 A JP 2018190282A
Authority
JP
Japan
Prior art keywords
feature
inspection
learning
data
target data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017094070A
Other languages
Japanese (ja)
Inventor
貴之 岩本
Takayuki Iwamoto
貴之 岩本
友貴 藤森
Tomoki Fujimori
友貴 藤森
裕輔 御手洗
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094070A priority Critical patent/JP2018190282A/en
Publication of JP2018190282A publication Critical patent/JP2018190282A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an inspection method which is robust to variation elements such as noise, etc.SOLUTION: Target data representing a state of an inspection object and a plurality of processing parameters different from one another are input (S301), and respective feature measurement processes using a plurality of the processing parameters are performed for the target data (S302). Further, results of respective feature measurement processes are integrated, and a physical amount enabling comparison with a predetermined inspection standard is extracted from the integrated result as a first feature of the target data (S303). Further, a feature of the target data not depending on the inspection standard is extracted as a second feature (S304). Information for determining the quality of the inspection object is generated based on the extracted first feature and the second feature (S305).SELECTED DRAWING: Figure 12

Description

本発明は、検査対象の状態の検査を行う装置および方法に関する。   The present invention relates to an apparatus and method for inspecting a state of an inspection object.

検査対象の特徴を画像処理などによって抽出し、良品か不良品かの判別を行う技術が知られている。この種の従来技術として、例えば特許文献1に開示された観察装置がある。この観察装置では、検査対象を撮像した画像に対して行われた複数の処理パラメタを用いたそれぞれの画像処理の結果と、予め作成された教示データとを照らし合わせる。そして、一致度が相対的に高い処理パラメタを処理パラメタとして選択する。これにより、処理パラメタの設定作業が容易かつ高速になるとされている。   A technique is known in which the characteristics of an inspection object are extracted by image processing or the like to determine whether the product is good or defective. As this type of prior art, for example, there is an observation apparatus disclosed in Patent Document 1. In this observation apparatus, a result of each image processing using a plurality of processing parameters performed on an image obtained by imaging an inspection target is compared with teaching data created in advance. Then, a processing parameter having a relatively high degree of coincidence is selected as a processing parameter. As a result, the processing parameter setting operation is easy and fast.

特開2011−145275号公報JP 2011-145275 A

特許文献1に開示された観察装置では、処理パラメタが特定の値に固定的に使用される。そのため、例えば検査対象の特徴抽出の際に撮像条件などのわずかな変化やノイズの影響を受けやすく、良否判別が不安定になるという課題が残る。   In the observation apparatus disclosed in Patent Document 1, the processing parameter is fixedly used at a specific value. For this reason, for example, when extracting the characteristics of the inspection target, there remains a problem that the determination of pass / fail is unstable because it is easily affected by slight changes in imaging conditions and noise.

本発明の主たる目的は、検査対象がおかれた環境変化やノイズなどの変動要素に対して頑健な検査を行うことができる検査装置を提供することにある。   A main object of the present invention is to provide an inspection apparatus capable of performing a robust inspection against a variable element such as an environmental change or noise in which an inspection object is placed.

本発明を適用した検査装置は、検査対象の状態を表す対象データを入力するデータ入力手段と、前記対象データに対して互いに異なる複数の処理パラメタを用いたそれぞれの特徴計測処理を行う特徴計測手段と、前記それぞれの特徴計測処理の結果を統合し、統合された結果から前記対象データの第1の特徴を抽出する第1特徴抽出手段と、抽出された前記第1の特徴に基づいて前記状態の良否を判別する判別手段と、を備えたことを特徴とする。   An inspection apparatus to which the present invention is applied includes a data input unit that inputs target data representing a state of an inspection target, and a feature measurement unit that performs each feature measurement process using a plurality of different processing parameters on the target data And a first feature extraction means for extracting the first feature of the target data from the integrated result, and the state based on the extracted first feature And a discriminating means for discriminating whether the quality is good or bad.

本発明によれば、複数の処理パラメタを用いた特徴計測処理の結果を統合するので、検査対象の環境やノイズや変動に対して頑健な特徴抽出を行うことが可能となる。   According to the present invention, since the results of feature measurement processing using a plurality of processing parameters are integrated, it is possible to perform feature extraction that is robust against the environment, noise, and fluctuation of the inspection target.

(a)〜(d)は、検査対象を撮像した画像の例示図。(A)-(d) is an illustration figure of the image which imaged the test object. 良品条件といえるための検査基準の例示図。The example figure of the inspection standard for being able to say that it is good quality conditions. 学習サンプルの例示図。FIG. 第1実施形態に係る検査装置のハードウエア構成図。The hardware block diagram of the inspection apparatus which concerns on 1st Embodiment. 検査装置の機能ブロック構成図。The functional block block diagram of an inspection apparatus. (a)〜(c)は閾値が異なる二値化画像の例示図。(A)-(c) is an illustration figure of the binarized image from which a threshold value differs. 特徴計測処理の結果の例示図。FIG. 6 is an exemplary diagram of a result of feature measurement processing. (a)は教示データの例示図、(b)は特徴計測処理の結果例を示した図。(A) is an illustration figure of teaching data, (b) is the figure which showed the example of the result of the characteristic measurement process. 特徴計測処理の結果と目視判定結果との一致サンプル数の例示図。The illustration figure of the number of coincident samples of the result of a characteristic measurement process, and a visual determination result. 検査基準依存特徴抽出部の学習手順例を示す処理フロー。The processing flow which shows the example of a learning procedure of an inspection standard dependence feature extraction part. 判別部の学習手順を示す処理フロー。The processing flow which shows the learning procedure of a discrimination | determination part. 第1実施形態による検査手順例を示す処理フロー。The processing flow which shows the example of a test | inspection procedure by 1st Embodiment. 第2実施形態による検査基準依存特徴抽出部の学習手順例を示す処理フロー。The processing flow which shows the example of a learning procedure of the test reference dependence feature extraction part by 2nd Embodiment. (a),(b)は第3実施形態における特徴計測処理の例示図。(A), (b) is an illustration figure of the characteristic measurement process in 3rd Embodiment. 第3実施形態における教示データの例示図。The illustration figure of the teaching data in 3rd Embodiment.

以下、本発明を検査対象の状態の特徴を計測し、これにより検査対象が良品か不良品かの判別を行う検査装置に適用した場合の実施の形態例を説明する。   Hereinafter, an embodiment will be described in which the present invention is applied to an inspection apparatus that measures the characteristics of the state of the inspection target and thereby determines whether the inspection target is a non-defective product or a defective product.

[第1実施形態]
表面が研磨加工された金属素材およびその表面の状態を検査対象とする例について説明する。検査対象の状態の特徴を計測する手法はさまざまであるが、第1実施形態では、画像処理により計測する場合の例を示す。研磨加工により製造される金属素材では、製造工程における摩擦や腐蝕により特異な部分、例えば点状欠陥などが生じ得る。図1(a)ないし(d)は、それぞれ金属素材の表面を撮像した画像である。図1(a)の画像110には4つの点状欠陥111ないし114が生じている。図1(b)の画像120には2つの点状欠陥121,122が生じている。図1(c)の画像130には、5つの点状欠陥131〜135が生じている。
[First Embodiment]
An example in which the metal material whose surface is polished and the state of the surface is an inspection object will be described. There are various methods for measuring the characteristics of the state of the inspection target, but the first embodiment shows an example of measurement by image processing. In a metal material manufactured by polishing, a peculiar portion, for example, a point-like defect may be generated due to friction or corrosion in the manufacturing process. 1A to 1D are images obtained by imaging the surface of a metal material. In the image 110 of FIG. 1A, four point-like defects 111 to 114 are generated. Two point-like defects 121 and 122 are generated in the image 120 of FIG. In the image 130 of FIG. 1C, five point defects 131 to 135 are generated.

製造工程における欠陥が不可避の金属素材を検査する際には、良品条件を満たすかどうかの検査基準が定められているのが通常である。例えば金属素材が良品といえる条件(良品条件)を満たすのは、図2に示されるように、点状欠陥の面積が0.04mm未満とされる。つまり、画像110〜140において点状欠陥が生じていても、検査基準で定めた面積未満であれば、良品といえる。第1実施形態では、事前に検査員により目視で判別された良品および不良品の学習サンプルがあり、これらの学習サンプルを用いて検査で使用する各種機能の学習を行う。学習サンプルの例を図3に示す。 When inspecting a metal material in which defects in the manufacturing process are unavoidable, an inspection standard for determining whether or not a good product condition is satisfied is usually set. For example, as shown in FIG. 2, the metal material that satisfies the condition of being a non-defective product (non-defective product condition) has an area of point defects of less than 0.04 mm 2 . That is, even if a point-like defect occurs in the images 110 to 140, it can be said to be a non-defective product if it is less than the area defined by the inspection standard. In the first embodiment, there are learning samples of non-defective products and defective products visually discriminated by an inspector in advance, and learning of various functions used in the inspection is performed using these learning samples. An example of a learning sample is shown in FIG.

図3において、サンプルID#1は、図1(a)の画像110に対応する。同様に、サンプルID#2〜サンプルID#4は、それぞれ図1(b)〜(d)の画像120〜140に対応する。「良否」の欄には検査員の目視判別により「良」または「不良」と記録される。点#1〜#6は画像処理により計測された点状欠陥であり、それぞれの面積が大きい順に6つ記録される。例えばサンプルID#1の点#1は、画像110に存在する最も大きい点状欠陥111であり、その面積は、0.06mmである。点#2は点状欠陥112であり、その面積は0.025mmである。画像110には4つの点状欠陥111〜114しか存在しないので、点#5,点#6は「N/A」となっている。この画像110の例では、点状欠陥111の面積は0.06mmであるため、その面積が良品条件の許容範囲を超える。そのため、画像110が表す金属素材の状態は図2の検査基準の良品条件を満たさないので、「不良」とされる。サンプルID#2、つまり図1(b)の画像120には2つの点状欠陥121,122が存在するが、その面積はすべて上記許容範囲内である。そのため、画像120が表す金属素材の状態は「良」とされる。図1(c)の画像130には5つの点状欠陥131〜135が存在するが、いずれも上記許容範囲内である。そのため、画像130が表す金属素材の状態は「良」とされる。一方、図1(d)の画像140には点状欠陥が存在しない。そのため、画像140に対応するサンプル#4の点#1〜点#6はすべて「N/A」と記録される。しかし、実際には、広範囲にわたって表面加工の不均一な部分すなわち加工ムラ146が生じている。そのため、画像140は、目視判別により「不良」と記録される。 In FIG. 3, the sample ID # 1 corresponds to the image 110 in FIG. Similarly, sample ID # 2 to sample ID # 4 correspond to the images 120 to 140 in FIGS. 1B to 1D, respectively. In the “good / bad” column, “good” or “bad” is recorded by visual inspection by the inspector. Points # 1 to # 6 are point-like defects measured by image processing, and six are recorded in descending order of area. For example, the point # 1 of the sample ID # 1 is the largest point defect 111 existing in the image 110, and the area thereof is 0.06 mm 2 . Point # 2 is a point-like defect 112, and its area is 0.025 mm 2 . Since there are only four point-like defects 111 to 114 in the image 110, the points # 5 and # 6 are “N / A”. In the example of the image 110, since the area of the point defect 111 is 0.06 mm 2 , the area exceeds the allowable range of the non-defective condition. For this reason, the state of the metal material represented by the image 110 does not satisfy the non-defective product condition of the inspection standard in FIG. Two point-like defects 121 and 122 exist in the sample ID # 2, that is, the image 120 in FIG. 1B, but the areas are all within the allowable range. Therefore, the state of the metal material represented by the image 120 is “good”. Although there are five point-like defects 131 to 135 in the image 130 of FIG. 1C, all of them are within the allowable range. Therefore, the state of the metal material represented by the image 130 is “good”. On the other hand, the point defect is not present in the image 140 of FIG. Therefore, all the points # 1 to # 6 of the sample # 4 corresponding to the image 140 are recorded as “N / A”. However, in practice, a non-uniform portion of surface processing, that is, processing unevenness 146 occurs over a wide range. Therefore, the image 140 is recorded as “defective” by visual discrimination.

次に、第1実施形態に係る検査装置の構成例について説明する。図4は検査装置のハードウエア構成図である。検査装置は、CPU10、RAM11、ROM12、外部ストレージ13、入力I/F14、出力I/F15、デバイスI/F16を有するコンピュータをハードウエア部品として含む。「I/F」はインタフェースの略である。これらのハードウエア部品は制御バスB1を介して相互に接続される。CPU(Central Processing Unit)10は、本発明のコンピュータプログラムを実行することにより、コンピュータを検査装置として動作させる。RAM(Random Access Memory)11は、CPU10の主メモリ、ワークエリア等の一時記憶領域として用いられる書換可能なメモリである。ROM(Read Only Memory)12は、上記コンピュータプログラム、デバイスドライバなどが格納されている読出専用メモリである。   Next, a configuration example of the inspection apparatus according to the first embodiment will be described. FIG. 4 is a hardware configuration diagram of the inspection apparatus. The inspection apparatus includes a computer having a CPU 10, a RAM 11, a ROM 12, an external storage 13, an input I / F 14, an output I / F 15, and a device I / F 16 as hardware components. “I / F” is an abbreviation for interface. These hardware components are connected to each other via a control bus B1. A CPU (Central Processing Unit) 10 executes the computer program of the present invention to cause the computer to operate as an inspection device. A RAM (Random Access Memory) 11 is a rewritable memory used as a temporary storage area such as a main memory and a work area of the CPU 10. A ROM (Read Only Memory) 12 is a read-only memory in which the computer program, device driver, and the like are stored.

外部ストレージ13は、半導体メモリまたはハードディスクなどであり、後述する複数の候補パラメタ(処理パラメタ)、教示データ、入力データ、処理済の各種データなどを格納するデータベースシステムが形成される。入力I/F14は入力データをCPU10に伝達する。出力I/F15は、CPU10の指示により出力されたデータ等を液晶ディスプレイなどの表示装置に表示させる。デバイスI/F16は各種デバイスに対してCPU10の指示により動作開始、停止などの制御信号を伝達する。各種デバイスとしては、撮像装置、イメージセンサ、集音マイク、振動センサ、加速度センサなどがある。上記入力データは、これらのデバイスから出力されるデータである。第1実施形態では、金属素材の表面を撮像する撮像装置をデバイスとして用いた場合の例を説明する。   The external storage 13 is a semiconductor memory or a hard disk, and forms a database system that stores a plurality of candidate parameters (processing parameters), teaching data, input data, various processed data, and the like, which will be described later. The input I / F 14 transmits input data to the CPU 10. The output I / F 15 displays data output according to instructions from the CPU 10 on a display device such as a liquid crystal display. The device I / F 16 transmits control signals for starting and stopping operations to various devices according to instructions from the CPU 10. Examples of the various devices include an imaging device, an image sensor, a sound collecting microphone, a vibration sensor, and an acceleration sensor. The input data is data output from these devices. 1st Embodiment demonstrates the example at the time of using the imaging device which images the surface of a metal raw material as a device.

図5は、検査装置の機能ブロック構成図である。これらの機能ブロックは、CPU10が上記コンピュータプログラムを読み込んで実行することにより形成される。検査装置は、データ入力部401、特徴計測部402、パラメタ入力部403、検査基準依存特徴抽出部404、制約条件入力部405、検査基準非依存特徴抽出部406および判別部407の機能ブロックを有する。   FIG. 5 is a functional block configuration diagram of the inspection apparatus. These functional blocks are formed by the CPU 10 reading and executing the computer program. The inspection apparatus includes functional blocks of a data input unit 401, a feature measurement unit 402, a parameter input unit 403, an inspection criterion-dependent feature extraction unit 404, a constraint condition input unit 405, an inspection criterion-independent feature extraction unit 406, and a determination unit 407. .

データ入力部401は、検査時は検査対象の状態を表す対象データ、学習時には対象データに代えて該対象データと同じデータ構造の学習データをそれぞれ入力する。第1実施形態において、対象データは、検査対象となる金属素材を撮像装置で撮像した画像である。この対象データはグレースケール画像である。対象データは検査対象となる金属素材が代わる度に入力されるが、全て同じ撮像条件下で撮影された同じ解像度の画像とする。学習データもグレースケール画像であり、対象データと同じ解像度の画像である。   The data input unit 401 inputs target data representing the state of the inspection target at the time of inspection, and learning data having the same data structure as the target data instead of the target data at the time of learning. In the first embodiment, the target data is an image obtained by imaging a metal material to be inspected with an imaging device. This target data is a gray scale image. The target data is input every time the metal material to be inspected is changed, but all the images are the same resolution images taken under the same imaging conditions. The learning data is also a gray scale image and is an image having the same resolution as the target data.

特徴計測部402は、対象データに対して互いに異なる複数の処理パラメタを用いたそれぞれの特徴計測処理を行う。複数の処理パラメタは、後述する学習によって決定され、外部ストレージ13に格納されているものの中からパラメタ入力部403より与えられる。処理パラメタとしては、例えば、画像を二値化する際に用いられる閾値、LoGフィルタのカーネルサイズや標準偏差、モルフォロジー演算を行う回数などを用いることができる。これらの処理パラメタが変化すると特徴計測処理の結果も変わる。以下の説明では、二値化のための閾値を変動させることで複数の処理パラメタとする例を説明するが、変動させる処理パラメタは、閾値以外のものを用いることができる。   The feature measurement unit 402 performs each feature measurement process using a plurality of different processing parameters on the target data. The plurality of processing parameters are determined by learning, which will be described later, and are given from the parameter input unit 403 among those stored in the external storage 13. As processing parameters, for example, a threshold value used when binarizing an image, a kernel size or standard deviation of a LoG filter, a number of times of performing a morphological operation, or the like can be used. When these processing parameters change, the result of the feature measurement processing also changes. In the following description, an example in which a plurality of processing parameters are obtained by changing a threshold value for binarization will be described. However, a processing parameter other than the threshold value can be used as the changing processing parameter.

特徴計測部402は、例えば以下の手順で特徴計測処理を行う。まず、対象データに対してLoGフィルタを用いた畳み込み演算を行い、ブロブ領域を強調する処理を行う。LoG(Laplacian of Gaussian)フィルタは、異なるスケールでの画像の特徴を抽出することができるフィルタである。ブロブ領域とは、同じ論理値のピクセルが隣接している領域をいう。本例では、ピクセルの濃度が最小の領域、つまり点状欠陥として認識される領域が強調されるようにする。特徴計測部402は、このブロブ領域が強調された画像を複数の閾値で二値化する。例えば、図1(a)に示した画像110が対象データであるとすると、特徴計測部402は、この画像110に対してLoGフィルタを畳み込んだ後に各ピクセルの濃度の絶対値をとり、複数の閾値で二値化する。このようにして得られた画像を、それぞれ二値化画像という。二値化画像の例を図6に示す。図6(a)に示す各二値化画像610は、閾値T1を用いて二値化した画像である。同様に、図6(b),(c)に示す各二値化画像620,630は、それぞれ上記画像110を閾値T2及びT3を用いて二値化した画像である。閾値の大きさは、T1<T2<T3である。   The feature measurement unit 402 performs feature measurement processing, for example, according to the following procedure. First, a convolution operation using a LoG filter is performed on the target data, and processing for enhancing the blob region is performed. A LoG (Laplacian of Gaussian) filter is a filter that can extract image features at different scales. A blob region is a region where pixels having the same logical value are adjacent to each other. In this example, an area where the pixel density is minimum, that is, an area recognized as a point defect is emphasized. The feature measurement unit 402 binarizes the image in which the blob area is emphasized with a plurality of threshold values. For example, if the image 110 shown in FIG. 1A is the target data, the feature measurement unit 402 takes the absolute value of the density of each pixel after convolving a LoG filter on the image 110, and obtains a plurality of values. It binarizes with the threshold value. The images obtained in this way are called binary images. An example of a binarized image is shown in FIG. Each binarized image 610 shown in FIG. 6A is an image binarized using a threshold value T1. Similarly, the binarized images 620 and 630 shown in FIGS. 6B and 6C are images obtained by binarizing the image 110 using threshold values T2 and T3, respectively. The magnitude of the threshold is T1 <T2 <T3.

特徴計測部402は、これらの二値化画像610,620,630に対して例えば公知のUnion−Findアルゴリズムで処理することにより、各ブロブ領域にラベル付けを行う。これにより二値化画像に存在する点状の図形とその大きさを識別することができる。この点状の図形を「計測点」と呼ぶ。各計測点は、点状欠陥として認識されるものである。例えば図6(a)に示す二値化画像610における計測点611は、図1(a)に示した画像110の点状欠陥111に対応する。同様に、計測点612〜614は、上記画像110の点状欠陥112〜114に対応する。計測点615は、上記画像110には存在しないが、画像処理の際などに混入したノイズの影響で現れた計測点である。図6(a)における計測点611、図6(b)における計測点621、図6(c)における計測点631は、全て同一の点状欠陥111に対応する。ただし、閾値の大きさの相違により、計測点611,621,631は、その大きさ(面積)が異なっている。   The feature measurement unit 402 performs labeling on each blob area by processing the binarized images 610, 620, and 630 using, for example, a known Union-Find algorithm. Thereby, it is possible to identify the dot-like figure existing in the binarized image and its size. This point-like figure is called a “measurement point”. Each measurement point is recognized as a point defect. For example, the measurement point 611 in the binarized image 610 illustrated in FIG. 6A corresponds to the point defect 111 of the image 110 illustrated in FIG. Similarly, the measurement points 612 to 614 correspond to the point defects 112 to 114 of the image 110. The measurement point 615 is a measurement point that does not exist in the image 110 but appears due to the influence of noise mixed during image processing. The measurement point 611 in FIG. 6A, the measurement point 621 in FIG. 6B, and the measurement point 631 in FIG. 6C all correspond to the same point defect 111. However, the measurement points 611, 621, and 631 have different sizes (areas) due to differences in threshold values.

特徴計測部402は、個々の計測点に対応するピクセル数を数えることで当該計測点の面積を算出する。例えば、画像解像度が20ピクセル/mmの場合、1ピクセルの面積は0.0025mmである。ノイズをさらに低減する必要がある場合には、例えば二値化画像に対するモルフォロジー演算を繰り返す。これにより、本来は存在しない微小な計測点(例えば上記計測点615)を消去することができるので、ノイズなどの変動要素に対して頑健な特徴の計測が可能となる。 The feature measurement unit 402 calculates the area of the measurement point by counting the number of pixels corresponding to each measurement point. For example, when the image resolution is 20 pixels / mm, the area of one pixel is 0.0025 mm 2 . When it is necessary to further reduce the noise, for example, the morphological operation on the binarized image is repeated. As a result, minute measurement points that do not exist originally (for example, the measurement points 615) can be erased, and it is possible to measure features that are robust against fluctuation elements such as noise.

特徴計測部402による特徴計測処理の結果例を図7に示す。図7において「サンプルID」はラベル付けされたブロブ領域の識別情報である。サンプルID#11には、二値化画像610を閾値T1で処理したブロブ領域の計測点の面積が関連付けられて記録される。また、サンプルID#12は閾値T2、サンプルID#13には閾値T3で処理した各ブロブ領域の計測点の面積が関連付けられて記録される。同様に、サンプルID#21〜サンプルID#23には、二値化画像620をそれぞれ閾値T1〜T3で処理した各ブロブ領域の計測点の面積が関連付けられて記録される。サンプルID#31〜サンプルID#33には、二値化画像630をそれぞれ閾値T1〜T3を用いて処理した各ブロブ領域の計測点の面積が関連付けられて記録される。計測点の面積は、閾値T1で処理して得られた面積が大きい順に並ぶ。図7の例では、計測点が6つであるが、この数は任意である。なお、計測点が見つからなかった場合、面積の代わりにN/Aが記録される。   An example of the result of the feature measurement process by the feature measurement unit 402 is shown in FIG. In FIG. 7, “sample ID” is identification information of a labeled blob area. In the sample ID # 11, the area of the measurement point of the blob area obtained by processing the binarized image 610 with the threshold value T1 is recorded in association with it. Sample ID # 12 is recorded in association with the area of the measurement point of each blob region processed with threshold T2 and sample ID # 13 with threshold T3. Similarly, the area of the measurement point of each blob area obtained by processing the binarized image 620 with the threshold values T1 to T3 is recorded in association with the sample ID # 21 to sample ID # 23. In sample ID # 31 to sample ID # 33, the area of the measurement point of each blob region obtained by processing the binarized image 630 using threshold values T1 to T3 is recorded in association with each other. The areas of the measurement points are arranged in descending order of the areas obtained by processing with the threshold value T1. In the example of FIG. 7, there are six measurement points, but this number is arbitrary. If no measurement point is found, N / A is recorded instead of the area.

検査基準依存特徴抽出部404は、複数の処理パラメタを用いたそれぞれの特徴計測処理の結果を統合し、統合された結果から対象データである画像の特徴を抽出する。この特徴は、所定の検査基準、例えば図2に例示した検査基準との比較を可能にする物理量であり、便宜上、第1の特徴と呼ぶ。第1実施形態では、使用する閾値の数を次元として結合した特徴ベクトルを第1の特徴として用いる。すなわち、特徴計測部402より得られた3つの閾値T1,T2,T3の少なくとも2つに対応する特徴計測結果を結合し、特徴ベクトルとして出力する。例えば、閾値T1,T2による特徴抽出結果が結合される場合、特徴ベクトルは、図7の特徴計測結果から[0.05,0.0225,0.01,0.01,0.0025,0,0.0225,0.01,0.005,0,0,0]となる。どの閾値による特徴計測結果を結合するかは、後述する制約条件を用いた学習により決定される。検査基準依存特徴抽出部404は、このようにして導出された特徴ベクトルを第1の特徴抽出結果として出力する。
なお、点状欠陥の大きさ(面積)や個数など、上記検査基準との比較を可能にする物理量を表す情報であれば、必ずしも特徴ベクトルに限るものではなく、他の物理量を第1の特徴抽出結果として用いても良い。
The inspection criterion-dependent feature extraction unit 404 integrates the results of the respective feature measurement processes using a plurality of processing parameters, and extracts image features that are target data from the integrated results. This feature is a physical quantity that enables comparison with a predetermined inspection standard, for example, the inspection standard illustrated in FIG. 2, and is referred to as a first characteristic for convenience. In the first embodiment, a feature vector obtained by combining the number of threshold values to be used as a dimension is used as the first feature. That is, feature measurement results corresponding to at least two of the three threshold values T1, T2, and T3 obtained from the feature measurement unit 402 are combined and output as a feature vector. For example, when the feature extraction results based on the threshold values T1 and T2 are combined, the feature vector is [0.05, 0.0225, 0.01, 0.01, 0.0025, 0, 0.0225, 0.01, 0.005, 0, 0, 0]. Which threshold is used to combine the feature measurement results is determined by learning using constraint conditions described later. The inspection criterion dependent feature extraction unit 404 outputs the feature vector derived in this way as a first feature extraction result.
Note that the information is not necessarily limited to a feature vector as long as the information represents a physical quantity that enables comparison with the inspection standard, such as the size (area) and the number of point defects, and other physical quantities are not limited to the first feature. You may use as an extraction result.

検査基準非依存特徴抽出部406は、特徴計測処理によることなく対象データから第1の特徴と異なる検査対象の状態の特徴を抽出する。つまり、上記検査基準に依存しない特徴の抽出を行う。このような特徴を便宜上、「第2の特徴」と呼ぶ。この第2の特徴は、大きさ(面積)や個数などのような特徴ではなく、表面加工の不均一性や広範囲に及ぶ凹みなど、検査対象の状態の特異の程度を統計的に表す統計情報である。第2の特徴を抽出する際には、まず、対象データ(本例では画像)を例えば16分割し、分割後のそれぞれのブロック毎に画像輝度値の平均、分散、歪度、尖度の少なくとも一つ以上を計算する。そして、それぞれのブロックで得られた画像統計量を特徴量とする。検査基準非依存特徴抽出部406は、これを第2の特徴抽出結果として出力する。
第2の特徴を抽出することにより、物理量で規定されるような欠陥以外の特異な部分が存在する場合に、その特異な部分を認識することができる。そのため、検査対象における良品判別の精度が向上する。
The inspection criterion-independent feature extraction unit 406 extracts the feature of the state of the inspection target different from the first feature from the target data without performing the feature measurement process. That is, feature extraction that does not depend on the inspection standard is performed. Such a feature is referred to as a “second feature” for convenience. This second feature is not a feature such as size (area) or number, but statistical information that statistically indicates the degree of peculiarity of the state to be inspected, such as non-uniformity of surface processing and a wide range of dents. It is. When extracting the second feature, first, the target data (image in this example) is divided into, for example, 16 parts, and at least the average, variance, skewness, and kurtosis of the image luminance values for each of the divided blocks. Calculate one or more. Then, the image statistic obtained in each block is used as a feature amount. The inspection criterion-independent feature extraction unit 406 outputs this as a second feature extraction result.
By extracting the second feature, when there is a specific part other than the defect defined by the physical quantity, the specific part can be recognized. Therefore, the accuracy of good product discrimination in the inspection object is improved.

判別部407は、第1の特徴抽出結果と第2の特徴抽出結果の少なくとも一方、望ましくは双方に基づいて検査対象の良否を判別する。良否判別には、例えば部分空間法を用い、良品サンプルで学習された部分空間への投影距離を用いることができる。
例えば、検査基準依存特徴抽出部404から出力された第1の特徴をxm、検査基準非依存特徴抽出部406から出力される第2の特徴をxfとすると、判別部407には、これらを結合した特徴x=[xm,xf]が入力される。なお、第2の特徴xfは必ずしも必要ではなく、特徴x=第1の特徴xmとしてもよい。
The determination unit 407 determines pass / fail of the inspection target based on at least one of the first feature extraction result and the second feature extraction result, preferably both. For the pass / fail judgment, for example, the subspace method can be used, and the projection distance to the subspace learned by the non-defective sample can be used.
For example, if the first feature output from the inspection criterion dependent feature extraction unit 404 is xm and the second feature output from the inspection criterion independent feature extraction unit 406 is xf, the determination unit 407 combines them. The feature x = [xm, xf] is input. Note that the second feature xf is not always necessary, and the feature x may be the first feature xm.

このとき、検査対象の良品らしさをスコア化した良品スコアs(x)は、以下の式1で表される。ここで、Uは良品サンプルで学習された部分空間を表す。
At this time, a non-defective product score s (x) obtained by scoring the quality of the non-defective product to be inspected is expressed by the following Expression 1. Here, U represents a subspace learned with a non-defective sample.

なお、良否判別には部分空間法に限らず、k近傍法や1クラスSVMなどを用いることができる。また、良品サンプルのみを用いた学習ではなく、不良品サンプルも学習データとし、良品か不良品かの2クラス識別を行ってもよい。また、第1実施形態では、判別部407は良否判別をするものとして説明するが、複数の品質等級を判別する多クラス識別であっても、同様の方法で良品か不良品かの識別が可能である。
第1の特徴抽出結果は、複数の閾値の各々を用いた特徴計測結果を統合したものなので、固定的な閾値を用いた場合に比べて、撮像条件の変動やノイズに対して頑健な判別を行うことができる。
The pass / fail judgment is not limited to the subspace method, and a k-nearest neighbor method, 1-class SVM, or the like can be used. Further, instead of learning using only non-defective samples, defective samples may be used as learning data, and two-class identification of non-defective or defective products may be performed. In the first embodiment, the determination unit 407 is described as determining whether it is good or bad. However, even if multi-class identification is performed to determine a plurality of quality grades, it is possible to identify whether the product is good or defective using the same method. It is.
Since the first feature extraction result is obtained by integrating the feature measurement results using each of a plurality of threshold values, it is possible to discriminate robustly against fluctuations in imaging conditions and noise compared to the case where a fixed threshold value is used. It can be carried out.

<検査装置の学習>
検査装置では、検査対象の状態を検査する前に、検査基準依存特徴抽出部404および判別部407の機能を学習する。学習には、欠陥が存在する学習データを用いる。また、学習には様々な条件を制約条件として用いることができる。まず、図3に示した各サンプルのように、点状欠陥の面積と位置の教示データが与えられている場合の例を説明する。
<Learning of inspection equipment>
The inspection device learns the functions of the inspection criterion-dependent feature extraction unit 404 and the determination unit 407 before inspecting the state of the inspection target. Learning data using defects is used for learning. In addition, various conditions can be used as constraints for learning. First, an example in which teaching data on the area and position of a point-like defect is given as in each sample shown in FIG.

図8(a)は、図1(a)に示した画像110に対する教示データ810であり、図8(b)は、図6に示した二値化画像610における特徴計測結果例である。教示データ810には、画像110に存在する点状欠陥111〜114の座標と面積とが対応付けられている。検査基準依存特徴抽出部404は、まず、点状欠陥111に最も座標上での距離が近い部分を、図6の計測点611〜615の中から選択する。本例では計測点611が最も距離が近く、その面積の差は0.01mmである。同様に、点状欠陥112〜114に関しても、最も近い計測点と面積の差を求める。計測点615については、対応する教示データが存在しない。そのため、計測点615の面積が、そのまま教示データとの差として記録される。このようにして、画像610の各計測点611〜615と教示データとの面積の差を求め、各点の面積の差の平均二乗誤差を求める。この平均二乗誤差を、画像610を生成した閾値T1の評価値とする。この場合、評価値は低いほど良い評価となる。同様にして、閾値T2、閾値T3についても評価値を求める。こうして得られた各閾値に対応する評価値が良いものから順に、規定数の閾値を選定する。なお、規定数を与えず、エラーが一定値以下となる閾値全てを、選定しても良い。選定された閾値は、検査時にパラメタ入力部403より入力される処理パラメタ(閾値)として用いられる。 FIG. 8A shows teaching data 810 for the image 110 shown in FIG. 1A, and FIG. 8B shows an example of characteristic measurement results in the binarized image 610 shown in FIG. In the teaching data 810, the coordinates and areas of the point-like defects 111 to 114 existing in the image 110 are associated with each other. First, the inspection criterion-dependent feature extraction unit 404 selects a portion having the closest coordinate distance to the point defect 111 from the measurement points 611 to 615 in FIG. In this example, the measurement point 611 is the closest, and the difference in area is 0.01 mm 2 . Similarly, regarding the point defects 112 to 114, the difference between the closest measurement point and the area is obtained. For the measurement point 615, there is no corresponding teaching data. Therefore, the area of the measurement point 615 is recorded as a difference from the teaching data as it is. In this way, the difference in area between the measurement points 611 to 615 of the image 610 and the teaching data is obtained, and the mean square error of the difference in area between the points is obtained. This mean square error is taken as the evaluation value of the threshold T1 that generated the image 610. In this case, the lower the evaluation value, the better the evaluation. Similarly, evaluation values are obtained for the threshold values T2 and T3. A prescribed number of threshold values are selected in order from the one with the highest evaluation value corresponding to each threshold value thus obtained. It should be noted that all threshold values at which the error becomes a certain value or less may be selected without giving the specified number. The selected threshold value is used as a processing parameter (threshold value) input from the parameter input unit 403 at the time of inspection.

学習における他の制約条件として、図3に例示した学習サンプルの個々の点状欠陥の面積ではなく、図2に示した検査基準の良品条件を用いることもできる。この場合、良品か不良品かは、最も大きい点状欠陥の面積で決まるものとする。図7のサンプルID#11(図3の学習サンプルのサンプル#1に対応)に関連付けられている特徴計測の結果を参照すると、最大の面積となる計測点は計測点#1であり、その面積は0.05mmである。この面積は、図2に示された検査基準の良品条件を満たしていない。そのため、サンプルID#11は不良品とされる。この結果は、図3に示したサンプルID#1に対する目視判定結果(「不良」)と一致する。一方、図7のサンプルID#12(図3の学習サンプルのサンプル#1に対応。ただし閾値が異なる。)に関連付けられている特徴計測の結果は、その最大面積が0.0225mmである。そのため良品サンプルとされ、図3に示したサンプルID#1に対する目視判定結果(「不良」)と一致しない。
このようにして、それぞれの閾値で処理した場合の、目視判定結果との一致サンプル数の例を図9に示す。この一致サンプル数を各閾値の評価値とすることができる。図9の例では、例えば上位2つの閾値T1,T2を、検出時にパラメタ入力部403より入力される処理パラメタとすることができる。
As another constraint condition in learning, the non-defective condition of the inspection standard shown in FIG. 2 can be used instead of the area of each point-like defect of the learning sample illustrated in FIG. In this case, the non-defective product or the defective product is determined by the area of the largest point defect. Referring to the result of feature measurement associated with sample ID # 11 in FIG. 7 (corresponding to sample # 1 in the learning sample in FIG. 3), the measurement point having the maximum area is measurement point # 1, and the area Is 0.05 mm 2 . This area does not satisfy the non-defective condition of the inspection standard shown in FIG. Therefore, the sample ID # 11 is a defective product. This result matches the visual determination result (“bad”) for the sample ID # 1 shown in FIG. On the other hand, the maximum area of the result of the feature measurement associated with the sample ID # 12 of FIG. 7 (corresponding to the sample # 1 of the learning sample of FIG. 3 but with a different threshold) is 0.0225 mm 2 . Therefore, it is determined as a non-defective sample and does not coincide with the visual determination result (“defective”) for the sample ID # 1 shown in FIG.
FIG. 9 shows an example of the number of coincident samples with the visual determination result when processing is performed with the respective threshold values. The number of matched samples can be used as an evaluation value for each threshold. In the example of FIG. 9, for example, the upper two threshold values T1 and T2 can be set as processing parameters input from the parameter input unit 403 at the time of detection.

次に、検査基準依存特徴抽出部404の学習手順を図10を参照して詳しく説明する。検査装置は、データ入力部401より学習データを入力する(S101)。また、パラメタ入力部403より複数の処理パラメタの候補を入力する(S102)。処理パラメタの候補を「候補パラメタ」と称する。そして、特徴計測部402において、複数の候補パラメタそれぞれに対応する学習データの特徴計測を行う。すなわち、検査基準との比較を可能にする物理量を学習データの第1の学習特徴として抽出する。例えば点状欠陥の抽出と、抽出された各欠陥の面積を計測する(S103)。その後、入力した学習データに対応する教示データを制約条件入力部405より入力する(S104)。そして、S103で計測された結果とS104で入力された教示データとを比較する(S105)。計測された結果の比較は、教示データに記された点と計測点との誤差を算出することで行う。あるいは、計測結果の中で最大の面積が良品判定条件を満たすかどうかを確認する。
全ての学習データについてS101ないしS105の処理が完了したかどうかを判定し(S106)、未処理の学習データがあればS101に戻る(S106:N)。全ての学習データについて処理が完了した場合(S106:Y)、候補パラメタそれぞれに対する評価値を算出する(S107)。この評価値に基づいて、上位いくつかの候補パラメタを処理パラメタとして決定し(S108)、データベースに一時的に記憶させておく。これにより検査基準特徴部404の学習を完了させる。
Next, the learning procedure of the inspection criterion dependent feature extraction unit 404 will be described in detail with reference to FIG. The inspection apparatus inputs learning data from the data input unit 401 (S101). Also, a plurality of processing parameter candidates are input from the parameter input unit 403 (S102). Processing parameter candidates are referred to as “candidate parameters”. Then, the feature measurement unit 402 performs feature measurement of learning data corresponding to each of the plurality of candidate parameters. That is, the physical quantity that enables comparison with the inspection standard is extracted as the first learning feature of the learning data. For example, point-like defects are extracted and the area of each extracted defect is measured (S103). Thereafter, teaching data corresponding to the input learning data is input from the constraint condition input unit 405 (S104). Then, the result measured in S103 is compared with the teaching data input in S104 (S105). Comparison of the measured results is performed by calculating an error between the points described in the teaching data and the measurement points. Alternatively, it is confirmed whether the maximum area in the measurement result satisfies the non-defective product determination condition.
It is determined whether or not the processing of S101 to S105 has been completed for all learning data (S106), and if there is unprocessed learning data, the process returns to S101 (S106: N). When the processing is completed for all the learning data (S106: Y), an evaluation value for each candidate parameter is calculated (S107). Based on this evaluation value, some upper candidate parameters are determined as processing parameters (S108), and are temporarily stored in the database. Thereby, the learning of the inspection reference feature 404 is completed.

次に、図10の手順で処理パラメタが決定された後の判別部407の学習手順を図11を参照して説明する。検査装置は、データ入力部401より学習データを入力する(S201)。この学習データについて、特徴計測部402で、S108で決定した複数の処理パラメタを用いて特徴計測処理を行う(S202)。また、検査基準依存特徴抽出部404で、特徴計測結果を統合した特徴xmを算出する(S203)。
また、学習データに対して検査基準非依存特徴抽出部406で特徴抽出処理を行い、特徴xfを得る(S204)。すなわち、学習データの特徴計測処理によることなくその学習データから第1の学習特徴と異なる当該学習データの特徴を第2の学習特徴として抽出する。全ての学習データについてS201ないしS204の処理が完了したかどうかを判定し(S205)、未処理の学習データがあればS201に戻る(S205:N)。未処理の学習データがなければ(S205:Y)、全ての学習データについて、S201ないしS204で得られた特徴x=[xm,xf]を用いて、判別機能の学習を行う(S206)。その後、判別部407の学習を完了させる。
Next, the learning procedure of the determination unit 407 after the processing parameters are determined by the procedure of FIG. 10 will be described with reference to FIG. The inspection apparatus inputs learning data from the data input unit 401 (S201). The feature measurement unit 402 performs feature measurement processing on the learning data using the plurality of processing parameters determined in S108 (S202). Further, the inspection standard dependent feature extraction unit 404 calculates a feature xm obtained by integrating the feature measurement results (S203).
Also, feature extraction processing is performed on the learning data by the inspection criterion-independent feature extraction unit 406 to obtain a feature xf (S204). That is, the feature of the learning data different from the first learning feature is extracted from the learning data as the second learning feature without performing the feature measurement processing of the learning data. It is determined whether or not the processing of S201 to S204 is completed for all learning data (S205), and if there is unprocessed learning data, the process returns to S201 (S205: N). If there is no unprocessed learning data (S205: Y), the discrimination function is learned for all the learning data using the feature x = [xm, xf] obtained in S201 to S204 (S206). Thereafter, the learning of the determination unit 407 is completed.

<検査方法>
次に、検査装置を用いた検査対象の検査方法について説明する。検査装置において、検査基準依存特徴抽出部404および判別部407は、上記のとおり学習されているものとする。図12は、検査装置が実行する検査手順の説明図である。
検査装置は、データ入力部401から対象データを入力するとともに、パラメタ入力部403から異なる複数の処理パラメタを入力する(S301)。特徴計測部402は、対象データに対して複数の処理パラメタを用いたそれぞれの特徴計測処理を行う(S302)。検査基準依存特徴抽出部404は、それぞれの特徴計測処理の結果を統合し、統合された結果から所定の検査基準との比較を可能にする物理量を対象データの第1の特徴として抽出する(S303)。また、検査基準非依存特徴抽出部406は、特徴計測処理によることなく対象データから第1の特徴と異なる対象データの特徴を第2の特徴として抽出する(S304)。その後、判別部407は、抽出された第1の特徴および第2の特徴に基づいて検査対象の状態の良否を判別するための情報、例えば上述した良品スコアを生成する(S305)。そして、良品スコアが所定スコアを超えるときは、検査対象が良品であり、それ以外は不良品と判別する(S306)。
第1の特徴抽出結果は、複数の処理パラメタの各々を用いた特徴計測結果を統合したものなので、固定的な処理パラメタを用いた場合に比べて、検査条件の変動やノイズに対して頑健な判別を行うことができる。
<Inspection method>
Next, an inspection method for an inspection object using the inspection apparatus will be described. In the inspection apparatus, it is assumed that the inspection criterion-dependent feature extraction unit 404 and the determination unit 407 are learned as described above. FIG. 12 is an explanatory diagram of an inspection procedure executed by the inspection apparatus.
The inspection apparatus inputs target data from the data input unit 401 and also inputs a plurality of different processing parameters from the parameter input unit 403 (S301). The feature measurement unit 402 performs each feature measurement process using a plurality of processing parameters on the target data (S302). The inspection standard dependent feature extraction unit 404 integrates the results of the respective feature measurement processes, and extracts a physical quantity that enables comparison with a predetermined inspection standard from the integrated results as the first feature of the target data (S303). ). Further, the inspection criterion-independent feature extraction unit 406 extracts, as the second feature, the feature of the target data different from the first feature from the target data without performing the feature measurement process (S304). Thereafter, the determination unit 407 generates information for determining the quality of the inspection target state based on the extracted first feature and second feature, for example, the above-described non-defective product score (S305). When the non-defective score exceeds the predetermined score, it is determined that the inspection target is a non-defective product and the other items are defective products (S306).
Since the first feature extraction result is an integration of feature measurement results using each of a plurality of processing parameters, it is more robust against fluctuations in inspection conditions and noise than when fixed processing parameters are used. A determination can be made.

なお、第1実施形態では、良否判別に部分空間法を用いた場合の例を説明したが、これに限らず、k近傍法や1クラスSVMなどを用いることもできる。また、良品サンプルのみを用いた学習ではなく、不良品サンプルも学習データとし、良品か不良品かの2クラス識別を行ってもよい。また、第1実施形態では、判別部407は良否判別をするものとして説明したが、複数の品質等級を判別する多クラス識別であっても、同様の方法で良品か不良品かの判別が可能である。   In the first embodiment, an example in which the subspace method is used for quality determination has been described. However, the present invention is not limited to this, and a k-nearest neighbor method, 1-class SVM, or the like can also be used. Further, instead of learning using only non-defective samples, defective samples may be used as learning data, and two-class identification of non-defective or defective products may be performed. In the first embodiment, the determination unit 407 has been described as determining whether or not the product is good. However, even in the case of multi-class identification that determines a plurality of quality grades, it is possible to determine whether the product is good or defective using the same method. It is.

[第2実施形態]
次に、本発明の第2実施形態について説明する。第2実施形態では、第1実施形態で計測した物理量に代えて回帰分析による当該物理量の推定値を第1の特徴として抽出する場合の例を説明する。回帰分析には、ニューラルネットワークによる回帰器を用いる。検査方法の実施に用いる検査装置のハードウエア構成は、図4に示した第1実施形態のものと同じであるため、説明を省略する。また、機能ブロック構成も図5に示した第1実施形態と基本的に同じであるが、検査基準依存特徴抽出部404の動作が第1実施形態の検査装置と異なる。すなわち、検査基準依存特徴抽出部404は、特徴計測部402において複数の処理パラメタより得られた、複数の特徴計測の結果をニューラルネットワークによる回帰器に入力して、推定値を得る。そして、その推定値を第1の特徴として判別部407に入力する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the second embodiment, an example will be described in which an estimated value of a physical quantity obtained by regression analysis is extracted as the first feature instead of the physical quantity measured in the first embodiment. A regression device using a neural network is used for the regression analysis. The hardware configuration of the inspection apparatus used for carrying out the inspection method is the same as that of the first embodiment shown in FIG. The functional block configuration is basically the same as that of the first embodiment shown in FIG. 5, but the operation of the inspection criterion-dependent feature extraction unit 404 is different from that of the inspection apparatus of the first embodiment. That is, the inspection criterion-dependent feature extraction unit 404 inputs a plurality of feature measurement results obtained from a plurality of processing parameters in the feature measurement unit 402 to a regressor using a neural network, and obtains an estimated value. Then, the estimated value is input to the determination unit 407 as the first feature.

例えば、特徴計測部402において複数の処理パラメタで計測された各点の面積を入力とする場合、それらの入力から推定される各点の面積を推定値として出力する。ここで、ニューラルネットワークへの入力ベクトルをx、出力ベクトルをyとする。入力ベクトルxは、特徴計測結果をパラメタ入力部403より入力された処理パラメタを用いて、特徴計測部402で処理された結果を一つに統合した特徴ベクトルである。例えば、処理パラメタとして閾値T1,T2,T3を用い、図7のような計測点が得られたとする。この場合、入力ベクトルxは、図7より以下のようになる。
x=[0.05,0.0225,0.01,0.01,0.0025,0,0.0225,0.01,0.005,0,0,0,0.01,0.05,0,0,0,0]
For example, when the area of each point measured by a plurality of processing parameters in the feature measurement unit 402 is input, the area of each point estimated from the input is output as an estimated value. Here, let x be the input vector to the neural network and y be the output vector. The input vector x is a feature vector obtained by integrating the results processed by the feature measurement unit 402 using the processing parameters input from the parameter input unit 403 as feature measurement results. For example, it is assumed that thresholds T1, T2, and T3 are used as processing parameters and measurement points as shown in FIG. 7 are obtained. In this case, the input vector x is as follows from FIG.
x = [0.05, 0.0225, 0.01, 0.01, 0.0025, 0, 0.0225, 0.01, 0.005, 0, 0, 0, 0.01, 0.05, 0, 0, 0, 0]

出力yは、サンプルID毎の計測点#1〜計測点#6の面積の推定値である。この推定値は6次元のベクトルとなる。ニューラルネットワークの第i層のk番目のニューロンへの入力をx(i) 、その出力をh(i) 、とすると、その関係は以下の式2で表される。
(i) =f(i)k(W(i)T (i) ) ・・・(式2)
式2において、w(i) は重みベクトルであり、f(i) (・)は活性化関数である。i層目のニューロンがN個あるとすると、i層目の全てをまとめたベクトルh(i)は、h(i) = [h(i) ,h(i) ,…,h(i) ]と表される。
The output y is an estimated value of the areas of measurement points # 1 to # 6 for each sample ID. This estimated value is a six-dimensional vector. When the input to the k-th neuron in the i-th layer of the neural network is x (i) k and the output is h (i) k , the relationship is expressed by the following equation 2.
h (i) k = f (i) k (W (i) T k X (i) k ) (Expression 2)
In Equation 2, w (i) k is a weight vector, and f (i) k (•) is an activation function. Assuming that there are N neurons in the i-th layer, the vector h (i) summing up all the i-th layers is h (i) = [h (i) 1 , h (i) 2 ,. ) N ].

式2において、もしi−1層目の出力全てをx(i) として用いる場合、x(i) = h(i−1)である。最終層がM層目である場合、出力yは、式3で表される。
y=[h(M) ,・・・,h(M) ] ・・・(式3)
In Equation 2, if using all the output of the i-1 th layer as x (i) k, it is x (i) k = h ( i-1). When the final layer is the Mth layer, the output y is expressed by Equation 3.
y = [h (M) 1 ,..., h (M) 6 ] (Expression 3)

この6次元のベクトルyを第1実施形態で説明した第1の特徴xmと同様に扱い、判別部407の学習及び検査に用いる。
検査基準依存特徴抽出部404は、全てのニューロンの重みベクトルを、教示データを用いて学習する。学習時のニューラルネットワークへの入力ベクトルは、学習データを候補パラメタで処理した結果とする。出力は点状欠陥の面積の推定値である。この出力と学習データに対応する教示データとの誤差を求め、公知の誤差伝搬法などを用いて、各ニューロンの重みの修正を行う。
The six-dimensional vector y is handled in the same manner as the first feature xm described in the first embodiment, and is used for learning and inspection by the determination unit 407.
The inspection standard dependent feature extraction unit 404 learns weight vectors of all neurons using the teaching data. The input vector to the neural network at the time of learning is the result of processing the learning data with candidate parameters. The output is an estimate of the area of the point defect. An error between the output and the teaching data corresponding to the learning data is obtained, and the weight of each neuron is corrected using a known error propagation method or the like.

第2実施形態の変形例として、ニューラルネットワークは、各点状欠陥の面積の推定値に対応する6次元のベクトルを出力するのではなく、最大の面積の点と良品条件との差の値を出力してもよい。この場合、教示データとして与えるのは、学習データ中の点状欠陥のうち、最大の面積となる点の面積と良品条件との差の値である。   As a modification of the second embodiment, the neural network does not output a 6-dimensional vector corresponding to the estimated value of the area of each point-like defect, but instead calculates the value of the difference between the point of the maximum area and the non-defective condition. It may be output. In this case, what is given as teaching data is a value of a difference between the area of the point having the largest area among the point-like defects in the learning data and the non-defective condition.

第2実施形態の他の変形例として、ニューラルネットワークは、点状欠陥の面積の推定値ではなく、良品条件を満たしているかどうか、すなわち上述した良品スコアを出力するように学習することもできる。この場合、教示データとして与えるのは、学習データが良品か否かの情報だけである。   As another modified example of the second embodiment, the neural network can also learn to output whether the non-defective product condition is satisfied, that is, the above-described non-defective product score, instead of the estimated value of the area of the point defect. In this case, only information indicating whether or not the learning data is non-defective is provided as teaching data.

第2実施形態の他の変形例として、検査基準依存特徴抽出部404として、ニューラルネットワークにより計算される点状欠陥の面積(物理量)またはそれに基づいて導出される良品スコア以外のデータを第1の特徴として用いることもできる。すなわち、良品スコアの導出前の中間処理値を第1の特徴として用いることができる。具体的には、ニューラルネットワークの最終段出力yに代えて、例えばi層目の全ての出力を統合したベクトルh(i)=[h(i) ,h(i) ,…,h(i) ]を第1の特徴xmと同様に扱い、判別部407の学習及び検査に用いることができる。 As another modified example of the second embodiment, the inspection criterion-dependent feature extraction unit 404 uses the area other than the point defect area (physical quantity) calculated by the neural network or data other than the non-defective product score derived based on the area as the first item. It can also be used as a feature. That is, the intermediate processing value before the non-defective product score is derived can be used as the first feature. Specifically, instead of the last stage output y of the neural network, for example, i-th layer of all outputs integrated vector h (i) = [h ( i) 1, h (i) 2, ..., h ( i) N ] can be handled in the same manner as the first feature xm, and can be used for learning and checking by the determination unit 407.

第2実施形態の検査方法は、検査基準依存特徴抽出部404がニューラルネットワークを用いた回帰器である点以外は、第1実施形態と同じである。第2実施形態における検査方法について図13を参照して具体的に説明する。まず、検査基準依存特徴抽出部404の学習処理について説明する。学習データおよび教示データは、複数のデータをセットにしたミニバッチに分割されているものとする。
検査装置では、データ入力部401で、ミニバッチをひとつ選択し(S401)、選択したミニバッチに含まれる学習データの一つを入力する(S402)。パラメタ入力部403は、複数の処理パラメタを入力する(S403)。特徴計測部402は、入力された複数の処理パラメタそれぞれに対応する特徴計測処理を行い、点状欠陥の抽出と、抽出された各欠陥のサイズ計測を行う(S404)。
制約条件入力部405は、入力された学習データに対応する教示データを入力する(S405)。検査基準依存特徴抽出部404は、計測された各欠陥のサイズを入力ベクトルとした現時点のニューラルネットワークによる推定値を算出し、S405において入力された教示データとの誤差を求める(S406)。検査基準依存特徴抽出部404は、S401で選択したミニバッチの全てに関して、S402ないしS406の処理が完了したかどうかを確認する(S407)。完了していなければ(S407:N)、S402に戻る。完了している場合(S407:Y)、検査基準依存特徴抽出部404は、ミニバッチの全てに関して、S402ないしS406において算出された誤差の平均をとり、誤差逆伝搬などによって、各ニューロンの重みを更新する(S408)。検査基準依存特徴抽出部404は、予め作成しておいたミニバッチ全てについてS401ないしS408の処理が完了したかを確認し(S409)、完了していなければ(S409:N)S401に戻る。完了している場合は(S409:Y)、学習処理を終了する。
The inspection method of the second embodiment is the same as that of the first embodiment except that the inspection criterion-dependent feature extraction unit 404 is a regressor using a neural network. The inspection method in the second embodiment will be specifically described with reference to FIG. First, the learning process of the inspection standard dependent feature extraction unit 404 will be described. It is assumed that the learning data and the teaching data are divided into mini-batches that are a set of a plurality of data.
In the inspection apparatus, one mini-batch is selected by the data input unit 401 (S401), and one of the learning data included in the selected mini-batch is input (S402). The parameter input unit 403 inputs a plurality of processing parameters (S403). The feature measurement unit 402 performs feature measurement processing corresponding to each of the plurality of input processing parameters, extracts point-like defects, and measures the size of each extracted defect (S404).
The constraint condition input unit 405 inputs teaching data corresponding to the input learning data (S405). The inspection criterion-dependent feature extraction unit 404 calculates an estimated value by the current neural network using the measured size of each defect as an input vector, and obtains an error from the teaching data input in S405 (S406). The inspection criterion-dependent feature extraction unit 404 confirms whether or not the processing of S402 to S406 has been completed for all of the mini-batches selected in S401 (S407). If not completed (S407: N), the process returns to S402. If completed (S407: Y), the inspection criterion-dependent feature extraction unit 404 takes the average of the errors calculated in S402 to S406 for all of the mini-batches and updates the weight of each neuron by back propagation or the like. (S408). The inspection criterion-dependent feature extraction unit 404 confirms whether the processing of S401 to S408 has been completed for all mini-batches created in advance (S409), and if not completed (S409: N), returns to S401. If it has been completed (S409: Y), the learning process is terminated.

判別部407の学習処理は、図11に示した第1実施形態の判別部407の学習処理と同様である。以下では第1実施形態と異なる点を説明する。
S203の特徴計測処理において、特徴計測部402は、検査基準依存特徴抽出部404の学習時に用いた処理パラメタを全て用いて、検査ルールに規定されている欠陥の検出及び計測を行う。また、S204の処理において、検査基準依存特徴抽出部404は、S203で得られた特徴計測処理の結果より第1の特徴を算出する。この算出された第1の特徴は、推定される規定数の点状欠陥の面積である。別の実装として、最大の点状欠陥の面積と良品条件で定められた点の面積の差の値や、良品であるかの度合いを示すスコアを算出してもよい。さらに、別の実装として、ニューラルネットワークの中間層の出力を検査基準依存特徴抽出部404の算出する特徴量としてもよい。
The learning process of the determination unit 407 is the same as the learning process of the determination unit 407 of the first embodiment shown in FIG. Below, a different point from 1st Embodiment is demonstrated.
In the feature measurement process of S203, the feature measurement unit 402 performs detection and measurement of defects defined in the inspection rule by using all the processing parameters used at the time of learning by the inspection criterion-dependent feature extraction unit 404. In the process of S204, the inspection criterion-dependent feature extraction unit 404 calculates a first feature from the result of the feature measurement process obtained in S203. The calculated first feature is an area of an estimated prescribed number of point-like defects. As another implementation, a value indicating the difference between the area of the largest point-like defect and the area of the point determined by the non-defective product condition or a score indicating the degree of non-defective product may be calculated. Furthermore, as another implementation, the output of the intermediate layer of the neural network may be a feature amount calculated by the inspection criterion-dependent feature extraction unit 404.

次に、第2実施形態の検査処理に関して説明する。この検査処理は図12に示した第1実施形態の検査処理と同様である。相違点は、S302における特徴計測処理が、検査基準依存特徴抽出部404の学習時に用いた処理パラメタを全て用いて検査ルールに規定されている欠陥の検出及び計測を行う点である。   Next, the inspection process of the second embodiment will be described. This inspection process is the same as the inspection process of the first embodiment shown in FIG. The difference is that the feature measurement processing in S302 performs detection and measurement of defects defined in the inspection rule using all the processing parameters used at the time of learning by the inspection criterion-dependent feature extraction unit 404.

なお、検査基準依存特徴抽出部404では、ニューラルネットワークの回帰器を用いる例を説明したが、他の手法を用いることもできる。例えば、線形回帰器や、SVRRF(Support Vector Regression、Random Forest)などを用いることができる。また、ニューラルネットワークが、Random Forestのように、複数の弱回帰器により構成されている場合、その各弱回帰器の出力を要素とするベクトルを、検査基準依存特徴抽出部404が出力する特徴ベクトルとすることもできる。   In the inspection standard dependent feature extraction unit 404, an example in which a neural network regressor is used has been described, but other methods may be used. For example, a linear regressor, SVRRF (Support Vector Regression, Random Forest), or the like can be used. In addition, when the neural network is composed of a plurality of weak regressors, such as Random Forest, a feature vector output by the inspection criterion-dependent feature extraction unit 404 is a vector whose elements are the outputs of the weak regressors. It can also be.

例えば、検査基準依存特徴抽出部404の回帰器が以下の式4のように表されるとする。式4において、xは特徴計測部402において、複数のパラメタで計測された各点の面積を要素とするベクトル、f(x)は、回帰器を構成する弱回帰器である。
For example, it is assumed that the regression unit of the inspection criterion-dependent feature extraction unit 404 is expressed as the following Expression 4. In Expression 4, x is a vector whose elements are areas of points measured by a plurality of parameters in the feature measurement unit 402, and f (x) is a weak regressor constituting the regressor.

検査基準依存特徴抽出部404は、出力として、点状欠陥の面積の推定値yを出力しても良いし、N個の弱回帰器の出力fを要素としたベクトルを出力しても良い。以上の説明は回帰器ではなく、判別部407の良否の判別機能の場合でも同様である。   The inspection criterion-dependent feature extraction unit 404 may output an estimated value y of the area of point-like defects as an output, or may output a vector having the outputs f of N weak regression units as elements. The above description is the same for the pass / fail discrimination function of the discriminator 407 instead of the regressor.

[第3実施形態]
次に、本発明の第3実施形態に係る検査装置について説明する。第3実施形態では、検査対象が機器の駆動部分であり、その状態を表す対象データが、検査対象の状態を間接的に表す音響データである場合の例を示す。良否の判別は、機器が正常に動いているかどうかとなる。第3実施形態に係る検査装置のハードウエア構成は、図4に示した第1実施形態と同じであり、機能ブロック構成は第2実施形態と同じである。そのため、同一部品ないし同一機能については第1実施形態または第2実施形態に係る検査装置と同一符号を付して説明する。
[Third Embodiment]
Next, an inspection apparatus according to the third embodiment of the present invention will be described. In the third embodiment, an example is shown in which the inspection target is a drive portion of the device, and the target data representing the state is acoustic data that indirectly represents the state of the inspection target. The determination of pass / fail is whether or not the device is operating normally. The hardware configuration of the inspection apparatus according to the third embodiment is the same as that of the first embodiment shown in FIG. 4, and the functional block configuration is the same as that of the second embodiment. Therefore, the same components or the same functions will be described with the same reference numerals as those of the inspection apparatus according to the first embodiment or the second embodiment.

第3実施形態では、機器の特定箇所にマイクロフォンを取り付けた状態で1分間の試運転を行う。その際、マイクロフォンから取得された音響データが異音を表している場合、該異音が発生した回数が規定値以内であれば正常動作をしていると判別する。つまり、第3実施形態の検査装置は、検査基準依存特徴である異音発生回数を計測し、その他の音響特徴量(検査基準依存特徴によらない動作音)と合わせて、機器の良否判別を行う。   In the third embodiment, a one-minute test run is performed with a microphone attached to a specific location of the device. At this time, if the acoustic data acquired from the microphone represents an abnormal sound, it is determined that the normal operation is performed if the number of occurrences of the abnormal sound is within a specified value. That is, the inspection apparatus according to the third embodiment measures the number of occurrences of abnormal noise, which is an inspection standard-dependent feature, and determines whether the device is good or bad together with other acoustic feature amounts (operation sound that does not depend on the inspection standard-dependent feature). Do.

第3実施形態の検査装置において、データ入力部401には、機器の特定箇所に取り付けられたマイクロフォンからの音響データが入力データとして入力される。検査基準依存特徴抽出部404及び良否判別部407の学習時には、事前に録音された音響データが学習データとして入力される。また、検査時には、その機器を実際に稼働させた状態でリアルタイムに取得された音響データが入力される。ただし、事前に録音された音響データであっても良い。   In the inspection apparatus according to the third embodiment, acoustic data from a microphone attached to a specific portion of the device is input to the data input unit 401 as input data. When learning is performed by the inspection criterion-dependent feature extraction unit 404 and the quality determination unit 407, acoustic data recorded in advance is input as learning data. At the time of inspection, acoustic data acquired in real time in a state where the device is actually operated is input. However, it may be acoustic data recorded in advance.

特徴計測部402は、入力された音響データに異音が含まれているときはそれを検知し、所定時間内に異音を検知した回数を計測する。音響データの例を図14(a),(b)に示す。グラフの縦軸は、音圧Pの絶対値|P|であり、横軸は試運転開始後の時刻である。検査装置は、音圧Pの絶対値が所定の閾値を超えた場合、異音が発生したことを認識する。所定の閾値は、パラメタ入力部403より与えられる。一例として図14(b)を参照して説明する。
ここでは、閾値がTp1であるとする。|P|は、時刻t2及びt3において閾値Tp1を超えている。この場合、2回の異音が検知される。同様に、閾値がTp2である場合には3回、閾値がTp3である場合には5回の異音が検知される。
The feature measurement unit 402 detects when an abnormal sound is included in the input acoustic data, and measures the number of times the abnormal sound is detected within a predetermined time. Examples of acoustic data are shown in FIGS. 14 (a) and 14 (b). The vertical axis of the graph is the absolute value | P | of the sound pressure P, and the horizontal axis is the time after the start of the trial run. When the absolute value of the sound pressure P exceeds a predetermined threshold, the inspection device recognizes that an abnormal sound has occurred. The predetermined threshold is given from the parameter input unit 403. An example will be described with reference to FIG.
Here, it is assumed that the threshold is Tp1. | P | exceeds the threshold value Tp1 at times t2 and t3. In this case, two abnormal sounds are detected. Similarly, abnormal noise is detected three times when the threshold value is Tp2, and five times when the threshold value is Tp3.

検査基準依存特徴抽出部404は、パラメタ入力部403より入力された3つの閾値Tp1,Tp2,Tp3それぞれに対応する特徴計測部402の出力を統合した値を判別部407へ出力する。
第3実施形態における検査基準依存特徴抽出部404は、第2実施形態と同様、ニューラルネットワークを利用した回帰器により実現されているものとする。ただし、他の回帰器を用いることもできる。例えば図14(b)のデータについて、パラメタ入力部403から複数の処理パラメタとして閾値Tp1,Tp2,Tp3が入力されたとする。この場合の特徴計測部402の出力は、それぞれの場合の異音の発生回数に対応する「2」、「3」、「5」である。このとき、検査基準依存特徴抽出部404へ入力される特徴ベクトルは[2,3,5]となり、検査基準依存特徴抽出部404の出力は、この特徴ベクトルを入力として回帰器によって推定された異音の検知回数となる。
The inspection criterion-dependent feature extraction unit 404 outputs a value obtained by integrating the outputs of the feature measurement unit 402 corresponding to the three threshold values Tp1, Tp2, and Tp3 input from the parameter input unit 403 to the determination unit 407.
As in the second embodiment, the inspection criterion-dependent feature extraction unit 404 in the third embodiment is realized by a regressor using a neural network. However, other regressors can be used. For example, it is assumed that threshold values Tp1, Tp2, and Tp3 are input from the parameter input unit 403 as a plurality of processing parameters for the data in FIG. The outputs of the feature measurement unit 402 in this case are “2”, “3”, and “5” corresponding to the number of occurrences of abnormal noise in each case. At this time, the feature vector input to the inspection criterion-dependent feature extraction unit 404 is [2, 3, 5], and the output of the inspection criterion-dependent feature extraction unit 404 is the difference estimated by the regressor using this feature vector as an input. This is the number of sound detections.

検査基準依存特徴抽出部404は、教示データによる学習を行う。教示データは制約条件入力部405より入力される。図15に教示データの例を示す。教示データには、各サンプルのIDと良否の判定結果、及び検査員によって異音が判定された回数が記録される。検査員は機器に取り付けたマイクロフォンから測定された作動音を聴いて異音があるかどうかを検知し、異音を検知した回数を記録する。   The inspection standard dependent feature extraction unit 404 performs learning based on teaching data. The teaching data is input from the constraint condition input unit 405. FIG. 15 shows an example of teaching data. In the teaching data, the ID of each sample, the determination result of pass / fail, and the number of times abnormal noise is determined by the inspector are recorded. The inspector listens to the operating sound measured from the microphone attached to the device, detects whether there is any abnormal sound, and records the number of times the abnormal sound is detected.

検査基準非依存特徴抽出部406は、入力された音響データから教示データによらない音響特徴量を抽出する。音響特徴量としては、例えば、短時間離散フーリエ変換のパワースペクトルや位相スペクトルなどを用いることができる。
判別部407は、第1実施形態及び第2実施形態2と同様の、計測量統合部413の出力と検査基準非依存特徴抽出部406の出力を特徴量とする識別器であり、検査対象の良否の判定を行う。
The inspection criterion-independent feature extraction unit 406 extracts an acoustic feature quantity that does not depend on teaching data from the input acoustic data. As the acoustic feature amount, for example, a power spectrum or a phase spectrum of short-time discrete Fourier transform can be used.
The discriminating unit 407 is a discriminator having the output of the measurement amount integration unit 413 and the output of the inspection reference independent feature extraction unit 406 as the feature amount, similar to the first embodiment and the second embodiment 2. Pass / fail judgment is performed.

第3実施形態による検査方法の手順は第2実施形態の検査方法とほぼ同じである。すなわち、最初に検査基準依存特徴抽出部404の学習を図13の処理フローに従って行う。また、判別部407の学習を図11の処理フローに従って行う。そして、検査対象となる機器の良否判別を図12の処理フローに従って行う。第2実施形態との相違は、データ入力部401に入力される対象データおよび学習データが音響データである点、パラメタ入力部403より入力される処理パラメタが音響信号の音圧の絶対値に対する閾値である点である。教示データが複数のデータをセットにした複数のミニバッチに分割される点は第2実施形態と同じである。また、第3実施形態において、特徴計測部402は、音響信号の音圧の絶対値が閾値(複数)を越えた回数をそれぞれカウントする処理を行う。また、検査基準依存特徴抽出部404は、各閾値に対するカウント数を入力ベクトルとした現時点のニューラルネットワークによる推定値を算出する。学習時には、この推定値と教示データとの誤差を求める。   The procedure of the inspection method according to the third embodiment is substantially the same as the inspection method of the second embodiment. That is, first, the inspection criterion-dependent feature extraction unit 404 learns according to the processing flow of FIG. Further, the learning of the determination unit 407 is performed according to the processing flow of FIG. Then, the quality of the device to be inspected is determined according to the processing flow of FIG. The difference from the second embodiment is that the target data and learning data input to the data input unit 401 are acoustic data, and the processing parameter input from the parameter input unit 403 is a threshold for the absolute value of the sound pressure of the acoustic signal. It is a point. The point that the teaching data is divided into a plurality of mini-batches that are a set of a plurality of data is the same as in the second embodiment. In the third embodiment, the feature measurement unit 402 performs a process of counting the number of times that the absolute value of the sound pressure of the acoustic signal exceeds the threshold value (plural). Further, the inspection criterion-dependent feature extraction unit 404 calculates an estimated value by the current neural network using the count number for each threshold as an input vector. At the time of learning, an error between the estimated value and the teaching data is obtained.

第3実施形態では、機器の駆動部分の状態を表す対象データが、音響データである場合の例を説明したが、駆動部分に振動センサないし加速度センサを設け、機器の故障に伴う異常振動の回数などを計測するようにしても良い。この場合の対象データは、該駆動部分の状態を間接的に表す振動データであり、処理パラメタは、例えば異常振動の振幅値(複数)となる。   In the third embodiment, an example in which the target data representing the state of the drive portion of the device is acoustic data has been described. However, the number of abnormal vibrations caused by a failure of the device by providing a vibration sensor or acceleration sensor in the drive portion. Etc. may be measured. The target data in this case is vibration data that indirectly represents the state of the drive portion, and the processing parameter is, for example, an amplitude value (plural) of abnormal vibrations.

[変形例]
第1ないし第3実施形態では、検査対象の状態の特徴計測処理により当該検査対象の良否判別を行う例について説明したが、本発明は、複数の等級の分別に用いることができる。例えば、製造工程における製品のキズの程度の検査に用いることができる。また、細胞や微生物の培養状態の判断にも用いることができる。さらに、肌の状態がどの程度良いかの判別などにも用いることができる。これらの場合の処理パラメタは、例えば、等級に応じて異なる閾値となる。
[Modification]
In the first to third embodiments, the example in which the quality of the inspection target is determined by the characteristic measurement process of the state of the inspection target has been described. However, the present invention can be used for classification of a plurality of grades. For example, it can be used to inspect the degree of product scratches in the manufacturing process. It can also be used to determine the culture state of cells and microorganisms. Further, it can be used to determine how good the skin condition is. The processing parameters in these cases are different threshold values depending on the grade, for example.

また、本発明は、上述の第1ないし第3実施形態の1以上の機能を実現するコンピュータプログラムを、ネットワーク又は記憶媒体を介してコンピュータに供給し、そのコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention also provides a computer program for realizing one or more functions of the first to third embodiments described above to a computer via a network or a storage medium, and one or more processors in the computer execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (13)

検査対象の状態を表す対象データを入力するデータ入力手段と、
前記対象データに対して互いに異なる複数の処理パラメタを用いたそれぞれの特徴計測処理を行う特徴計測手段と、
前記それぞれの特徴計測処理の結果を統合し、統合された結果から前記対象データの第1の特徴を抽出する第1特徴抽出手段と、
抽出された前記第1の特徴に基づいて前記状態の良否を判別する判別手段と、
を備えたことを特徴とする検査装置。
Data input means for inputting target data representing the state of the inspection target;
Feature measurement means for performing each feature measurement process using a plurality of different processing parameters for the target data;
First feature extraction means for integrating the results of the respective feature measurement processes and extracting the first feature of the target data from the integrated results;
Discrimination means for discriminating whether the state is good or not based on the extracted first feature;
An inspection apparatus comprising:
前記第1特徴抽出手段は、所定の検査基準との比較を可能にする物理量を前記第1の特徴として抽出することを特徴とする、
請求項1に記載の検査装置。
The first feature extraction means extracts a physical quantity that enables comparison with a predetermined inspection standard as the first feature.
The inspection apparatus according to claim 1.
前記第1特徴抽出手段は、前記物理量に代えて回帰分析による当該物理量の推定値を前記第1の特徴として抽出することを特徴とする、
請求項2に記載の検査装置。
The first feature extraction means extracts an estimated value of the physical quantity by regression analysis instead of the physical quantity as the first feature.
The inspection apparatus according to claim 2.
前記推定値が前記状態の良否の度合いをスコア化した良品スコア又は該良品スコアの導出前の中間処理値であることを特徴とする、
請求項3に記載の検査装置。
The estimated value is a non-defective score obtained by scoring the degree of quality of the state or an intermediate processing value before derivation of the non-defective score,
The inspection apparatus according to claim 3.
前記特徴計測処理によることなく前記対象データから前記第1の特徴と異なる前記状態の特徴を第2の特徴として抽出する第2特徴抽出手段をさらに備えており、
前記判別手段は、抽出された前記第1の特徴および前記第2の特徴に基づいて前記状態の良否を判別することを特徴とする、
請求項1ないし4のいずれか一項に記載の検査装置。
A second feature extracting means for extracting a feature of the state different from the first feature as the second feature from the target data without using the feature measurement processing;
The determining means determines the quality of the state based on the extracted first feature and the second feature,
The inspection apparatus according to any one of claims 1 to 4.
前記第2の特徴は、前記状態の特異の程度を統計的に表す統計情報であることを特徴とする、
請求項5に記載の検査装置。
The second feature is statistical information that statistically represents the degree of peculiarity of the state,
The inspection apparatus according to claim 5.
前記対象データに代えて入力された前記対象データと同じデータ構造の学習データと、前記複数の処理パラメタに代えて入力された複数の候補パラメタとを用いて前記特徴計測処理の学習を行う学習手段をさらに備えたことを特徴とする、
請求項1ないし6のいずれか一項に記載の検査装置。
Learning means for learning the feature measurement processing using learning data having the same data structure as the target data input instead of the target data and a plurality of candidate parameters input instead of the plurality of processing parameters Further comprising:
The inspection apparatus according to any one of claims 1 to 6.
前記学習手段は、前記学習の結果に応じて前記複数の候補パラメタのいくつかを前記複数の処理パラメタとして決定することを特徴とする、
請求項7に記載の検査装置。
The learning means determines some of the plurality of candidate parameters as the plurality of processing parameters according to the learning result,
The inspection apparatus according to claim 7.
前記対象データは、前記検査対象の状態を撮像した画像、あるいは、前記検査対象の状態を間接的に表す音響データ又は振動データであることを特徴とする、
請求項1ないし8のいずれか一項に記載の検査装置。
The target data is an image obtained by imaging the state of the inspection target, or acoustic data or vibration data that indirectly represents the state of the inspection target.
The inspection apparatus according to any one of claims 1 to 8.
検査対象の状態を表す対象データと互いに異なる複数の処理パラメタとが入力されるコンピュータが実行する方法であって、
前記対象データに対して前記複数の処理パラメタを用いたそれぞれの特徴計測処理を行う工程と、
前記それぞれの特徴計測処理の結果を統合し、統合された結果から所定の検査基準との比較を可能にする物理量を前記対象データの第1の特徴として抽出する工程と、
前記特徴計測処理によることなく前記対象データから前記第1の特徴と異なる前記対象データの特徴を第2の特徴として抽出する工程と、
抽出された前記第1の特徴および前記第2の特徴に基づいて前記状態の良否を判別するための情報を生成する工程と、
を有することを特徴とする検査方法。
A method executed by a computer in which target data representing a state of an inspection target and a plurality of processing parameters different from each other are input,
Performing each feature measurement process using the plurality of processing parameters for the target data;
Integrating the results of the respective feature measurement processes, and extracting a physical quantity that enables comparison with a predetermined inspection standard from the integrated results as the first feature of the target data;
Extracting the feature of the target data different from the first feature as the second feature from the target data without performing the feature measurement process;
Generating information for determining the quality of the state based on the extracted first feature and the second feature;
An inspection method characterized by comprising:
前記対象データを入力する前に当該対象データと同じデータ構造の学習データを入力する工程と、
前記処理パラメタの候補となる複数の候補パラメタを入力する工程と、
前記学習データに対して前記複数の候補パラメタの各々を用いた特徴計測処理を行うとともに、各特徴計測処理の結果と所定の条件との比較を行うことにより、各候補パラメタの評価値を算出する評価工程と、
前記評価値に応じて前記複数の処理パラメタを決定する工程と、
をさらに有することを特徴とする、
請求項10に記載の検査方法。
Inputting learning data having the same data structure as the target data before inputting the target data;
Inputting a plurality of candidate parameters that are candidates for the processing parameter;
A feature measurement process using each of the plurality of candidate parameters is performed on the learning data, and an evaluation value of each candidate parameter is calculated by comparing a result of each feature measurement process with a predetermined condition. An evaluation process;
Determining the plurality of processing parameters according to the evaluation value;
Further comprising:
The inspection method according to claim 10.
前記対象データを入力する前に前記学習データをさらに入力する工程と、
入力した学習データに対して前記評価値に応じて決定した複数の処理パラメタの各々を用いた特徴計測処理を行う工程と、
前記それぞれの特徴計測処理の結果を統合し、統合された結果から前記検査基準との比較を可能にする物理量を前記学習データの第1の学習特徴として抽出する工程と、
前記特徴計測処理によることなく前記学習データから前記第1の学習特徴と異なる当該学習データの特徴を第2の学習特徴として抽出する工程と、
抽出された前記第1の学習特徴および前記第2の学習特徴に基づいて前記状態の良否を判別する機能を学習する工程と、
をさらに有することを特徴とする、請求項11に記載の検査方法。
Further inputting the learning data before inputting the target data;
A step of performing feature measurement processing using each of a plurality of processing parameters determined according to the evaluation value for the input learning data;
Integrating the results of the respective feature measurement processes, extracting a physical quantity that enables comparison with the inspection standard from the integrated results as a first learning feature of the learning data;
Extracting a feature of the learning data different from the first learning feature as the second learning feature from the learning data without performing the feature measurement process;
Learning a function of determining the quality of the state based on the extracted first learning feature and the second learning feature;
The inspection method according to claim 11, further comprising:
コンピュータに、請求項10ないし請求項12のいずれか一項に記載の検査方法を実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the inspection method according to any one of claims 10 to 12.
JP2017094070A 2017-05-10 2017-05-10 Inspection device, inspection method and computer program Pending JP2018190282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017094070A JP2018190282A (en) 2017-05-10 2017-05-10 Inspection device, inspection method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094070A JP2018190282A (en) 2017-05-10 2017-05-10 Inspection device, inspection method and computer program

Publications (1)

Publication Number Publication Date
JP2018190282A true JP2018190282A (en) 2018-11-29

Family

ID=64479984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094070A Pending JP2018190282A (en) 2017-05-10 2017-05-10 Inspection device, inspection method and computer program

Country Status (1)

Country Link
JP (1) JP2018190282A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137222A1 (en) * 2018-12-28 2020-07-02 オムロン株式会社 Defect inspecting device, defect inspecting method, and program for same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137222A1 (en) * 2018-12-28 2020-07-02 オムロン株式会社 Defect inspecting device, defect inspecting method, and program for same
JP2020106467A (en) * 2018-12-28 2020-07-09 オムロン株式会社 Defect inspection device, defect inspection method, and program therefor
US11830174B2 (en) 2018-12-28 2023-11-28 Omron Corporation Defect inspecting device, defect inspecting method, and storage medium

Similar Documents

Publication Publication Date Title
US9335277B2 (en) Region-of-interest determination apparatus, observation tool or inspection tool, region-of-interest determination method, and observation method or inspection method using region-of-interest determination method
US7062081B2 (en) Method and system for analyzing circuit pattern defects
TWI614721B (en) Detection of defects embedded in noise for inspection in semiconductor manufacturing
US10761128B2 (en) Methods and systems for inline parts average testing and latent reliability defect detection
US10636133B2 (en) Automated optical inspection (AOI) image classification method, system and computer-readable media
TW201407154A (en) Integration of automatic and manual defect classification
JP7460775B2 (en) Advanced in-line part average testing
RU2764644C1 (en) Method for detecting surface defects, device for detecting surface defects, method for producing steel materials, method for steel material quality control, steel materials production plant, method for generating models for determining surface defects and a model for determining surface defects
US20190347785A1 (en) System, method and computer program product for generating a training set for a classifier
KR102181418B1 (en) Pattern failure discovery by leveraging nominal characteristics of alternating failure modes
JP2017219529A (en) Appearance abnormality inspection device, method, and program
JP5218084B2 (en) Inspection method
KR101782364B1 (en) Vision inspection method based on learning data
CN113554645B (en) Industrial anomaly detection method and device based on WGAN
US20090273669A1 (en) Method and system for detecting critical defects
JP2018190282A (en) Inspection device, inspection method and computer program
JP7046760B2 (en) Signal analysis device, signal analysis method, and signal analysis program
KR101782366B1 (en) Vision inspection method based on learning data using normalization of sample scale
JP5155938B2 (en) Pattern contour detection method
JP4948238B2 (en) Distribution analysis method and apparatus, abnormal equipment estimation method and apparatus, program for causing computer to execute distribution analysis method or abnormal equipment estimation method, and computer-readable recording medium recording the program
Xie et al. An adaptive defect detection technology for car-bodies surfaces
JP7257470B2 (en) Defect inspection device, defect inspection method, and prediction model generation method
JP2020088263A (en) Defect analysis device, defect analysis method, defect analysis program, and teacher data creation device, teacher data creation method, and teacher data creation program
TWI836175B (en) Advanced in-line part average testing
CN117589109B (en) Quality detection and control method for quartz center tray manufacturing process