JP2007018176A - Learning device, learning method, learning program, recording medium, and device and method for pattern recognition - Google Patents

Learning device, learning method, learning program, recording medium, and device and method for pattern recognition Download PDF

Info

Publication number
JP2007018176A
JP2007018176A JP2005197825A JP2005197825A JP2007018176A JP 2007018176 A JP2007018176 A JP 2007018176A JP 2005197825 A JP2005197825 A JP 2005197825A JP 2005197825 A JP2005197825 A JP 2005197825A JP 2007018176 A JP2007018176 A JP 2007018176A
Authority
JP
Japan
Prior art keywords
class
learning
classes
value
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005197825A
Other languages
Japanese (ja)
Inventor
Eiji Yamada
栄二 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005197825A priority Critical patent/JP2007018176A/en
Publication of JP2007018176A publication Critical patent/JP2007018176A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a learning device, a learning method, a learning program, and a recording medium, enabling more accurate learning, and a device and a method for pattern recognition enabling more accurate pattern recognition. <P>SOLUTION: For a value deviating greater from a region in which values are most densely distributed, a weight for use when calculating a degree of scatter in a class is varied greater. The degree of scatter is calculated on the basis of a value corresponding to a learning pattern being classified by a discrimination means learned by feedbacking the calculated estimation value. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、学習装置、学習方法、学習プログラム、記録媒体、パターン認識装置およびパターン認識方法に関し、特に、学習に基づいた処理を行なう学習装置、学習方法、学習プログラム、記録媒体、パターン認識装置およびパターン認識方法に関する。   The present invention relates to a learning device, a learning method, a learning program, a recording medium, a pattern recognition device, and a pattern recognition method, and in particular, a learning device, a learning method, a learning program, a recording medium, a pattern recognition device that perform processing based on learning, and The present invention relates to a pattern recognition method.

近年、CCD(Charge Coupled Device)等の画像撮像デバイスやパーソナルコンピュ一タ等の画像処理機器の低価格化により、画像処理の適用分野が広がりつつある。とりわけ、産業分野における欠陥検査への画像処理の適用は広範に渡る。たとえば、製品デバイスの歩留まりおよび品質の向上、目視検査員削減によるコストダウン等のために、画像処理は、ますますその必要性を高めている。   2. Description of the Related Art In recent years, application fields of image processing have been expanding due to lower prices of image capturing devices such as CCD (Charge Coupled Device) and image processing equipment such as personal computers. In particular, the application of image processing to defect inspection in the industrial field is extensive. For example, image processing is becoming more and more necessary in order to improve the yield and quality of product devices and to reduce costs by reducing the number of visual inspectors.

そこで、現状では欠陥検査のために、対象とする製品やデバイスに合わせて多種多様な画像処理アルゴリズムが開発されている。これは、欠陥検査向けの画像処理アルゴリズムは欠陥対象毎に専用設計することが一般的であり、一度設計した画像処理アルゴリズムを他の欠陥検査に適用できない場合が多いことに起因する。つまり、一度開発した画像処理アルゴリズムの再利用性はほとんど無く、適用分野および検査対象の拡大に比例して開発工数は増加してゆく。   Therefore, at present, various image processing algorithms have been developed for defect inspection in accordance with target products and devices. This is because the image processing algorithm for defect inspection is generally designed exclusively for each defect target, and the image processing algorithm once designed cannot be applied to other defect inspections in many cases. In other words, there is almost no reusability of the image processing algorithm once developed, and the development man-hours increase in proportion to the expansion of application fields and inspection objects.

画像処理アルゴリズムの開発は、設計工程と調整工程とから構成される。特に調整工程では各種のパラメータ変更とその評価を試行錯誤的に繰り返す。画像処理アルゴリズムの開発フローは、おおむね次の通りである。   Development of an image processing algorithm consists of a design process and an adjustment process. Especially in the adjustment process, various parameter changes and evaluations are repeated by trial and error. The development flow of the image processing algorithm is roughly as follows.

まず、対象とする欠陥を含む欠陥画像データサンプルおよび欠陥を含まない良品画像データサンプルをそれぞれ複数取得する。そして、取得した欠陥画像データサンプルのうちから、検出が困難と思われる欠陥を含む欠陥画像データサンプルである限界欠陥画像データサンプルを選択する。その後、欠陥や背景の特徴から画像の正規化、ノイズ除去、2値化処理、2値画像形状計測などの基本となる画像処理の大まかな手順を決定する。ここまでが、画像処理アルゴリズムの開発における設計作業と位置付けられる。   First, a plurality of defect image data samples including a target defect and a plurality of non-defective image data samples including no defect are acquired. Then, a limit defect image data sample that is a defect image data sample including a defect that is considered difficult to detect is selected from the acquired defect image data samples. Thereafter, a rough procedure of basic image processing, such as image normalization, noise removal, binarization processing, and binary image shape measurement, is determined from the features of the defect and the background. The process up to here is positioned as a design work in the development of an image processing algorithm.

次に、上述の基本となる画像処理を、限界欠陥画像データサンプルに適用した際に欠陥のみが検出されるように、画像処理の手順を構成するフィルタの処理回数、フィルタ形状およびしきい値などのパラメータ値の変更を行なう。そして、パラメータ値を変更した後の画像処理が適用された限界欠陥画像データサンプルを評価することにより、ベースとなる画像処理アルゴリズムを作成する。ここで、評価とは、対象とする欠陥のみが検出され、他に何も検出されない場合が最良となるものである。   Next, the number of filter processes, filter shapes, threshold values, etc. that constitute the image processing procedure so that only defects are detected when the above basic image processing is applied to the limit defect image data sample. Change the parameter value. Then, by evaluating the limit defect image data sample to which the image processing after changing the parameter value is applied, a base image processing algorithm is created. Here, the evaluation is best when only a target defect is detected and nothing else is detected.

さらに、限界欠陥画像データサンプルのみならず全ての欠陥画像データサンプルに含まれる欠陥が検出され、良品画像データサンプルからは何も検出されなくなるまでベースとなる画像処理アルゴリズムのパラメータの変更および評価を繰り返すことにより、画像処理アルゴリズムの開発は完了する。   Further, the defect included in all the defect image data samples as well as the limit defect image data sample is detected, and the parameter change and evaluation of the base image processing algorithm are repeated until nothing is detected from the non-defective image data sample. This completes the development of the image processing algorithm.

しかしながら、通常は全ての欠陥画像データサンプルに含まれる欠陥を検出し、全ての良品画像データサンプルから何も検出しない画像処理アルゴリズムを開発することは困難である。すなわち、一部の真欠陥を検出できない場合(未検出)や、欠陥でない部位である擬似欠陥を検出する場合(過検出)は避けられない。以下においては、画像処理アルゴリズムにより検出されるべき欠陥を真欠陥という。また、画像処理アルゴリズムにより検出すべきでない部位にもかかわらず欠陥と誤判定されて検出されたものを擬似欠陥と呼ぶ。   However, it is usually difficult to develop an image processing algorithm that detects defects contained in all defect image data samples and detects nothing from all non-defective image data samples. That is, a case where some of the true defects cannot be detected (undetected) or a case where a pseudo defect which is a non-defect portion is detected (overdetection) is inevitable. Hereinafter, a defect to be detected by the image processing algorithm is referred to as a true defect. In addition, a defect that is erroneously determined as a defect even though it should not be detected by the image processing algorithm is called a pseudo defect.

以下においては、画像処理アルゴリズムを生成するための画像データを学習画像データともいう。ここで、学習画像データとは、あらかじめ欠陥等の抽出対象物の画像内における位置、大きさ、形状等のデータ(以下、欠陥見本情報という)が作業者によって付与されている画像データである。   Hereinafter, image data for generating an image processing algorithm is also referred to as learning image data. Here, the learning image data is image data in which data such as position, size, shape, etc. in an image of an extraction target object such as a defect (hereinafter referred to as defect sample information) is given in advance by an operator.

欠陥等の抽出対象物の画像内における欠陥見本情報を指定する作業は、依然として作業者によって行われる。したがって、作業者の感覚、経験あるいは疲労状態などによって、欠陥見本情報の指定がばらついたり、欠陥部位が見逃されたり、欠陥でない部位を真欠陥として誤指定する場合がある。   The operation of designating defect sample information in the image of the extraction object such as a defect is still performed by the operator. Accordingly, there is a case where the designation of the defect sample information varies depending on the operator's sense, experience, fatigue state, or the like, the defective part is missed, or a non-defective part is erroneously designated as a true defect.

以下においては、これらを総称して欠陥見本情報変動と呼ぶことにする。ここで、欠陥見本情報の指定のばらつきとは、たとえば、欠陥の位置がずれて指定される場合や欠陥の形状指定が大きすぎたり,小さすぎたりする場合である。   Hereinafter, these are collectively referred to as defect sample information fluctuation. Here, the variation in the designation of the defect sample information is, for example, a case where the position of the defect is designated by being shifted, or a case where the designation of the shape of the defect is too large or too small.

このような欠陥見本情報変動は、特徴抽出手段が抽出する特徴量に影響を及ぼし、さらに評価手段が算出する評価直に大きな影響を与えてしまう。最終的には、画像処理アルゴリズムを正しく学習させることが困難となる。   Such a variation in defect sample information affects the feature amount extracted by the feature extraction unit, and further greatly affects the evaluation directly calculated by the evaluation unit. Eventually, it becomes difficult to correctly learn the image processing algorithm.

また、画像処理アルゴリズムでは、未検出を避けるために画像処理アルゴリズムの欠陥検出感度を上げるようにパラメータの調整を行なうと過検出が発生する。また、画像処理アルゴリズムでは、過検出を避けるために欠陥検出感度を下げると未検出が発生する。すなわち、未検出と過検出との間にはトレードオフが存在する。したがって、画像処理アルゴリズム開発におけるパラメータ調整と評価作業は、非常に困難である。このように、画像処理アルゴリズムの開発においては、これらの経験的かつ試行錯誤的なパラメータ調整と評価作業に非常に多くの工数を要する。   In the image processing algorithm, over-detection occurs when parameters are adjusted to increase the defect detection sensitivity of the image processing algorithm in order to avoid undetection. In the image processing algorithm, if the defect detection sensitivity is lowered in order to avoid overdetection, non-detection occurs. That is, there is a trade-off between undetected and overdetected. Therefore, parameter adjustment and evaluation work in image processing algorithm development is very difficult. As described above, in the development of an image processing algorithm, a great amount of man-hours are required for these empirical and trial and error parameter adjustments and evaluation operations.

そこで、周向栄,他4名,「3次元画像処理エキスパートシステム3D−IMPRESS−Proの改良と肺がん陰影検出手順の自動構成への応用」,コンピュータ支援画像診断学会論文誌,May 2000,Vol.4,No.1(非特許文献1)では、異常陰影を見逃すことなく検出する場合と、真の異常陰影に対応しない部位を検出する場合を考慮して画像処理アルゴリズムを自動生成する技術(以下、従来技術Aともいう)が提案されている。具体的には、所定の未検出率と所定の過検出率を考慮した評価値を算出し、その評価値に基づいて、画像処理アルゴリズムを学習させている。
周向栄,他4名,「3次元画像処理エキスパートシステム3D−IMPRESS−Proの改良と肺がん陰影検出手順の自動構成への応用」,コンピュータ支援画像診断学会論文誌,May 2000,Vol.4,No.1
So, Zhou Muei, 4 others, “Improvement of 3D image processing expert system 3D-IMPRESS-Pro and application to automatic configuration of lung cancer shadow detection procedure”, Journal of Computer Aided Diagnosis Society, May 2000, Vol. In No. 1 (Non-Patent Document 1), a technique for automatically generating an image processing algorithm in consideration of a case where detection is performed without missing an abnormal shadow and a case where a part not corresponding to a true abnormal shadow is detected (hereinafter, conventional) Technology A) is also proposed. Specifically, an evaluation value considering a predetermined non-detection rate and a predetermined overdetection rate is calculated, and an image processing algorithm is learned based on the evaluation value.
Ei Zhou Mukai, 4 others, “Improvement of 3D image processing expert system 3D-IMPRESS-Pro and application to automatic configuration of lung cancer shadow detection procedure”, Journal of Computer Aided Imaging Society, May 2000, Vol. 1

しかしながら、従来技術Aは、未検出もしくは過検出となった学習パターンの数のみに着目して評価値を算出している。つまり、評価値は、その学習パターンの特徴量がどのような値であったかどうかを考慮していない。したがって、未検出率および過検出率が等しい2つの学習アルゴリズムの優劣を判定することができない。   However, in the conventional technique A, the evaluation value is calculated by paying attention only to the number of learning patterns that are not detected or overdetected. In other words, the evaluation value does not consider what value the feature amount of the learning pattern is. Therefore, it is impossible to determine the superiority or inferiority of two learning algorithms having the same undetected rate and overdetected rate.

上述したように、特徴量の変動は、欠陥見本情報変動によって引き起こされる。しかしながら、さまざまな欠陥見本情報変動を考慮した学習方法はこれまで提案されていない。   As described above, the variation of the feature amount is caused by the variation of the defect sample information. However, no learning method has been proposed so far in consideration of various defect sample information fluctuations.

本発明は、上述の問題点を解決するためになされたものであって、その目的は、欠陥見本情報変動がある場合でも、より正確に学習可能な学習装置を提供することである。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a learning apparatus that can learn more accurately even when there is a variation in defect sample information.

本発明の他の目的は、欠陥見本情報変動がある場合でも、より正確に学習可能な学習方法を提供することである。   Another object of the present invention is to provide a learning method that allows more accurate learning even when there is a variation in defect sample information.

本発明のさらに他の目的は、欠陥見本情報変動がある場合でも、より正確に学習可能な学習プログラムを提供することである。   Still another object of the present invention is to provide a learning program that can learn more accurately even when there is a variation in defect sample information.

本発明のさらに他の目的は、欠陥見本情報変動がある場合でも、より正確に学習可能な学習プログラムを記録した記録媒体を提供することである。   Still another object of the present invention is to provide a recording medium that records a learning program that can be more accurately learned even when there is a variation in defect sample information.

本発明のさらに他の目的は、パターンをより正確に識別可能なパターン認識装置を提供することである。   Still another object of the present invention is to provide a pattern recognition apparatus that can more accurately identify a pattern.

本発明のさらに他の目的は、パターンをより正確に識別可能なパターン認識方法を提供することである。   Still another object of the present invention is to provide a pattern recognition method capable of more accurately identifying a pattern.

上述の課題を解決するために、この発明のある局面に従う学習装置は、予め所属クラスが指定された複数の学習パターンに前処理を施す前処理手段と、前処理が施された複数の学習パターンの各々から、特徴量を抽出する特徴抽出手段と、複数の学習パターンの各々を、対応する特徴量の値に基づいて、複数種類のクラスのいずれかに分類する識別手段と、複数種類のクラスの各々に分類された、複数の学習パターンの各々に対応する特徴量の値に対し、対応するクラス内の分布状態を示すクラス内散らばり度を、複数種類のクラス毎に算出し、さらに、複数種類のクラス間の分布状態を示すクラス間散らばり度を算出する算出手段と、クラス内散らばり度が小さくなる程評価値が大きくなることと、クラス間散らばり度が大きくなる程評価値が大きくなることをいずれか一つないしは両方を満たす評価値を算出する評価手段とを備え、評価手段は、評価値が高くなるように、算出した評価値をフィードバックさせることで、前処理手段、特徴抽出手段ないしは識別手段の少なくとも一つを学習させ、算出手段は、複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、クラス内散らばり度を算出する際の重み付けを変化させる。   In order to solve the above-described problem, a learning device according to an aspect of the present invention includes a pre-processing unit that pre-processes a plurality of learning patterns in which an assigned class is designated in advance, and a plurality of learning patterns that have been subjected to pre-processing. A feature extraction means for extracting a feature quantity from each of the above, an identification means for classifying each of the plurality of learning patterns into one of a plurality of classes based on the value of the corresponding feature quantity, and a plurality of classes For each feature class value corresponding to each of a plurality of learning patterns, a class dispersion degree indicating a distribution state in the corresponding class is calculated for each of a plurality of types of classes. A calculation means for calculating the degree of inter-class dispersion indicating the distribution state between classes, and the evaluation value increases as the degree of intra-class dispersion decreases, and the degree of evaluation increases as the degree of inter-class dispersion increases. And an evaluation means for calculating an evaluation value that satisfies one or both of the increase of the evaluation value, and the evaluation means feeds back the calculated evaluation value so that the evaluation value becomes high, so that the preprocessing means , Learning at least one of the feature extraction means or the identification means, and the calculation means increases the degree of dispersion in the class as the feature value that is far from the range in which the feature value for each of a plurality of types of classes is distributed most frequently. The weight for calculation is changed.

好ましくは、算出手段は、複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、重み付けを小さくして、複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値に基づいたクラス内平均を、複数種類のクラス毎に算出し、クラス内平均からの散らばり程度を表すクラス内散らばり度を、複数種類のクラス毎に算出し、複数種類のクラス毎に対応するクラス内平均に基づいて、クラス間散らばり度を算出する。   Preferably, the calculation unit reduces the weights as the feature amount values away from the range in which the feature amount values for each of the plurality of types of classes are most distributed, and the plurality of types corresponding to each of the plurality of types of classes. Intra-class average based on multiple feature values corresponding to each of the learning patterns is calculated for each of multiple types of classes, and the intra-class dispersion level indicating the degree of dispersion from the in-class average is calculated for each of multiple types of classes. And the inter-class scatter degree is calculated based on the average within the class corresponding to each of a plurality of types of classes.

好ましくは、算出手段は、複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応するクラス内平均候補との複数の距離を、複数種類のクラス毎に算出し、複数の距離の各々に対し、複数の距離の各々の値が大きい程、算出する値が小さくなる重み付けを行なった重み付き距離を、複数種類のクラス毎に算出し、算出した複数の重み付き距離を、複数種類のクラスの各々に対応する学習パターンの数に基づいて平均化することでクラス内散らばり度候補を、複数種類のクラス毎に算出し、クラス内散らばり度候補が最小となるクラス内平均候補を、クラス内平均として算出し、最小となったクラス内散らばり度候補を、クラス内散らばり度候補として算出する。   Preferably, the calculating means calculates a plurality of distances between a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of a plurality of types of classes and an in-class average candidate corresponding to the corresponding class, Calculate for each class of multiple types, and for each of the multiple distances, calculate the weighted distance for each of the multiple types of classes. Then, by averaging the calculated multiple weighted distances based on the number of learning patterns corresponding to each of the multiple types of classes, the within-class dispersion degree candidates are calculated for each of the multiple types of classes. The intra-class average candidate that minimizes the dispersion degree candidate is calculated as the intra-class average, and the intra-class dispersion degree candidate that is minimized is calculated as the intra-class dispersion degree candidate.

好ましくは、算出手段がクラス内散らばり度を算出するための平均化は、算術平均である。   Preferably, the averaging for calculating the degree of dispersion within the class by the calculating means is an arithmetic average.

好ましくは、複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応するクラス内平均との複数の距離を、複数種類のクラス毎に算出し、複数の距離の各々に対し、所定のべき乗値でべき乗したべき乗距離を、複数種類のクラス毎に算出し、算出した複数のべき乗距離の分布に基づく中央値をクラス内散らばり度として、複数種類のクラス毎に算出する。   Preferably, a plurality of distances between a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of a plurality of types of classes and an in-class average corresponding to the corresponding class are set for each of the plurality of types of classes. For each of a plurality of distances, a power distance that is a power of a predetermined power value is calculated for each of a plurality of types of classes, and a median value based on the distribution of the calculated power distances is defined as the degree of dispersion within the class. Calculate for each of multiple types of classes.

好ましくは、べき乗値は2である。
好ましくは、距離は、ユークリッド距離である。
Preferably, the power value is 2.
Preferably, the distance is an Euclidean distance.

好ましくは、評価手段は、クラス間散らばり度を、複数種類のクラスのそれぞれに対応した複数のクラス内散らばり度の合計値で除算した値を、評価値として算出する。   Preferably, the evaluation unit calculates, as an evaluation value, a value obtained by dividing the inter-class dispersion degree by the total value of the plurality of intra-class dispersion degrees corresponding to each of the plurality of types of classes.

好ましくは、識別手段が、学習パターンを、予め指定された所属クラス以外のクラスに分類したことを、誤指定と判定する誤指定判定手段をさらに備え、誤指定判定手段は、誤指定の対象となった学習パターンを、評価手段が算出する評価値を算出する対象となる学習パターンから除外する。   Preferably, the identification unit further includes an erroneous specification determination unit that determines that the learning pattern is classified into a class other than the previously specified belonging class as an erroneous specification, and the erroneous specification determination unit is a target of erroneous specification. The learned pattern is excluded from the learning pattern that is the target for calculating the evaluation value calculated by the evaluation means.

好ましくは、学習パターンは画像であり、前処理は、所定の画像処理アルゴリズムに基づいた画像処理を学習パターンに施す処理であり、評価手段は、評価値に基づいて、画像処理アルゴリズムを変化させる。   Preferably, the learning pattern is an image, the preprocessing is processing for applying image processing based on a predetermined image processing algorithm to the learning pattern, and the evaluation unit changes the image processing algorithm based on the evaluation value.

好ましくは、評価手段は、画像処理アルゴリズムを、遺伝的アルゴリズムに基づいて変化させる。   Preferably, the evaluation unit changes the image processing algorithm based on a genetic algorithm.

この発明の他の局面に従う学習方法は、予め所属クラスが指定された複数の学習パターンに前処理を施す工程と、前処理が施された複数の学習パターンの各々から、特徴量を抽出する工程と、複数の学習パターンの各々を、対応する特徴量の値に基づいて、複数種類のクラスのいずれかに分類する工程と、複数種類のクラスの各々に分類された、複数の学習パターンの各々に対応する特徴量の値に対し、対応するクラス内の分布状態を示すクラス内散らばり度を、複数種類のクラス毎に算出し、さらに、複数種類のクラス間の分布状態を示すクラス間散らばり度を算出する工程と、クラス内散らばり度が小さくなる程評価値が大きくなることと、クラス間散らばり度が大きくなる程評価値が大きくなることをいずれか一つないしは両方を満たす評価値を算出する工程とを含み、評価値を算出する工程は、評価値が高くなるように、算出した評価値をフィードバックさせることで前処理を施す工程、抽出する工程ないしは分類する工程の少なくとも一つを学習させる工程を含み、算出する工程は、複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、クラス内散らばり度を算出する際の重み付けを変化させる工程を含む。   A learning method according to another aspect of the present invention includes a step of performing preprocessing on a plurality of learning patterns for which an assigned class is specified in advance, and a step of extracting feature amounts from each of the plurality of learning patterns on which preprocessing has been performed. And classifying each of the plurality of learning patterns into one of a plurality of types of classes based on the corresponding feature value, and each of the plurality of learning patterns classified into each of the plurality of types of classes For the feature value corresponding to, calculate the degree of intra-class dispersion indicating the distribution state in the corresponding class for each of multiple types of classes, and further, the degree of inter-class dispersion indicating the distribution state between multiple types of classes The evaluation value increases as the degree of dispersion within the class decreases, and the evaluation value increases as the degree of dispersion between classes increases. A step of calculating an evaluation value, and the step of calculating the evaluation value includes at least a step of performing a pre-processing by feeding back the calculated evaluation value so as to increase the evaluation value, a step of extracting or a step of classifying The step of calculating includes the step of learning one, and the step of calculating is weighting when calculating the degree of dispersion within the class as the value of the feature amount that is far from the range in which the value of the feature amount for each of a plurality of types of classes is the most distributed The process of changing is included.

好ましくは、クラス間散らばり度を算出する工程は、複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、重み付けを小さくして、複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値に基づいたクラス内平均を、複数種類のクラス毎に算出する工程と、クラス内平均からの散らばり程度を表すクラス内散らばり度を、複数種類のクラス毎に算出する工程と、複数種類のクラス毎に対応するクラス内平均に基づいて、クラス間散らばり度を算出する工程とを含む。   Preferably, the step of calculating the degree of inter-class dispersion is performed by reducing the weights of feature values that are farther away from the range in which the feature values for each of the plurality of types of classes are the most distributed. A step of calculating an average within a class for each of a plurality of types of classes based on a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of the patterns, and an intra-class dispersion indicating a degree of dispersion from the intra-class average A step of calculating the degree for each of a plurality of types of classes, and a step of calculating a degree of scatter among classes based on an average within the class corresponding to each of the plurality of types of classes.

好ましくは、クラス間散らばり度を算出する工程は、複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応するクラス内平均候補との複数の距離を、複数種類のクラス毎に算出する工程と、複数の距離の各々に対し、複数の距離の各々の値が大きい程、算出する値が小さくなる重み付けを行なった重み付き距離を、複数種類のクラス毎に算出する工程と、算出した複数の重み付き距離を、複数種類のクラスの各々に対応する学習パターンの数に基づいて平均化することでクラス内散らばり度候補を、複数種類のクラス毎に算出し、クラス内散らばり度候補が最小となるクラス内平均候補を、クラス内平均として算出し、最小となったクラス内散らばり度候補を、クラス内散らばり度候補として算出する工程とを含む。   Preferably, the step of calculating the inter-class dispersion degree includes a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of a plurality of types of classes, and an intra-class average candidate corresponding to the corresponding class. Calculating a plurality of distances for each of a plurality of types of classes, and for each of the plurality of distances, a weighted distance that is weighted so that the calculated value decreases as the value of each of the plurality of distances increases. The process of calculating for each of a plurality of types of classes, and the plurality of calculated weighted distances are averaged based on the number of learning patterns corresponding to each of the plurality of types of classes, thereby generating a plurality of in-class dispersion degree candidates. Calculate for each type of class, calculate the within-class average candidate that minimizes the within-class dispersion degree candidate as the within-class average, and select the within-class dispersion degree candidate that has the smallest within-class dispersion And a step of calculating a burr of candidates.

好ましくは、クラス間散らばり度を算出する工程がクラス内散らばり度を算出するための平均化は、算術平均である。   Preferably, the averaging for calculating the inter-class dispersion degree in the step of calculating the inter-class dispersion degree is an arithmetic average.

好ましくは、クラス間散らばり度を算出する工程は、複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応するクラス内平均との複数の距離を、複数種類のクラス毎に算出する工程と、複数の距離の各々に対し、所定のべき乗値でべき乗したべき乗距離を、複数種類のクラス毎に算出する工程と、算出した複数のべき乗距離の分布に基づく中央値をクラス内散らばり度として、複数種類のクラス毎に算出する工程とを含む。   Preferably, the step of calculating the inter-class dispersion degree includes a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of a plurality of types of classes, and an in-class average corresponding to the corresponding class. A step of calculating a plurality of distances for each of a plurality of types of classes, a step of calculating, for each of the plurality of types of classes, a power distance that should be a power of a predetermined power value for each of the plurality of distances, And calculating a median value based on the power-distance distribution as the degree of dispersion within the class for each of a plurality of types of classes.

好ましくは、べき乗値は2である。
好ましくは、距離は、ユークリッド距離である。
Preferably, the power value is 2.
Preferably, the distance is an Euclidean distance.

好ましくは、評価値を算出する工程は、クラス間散らばり度を、複数種類のクラスのそれぞれに対応した複数のクラス内散らばり度の合計値で除算した値を、評価値として算出する工程を含む。   Preferably, the step of calculating the evaluation value includes a step of calculating, as the evaluation value, a value obtained by dividing the inter-class dispersion degree by the total value of the plurality of intra-class dispersion degrees corresponding to each of the plurality of types of classes.

好ましくは、分類する工程が、学習パターンを、予め指定された所属クラス以外のクラスに分類したことを、誤指定と判定する工程をさらに含み、
誤指定と判定する工程は、誤指定の対象となった学習パターンを、評価値を算出する工程が算出する評価値を算出する対象となる学習パターンから除外する工程を含む。
Preferably, the step of classifying further includes the step of determining that the learning pattern is classified into a class other than a previously designated affiliation class as an erroneous designation,
The step of determining that the designation is incorrect includes a step of excluding the learning pattern that is the target of erroneous designation from the learning pattern that is the target of calculating the evaluation value calculated by the step of calculating the evaluation value.

好ましくは、学習パターンは画像であり、前処理は、所定の画像処理アルゴリズムに基づいた画像処理を学習パターンに施す処理であり、評価値を算出する工程は、評価値に基づいて、画像処理アルゴリズムを変化させる工程を含む。   Preferably, the learning pattern is an image, and the preprocessing is processing for performing image processing based on a predetermined image processing algorithm on the learning pattern, and the step of calculating the evaluation value is based on the evaluation value. The process of changing is included.

好ましくは、評価値を算出する工程は、画像処理アルゴリズムを、遺伝的アルゴリズムに基づいて変化させる工程を含む。   Preferably, the step of calculating the evaluation value includes a step of changing the image processing algorithm based on a genetic algorithm.

この発明のさらに他の局面に従うと、コンピュータに学習処理を実行させるための学習プログラムは、予め所属クラスが指定された複数の学習パターンに前処理を施すステップと、前処理が施された複数の学習パターンの各々から、特徴量を抽出するステップと、複数の学習パターンの各々を、対応する特徴量の値に基づいて、複数種類のクラスのいずれかに分類するステップと、複数種類のクラスの各々に分類された、複数の学習パターンの各々に対応する特徴量の値に対し、対応するクラス内の分布状態を示すクラス内散らばり度を、複数種類のクラス毎に算出し、さらに、複数種類のクラス間の分布状態を示すクラス間散らばり度を算出するステップと、クラス内散らばり度が小さくなる程評価値が大きくなることと、クラス間散らばり度が大きくなる程評価値が大きくなることをいずれか一つないしは両方を満たす評価値を算出するステップとをコンピュータに実行させ、評価値を算出するステップは、評価値が高くなるように、算出した評価値をフィードバックさせることで前処理を施すステップ、抽出するステップないしは分類するステップの少なくとも一つを学習させるステップを含み、算出するステップは、複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、クラス内散らばり度を算出する際の重み付けを変化させるステップを含む。   According to still another aspect of the present invention, a learning program for causing a computer to execute a learning process includes a step of performing preprocessing on a plurality of learning patterns in which a belonging class is designated in advance, and a plurality of preprocessed plurality of learning patterns. Extracting a feature amount from each of the learning patterns, classifying each of the plurality of learning patterns into one of a plurality of classes based on the corresponding feature value, and a plurality of classes For each feature value corresponding to each of a plurality of learning patterns classified into each class, the degree of intra-class dispersion indicating the distribution state in the corresponding class is calculated for each of a plurality of types of classes. A step of calculating the inter-class dispersion degree indicating the distribution state between the classes, the evaluation value increases as the intra-class dispersion degree decreases, and the inter-class dispersion degree. Calculating the evaluation value that satisfies one or both of the fact that the evaluation value increases as the degree increases, and the step of calculating the evaluation value causes the evaluation value to increase. Including a step of performing preprocessing by feeding back the calculated evaluation value, and a step of learning at least one of a step of extracting or classifying, wherein the step of calculating has the largest feature value for each of a plurality of types of classes. The step of changing the weight at the time of calculating the degree of dispersion in the class is included as the value of the feature amount that is far from the range in which many are distributed.

この発明のさらに他の局面に従うと、記録媒体は、学習プログラムを記録した媒体である。   According to still another aspect of the present invention, the recording medium is a medium on which a learning program is recorded.

この発明のさらに他の局面に従うパターン認識装置は、画像処理アルゴリズムを用いて、処理対象画像のパターンを認識する。   A pattern recognition apparatus according to still another aspect of the present invention recognizes a pattern of a processing target image using an image processing algorithm.

この発明のさらに他の局面に従うパターン認識方法は、画像処理アルゴリズムを用いて、処理対象画像のパターンを認識する。   A pattern recognition method according to still another aspect of the present invention recognizes a pattern of a processing target image using an image processing algorithm.

本発明に係る学習装置は、クラス内散らばり度が小さくなる程値が大きくなる評価値を算出する上で、値が最も多く分布している範囲から離れる値ほど、クラス内散らばり度を算出する際の重み付けを変化させる。クラス内散らばり度は、算出した評価値をフィードバックさせることで学習させる識別手段により分類された学習パターンに対応する値に基づいて算出される。   The learning device according to the present invention calculates an evaluation value that increases as the degree of dispersion within the class decreases, and calculates the degree of dispersion within the class as the value is farther from the range in which the values are most distributed. Change the weight of. The degree of dispersion within the class is calculated based on a value corresponding to the learning pattern classified by the discriminating means that learns by feeding back the calculated evaluation value.

したがって、より正確なクラス内散らばり度を算出することができるため、より正確な評価値を算出することができる。その結果、より正確に学習することができるという効果を奏する。   Therefore, a more accurate evaluation value can be calculated because a more accurate dispersion degree within the class can be calculated. As a result, it is possible to learn more accurately.

本発明に係る学習方法は、クラス内散らばり度が小さくなる程値が大きくなる評価値を算出する上で、値が最も多く分布している範囲から離れる値ほど、クラス内散らばり度を算出する際の重み付けを変化させる。クラス内散らばり度は、算出した評価値をフィードバックさせることで学習させる分類する工程により分類された学習パターンに対応する値に基づいて算出される。   The learning method according to the present invention calculates an evaluation value that increases as the degree of dispersion within the class decreases. When calculating the degree of dispersion within a class as a value that is far from the range in which the values are most distributed. Change the weight of. The degree of dispersion within the class is calculated based on the value corresponding to the learning pattern classified by the classification step of learning by feeding back the calculated evaluation value.

したがって、より正確なクラス内散らばり度を算出することができるため、より正確な評価値を算出することができる。その結果、より正確に学習することができるという効果を奏する。   Therefore, a more accurate evaluation value can be calculated because a more accurate dispersion degree within the class can be calculated. As a result, it is possible to learn more accurately.

本発明に係る学習プログラムは、クラス内散らばり度が小さくなる程値が大きくなる評価値を算出する上で、値が最も多く分布している範囲から離れる値ほど、クラス内散らばり度を算出する際の重み付けを変化させる。クラス内散らばり度は、算出した評価値をフィードバックさせることで学習させる分類するステップにより分類された学習パターンに対応する値に基づいて算出される。   The learning program according to the present invention calculates an evaluation value that increases as the degree of dispersion within the class decreases. When calculating the degree of dispersion within the class, the value farther from the range in which the values are most distributed is calculated. Change the weight of. The degree of dispersion within the class is calculated based on a value corresponding to the learning pattern classified by the classification step of learning by feeding back the calculated evaluation value.

したがって、より正確なクラス内散らばり度を算出することができるため、より正確な評価値を算出することができる。その結果、より正確に学習することができるという効果を奏する。   Therefore, a more accurate evaluation value can be calculated because a more accurate dispersion degree within the class can be calculated. As a result, it is possible to learn more accurately.

本発明に係る記録媒体は、学習プログラムを記録する。学習プログラムは、クラス内散らばり度が小さくなる程値が大きくなる評価値を算出する上で、値が最も多く分布している範囲から離れる値ほど、クラス内散らばり度を算出する際の重み付けを変化させる。クラス内散らばり度は、算出した評価値をフィードバックさせることで学習させる分類するステップにより分類された学習パターンに対応する値に基づいて算出される。   The recording medium according to the present invention records a learning program. The learning program calculates an evaluation value that increases as the degree of dispersion within the class decreases, and changes the weight when calculating the degree of dispersion within the class as the value moves away from the most widely distributed range. Let The degree of dispersion within the class is calculated based on a value corresponding to the learning pattern classified by the classification step of learning by feeding back the calculated evaluation value.

したがって、より正確なクラス内散らばり度を算出することができるため、より正確な評価値を算出することができる。その結果、より正確に学習することができるという効果を奏する。   Therefore, a more accurate evaluation value can be calculated because a more accurate dispersion degree within the class can be calculated. As a result, it is possible to learn more accurately.

本発明に係るパターン認識装置は、識別率をより高くさせるための画像処理アルゴリズムを使用して、処理対象画像のパターンを認識する。   The pattern recognition apparatus according to the present invention recognizes a pattern of a processing target image using an image processing algorithm for further increasing the identification rate.

したがって、より正確に、パターンを識別することができるという効果を奏する。
本発明に係るパターン認識方法は、識別率をより高くさせるための画像処理アルゴリズムを使用して、処理対象画像のパターンを認識する。
Therefore, there is an effect that the pattern can be identified more accurately.
The pattern recognition method according to the present invention recognizes a pattern of an image to be processed using an image processing algorithm for increasing the identification rate.

したがって、より正確に、パターンを識別することができるという効果を奏する。   Therefore, there is an effect that the pattern can be identified more accurately.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
図1は、本実施の形態における学習装置500の内部の構成を示すブロック図である。学習装置500は、たとえば、PC(Personal Computer)やワークステーション等のコンピュータである。なお、図1には、説明のために、記録媒体555、画像データ入力部600も示している。記録媒体555には、後述するプログラム180が記録されている。すなわち、プログラム180は、媒体等に記録されてプログラム製品として流通される。また、記録媒体555もプログラム製品として流通される。
<First Embodiment>
FIG. 1 is a block diagram showing an internal configuration of learning apparatus 500 in the present embodiment. The learning device 500 is, for example, a computer such as a PC (Personal Computer) or a workstation. Note that FIG. 1 also shows a recording medium 555 and an image data input unit 600 for explanation. A recording medium 555 stores a program 180 described later. That is, the program 180 is recorded on a medium or the like and distributed as a program product. The recording medium 555 is also distributed as a program product.

画像データ入力部600は、詳細は後述するが、学習装置500に画像データを送信する機能を有する。   Although details will be described later, the image data input unit 600 has a function of transmitting image data to the learning device 500.

図1を参照して、学習装置500には、表示部530と、マウス542と、キーボード544とが接続される。   With reference to FIG. 1, a display unit 530, a mouse 542, and a keyboard 544 are connected to the learning apparatus 500.

表示部530は、ユーザに各種情報を、文字や画像等で表示する機能を有する。表示部530は、学習装置500から出力された画像データに基づいた画像を表示する。表示部530は、液晶ディスプレイ(LCD(Liquid Crystal Display))、CRT(Cathode Ray Tube)、FED(Field Emission Display)、PDP(Plasma Display Panel)、有機ELディスプレイ(Organic Electro luminescence Display)、ドットマトリクス等その他の画像表示方式の表示機器のいずれであってもよい。   The display unit 530 has a function of displaying various types of information as characters, images, and the like to the user. Display unit 530 displays an image based on the image data output from learning device 500. The display unit 530 is a liquid crystal display (LCD (Liquid Crystal Display)), a CRT (Cathode Ray Tube), an FED (Field Emission Display), a PDP (Plasma Display Panel), an organic EL display (Organic Electroluminescence Display), a dot matrix, or the like. Any other display device of an image display method may be used.

マウス542は、ユーザが学習装置500を操作するためのインターフェースである。キーボード544は、ユーザが学習装置500を操作するためのインターフェースである。なお、表示部530およびキーボード544は、学習装置500の内部に設けられる構成であってもよい。また、マウス542は、たとえば、タッチパッド等として、学習装置500の内部に設けられる構成であってもよい。また、学習装置500には、ペンタブレットが入力機器として接続されていてもよい。   The mouse 542 is an interface for the user to operate the learning device 500. The keyboard 544 is an interface for the user to operate the learning apparatus 500. Note that the display unit 530 and the keyboard 544 may be provided inside the learning apparatus 500. Moreover, the structure provided in the inside of the learning apparatus 500 may be sufficient as the mouse | mouth 542 as a touchpad etc., for example. Further, a pen tablet may be connected to the learning apparatus 500 as an input device.

学習装置500は、制御部510と、データ一時記憶部522と、記憶部520と、通信部560と、通信部562と、VDP(Video Display Processor)532と、CGROM(Character Graphic Read Only Memory)534と、VRAM(Video Random Access Memory)536と、入力部540と、記録媒体アクセス部550とを含む。   The learning device 500 includes a control unit 510, a data temporary storage unit 522, a storage unit 520, a communication unit 560, a communication unit 562, a VDP (Video Display Processor) 532, and a CGROM (Character Graphic Read Only Memory) 534. A VRAM (Video Random Access Memory) 536, an input unit 540, and a recording medium access unit 550.

CGROM534には、フォントデータ、図形データなど、VDP532が、表示部530で表示される画像を生成するための画像データが記憶されている。   The CGROM 534 stores image data such as font data and graphic data for the VDP 532 to generate an image displayed on the display unit 530.

記憶部520には、制御部510に後述する処理を行なわせるためのプログラム180、画像処理アルゴリズムに学習させるための学習用画像データベース182、その他各種プログラムおよびデータ等が記憶されている。記憶部520は、制御部510によってデータアクセスされる。なお、学習用画像データベース182は、各々が異なる複数種類の学習画像のデータから構成されるデータベースである。なお、学習画像についての詳細は後述する。   The storage unit 520 stores a program 180 for causing the control unit 510 to perform processing described later, a learning image database 182 for causing the image processing algorithm to learn, various other programs, data, and the like. The storage unit 520 is accessed by the control unit 510. Note that the learning image database 182 is a database composed of data of a plurality of types of learning images that are different from each other. Details of the learning image will be described later.

記憶部520は、大容量のデータを記憶可能なハードディスクである。なお、記憶部520は、ハードディスクに限定されることなく、電源を供給されなくてもデータを不揮発的に保持可能な媒体(たとえば、フラッシュメモリ)であればよい。   The storage unit 520 is a hard disk capable of storing a large amount of data. Note that the storage unit 520 is not limited to a hard disk, and may be any medium (for example, a flash memory) that can hold data in a nonvolatile manner even when power is not supplied.

制御部510は、記憶部520に記憶されたプログラム180に従って、学習装置500の内部の各機器に対する各種処理や、演算処理等を行なう機能を有する。制御部510は、マイクロプロセッサ(Microprocessor)、プログラミングすることができるLSI(Large Scale Integration)であるFPGA(Field Programmable Gate Array)、特定の用途のために設計、製造される集積回路であるASIC(Application Specific Integrated Circuit)、その他の演算機能を有する回路のいずれであってもよい。   Control unit 510 has a function of performing various types of processing, arithmetic processing, and the like for each device inside learning device 500 in accordance with program 180 stored in storage unit 520. The control unit 510 includes a microprocessor, an FPGA (Field Programmable Gate Array), which is an LSI (Large Scale Integration) that can be programmed, and an ASIC (Application, which is an integrated circuit designed and manufactured for a specific application. Specific Integrated Circuit) or any other circuit having an arithmetic function may be used.

また、制御部510は、記憶部520に記憶されたプログラム180に従って、VDP532に対し、画像を生成させ、当該画像を表示部530に表示させる指示(以下においては、「描画指示」とも称する)をだす。   Control unit 510 also instructs VDP 532 to generate an image and display the image on display unit 530 in accordance with program 180 stored in storage unit 520 (hereinafter, also referred to as “drawing instruction”). It's out.

VDP532は表示部530と接続されている。VDP532は、制御部510からの描画指示に応じて、CGROM534から必要な画像データを読出し、VRAM536を利用して画像を生成する。そして、VDP532は、VRAM536に記憶された画像データを読出し、表示部530に、当該画像データに基づく画像を表示させる。   The VDP 532 is connected to the display unit 530. The VDP 532 reads necessary image data from the CGROM 534 in accordance with a drawing instruction from the control unit 510 and generates an image using the VRAM 536. The VDP 532 reads out the image data stored in the VRAM 536 and causes the display unit 530 to display an image based on the image data.

VRAM536は、VDP532が生成した画像を一時的に記憶する機能を有する。
データ一時記憶部522は、制御部510によってデータアクセスされ、一時的にデータを記憶するワークメモリとして使用される。
The VRAM 536 has a function of temporarily storing an image generated by the VDP 532.
The data temporary storage unit 522 is accessed as data by the control unit 510 and used as a work memory for temporarily storing data.

データ一時記憶部522は、データを一時的に記憶可能なRAM(Random Access Memory)、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous DRAM)、ダブルデータレートモードという高速なデータ転送機能を持ったSDRAMであるDDR−SDRAM(Double Data Rate SDRAM)、Rambus社が開発した高速インターフェース技術を採用したDRAMであるRDRAM(Rambus Dynamic Random Access Memory)、Direct−RDRAM(Direct Rambus Dynamic Random Access Memory)、その他、データを揮発的に記憶保持可能な構成を有する回路のいずれであってもよい。   The data temporary storage unit 522 is a high-speed RAM (Random Access Memory), SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), SDRAM (Synchronous DRAM), or double data rate mode capable of temporarily storing data. DDR-SDRAM (Double Data Rate SDRAM), which is an SDRAM with excellent data transfer function, RDRAM (Rambus Dynamic Random Access Memory), DRAM that adopts high-speed interface technology developed by Rambus, Direct-RDRAM (Direct Rambus Dynamic) Random Access Memory) or any other circuit having a configuration capable of storing and storing data in a volatile manner.

入力部540には、マウス542と、キーボード544とが接続されている。ユーザは、マウス542またはキーボード544を利用して、学習装置500に指示を与える。マウス542またはキーボード544からの入力指示は、入力部540を介して制御部510に伝達される。制御部510は、入力部540からの入力指示に基づいて所定の処理を行なう。   A mouse 542 and a keyboard 544 are connected to the input unit 540. The user gives an instruction to the learning apparatus 500 using the mouse 542 or the keyboard 544. An input instruction from the mouse 542 or the keyboard 544 is transmitted to the control unit 510 via the input unit 540. Control unit 510 performs predetermined processing based on an input instruction from input unit 540.

記録媒体アクセス部550は、プログラム180が記録された記録媒体555から、プログラム180を読出す機能を有する。記録媒体555に記憶されているプログラム180は、制御部510の動作(インストール処理)により、記録媒体アクセス部550から読み出され、記憶部520に記憶される。   The recording medium access unit 550 has a function of reading the program 180 from the recording medium 555 on which the program 180 is recorded. The program 180 stored in the recording medium 555 is read from the recording medium access unit 550 and stored in the storage unit 520 by the operation (installation process) of the control unit 510.

このインストール処理用プログラムは、予め、記憶部520に格納されており、インストール処理は、制御部510が、インストール処理用プログラムに基づいて行なう。   The installation processing program is stored in advance in the storage unit 520, and the installation processing is performed by the control unit 510 based on the installation processing program.

なお、記憶部520には、プログラム180がインストールされていなくてもよい。この場合、制御部510は、記録媒体アクセス部550を介して、記録媒体555に記憶されたプログラム180を読み出して、プログラム180に基づいた所定の処理を行なう。   Note that the program 180 may not be installed in the storage unit 520. In this case, control unit 510 reads program 180 stored in recording medium 555 via recording medium access unit 550, and performs predetermined processing based on program 180.

記録媒体555は、DVD−ROM(Digital Versatile Disk Read Only Memory)、DVD−R(Digital Versatile Disk Recordable)、DVD−RAM(Digital Versatile Disk Random Access Memory)、DVD+RW(Digital Versatile Disk Re-Writable)、DVD−RW、CD−ROM(Compact Disk Read Only Memory)、MO(Magneto Optical Disk)、フロッピー(登録商標)ディスク、CF(Compact Flash) カード、SM(Smart Media(登録商標))、MMC(Multi Media Card)、SD(Secure Digital)メモリーカード、メモリースティック(登録商標)、xDピクチャーカードおよびUSBメモリ、磁気テープ、その他不揮発性メモリのいずれであってもよい。   The recording medium 555 includes a DVD-ROM (Digital Versatile Disk Read Only Memory), a DVD-R (Digital Versatile Disk Recordable), a DVD-RAM (Digital Versatile Disk Random Access Memory), a DVD + RW (Digital Versatile Disk Re-Writable), and a DVD. -RW, CD-ROM (Compact Disk Read Only Memory), MO (Magneto Optical Disk), floppy (registered trademark) disk, CF (Compact Flash) card, SM (Smart Media (registered trademark)), MMC (Multi Media Card) ), SD (Secure Digital) memory card, Memory Stick (registered trademark), xD picture card, USB memory, magnetic tape, and other non-volatile memory.

通信部560は、制御部510とデータの授受を行なう。また、通信部560は、画像データ入力部600と有線または無線で、データの授受を行なう。   Communication unit 560 exchanges data with control unit 510. Communication unit 560 exchanges data with image data input unit 600 in a wired or wireless manner.

制御部510は、通信部560を介して、画像データ入力部600を制御するための制御データを送信する。また、制御部510は、画像データ入力部600から、通信部560を介して、送信した制御データに応じたデータを受信する。   Control unit 510 transmits control data for controlling image data input unit 600 via communication unit 560. Control unit 510 receives data corresponding to the transmitted control data from image data input unit 600 via communication unit 560.

通信部560は、USB(Universal Serial Bus)1.1、USB2.0、その他シリアル転送を行なう通信用インターフェースのいずれであってもよい。また、通信部560は、イーサネット(登録商標)を利用した通信用インターフェースであってもよい。また、通信部560は、セントロニクス仕様、IEEE1284(Institute of Electrical and Electronic Engineers 1284)、その他パラレル転送を行なう通信用インターフェースのいずれであってもよい。また、通信部560は、IEEE1394、その他SCSI規格を利用した通信用インターフェースのいずれであってもよい。   The communication unit 560 may be any of USB (Universal Serial Bus) 1.1, USB 2.0, and other communication interfaces for performing serial transfer. The communication unit 560 may be a communication interface using Ethernet (registered trademark). The communication unit 560 may be any of a Centronics specification, IEEE 1284 (Institute of Electrical and Electronic Engineers 1284), and other communication interfaces that perform parallel transfer. The communication unit 560 may be any one of communication interfaces using IEEE 1394 or other SCSI standards.

また、通信部560は、無線LANの規格であるIEEE802.11a、IEEE802.11b、IEEE802.11g、その他無線技術を利用してデータ通信を行なう通信用インターフェースのいずれであってもよい。   The communication unit 560 may be any of wireless LAN standards IEEE802.11a, IEEE802.11b, IEEE802.11g, and other communication interfaces for performing data communication using a wireless technology.

通信部562は、制御部510と、データの授受を行なう。通信部562は、通信部560と同様なので詳細な説明は繰り返さない。   Communication unit 562 exchanges data with control unit 510. Since communication unit 562 is similar to communication unit 560, detailed description will not be repeated.

通信部610は、通信部562およびネットワーク620とデータの授受を行なう。ネットワーク620は、インターネットなどの外部のネットワークである。通信部610は、イーサネット(登録商標)を利用した通信用インターフェース(たとえば、ルータ)である。また、通信部610と、ネットワーク620とは、無線または有線でデータの授受を行なう。当該有線は、たとえば、電話線、光ファイバケーブル等である。   Communication unit 610 exchanges data with communication unit 562 and network 620. The network 620 is an external network such as the Internet. The communication unit 610 is a communication interface (for example, a router) using Ethernet (registered trademark). The communication unit 610 and the network 620 exchange data wirelessly or by wire. The wire is, for example, a telephone line or an optical fiber cable.

したがって、本実施の形態における学習装置500は、ネットワーク620から、通信部610および通信部562を介して、プログラムのダウンロード処理を行ない、記憶部520に格納することもできる。この場合、当該ダウンロードしたプログラムは、プログラム180である。   Therefore, learning apparatus 500 in the present embodiment can also download a program from network 620 via communication unit 610 and communication unit 562, and store the program in storage unit 520. In this case, the downloaded program is the program 180.

制御部510は、ネットワーク620からダウンロードしたプログラム(プログラム180)に従って、所定の処理を行なう。このダウンロード用プログラムは、予め、記憶部520に格納されており、ダウンロード処理は、制御部510が、ダウンロード用プログラムに基づいて行なう。   Control unit 510 performs predetermined processing according to a program (program 180) downloaded from network 620. The download program is stored in advance in the storage unit 520, and the download process is performed by the control unit 510 based on the download program.

以上の構成の学習装置500により、画像処理アルゴリズムが生成される。
図2は、画像データ入力部600の内部構成を示すブロック図である。なお、図2には、説明のために、学習装置500内の通信部560も示している。
The learning apparatus 500 having the above configuration generates an image processing algorithm.
FIG. 2 is a block diagram showing the internal configuration of the image data input unit 600. Note that FIG. 2 also shows a communication unit 560 in the learning apparatus 500 for the sake of explanation.

図2を参照して、画像データ入力部600は、ステージ640に設置された検査対象となる検査対象物650に光を当てて、検査対象物650の反射光をデータに変換する機能を有する。検査対象物650は、液晶パネル、半導体、電子部品、プラスチック、金属、木材、紙、布等のいずれであってもよい。   Referring to FIG. 2, image data input unit 600 has a function of irradiating light to inspection object 650 to be inspected installed on stage 640 and converting reflected light of inspection object 650 into data. The inspection object 650 may be a liquid crystal panel, a semiconductor, an electronic component, plastic, metal, wood, paper, cloth, or the like.

画像データ入力部600は、制御部610と、光源620と、カメラ630とを含む。制御部610は、学習装置500内の通信部560とデータの授受を行なう。制御部610は、前述の制御部510と同様な構成および機能を有する。制御部610は、通信部560を介して、制御部510から受信した制御データに基づいて、光源620と、カメラ630とを制御する。   The image data input unit 600 includes a control unit 610, a light source 620, and a camera 630. Control unit 610 exchanges data with communication unit 560 in learning device 500. Control unit 610 has the same configuration and function as control unit 510 described above. Control unit 610 controls light source 620 and camera 630 based on control data received from control unit 510 via communication unit 560.

光源620は、制御部610の制御により、光を検査対象物650に当てる。
カメラ630は、制御部610の制御により、検査対象物650からの反射光を撮像する機能を有する。カメラ630は、(Charge Coupled Devices)CCD方式、(Complementary Metal Oxide Semiconductor)CMOS方式、または他の方式のカメラのいずれであってもよい。
The light source 620 applies light to the inspection object 650 under the control of the control unit 610.
The camera 630 has a function of imaging reflected light from the inspection object 650 under the control of the control unit 610. The camera 630 may be either a (Charge Coupled Devices) CCD system, a (Complementary Metal Oxide Semiconductor) CMOS system, or another system camera.

また、カメラ630は、撮像したデータを画像データとして、制御部610へ送信する。制御部610は、受信した画像データを、通信部560を介して、制御部510へ送信する。制御部510は、受信した画像データを後述する学習原画像として記憶部520に記憶させる。制御部510は、当該受信した画像データを、表示部530に表示させる処理を行なう。検査員(オペレータ)は、表示部530に表示された画像(以下においては、検査画像とも称する)を参照することで、検査対象物650が不良品であるか否かが判定可能となる。なお、検査員(オペレータ)は、直接、検査対象物650を見て、不良品であるか否かを判定してもよい。   In addition, the camera 630 transmits the captured data to the control unit 610 as image data. Control unit 610 transmits the received image data to control unit 510 via communication unit 560. The control unit 510 stores the received image data in the storage unit 520 as a learning original image described later. Control unit 510 performs processing for displaying the received image data on display unit 530. An inspector (operator) can determine whether or not the inspection object 650 is a defective product by referring to an image (hereinafter also referred to as an inspection image) displayed on the display unit 530. Note that the inspector (operator) may directly check the inspection object 650 and determine whether or not the product is defective.

ここで、以下に使用する用語の定義を行なう。まず、検査対象物650が不良品であると検査員(オペレータ)が判定する要因となる真正の欠陥のことを真欠陥とする。一方、検査工程で抽出される欠陥ではあるが、検査員(オペレータ)が検査対象物650を不良品と判定するには至らず、検査対象が良品であると判定可能な欠陥のことを擬似欠陥とする。   Here, the terms used below are defined. First, a genuine defect that causes an inspector (operator) to determine that the inspection object 650 is defective is regarded as a true defect. On the other hand, although it is a defect extracted in the inspection process, the inspector (operator) does not reach the inspection object 650 as a defective product, and the defect that can be determined as the non-defective product is a pseudo defect. And

次に、検査対象物650を撮像した画像のうち、画像中に擬似欠陥の有無に係わらず真欠陥が一つも存在しない画像を良品画像とし、画像中に擬似欠陥の有無に係わらず真欠陥が一つでも存在する画像を欠陥画像とする。良品画像と欠陥画像とはそれぞれ学習画像となり得るものとする。   Next, among the images obtained by imaging the inspection object 650, an image in which no true defect exists in the image regardless of the presence or absence of a pseudo defect is defined as a non-defective image, and the true defect exists in the image regardless of the presence or absence of a pseudo defect. At least one existing image is defined as a defect image. The non-defective image and the defect image can be learning images.

以下の実施の形態で使用する画像のサイズは、たとえば、横640画素、縦480画素であるとする。なお、以下の実施の形態で使用する画像のサイズは、横640画素、縦480画素に限定されることはなく、任意のサイズ(たとえば、横320画素、縦240画素)であってもよい。   Assume that the size of an image used in the following embodiments is, for example, horizontal 640 pixels and vertical 480 pixels. Note that the size of an image used in the following embodiments is not limited to 640 pixels wide and 480 pixels high, and may be any size (eg, 320 pixels wide and 240 pixels high).

また、以下の実施の形態で使用する画像の画素の有する濃度値は、“0”〜“255”の範囲の値である。また、濃度値が“0”の場合、対応する画素は黒であるとする。また、濃度値が“255”の場合、対応する画素は白であるとする。なお、以下の実施の形態で使用する画像の画素の有する濃度値は、“0”〜“255”の範囲の値に限定されることはなく、任意の範囲の値であってもよい。   Further, the density values of the pixels of the image used in the following embodiments are values in the range of “0” to “255”. If the density value is “0”, the corresponding pixel is assumed to be black. If the density value is “255”, the corresponding pixel is white. Note that the density values of the pixels of the image used in the following embodiments are not limited to values in the range of “0” to “255”, and may be values in an arbitrary range.

図3は、本実施の形態における学習装置500の機能ブロック図である。図3を参照して、学習装置500には、画像データ入力部600および表示部530が接続されている。   FIG. 3 is a functional block diagram of learning device 500 in the present embodiment. Referring to FIG. 3, an image data input unit 600 and a display unit 530 are connected to learning device 500.

学習装置500は、制御部510を含む。制御部510は、前処理部511、特徴抽出部512、識別部513、誤指定判定部513A、算出部514、評価部515として動作する。   The learning device 500 includes a control unit 510. The control unit 510 operates as a preprocessing unit 511, a feature extraction unit 512, an identification unit 513, an erroneous specification determination unit 513A, a calculation unit 514, and an evaluation unit 515.

前処理部511は、前処理手段として、後述する処理を行なう。特徴抽出部512は、特徴抽出手段として、後述する処理を行なう。識別部513は、識別手段として、後述する処理を行なう。誤指定判定部513Aは、誤指定判定手段として、後述する処理を行なう。算出部514は、算出手段として、後述する処理を行なう。評価部515は、評価手段として、後述する処理を行なう。   The preprocessing unit 511 performs a process to be described later as a preprocessing unit. The feature extraction unit 512 performs processing to be described later as feature extraction means. The identification part 513 performs the process mentioned later as an identification means. The erroneous designation determination unit 513A performs the process described later as an erroneous designation determination unit. The calculation part 514 performs the process mentioned later as a calculation means. The evaluation part 515 performs the process mentioned later as an evaluation means.

図4は、一例としての学習画像700を示す図である。図4を参照して、学習画像700は、真欠陥720,722,724と、擬似欠陥710,712,714とを含む。学習画像700の真欠陥720,722,724、擬似欠陥710,712,714以外の領域が背景領域である。すなわち、学習画像700は、背景領域と欠陥領域とから構成される。   FIG. 4 is a diagram illustrating a learning image 700 as an example. Referring to FIG. 4, learning image 700 includes true defects 720, 722, 724 and pseudo defects 710, 712, 714. The area other than the true defects 720, 722, 724 and the pseudo defects 710, 712, 714 of the learning image 700 is the background area. That is, the learning image 700 includes a background area and a defect area.

また、学習画像は、検査員(オペレータ)が、大きさ、形状および位置等を設定した欠陥を、真欠陥または擬似欠陥に指定し、当該欠陥を付与した欠陥画像または真欠陥を付与していない良品画像である。また、学習画像は、真欠陥の有無に係わらず、検査対象物650を撮像した画像であってもよい。記憶部520には、各々が異なる複数種類の学習画像が記憶される。   In the learning image, an inspector (operator) designates a defect whose size, shape, position, etc. are set as a true defect or a pseudo defect, and does not give a defect image or a true defect to which the defect is given. It is a good product image. Further, the learning image may be an image obtained by imaging the inspection object 650 regardless of the presence or absence of a true defect. The storage unit 520 stores a plurality of different types of learning images.

ここで、学習画像とは、画像処理アルゴリズムによる画像処理の対象となる画像である。   Here, the learning image is an image subjected to image processing by an image processing algorithm.

学習装置500は、各々が異なる複数種類の学習画像を取得して、未検出と過検出がない最良の画像処理アルゴリズムを学習して生成する画像処理アルゴリズム生成処理を行なう。学習画像は、複数の学習パターンを含む画像または、学習パターンを含まない画像である。学習装置500は、学習画像に含まれる学習パターンとしての欠陥を2つのクラス(真欠陥のクラスと擬似欠陥のクラス)に分類できるように、最良の画像処理アルゴリズムを生成する。   The learning apparatus 500 performs a plurality of types of learning images that are different from each other, and performs image processing algorithm generation processing that learns and generates the best image processing algorithm that is not detected and overdetected. The learning image is an image including a plurality of learning patterns or an image not including a learning pattern. The learning apparatus 500 generates the best image processing algorithm so that defects as learning patterns included in the learning image can be classified into two classes (a true defect class and a pseudo defect class).

画像処理アルゴリズムは、たとえば、複数の画像処理モジュールを順次使用するアルゴリズムである。また、各画像処理モジュールは、いくつかのパラメータを有する。   The image processing algorithm is, for example, an algorithm that sequentially uses a plurality of image processing modules. Each image processing module has several parameters.

ここで、画像処理モジュールは、たとえば、最大値フィルタなどである。最大値フィルタは注目画素とその近傍領域の画素の持つ輝度値の最大のもので注目画素値を置き換える処理を行なうフィルタである。また、最大値フィルタの持つパラメータとしては、たとえば近傍領域を規定するパラメータが含まれて、該パラメータの値が、たとえば、“3”の場合、フィルタサイズは3画素×3画素と規定される。この場合は注目画素とその近傍の8画素がフィルタ処理の対象となる。同じくパラメータの値が“5”の場合、フィルタサイズは5画素×5画素と規定される。この場合、注目画素と注目画素の近傍の24画素がフィルタ処理の対象となる。画像処理アルゴリズムは種々の画像処理モジュールの組合せと、各画像処理モジュールの持つパラメータ値によって表現される。   Here, the image processing module is, for example, a maximum value filter. The maximum value filter is a filter that performs processing for replacing the pixel value of interest with the maximum luminance value of the pixel of interest and the pixels in the vicinity thereof. In addition, as a parameter of the maximum value filter, for example, a parameter that defines a neighborhood region is included. When the value of the parameter is, for example, “3”, the filter size is defined as 3 pixels × 3 pixels. In this case, the target pixel and 8 pixels in the vicinity thereof are targeted for filtering. Similarly, when the parameter value is “5”, the filter size is defined as 5 pixels × 5 pixels. In this case, the pixel of interest and 24 pixels in the vicinity of the pixel of interest are subject to filter processing. The image processing algorithm is expressed by a combination of various image processing modules and a parameter value possessed by each image processing module.

画像処理アルゴリズム生成処理は、後述の計算方法により算出された評価値に基づいて、該画像処理アルゴリズムを構成する画像処理モジュールの組合せや、各画像処理モジュールが持つパラメータの値を変更する処理を繰返すことにより、より評価値の高い画像処理アルゴリズムを生成する方法である。   The image processing algorithm generation process repeats a process of changing a combination of image processing modules constituting the image processing algorithm and a parameter value of each image processing module based on an evaluation value calculated by a calculation method described later. This is a method for generating an image processing algorithm having a higher evaluation value.

なお、画像処理アルゴリズムを構成する1つ以上の画像処理モジュールは、オペレータもしくはプログラム等によってあらかじめ生成されて登録されたものの中から選択されたものである。具体的には、生成された1つ以上の画像処理モジュールは記憶部520に格納されている。   The one or more image processing modules constituting the image processing algorithm are selected from those previously generated and registered by an operator or a program. Specifically, the generated one or more image processing modules are stored in the storage unit 520.

図5は、画像処理アルゴリズム生成処理のフローチャートである。
図5を参照して、ステップS300では、前処理部511が、初期画像処理アルゴリズムを生成する。具体的には、前処理部511は、記憶部520に記憶されている画像処理モジュール群とそのパラメータ群から任意に選択された画像処理モジュールとパラメータとを組合わせて画像処理アルゴリズムを生成する。その後、ステップS310に進む。
FIG. 5 is a flowchart of the image processing algorithm generation process.
Referring to FIG. 5, in step S300, pre-processing unit 511 generates an initial image processing algorithm. Specifically, the preprocessing unit 511 generates an image processing algorithm by combining an image processing module group and parameters arbitrarily selected from the image processing module group stored in the storage unit 520 and its parameter group. Thereafter, the process proceeds to step S310.

ステップS310では、前処理部511は、記憶部520から、1つの学習画像を読み出す。その後、ステップS315に進む。   In step S <b> 310, the preprocessing unit 511 reads one learning image from the storage unit 520. Thereafter, the process proceeds to step S315.

ステップS315では、画像処理が行なわれる。画像処理では、前処理部511が、ステップS310で読み出された学習画像に対し、生成された画像処理アルゴリズムに基づく画像処理を施し、処理後画像を取得する。当該画像処理は、学習画像の対象部位(真欠陥)を強調させるとともに、非対象部位(擬似欠陥)を弱める処理である。また、当該画像処理では、ノイズ除去なども行なわれる。これにより、真欠陥の検出精度を高めている。その後、ステップS340に進む。   In step S315, image processing is performed. In the image processing, the preprocessing unit 511 performs image processing based on the generated image processing algorithm on the learning image read in step S310, and acquires a processed image. The image processing is processing for enhancing the target part (true defect) of the learning image and weakening the non-target part (pseudo defect). In the image processing, noise removal and the like are also performed. Thereby, the detection accuracy of true defects is increased. Thereafter, the process proceeds to step S340.

ステップS340では、特徴量算出処理が行なわれる。特徴量算出処理では、特徴抽出部512が、処理後画像に含まれる真欠陥または擬似欠陥に対応する欠陥候補部を全て抽出し、全ての欠陥候補部の各々の特徴量の値を算出する。以下においては、特徴量の値を示すデータを特徴量データともいう。   In step S340, a feature amount calculation process is performed. In the feature amount calculation process, the feature extraction unit 512 extracts all defect candidate portions corresponding to the true defect or the pseudo defect included in the processed image, and calculates the value of each feature amount of all the defect candidate portions. Hereinafter, the data indicating the feature value is also referred to as feature data.

ここで特徴量とは、たとえば、欠陥候補部とその近傍とのコントラスト、欠陥候補部の面積、形状情報(周囲長、幅、穴数、オイラー数、モーメント量等)、重心座標、色情報などである。その後、ステップS350に進む。   Here, the feature amount is, for example, the contrast between the defect candidate portion and the vicinity thereof, the area of the defect candidate portion, shape information (perimeter length, width, number of holes, Euler number, moment amount, etc.), barycentric coordinates, color information, etc. It is. Thereafter, the process proceeds to step S350.

ステップS350では、欠陥識別処理が行なわれる。欠陥識別処理では、識別部513が、ステップS340で抽出された全ての欠陥候補部の各々を、真欠陥と、擬似欠陥とに分類する。すなわち、欠陥候補部を2つのクラスに分類する。   In step S350, defect identification processing is performed. In the defect identification process, the identification unit 513 classifies each defect candidate part extracted in step S340 into a true defect and a pseudo defect. That is, the defect candidate part is classified into two classes.

まず、欠陥候補部の正しいクラス分けを行なうための正規分離処理が行われる。正規分離処理では、識別部513が、各欠陥候補部の位置データと、学習画像に予めオペレータにより付与されている真欠陥または擬似欠陥の位置データとの比較に基づいて、全ての欠陥候補部を、真欠陥または擬似欠陥に分類する。分類方法は、たとえば、各真欠陥に最近接している欠陥候補部を真欠陥とし、その以外の欠陥候補部を擬似欠陥とする方法である。   First, normal separation processing is performed to correctly classify defect candidate portions. In the normal separation process, the identification unit 513 determines all defect candidate parts based on the comparison between the position data of each defect candidate part and the position data of the true defect or the pseudo defect previously given to the learning image by the operator. Classify as true defect or pseudo defect. The classification method is, for example, a method in which a defect candidate part closest to each true defect is regarded as a true defect and other defect candidate parts are regarded as pseudo defects.

以下においては、真欠陥に分類された欠陥候補部が属するクラスを真欠陥クラスともいう。また、擬似欠陥に分類された欠陥候補部が属するクラスを擬似欠陥クラスともいう。   Hereinafter, a class to which a defect candidate portion classified as a true defect belongs is also referred to as a true defect class. A class to which a defect candidate part classified as a pseudo defect belongs is also referred to as a pseudo defect class.

次に、パターン認識分類処理が行なわれる。パターン認識分類処理は、算出された欠陥候補部の各々の特徴量データの値に基づいて行われる。以下においては、特徴量が1種類である場合について説明する。パターン認識分類処理では、識別部513は、特徴量データの閾値(以下、クラス分類閾値ともいう)を記憶しており、クラス分類の対象となる欠陥候補部の特徴量データの値と、クラス分類閾値との大小関係を判定し、真欠陥と、擬似欠陥とに分類する。たとえば、クラス分類閾値以上の特徴量データに対応する欠陥候補部を真欠陥に分類し、閾値未満の特徴量データに対応する欠陥候補部を擬似欠陥に分類する。すなわち、クラス分類閾値は、欠陥候補部を、擬似欠陥と、真欠陥に分類するための値である。   Next, pattern recognition classification processing is performed. The pattern recognition classification process is performed based on the calculated feature value data of each defect candidate portion. In the following, a case where there is one type of feature amount will be described. In the pattern recognition classification process, the identification unit 513 stores feature value data threshold values (hereinafter also referred to as class classification threshold values), the feature value data values of the defect candidate portions to be classified, and the class classification. The magnitude relationship with the threshold value is determined, and classified into a true defect and a pseudo defect. For example, a defect candidate portion corresponding to feature amount data equal to or higher than the class classification threshold is classified as a true defect, and a defect candidate portion corresponding to feature amount data less than the threshold is classified as a pseudo defect. That is, the class classification threshold is a value for classifying the defect candidate portion into a pseudo defect and a true defect.

正規分離処理により真欠陥に分類された欠陥候補部が、パターン認識分類処理により真欠陥に分類された場合、識別部513が、正しく真欠陥を検出できたということになる。一方、正規分離処理により擬似欠陥に分類された欠陥候補部が、パターン認識分類処理により擬似欠陥に分類された場合、識別部513が、正しく擬似欠陥として検出できた(真欠陥として検出しなかった)ということになる。この場合、真欠陥に分類されるべき欠陥候補部が、識別部513により、真欠陥として正しく分類されたことになる。また、擬似欠陥に分類されるべき欠陥候補部が、識別部513により、擬似欠陥として正しく分類されたことになる。   If the defect candidate portion classified as a true defect by the normal separation process is classified as a true defect by the pattern recognition classification process, it means that the identification unit 513 has correctly detected the true defect. On the other hand, when the defect candidate part classified into the pseudo defect by the normal separation process is classified into the pseudo defect by the pattern recognition classification process, the identification unit 513 was correctly detected as the pseudo defect (it was not detected as the true defect). )It turns out that. In this case, the defect candidate portion to be classified as a true defect is correctly classified as a true defect by the identification unit 513. In addition, the defect candidate portion to be classified as a pseudo defect is correctly classified as a pseudo defect by the identification unit 513.

一方、正規分離処理により真欠陥に分類された欠陥候補部が、パターン認識分類処理により擬似欠陥に分類された場合、識別部513が、真欠陥を正しく検出できなかったということ(以下、未検出ともいう)になる。   On the other hand, if the defect candidate part classified as a true defect by the normal separation process is classified as a pseudo defect by the pattern recognition classification process, the identification part 513 cannot correctly detect the true defect (hereinafter, not detected). Also called).

また、正規分離処理により擬似欠陥に分類された欠陥候補部が、パターン認識分類処理により真欠陥に分類された場合、識別部513が、擬似欠陥を真欠陥と誤って分類したこと(以下、過検出ともいう)になる。   In addition, when a defect candidate part classified as a pseudo defect by the normal separation process is classified as a true defect by the pattern recognition classification process, the identification unit 513 incorrectly classifies the pseudo defect as a true defect (hereinafter, excessive defect). Also called detection).

未検出や過検出は、ゼロとなることが望ましい。したがって、学習中の識別部513は、未検出や過検出が発生した場合は、その発生回数に応じて、その画像処理アルゴリズムの評価値から、予め定められた値を減算すればよい。つまり、未検出や過検出が少ないほど、評価値が良くなる。   It is desirable that no detection or over detection be zero. Therefore, the learning identifying unit 513 may subtract a predetermined value from the evaluation value of the image processing algorithm according to the number of occurrences when undetected or overdetected. That is, the evaluation value improves as the number of undetected or overdetected items decreases.

さて、識別器(識別部513)がパターン認識分類を行なう方法は、従来から様々な方法が提案されている。前述したような特徴量データを閾値により判別する方法は、識別関数による方法と呼ばれる。それ以外にも、k−NN法(k−Nearest-Neighbours Classification Rule)やニューラルネットワークによる方法等がある。本発明の学習装置では、どのような識別器の方法を用いても良い。その後、ステップS352に進む。   Various methods have been proposed in the past as a method for the classifier (identification unit 513) to perform pattern recognition classification. A method of discriminating feature amount data based on a threshold value as described above is called a method using a discrimination function. There are other methods such as a k-NN method (k-Nearest-Neighbours Classification Rule) and a method using a neural network. In the learning apparatus of the present invention, any classifier method may be used. Thereafter, the process proceeds to step S352.

ステップS352では、誤指定判定部513Aが、後述するカウンタKが所定値(たとえば、50)以上であるか否かを判定する。ステップS352において、YESならば、ステップS354に進む。一方、ステップS352において、NOならば、ステップS360に進む。   In step S352, the erroneous specification determination unit 513A determines whether or not a counter K, which will be described later, is greater than or equal to a predetermined value (for example, 50). If YES at step S352, control proceeds to step S354. On the other hand, if NO at step S352, the process proceeds to step S360.

なお、ステップS352では、カウンタKの値ではなく、ステップS300の処理が開始されてから所定時間経過したか否かを判定してもよい。   In step S352, it may be determined whether a predetermined time has elapsed since the process of step S300 was started, instead of the value of counter K.

ステップS354では、誤指定判定部513Aが、誤指定があるか否かを判定する。ここで、誤指定があるとは、ステップS350において、未検出または過検出があったということである。すなわち、オペレータが、学習画像を生成する際に、欠陥を、真欠陥(または擬似欠陥)と指定すべきところを、擬似欠陥(または真欠陥)と間違って指定した可能性が高いことになる。ステップS354において、YESならば、ステップS356に進む。一方、ステップS354において、NOならば、ステップS360に進む。   In step S354, the erroneous specification determination unit 513A determines whether there is an erroneous specification. Here, the erroneous designation means that there has been no detection or over detection in step S350. That is, when an operator generates a learning image, there is a high possibility that a place where a defect should be designated as a true defect (or a pseudo defect) is mistakenly designated as a false defect (or a true defect). If YES in step S354, the process proceeds to step S356. On the other hand, if NO at step S354, the process proceeds to step S360.

ステップS356では、誤指定判定部513Aが、未検出または過検出の対象となった欠陥候補部に対応する特徴量データを、後述する計算で使用する対象から除外する。そして、除外したことをオペレータに通知するために、表示部530にその旨を表示させる。その後、ステップS360に進む。   In step S356, the erroneous designation determination unit 513A excludes feature amount data corresponding to a defect candidate portion that has not been detected or overdetected from a target to be used in a calculation that will be described later. In order to notify the operator of the exclusion, the display unit 530 displays that fact. Thereafter, the process proceeds to step S360.

なお、この場合、オペレータは、表示部530の表示に基づいて、間違って指定した欠陥を正しく指定し直した学習画像を生成してもよい。そして、再度、この画像処理アルゴリズム生成処理のステップS300から処理を行なってもよい。   In this case, based on the display on the display unit 530, the operator may generate a learning image in which a defect that has been incorrectly specified is correctly specified. Then, the processing may be performed again from step S300 of the image processing algorithm generation processing.

ステップS360では、分布状態算出処理が行なわれる。分布状態算出処理では、算出部514が、前述のパターン認識分類処理において、擬似欠陥クラスに分類された欠陥候補部の特徴量分布と、真欠陥クラスに分類された欠陥候補部の特徴量分布とに基づいて、クラス内散らばり度およびクラス間散らばり度を算出する。   In step S360, a distribution state calculation process is performed. In the distribution state calculation process, the calculation unit 514 includes the feature quantity distribution of the defect candidate part classified into the pseudo defect class and the feature quantity distribution of the defect candidate part classified into the true defect class in the pattern recognition classification process described above. Based on the above, the intra-class dispersion degree and the inter-class dispersion degree are calculated.

クラス内散らばり度は、擬似欠陥クラスまたは真欠陥クラスに分類された欠陥候補部の特徴量分布に関してクラス内平均からの散らばり程度を表す指標である。以下においては、擬似欠陥クラスに対応するクラス内散らばり度を、擬似欠陥クラス内散らばり度SW(1)ともいう。また、真欠陥クラスに対応するクラス内散らばり度を、真欠陥クラス内散らばり度SW(2)ともいう。   The intra-class dispersion degree is an index representing the degree of dispersion from the intra-class average with respect to the feature amount distribution of the defect candidate portion classified into the pseudo defect class or the true defect class. In the following, the intra-class dispersion degree corresponding to the pseudo defect class is also referred to as the pseudo-defect class dispersion degree SW (1). Further, the intra-class dispersion degree corresponding to the true defect class is also referred to as a true defect class dispersion degree SW (2).

クラス間散らばり度は、2つのクラス内平均の散らばり程度を表す指標である。また、以下においては、擬似欠陥クラスおよび真欠陥クラスの各々のクラス内平均の散らばり程度を表す指標を、クラス間散らばり度SBともいう。本発明の特徴である、クラス内散らばり度およびクラス間散らばり度の算出方法の詳細は後述する。その後、ステップS370に進む。   The inter-class dispersion degree is an index representing the average degree of dispersion within two classes. In the following, an index representing the average degree of dispersion within each of the pseudo defect class and the true defect class is also referred to as an inter-class dispersion degree SB. Details of the calculation method of the intra-class dispersion degree and the inter-class dispersion degree, which is a feature of the present invention, will be described later. Thereafter, the process proceeds to step S370.

ステップS370では、評価部515が、ステップS360により算出されたクラス内散らばり度およびクラス間散らばり度SBに基づいて、ステップS315で使用された画像処理アルゴリズムの評価値Eを、以下の式(1)に基づいて算出する。   In step S370, the evaluation unit 515 calculates the evaluation value E of the image processing algorithm used in step S315 based on the intra-class dispersion degree and the inter-class dispersion degree SB calculated in step S360 by the following equation (1). Calculate based on

Figure 2007018176
Figure 2007018176

式(1)によると、評価値Eは、クラス間散らばり度SBを、すべてのクラス内散らばり度の合計値で除算することで算出されることが分かる。 According to Equation (1), it can be seen that the evaluation value E is calculated by dividing the inter-class dispersion degree SB by the total value of all the intra-class dispersion degrees.

式(1)によれば、クラス内散らばり度SBが小さくなるほど、評価値Eは高くなる。また、クラス間散らばり度が大きくなるほど評価値Eは高くなる。   According to Equation (1), the evaluation value E increases as the scatter degree SB within the class decreases. Further, the evaluation value E increases as the degree of dispersion between classes increases.

なお、評価値Eは、クラス内散らばり度のみから算出されてもよい。また、評価値Eは、クラス間散らばり度のみから算出されてもよい。しかしながら、評価値Eは、クラス内散らばり度とクラス間散らばり度の両方から算出されることが望ましい。   The evaluation value E may be calculated only from the degree of dispersion within the class. Further, the evaluation value E may be calculated only from the degree of dispersion between classes. However, the evaluation value E is preferably calculated from both the intra-class dispersion degree and the inter-class dispersion degree.

式(1)は、クラスを2つに分類する場合の評価値の算出式である。3つ以上のクラスに分類する場合、評価値Eは、すべてのクラス間散らばり度の合計を、すべてのクラス内散らばり度の合計で除算することで算出される。その後、ステップS375に進む。   Formula (1) is a formula for calculating an evaluation value when a class is classified into two. In the case of classifying into three or more classes, the evaluation value E is calculated by dividing the total dispersion degree between all classes by the total dispersion degree within all classes. Thereafter, the process proceeds to step S375.

ステップS375では、評価部515が、終了条件を満たしているか否かを判定する。ここで、本実施例における終了条件は、ステップS370で算出された評価値が、予め設定された所定値以上となる条件、または、後述する画像処理アルゴリズムのパラメータ調整の処理を繰り返した回数が、所定回数(たとえば、100回)となる条件である。なお、終了条件は、他の条件であってもよい。   In step S375, the evaluation unit 515 determines whether an end condition is satisfied. Here, the end condition in the present embodiment is that the evaluation value calculated in step S370 is equal to or greater than a predetermined value set in advance, or the number of times the image processing algorithm parameter adjustment processing described later is repeated. The condition is a predetermined number of times (for example, 100 times). The termination condition may be other conditions.

ステップS375において、YESならば、この画像処理アルゴリズム生成処理は終了する。画像処理アルゴリズム生成処理が終了するのは、たとえば、ステップS370で算出された評価値が所定値以上の場合である。または、後述する画像処理アルゴリズムのパラメータ調整の処理を繰り返した回数が、所定回数となった場合である。   If YES in step S375, the image processing algorithm generation process ends. The image processing algorithm generation process ends when, for example, the evaluation value calculated in step S370 is greater than or equal to a predetermined value. Or it is a case where the frequency | count of repeating the parameter adjustment process of the image processing algorithm mentioned later becomes predetermined times.

一方、ステップS375において、NOならば、ステップS380に進む。
ステップS380では、評価部515が、生成された画像処理アルゴリズムについて算出された評価値に基づいて、当該評価値が大きくなるように、画像処理モジュールの組合せやパラメータ値の変更(調整)を行なう。当該変更された画像処理アルゴリズムは、ステップS315において使用される。
On the other hand, if NO at step S375, the process proceeds to step S380.
In step S380, the evaluation unit 515 changes (adjusts) the combination of the image processing modules and the parameter values so that the evaluation value becomes large based on the evaluation value calculated for the generated image processing algorithm. The changed image processing algorithm is used in step S315.

ステップS380における、ある評価値に基づいて画像処理モジュールの組合せやパラメータ値を最適化してゆく手法としては、たとえば、GA(遺伝的アルゴリズム)、SA(シミュレーティッドアニーリング)、非線形計画法またはニューラルネットワークによるものである。いずれも、評価値の高い組合せやパラメータ値に対して、それらの組合せや値をわずかに変動させて、より評価値の高いものを探索してゆくものである。   As a technique for optimizing a combination of image processing modules and parameter values based on a certain evaluation value in step S380, for example, GA (genetic algorithm), SA (simulated annealing), nonlinear programming, or neural network is used. Is. In either case, for combinations and parameter values with high evaluation values, those combinations and values are slightly changed to search for ones with higher evaluation values.

なお、組合せの数やパラメータ値の取る範囲が十分に小さい場合は、ステップS375の終了条件を満たさない範囲で、画像処理アルゴリズムの構成要素である画像処理モジュールの全ての組合せの数とパラメータ値を変動させた条件にて評価を行なうことが可能である。このように画像処理アルゴリズムの調整が完了すると、その後、ステップS382に進む。   If the number of combinations and the range of parameter values are sufficiently small, the number and parameter values of all combinations of image processing modules that are components of the image processing algorithm are within the range that does not satisfy the termination condition of step S375. It is possible to perform evaluation under varying conditions. When the adjustment of the image processing algorithm is completed as described above, the process proceeds to step S382.

ステップS382では、評価部515が、カウンタKを1インクリメントする。ここで、カウンタKは、ステップS380の処理が行なわれた回数をカウントするためのカウンタである。なお、カウンタKの初期値は0に設定されている。その後、再度、ステップS315の処理が行なわれる。   In step S382, the evaluation unit 515 increments the counter K by 1. Here, the counter K is a counter for counting the number of times the process of step S380 has been performed. Note that the initial value of the counter K is set to zero. Thereafter, the process of step S315 is performed again.

すなわち、ステップS310,S315,S340,S350,S360,S370,S380の処理は、画像処理アルゴリズムを変化させる処理である。   That is, the processes in steps S310, S315, S340, S350, S360, S370, and S380 are processes for changing the image processing algorithm.

ステップS315,S340,S350,S360,S370,S380の処理が、ステップS375の終了条件を満たすまで繰返し行なわれることにより、評価値が所定値以上である最終画像処理アルゴリズムの生成を実現しうる。   By repeatedly performing the processes of steps S315, S340, S350, S360, S370, and S380 until the end condition of step S375 is satisfied, generation of a final image processing algorithm having an evaluation value equal to or greater than a predetermined value can be realized.

次に、クラス内散らばり度およびクラス間散らばり度の算出方法を詳細に説明する。前述したように算出部514は、前述のパターン認識分類処理において、擬似欠陥クラスに分類された欠陥候補部の特徴量分布と、真欠陥クラスに分類された欠陥候補部の特徴量分布とに基づいて、クラス内散らばり度およびクラス間散らばり度を算出する。   Next, a method for calculating the intra-class dispersion degree and the inter-class dispersion degree will be described in detail. As described above, the calculation unit 514 is based on the feature amount distribution of the defect candidate portion classified into the pseudo defect class and the feature amount distribution of the defect candidate portion classified into the true defect class in the pattern recognition classification process described above. Then, the intra-class dispersion degree and the inter-class dispersion degree are calculated.

図6は、特徴量分布(ヒストグラム)の第1の例を示す図である。図6は、ステップS340の処理により取得された110個の特徴量データに基づいて生成されたプロット図である。すなわち、ステップS310で読み出された学習画像には、110個の欠陥候補部がある。図6の例では、特徴量データは、1種類のみである。特徴量データは、0〜200の範囲の値をとるコントラストの値である。この場合のコントラストとは、欠陥と、その周辺領域の背景とのコントラストを数値化した値である。なお、特徴量データは、コントラストに限定されることなく、欠陥の面積等であってもよい。   FIG. 6 is a diagram illustrating a first example of the feature amount distribution (histogram). FIG. 6 is a plot diagram generated based on the 110 feature data acquired by the process of step S340. That is, the learning image read in step S310 has 110 defect candidate portions. In the example of FIG. 6, the feature amount data is only one type. The feature amount data is a contrast value that takes a value in the range of 0 to 200. The contrast in this case is a value obtained by quantifying the contrast between the defect and the background of the surrounding area. The feature amount data is not limited to the contrast, and may be a defect area or the like.

なお、110個の特徴量データのうち、100個の特徴量データが、擬似欠陥クラスに分類されたデータであるとする。また、110個の特徴量データのうち、10個の特徴量データが、真欠陥クラスに分類されたデータであるとする。   It is assumed that 100 pieces of feature data out of 110 pieces of feature data are data classified into pseudo defect classes. Further, it is assumed that 10 pieces of feature amount data out of 110 pieces of feature amount data are data classified into true defect classes.

図7は、特徴量分布の第1の例に使用された特徴量データを示す図である。図7(A)は、擬似欠陥クラスに分類された100個の特徴量データからなるデータテーブルT100を示す図である。図7(B)は、真欠陥クラスに分類された10個の特徴量データからなるデータテーブルT110を示す図である。   FIG. 7 is a diagram illustrating the feature amount data used in the first example of the feature amount distribution. FIG. 7A is a diagram showing a data table T100 composed of 100 pieces of feature amount data classified into the pseudo defect class. FIG. 7B is a diagram showing a data table T110 composed of ten pieces of feature data classified into true defect classes.

再び、図6を参照して、横軸は、特徴量データの値、縦軸は、度数を示す。ここで、度数とは、対応する特徴量データが、所定の範囲の値に属する、欠陥候補部の数を示す。図6において、たとえば、度数が“21”である場合、対応する特徴量データの値が45以上55未満という値の範囲に属する欠陥候補部の数が21であることを示す。   Referring to FIG. 6 again, the horizontal axis indicates the value of the feature amount data, and the vertical axis indicates the frequency. Here, the frequency indicates the number of defect candidate parts whose corresponding feature value data belongs to a value in a predetermined range. In FIG. 6, for example, when the frequency is “21”, it indicates that the number of defect candidate parts belonging to a value range in which the value of the corresponding feature amount data is 45 or more and less than 55 is 21.

図6において、クラス領域C1Aは、擬似欠陥クラスに分類されたデータによる曲線を含む。クラス領域C1Bは、真欠陥クラスに分類されたデータによる曲線を含む。図6では、各クラス領域内の一番大きな山の曲線から、大きく離れた例外値は見当たらない。この場合、算術平均をクラス内平均として算出し、分散をクラス内散らばり度として算出しても問題がない。   In FIG. 6, the class region C1A includes a curve based on data classified into a pseudo defect class. The class area C1B includes a curve based on data classified into the true defect class. In FIG. 6, there is no exceptional value far away from the curve of the largest mountain in each class area. In this case, there is no problem even if the arithmetic average is calculated as the intra-class average and the variance is calculated as the intra-class dispersion degree.

図8は、特徴量分布(ヒストグラム)の第2の例を示す図である。横軸および縦軸は、図6と同様なので詳細な説明は繰り返さない。図8は、ステップS340の処理により取得された111個の特徴量データに基づいて生成されたプロット図である。すなわち、ステップS310で読み出された学習画像には、111個の欠陥候補部がある。特徴量データは、図6と同様0〜200の範囲の値をとるコントラストの値である。図8の例では、図6と同様、特徴量のデータは、1種類のみである。   FIG. 8 is a diagram illustrating a second example of the feature amount distribution (histogram). Since the horizontal and vertical axes are the same as those in FIG. 6, detailed description will not be repeated. FIG. 8 is a plot diagram generated based on 111 pieces of feature amount data acquired by the process of step S340. That is, the learning image read in step S310 has 111 defect candidate portions. The feature amount data is a contrast value that takes a value in the range of 0 to 200 as in FIG. In the example of FIG. 8, as in FIG. 6, there is only one type of feature amount data.

なお、111個の特徴量データのうち、100個の特徴量データが、擬似欠陥クラスに分類されたデータであるとする。また、111個の特徴量データのうち、11個の特徴量データが、真欠陥クラスに分類されたデータであるとする。   It is assumed that 100 pieces of feature data out of 111 pieces of feature data are data classified into pseudo defect classes. Further, it is assumed that 11 pieces of feature amount data among 111 pieces of feature amount data are data classified into true defect classes.

図9は、特徴量分布の第2の例に使用された特徴量データを示す図である。図9(A)は、擬似欠陥クラスに分類された100個の特徴量データからなるデータテーブルT100を示す図である。図9(B)は、真欠陥クラスに分類された11個の特徴量データからなるデータテーブルT110Aを示す図である。   FIG. 9 is a diagram illustrating the feature amount data used in the second example of the feature amount distribution. FIG. 9A is a diagram showing a data table T100 composed of 100 pieces of feature amount data classified into the pseudo defect class. FIG. 9B is a diagram showing a data table T110A composed of eleven feature quantity data classified into the true defect class.

再び、図8を参照して、クラス領域C2Aは、擬似欠陥クラスに分類されたデータによる曲線を含む。クラス領域C2Bは、真欠陥クラスに分類されたデータによる曲線を含む。図8は、図6と比較すると、真欠陥クラスに分類された、特徴量データの値が150のデータが1つ存在している。当該データは、クラス領域C2B内の一番大きな山の曲線から、大きく離れており、例外値となる。当該例外値を除くと、第1の例(図6)と第2の例(図8)の特徴量分布は全く同じである。
(計算方法の検討例)
図10は、特徴量分布の第1および第2の例に基づく、算出部514および評価部515による、検討例としての算出結果を示す図である。
Referring to FIG. 8 again, class region C2A includes a curve based on data classified into a pseudo defect class. The class area C2B includes a curve based on data classified into the true defect class. Compared with FIG. 6, FIG. 8 includes one piece of data with a feature value data value of 150 classified into a true defect class. The data is far from the largest peak curve in the class area C2B, and becomes an exceptional value. Excluding the exceptional value, the feature amount distributions of the first example (FIG. 6) and the second example (FIG. 8) are exactly the same.
(Examination example of calculation method)
FIG. 10 is a diagram illustrating a calculation result as an examination example by the calculation unit 514 and the evaluation unit 515 based on the first and second examples of the feature amount distribution.

図10を参照して、m(1)は、クラス領域C1Aおよびクラス領域C2A内のデータに基づく、クラス内平均を示す。SW(1)は、クラス領域C1Aおよびクラス領域C2A内のデータに基づく、クラス内散らばり度を示す。   Referring to FIG. 10, m (1) indicates an intraclass average based on data in class area C1A and class area C2A. SW (1) indicates the degree of dispersion within the class based on the data in the class area C1A and the class area C2A.

m(2)は、クラス領域C1Bおよびクラス領域C2B内のデータに基づく、クラス内平均を示す。SW(2)は、クラス領域C1Bおよびクラス領域C2B内のデータに基づく、クラス内散らばり度を示す。   m (2) represents an intraclass average based on data in the class area C1B and the class area C2B. SW (2) indicates the degree of dispersion in the class based on the data in the class area C1B and the class area C2B.

SBは、2つのクラス内平均の散らばり程度を表す指標であるクラス間散らばり度を示す。Eは、画像処理アルゴリズムの評価値である。   SB indicates the degree of inter-class dispersion, which is an index representing the average degree of dispersion within two classes. E is an evaluation value of the image processing algorithm.

第1の例におけるクラス内平均m(1)は、クラス領域C1A内の100個の特徴量データ(図7(A)参照)に基づいて、以下の算術平均を求めるための式(2)により、40.3と算出される。   The in-class average m (1) in the first example is expressed by the following equation (2) for calculating the arithmetic average based on 100 feature data (see FIG. 7A) in the class region C1A. 40.3.

Figure 2007018176
Figure 2007018176

式(2)のN(i)は、クラスiの特徴量データの個数である。この場合、iは“1”である。したがって、N(1)は100となる。Sijは、クラスiのj番目のデータ(特徴量データ)の値となる。 N (i) in Equation (2) is the number of feature quantity data of class i. In this case, i is “1”. Therefore, N (1) is 100. Sij is the value of j-th data (feature data) of class i.

第2の例におけるクラス内平均m(1)は、クラス領域C2A内の100個の特徴量データに基づいて、式(2)により算出される。なお、クラス領域C2A内の100個の特徴量データ(図9(A)参照)は、クラス領域C1A内の100個の特徴量データと同じであるので、第2の例におけるクラス内平均m(1)は、第1の例におけるクラス内平均m(1)と同じ値(40.3)となる。   The in-class average m (1) in the second example is calculated by Expression (2) based on 100 feature data in the class area C2A. The 100 feature quantity data in the class area C2A (see FIG. 9A) is the same as the 100 feature quantity data in the class area C1A. 1) is the same value (40.3) as the in-class average m (1) in the first example.

変動率は、以下の式(3)により算出される。
[(第2の例の値)/(第1の例の値)−1]×100 ・・・(3)
したがって、第1および第2の例におけるクラス内平均m(1)の変動率は式(3)より“0”となる。
The fluctuation rate is calculated by the following equation (3).
[(Value of second example) / (value of first example) -1] × 100 (3)
Therefore, the variation rate of the in-class average m (1) in the first and second examples is “0” from the equation (3).

第1の例におけるクラス内散らばり度SW(1)は、クラス領域C1A内の100個の特徴量データに基づいて、以下の分散を求めるための式(4)および前述の式(2)により、37.0と算出される。   The intra-class dispersion degree SW (1) in the first example is calculated based on the following equation (4) and the above-described equation (2) based on 100 feature data in the class region C1A. Calculated as 37.0.

Figure 2007018176
Figure 2007018176

この場合、式(4)のiは“1”である。なお、式(4)の分母であるN(i)−1は、N(i)であってもよい。 In this case, i in the formula (4) is “1”. Note that N (i) -1, which is the denominator of the formula (4), may be N (i).

第2の例におけるクラス内散らばり度SW(1)は、クラス領域C2A内の100個の特徴量データに基づいて、式(4)および式(2)により算出される。なお、クラス領域C2A(図9(A)参照)内の100個の特徴量データは、クラス領域C1A内の100個の特徴量データと同じであるので、第2の例におけるクラス内散らばり度SW(1)は、第1の例におけるクラス内散らばり度SW(1)と同じ値(37.0)となる。   The intra-class dispersion degree SW (1) in the second example is calculated by the equations (4) and (2) based on 100 feature data in the class region C2A. Note that the 100 feature value data in the class region C2A (see FIG. 9A) is the same as the 100 feature value data in the class region C1A, and therefore, the intra-class dispersion degree SW in the second example. (1) is the same value (37.0) as the intra-class dispersion degree SW (1) in the first example.

また、第1および第2の例におけるクラス内散らばり度SW(1)の変動率は式(3)より“0”となる。   Further, the variation rate of the intra-class dispersion degree SW (1) in the first and second examples is “0” from the equation (3).

第1の例におけるクラス内平均m(2)は、クラス領域C1B内の10個の特徴量データ(図7(B)参照)に基づいて、式(2)に、i=2、N(i)=10を代入することで、97.7と算出される。   The in-class average m (2) in the first example is expressed by the following equation (2) with i = 2, N (i) based on 10 feature quantity data (see FIG. 7B) in the class area C1B. ) = 10, 97.7 is calculated.

第2の例におけるクラス内平均m(2)は、クラス領域C2B内の11個の特徴量データ(図9(B)参照)に基づいて、式(2)に、i=2、N(i)=11を代入することで、102.4と算出される。   The in-class average m (2) in the second example is expressed by the following equation (2) based on 11 pieces of feature amount data (see FIG. 9B) in the class region C2B. ) = 11, it is calculated as 102.4.

また、第1および第2の例におけるm(2)の変動率は式(3)より“5”となる。
第1の例におけるクラス内散らばり度SW(2)は、クラス領域C1B内の10個の特徴量データに基づいて、式(4)に、i=2、N(i)=10、前述の第1の例におけるm(2)を代入することで、20.9と算出される。
Further, the variation rate of m (2) in the first and second examples is “5” from the equation (3).
The intra-class dispersion degree SW (2) in the first example is calculated based on the ten feature quantity data in the class region C1B, with i = 2, N (i) = 10, By substituting m (2) in the example of 1, it is calculated as 20.9.

第2の例におけるクラス内散らばり度SW(2)は、クラス領域C2B内の11個の特徴量データに基づいて、式(4)に、i=2、N(i)=11、前述の第2の例におけるm(2)を代入することで、267.8と算出される。   The intra-class dispersion degree SW (2) in the second example is calculated based on 11 feature value data in the class region C2B, i = 2, N (i) = 11, By substituting m (2) in the example of 2, it is calculated as 267.8.

また、第1および第2の例におけるクラス内散らばり度SW(2)の変動率は式(3)より“1181”となる。   Further, the variation rate of the intra-class dispersion degree SW (2) in the first and second examples is “1181” from the equation (3).

第1の例におけるクラス間散らばり度SBは、以下の式(5)および式(6)により、821.7と算出される。   The inter-class dispersion degree SB in the first example is calculated as 821.7 by the following expressions (5) and (6).

Figure 2007018176
Figure 2007018176

Figure 2007018176
Figure 2007018176

なお、式(6)のμは、クラス内平均m(1)と、クラス内平均m(2)との平均の値である。   In the equation (6), μ is an average value of the in-class average m (1) and the in-class average m (2).

第2の例におけるクラス間散らばり度SBは、式(5)および式(6)により、963.8と算出される。   The inter-class dispersion degree SB in the second example is calculated as 963.8 by the equations (5) and (6).

また、第1および第2の例におけるクラス間散らばり度SBの変動率は式(3)より“17”となる。   Further, the variation rate of the inter-class dispersion degree SB in the first and second examples is “17” from the equation (3).

第1の例における画像処理アルゴリズムの評価値Eは、前述の式(1)より、14.2と算出される。なお、図6から、第1の例における110個の特徴量データは、擬似欠陥クラスおよび真欠陥クラスに、特徴量データの値が80付近で分離できていることが分かる。したがって、未検出や過検出がない優良な画像処理アルゴリズムが生成されていることが容易に分かる。   The evaluation value E of the image processing algorithm in the first example is calculated as 14.2 from the above-described equation (1). It can be seen from FIG. 6 that the 110 feature quantity data in the first example can be separated into the pseudo defect class and the true defect class in the vicinity of 80 of the feature quantity data. Therefore, it can be easily understood that an excellent image processing algorithm without undetected or overdetected has been generated.

なお、第2の例における画像処理アルゴリズムの評価値Eは、前述の式(1)より、3.16と算出される。画像処理アルゴリズムの評価値Eは、前述したように、第2の例では、特徴量データに例外値を含む。   Note that the evaluation value E of the image processing algorithm in the second example is calculated to be 3.16 from the above equation (1). As described above, the evaluation value E of the image processing algorithm includes an exceptional value in the feature amount data in the second example.

また、第1および第2の例における評価値Eの変動率は式(3)より“−78”となる。   Further, the variation rate of the evaluation value E in the first and second examples is “−78” from the equation (3).

したがって、例外値が1つあるだけで、クラス内平均、クラス内散らばり度SW、クラス間散らばり度SBおよび評価値Eに大きく影響を及ぼすことが分かる。   Therefore, it can be seen that the fact that there is only one exceptional value greatly affects the intra-class average, the intra-class dispersion degree SW, the inter-class dispersion degree SB, and the evaluation value E.

たとえば、第1および第2の例における真欠陥のクラス内平均m(2)は、97.7から102.4へ5%変動している。また、第1および第2の例における真欠陥のクラス内散らばり度SWは、20.9から267.8へ1181%も大きく変動している。また、第1および第2の例における真欠陥のクラス間散らばり度SBは、821.7から963.8へ17%変動している。また、第1および第2の例における画像処理アルゴリズムの評価値Eは、14.2から3.16へ−78%も大きく変化し、評価が低下している,
このように、第1および第2の例では、どちらも、擬似欠陥クラスおよび真欠陥クラスに分類するのに使用する画像処理アルゴリズムの性能は同等であるにもかかわらず、クラス内平均を算術平均で算出し、クラス内散らばり度SWを分散により算出するといった検討例の計算方法では問題が生じる。
For example, the intraclass average m (2) of true defects in the first and second examples varies by 5% from 97.7 to 102.4. Also, the true defect intra-class dispersion degree SW in the first and second examples greatly fluctuates by 1181% from 20.9 to 267.8. Further, the true defect inter-class dispersion degree SB in the first and second examples varies by 17% from 821.7 to 963.8. In addition, the evaluation value E of the image processing algorithm in the first and second examples is greatly changed by -78% from 14.2 to 3.16, and the evaluation is lowered.
Thus, in both the first and second examples, the average of the intraclass average is used in spite of the performance of the image processing algorithms used to classify them into the pseudo defect class and the true defect class. A problem arises in the calculation method of the study example in which the calculation is performed in step (b) and the dispersion degree SW in the class is calculated by dispersion.

(第1の実施の形態における計算方法1)
次に、例外値の影響を小さくするための計算方法について説明する。一例として、重み付けを用いて平均値を正しく推定する手法であるM−estimatorを用いれば、例外値を含む場合でも、クラス内平均、クラス内散らばり度および評価値を正確に算出することができる。M−estimatorを用いたクラス内平均は、以下の式(7)により算出される。
(Calculation method 1 in the first embodiment)
Next, a calculation method for reducing the influence of exceptional values will be described. As an example, if M-estimator, which is a technique for correctly estimating the average value using weighting, is used, the in-class average, the in-class dispersion degree, and the evaluation value can be accurately calculated even when an exceptional value is included. The intraclass average using M-estimator is calculated by the following formula (7).

Figure 2007018176
Figure 2007018176

式(7)において、Kは、クラス内平均の候補となる任意の変数(以下、クラス内平均候補変数ともいう)である。m(i)はクラスiのクラス内平均、argmin{x}はxが最小の値となるようにKを変化させて求める式である。 In Expression (7), K is an arbitrary variable that is a candidate for intra-class average (hereinafter also referred to as an intra-class average candidate variable). m (i) is an in-class average of class i, and argmin {x} is an expression obtained by changing K so that x becomes a minimum value.

また、式(7)のN(i)はクラスiに所属する欠陥候補部(特徴量データ)の数、f(i,j)はクラスiに所属する欠陥候補部のj番目の特徴量データを示す。   In Expression (7), N (i) is the number of defect candidate parts (feature data) belonging to class i, and f (i, j) is the jth feature data of the defect candidate parts belonging to class i. Indicates.

また、関数ρは重み付け誤差関数と呼ばれており、これまでにいろいろ提案されている。たとえば、Geman−McClure関数を、以下の式(8)に示す。   The function ρ is called a weighting error function, and various proposals have been made so far. For example, the Geman-McClure function is shown in the following formula (8).

Figure 2007018176
Figure 2007018176

ここで、σは、予め定められた定数であり、平均(この場合、クラス内平均m(i))からの距離に応じてどの程度の重み付けをするかを定めるパラメータである。このように、M−estimatorを用いることで、クラス内平均m(i)を算出することができる。   Here, σ is a predetermined constant, and is a parameter that determines how much weighting is performed in accordance with the distance from the average (in this case, the intraclass average m (i)). In this way, the intraclass average m (i) can be calculated by using the M-estimator.

本発明では、M−estimatorを用いて、クラス内散らばり度SWを、以下の式(9)により算出することを提案する。   In the present invention, it is proposed to use the M-estimator to calculate the intra-class dispersion degree SW by the following equation (9).

Figure 2007018176
Figure 2007018176

式(9)において、SW(i)は、クラスiのクラス内散らばり度、m(i)は式(7)にて算出されたクラスiのクラス内平均である。 In equation (9), SW (i) is the degree of dispersion within class i, and m (i) is the class average of class i calculated in equation (7).

図11は、特徴量分布の第1および第2の例に基づく、算出部514および評価部515による、本発明の計算方法1による算出結果を示す図である。なお、第1および第2の例において使用した特徴量データは、前述の第1および第2の例で使用したデータと同じである。なお、以下の計算では、式(8)のσは6とした。   FIG. 11 is a diagram illustrating a calculation result by the calculation method 1 of the present invention by the calculation unit 514 and the evaluation unit 515 based on the first and second examples of the feature amount distribution. Note that the feature data used in the first and second examples is the same as the data used in the first and second examples described above. In the following calculation, σ in equation (8) is 6.

図11を参照して、第1の例におけるクラス内平均m(1)は、クラス領域C1A内の100個の特徴量データ(図7(A)参照)に基づいて、式(7)により算出された値である。第2の例におけるクラス内平均m(1)は、クラス領域C2A内の100個の特徴量データに基づいて、式(7)により算出された値である。   Referring to FIG. 11, in-class average m (1) in the first example is calculated by equation (7) based on 100 feature quantity data (see FIG. 7A) in class region C1A. Value. The in-class average m (1) in the second example is a value calculated by Expression (7) based on 100 feature data in the class area C2A.

第1の例におけるクラス内散らばり度SW(1)は、クラス領域C1A内の100個の特徴量データに基づいて、提案した式(9)により算出された値である。第2の例におけるクラス内散らばり度SW(1)は、クラス領域C2A内の100個の特徴量データに基づいて、提案した式(9)により算出された値である。   The intra-class dispersion degree SW (1) in the first example is a value calculated by the proposed formula (9) based on 100 feature quantity data in the class area C1A. The intra-class dispersion degree SW (1) in the second example is a value calculated by the proposed equation (9) based on 100 feature data in the class region C2A.

第1の例におけるクラス内平均m(2)は、クラス領域C1B内の10個の特徴量データ(図7(B)参照)に基づいて、式(7)により算出された値である。第2の例におけるクラス内平均m(2)は、クラス領域C2B内の11個の特徴量データ(図9(B)参照)に基づいて、式(7)により算出された値である。第1の例におけるクラス内散らばり度SW(2)は、クラス領域C1B内の10個の特徴量データに基づいて、提案した式(9)により算出された値である。第2の例におけるクラス内散らばり度SW(2)は、クラス領域C2B内の11個の特徴量データに基づいて、提案した式(9)により算出された値である。   The in-class average m (2) in the first example is a value calculated by the equation (7) based on the ten feature amount data (see FIG. 7B) in the class region C1B. The in-class average m (2) in the second example is a value calculated by Expression (7) based on 11 pieces of feature data (see FIG. 9B) in the class area C2B. The intra-class dispersion degree SW (2) in the first example is a value calculated by the proposed equation (9) based on the ten feature quantity data in the class area C1B. The intra-class dispersion degree SW (2) in the second example is a value calculated by the proposed formula (9) based on 11 pieces of feature amount data in the class region C2B.

第1および第2の例におけるクラス間散らばり度SBは、式(5)および式(6)により算出された値である。第1および第2の例における画像処理アルゴリズムの評価値Eは、式(1)により、算出された値である。   The inter-class dispersion degree SB in the first and second examples is a value calculated by the equations (5) and (6). The evaluation value E of the image processing algorithm in the first and second examples is a value calculated by Expression (1).

第1および第2の例における真欠陥のクラス内平均m(2)は、検討例では例外値の影響を受けていたが、上記計算方法1によれば、例外値の影響を受けずに、全く変動していない。したがって、第1および第2の例における真欠陥のクラス間散らばり度SBも例外値の影響を受けずに、全く変動していない。   In-class average m (2) of true defects in the first and second examples was affected by the exceptional value in the study example, but according to the calculation method 1 described above, without being affected by the exceptional value, It has not changed at all. Accordingly, the true defect inter-class dispersion degree SB in the first and second examples is not affected by the exceptional value and does not change at all.

第1および第2の例における真欠陥のクラス内散らばり度SW(2)は、検討例では例外値の影響を大きく受けていたが、上記提案した式(9)による計算によれば、0.25から0.32と、28%の変動にとどまっている。   In the first and second examples, the true defect intra-class dispersion degree SW (2) was greatly affected by the exceptional value in the study example. The fluctuation is only 28%, from 25 to 0.32.

したがって、第1および第2の例における画像処理アルゴリズムの評価値Eも、検討例では例外値の影響を大きく受けていたが、上記計算方法1によれば、1329.9から1192.2へ、わずか、−10%の変動にとどまっている。   Therefore, the evaluation value E of the image processing algorithm in the first and second examples was also greatly affected by the exceptional value in the study example, but according to the calculation method 1, from 1329.9 to 1192.2, The fluctuation is only -10%.

したがって、M−estimatorを使用した上記提案した式(9)による算出方法を用いることで、例外値の影響を小さくすることができ、画像処理アルゴリズムを正しく評価することができるという効果を奏する。   Therefore, by using the calculation method based on the proposed equation (9) using the M-estimator, the influence of the exceptional value can be reduced, and the image processing algorithm can be evaluated correctly.

そのため、前述のステップS340においても、正しく評価された画像処理アルゴリズムの評価値に基づいて、画像処理モジュールの組合せやパラメータ値の変更(調整)を、より正確に行なうことができる。すなわち、より正確に学習することができるという効果を奏する。   Therefore, also in the above-described step S340, the combination of image processing modules and the change (adjustment) of parameter values can be more accurately performed based on the evaluation value of the image processing algorithm that has been correctly evaluated. That is, there is an effect that learning can be performed more accurately.

したがって、短時間で、欠陥の識別率をより高くさせるための画像処理アルゴリズムを生成することができる。という効果を奏する。   Therefore, it is possible to generate an image processing algorithm for increasing the defect identification rate in a short time. There is an effect.

以上、特徴量データが1種類の場合の算出方法について説明したが、M−estimatorを用いた本発明は、特徴量データが複数種類の場合であっても、実施可能である。この場合、複数の欠陥候補部の各々の複数種類の特徴量データを特徴ベクトルで表し、スカラー演算からベクトル演算へ拡張すればよい。クラスiのクラス内平均m(i)は、以下の式(10)で算出できる。   The calculation method when the feature amount data is one type has been described above, but the present invention using the M-estimator can be implemented even when there are a plurality of types of feature amount data. In this case, a plurality of types of feature amount data of each of the plurality of defect candidate portions may be represented by feature vectors and extended from scalar calculation to vector calculation. The intraclass average m (i) of class i can be calculated by the following equation (10).

Figure 2007018176
Figure 2007018176

ここで、||x,y||は、ベクトルxとベクトルyとの距離を表す。距離は、たとえば、ユークリッド距離を用いればよい。Kはクラス内平均候補変数である。また、クラスiのクラス内散らばり度SWは、本発明において提案する以下の式(11)で算出できる。 Here, || x, y || represents the distance between the vector x and the vector y. For example, the Euclidean distance may be used as the distance. K is an intraclass average candidate variable. Further, the intra-class dispersion degree SW of class i can be calculated by the following formula (11) proposed in the present invention.

Figure 2007018176
Figure 2007018176

ここで、式(11)のm(i)は式(10)にて算出されたクラスiのクラス内平均m(i)である。 Here, m (i) in equation (11) is the intraclass average m (i) of class i calculated in equation (10).

(第1の実施の形態における計算方法2)
次に、例外値の影響を小さくするための他の計算方法について説明する。一例として、平均値として中央値を用いる手法であるLMedS(Least Median of Squares)を用いれば、例外値を含む場合でも、クラス内平均、クラス内散らばり度および評価値を正確に算出することができる。LMedSを用いたクラス内平均は、以下の式(12)により算出される。
(Calculation method 2 in the first embodiment)
Next, another calculation method for reducing the influence of the exceptional value will be described. As an example, if LMedS (Least Median of Squares), which is a method using a median value as an average value, is used, the average within the class, the degree of dispersion within the class, and the evaluation value can be accurately calculated even when exceptional values are included. . The intraclass average using LMedS is calculated by the following equation (12).

Figure 2007018176
Figure 2007018176

式(12)において、Med{x}は、クラスiに所属するj((j=1,…,N(i)))番目の欠陥候補部(特徴量データ)の偏差xの2乗分布に関する中央値である。Kはクラス内平均候補変数である。xは、クラスiに所属する複数の欠陥候補部の各々の特徴量データf(i,j)と、クラス内平均候補変数Kとの距離(差)である。このように、平均値を推定する際に中央値を用いる手法は、例外値による重みを小さくするようにし、その重みを用いてクラス内散らばり度を算出することになる。 In Expression (12), Med {x 2 } is a square distribution of deviation x of a j ((j = 1,..., N (i)))-th defect candidate portion (feature data) belonging to class i. Is the median. K is an intraclass average candidate variable. x is a distance (difference) between the feature amount data f (i, j) of each of the plurality of defect candidate portions belonging to the class i and the in-class average candidate variable K. As described above, in the method of using the median when estimating the average value, the weight by the exceptional value is reduced, and the dispersion degree within the class is calculated using the weight.

さらに、本発明では、LMedSを用いて、クラス内散らばり度SWを、以下の式(13)により算出することを提案する。   Furthermore, in the present invention, it is proposed to calculate the intra-class dispersion degree SW using the following formula (13) using LMedS.

Figure 2007018176
Figure 2007018176

式(13)において、m(i)は式(12)にて算出されたクラスiのクラス内平均である。 In equation (13), m (i) is the intraclass average of class i calculated in equation (12).

図12は、特徴量分布の第1および第2の例に基づく、算出部514および評価部515による、本発明の計算方法2による算出結果を示す図である。なお、第1および第2の例において使用した特徴量データは、前述の第1および第2の例で使用したデータと同じである。   FIG. 12 is a diagram illustrating a calculation result by the calculation method 2 of the present invention by the calculation unit 514 and the evaluation unit 515 based on the first and second examples of the feature amount distribution. Note that the feature data used in the first and second examples is the same as the data used in the first and second examples described above.

図12を参照して、第1の例におけるクラス内平均m(1)は、クラス領域C1A内の100個の特徴量データ(図7(A)参照)に基づいて、式(12)により算出された値である。第2の例におけるクラス内平均m(1)は、クラス領域C2A内の100個の特徴量データに基づいて、式(12)により算出された値である。   Referring to FIG. 12, the in-class average m (1) in the first example is calculated by Expression (12) based on 100 feature data (see FIG. 7A) in the class area C1A. Value. The in-class average m (1) in the second example is a value calculated by Expression (12) based on 100 feature quantity data in the class area C2A.

第1の例におけるクラス内散らばり度SW(1)は、クラス領域C1A内の100個の特徴量データに基づいて、提案した式(13)により算出された値である。第2の例におけるクラス内散らばり度SW(1)は、クラス領域C2A内の100個の特徴量データに基づいて、提案した式(13)により算出された値である。第1の例におけるクラス内平均m(2)は、クラス領域C1B内の10個の特徴量データ(図7(B)参照)に基づいて、式(12)により算出された値である。第2の例におけるクラス内平均m(2)は、クラス領域C2B内の11個の特徴量データ(図9(B)参照)に基づいて、式(12)により算出された値である。第1の例におけるクラス内散らばり度SW(2)は、クラス領域C1B内の10個の特徴量データに基づいて、提案した式(13)により算出された値である。第2の例におけるクラス内散らばり度SW(2)は、クラス領域C2B内の11個の特徴量データに基づいて、提案した式(13)により算出された値である。   The intra-class dispersion degree SW (1) in the first example is a value calculated by the proposed formula (13) based on 100 feature data in the class region C1A. The intra-class dispersion degree SW (1) in the second example is a value calculated by the proposed formula (13) based on 100 feature quantity data in the class area C2A. The in-class average m (2) in the first example is a value calculated by the equation (12) based on 10 feature quantity data (see FIG. 7B) in the class area C1B. The in-class average m (2) in the second example is a value calculated by Expression (12) based on 11 pieces of feature data (see FIG. 9B) in the class area C2B. The intra-class dispersion degree SW (2) in the first example is a value calculated by the proposed formula (13) based on the ten feature quantity data in the class area C1B. The intra-class dispersion degree SW (2) in the second example is a value calculated by the proposed equation (13) based on the 11 feature data in the class area C2B.

第1および第2の例におけるクラス間散らばり度SBは、式(5)および式(6)により算出された値である。第1および第2の例における画像処理アルゴリズムの評価値Eは、式(1)により、算出された値である。   The inter-class dispersion degree SB in the first and second examples is a value calculated by the equations (5) and (6). The evaluation value E of the image processing algorithm in the first and second examples is a value calculated by Expression (1).

第1および第2の例における真欠陥のクラス内平均m(2)は、検討例では例外値の影響を受けていたが、上記計算によれば、例外値の影響を受けずに、全く変動していない。したがって、第1および第2の例における真欠陥のクラス間散らばり度SBも例外値の影響を受けずに、全く変動していない。   In-class average m (2) of true defects in the first and second examples was affected by the exceptional value in the examination example, but according to the above calculation, it was completely affected by the exception value. Not done. Accordingly, the true defect inter-class dispersion degree SB in the first and second examples is not affected by the exceptional value and does not change at all.

第1および第2の例における真欠陥のクラス内散らばり度SWは、検討例では例外値の影響を大きく受けていたが、上記提案した式(13)による計算によれば、9.1から9.2と、わずか1%の変動にとどまっている。   In the first and second examples, the true defect intra-class dispersion degree SW is greatly influenced by the exceptional value in the study example, but according to the calculation according to the proposed equation (13), 9.1 to 9 It is only 1% of fluctuation.

したがって、第1および第2の例における画像処理アルゴリズムの評価値Eも、検討例では例外値の影響を大きく受けていたが、上記計算方法2によれば、例外値の影響を受けずに、全く変動していない。   Therefore, the evaluation value E of the image processing algorithm in the first and second examples is also greatly affected by the exceptional value in the study example, but according to the calculation method 2, the evaluation value E is not affected by the exceptional value. It has not changed at all.

したがって、LMedSを使用した上記提案した式(13)による算出方法を用いることで、例外値の影響を小さくすることができ、画像処理アルゴリズムを正しく評価することができるという効果を奏する。   Therefore, by using the calculation method according to the proposed equation (13) using LMedS, the influence of the exceptional value can be reduced, and the image processing algorithm can be evaluated correctly.

そのため、前述のステップS340においても、正しく評価された画像処理アルゴリズムの評価値に基づいて、画像処理モジュールの組合せやパラメータ値の変更(調整)を、より正確に行なうことができる。すなわち、より正確に学習することができるという効果を奏する。   Therefore, also in the above-described step S340, the combination of image processing modules and the change (adjustment) of parameter values can be more accurately performed based on the evaluation value of the image processing algorithm that has been correctly evaluated. That is, there is an effect that learning can be performed more accurately.

したがって、短時間で、欠陥の識別率をより高くさせるための画像処理アルゴリズムを生成することができる。という効果を奏する。   Therefore, it is possible to generate an image processing algorithm for increasing the defect identification rate in a short time. There is an effect.

以上、特徴量データが1種類の場合の算出方法について説明したが、LMedSを用いた本発明は、特徴量データが複数種類の場合であっても、実施可能である。この場合、複数の欠陥候補部の各々の複数種類の特徴量データを特徴ベクトルで表し、スカラー演算からベクトル演算へ拡張すればよい。クラスiのクラス内平均m(i)は、以下の式(14)で算出できる。   Although the calculation method in the case where there is one type of feature amount data has been described above, the present invention using LMedS can be implemented even when there are a plurality of types of feature amount data. In this case, a plurality of types of feature amount data of each of the plurality of defect candidate portions may be represented by feature vectors and extended from scalar calculation to vector calculation. The intraclass average m (i) of class i can be calculated by the following equation (14).

Figure 2007018176
Figure 2007018176

さらに、本発明では、LMedSを用いて、クラス内散らばり度SWを、以下の式(15)により算出することを提案する。   Furthermore, in the present invention, it is proposed to calculate the intra-class dispersion degree SW using the following formula (15) using LMedS.

Figure 2007018176
Figure 2007018176

式(15)において、m(i)は式(14)にて算出されたクラスiのクラス内平均である。 In equation (15), m (i) is the intraclass average of class i calculated in equation (14).

第1の実施の形態では、評価値を、前処理部511にフィードバックして、画像処理アルゴリズムを学習させた。本発明では、評価値を、特徴抽出部512または識別部513にフィードバックして学習させてもよい。特徴抽出部512を学習させるとは、たとえば、適切な特徴量を取捨選択することである。識別部513を学習させるとは、たとえば、欠陥候補部を、擬似欠陥と、真欠陥に分離するためのクラス分類閾値を学習させることである。   In the first embodiment, the evaluation value is fed back to the preprocessing unit 511 to learn the image processing algorithm. In the present invention, the evaluation value may be fed back to the feature extraction unit 512 or the identification unit 513 to be learned. Learning the feature extraction unit 512 is, for example, selecting an appropriate feature amount. Learning the identification unit 513 means, for example, learning a class classification threshold for separating a defect candidate part into a pseudo defect and a true defect.

図8に示した第2の例では、例外値が、各クラス領域内の一番大きな山の曲線から、大きく離れている特徴量データが存在する場合であった。しかし、例外値が、所属するクラス以外のほかのクラス分布内に存在することもある。   In the second example shown in FIG. 8, there is a case where there is feature data whose exception value is far away from the curve of the largest mountain in each class region. However, exceptional values may exist in other class distributions besides the class to which they belong.

すなわち、本来は擬似欠陥クラスに所属する欠陥候補部にも関わらず、作業者が誤って真欠陥として指定してしまった場合である。あるいは、本来は真欠陥クラスに所属する欠陥候補部にも関わらず、作業者が真欠陥に指定することを見落としている場合である。   In other words, this is a case where the operator has mistakenly designated a true defect, despite the defect candidate portion originally belonging to the pseudo defect class. Or, it is a case where the operator overlooks the designation as a true defect regardless of the defect candidate portion originally belonging to the true defect class.

この場合は、擬似欠陥と真欠陥を完全に分離する(つまり、過検出と未検出ともにゼロにする)学習アルゴリズムを生成することができない。このような例外値がある場合でも、本発明では、例外値の影響を及ばないように評価値を算出することができ、学習アルゴリズムを学習することができるという効果を奏する。   In this case, it is not possible to generate a learning algorithm that completely separates the pseudo defect and the true defect (that is, sets both overdetection and undetection to zero). Even in the case where such an exceptional value exists, the present invention can calculate an evaluation value so as not to be affected by the exceptional value, and has an effect that a learning algorithm can be learned.

<第2の実施の形態>
次に、第1の実施の形態で生成された画像処理アルゴリズムを使用して、パターン認識を行なう処理について説明する。
<Second Embodiment>
Next, a process for performing pattern recognition using the image processing algorithm generated in the first embodiment will be described.

図13は、本実施の形態におけるパターン認識装置500Aの内部の構成を示すブロック図である。   FIG. 13 is a block diagram showing an internal configuration of pattern recognition apparatus 500A in the present embodiment.

図13を参照して、パターン認識装置500Aは、図1の学習装置500と比較して、記録媒体555の代わりに記録媒体555Aにデータアクセスする点と、記憶部520に、プログラム180の代わりにプログラム180Aが記録されている点と、記録媒体555Aにプログラム180Aが記録されている点と、記憶部520に画像処理アルゴリズム184がさらに記録されている点が異なる。それ以外の構成および機能は学習装置500と同様なので詳細な説明は繰り返さない。   Referring to FIG. 13, pattern recognition apparatus 500 </ b> A has data access to recording medium 555 </ b> A instead of recording medium 555 as compared with learning apparatus 500 of FIG. The difference is that the program 180A is recorded, the program 180A is recorded on the recording medium 555A, and the image processing algorithm 184 is further recorded in the storage unit 520. Since other configurations and functions are similar to those of learning apparatus 500, detailed description will not be repeated.

画像処理アルゴリズム184は、第1の実施の形態で生成された画像処理アルゴリズムである。ここで、画像処理アルゴリズムとは、1つ以上の画像処理フィルタにより構成されるものである。パターン認識装置500Aには、画像内のパターンを識別させたい処理対象画像が入力される。なお、処理対象画像内に存在する1以上の欠陥に関する情報は未知である。   The image processing algorithm 184 is an image processing algorithm generated in the first embodiment. Here, the image processing algorithm is composed of one or more image processing filters. The pattern recognition apparatus 500A receives a processing target image for identifying a pattern in the image. Information about one or more defects existing in the processing target image is unknown.

パターン認識装置500Aは、この各欠陥を個別に検出し、欠陥毎にその所属クラスを推定することができる。もちろん、欠陥が一つもない画像データが入力された場合は、パターン認識装置500Aは、検出すべき欠陥が一つもないという推定結果を出力することになる。以上の構成のパターン認識装置500Aにより、入力された画像のパターンを認識するパターン認識処理が行なわれる。   The pattern recognition apparatus 500A can detect each defect individually and estimate the class to which the defect belongs. Of course, when image data having no defect is input, the pattern recognition apparatus 500A outputs an estimation result that there is no defect to be detected. Pattern recognition processing for recognizing the pattern of the input image is performed by the pattern recognition apparatus 500A having the above configuration.

次に、パターン認識処理について説明する。
図14は、パターン認識処理のフローチャートである。図14を参照して、ステップS410では、制御部510が、記憶部520に記憶されている画像処理アルゴリズム184を記憶部520から読み出す。その後、ステップS420に進む。
Next, the pattern recognition process will be described.
FIG. 14 is a flowchart of pattern recognition processing. Referring to FIG. 14, in step S <b> 410, control unit 510 reads image processing algorithm 184 stored in storage unit 520 from storage unit 520. Thereafter, the process proceeds to step S420.

ステップS420では、画像データ入力部600を用いて検査対象物650を撮像することにより処理対象画像を入力する。また、オフライン画像検査を行なう場合には、記憶部520に記憶されている処理対象画像を読出すことにより画像を入力する。その後、ステップS430に進む。   In step S420, a processing target image is input by imaging the inspection object 650 using the image data input unit 600. Further, when performing offline image inspection, an image is input by reading the processing target image stored in the storage unit 520. Thereafter, the process proceeds to step S430.

ステップS430では、画像処理が行なわれる。画像処理では、前処理部511が、ステップS420で取得された処理対象画像に対し、画像処理アルゴリズム184の処理を施した、処理後画像を生成する。その後、ステップS440に進む。   In step S430, image processing is performed. In the image processing, the preprocessing unit 511 generates a processed image obtained by performing the processing of the image processing algorithm 184 on the processing target image acquired in step S420. Thereafter, the process proceeds to step S440.

ステップS440では、特徴量算出処理が行なわれる。特徴量算出処理では、特徴抽出部512が、処理後画像に含まれる真欠陥または擬似欠陥に対応する欠陥候補部を全て抽出し、全ての欠陥候補部の各々に対応する特徴量データの値を算出する。その後、ステップS450に進む。   In step S440, a feature amount calculation process is performed. In the feature amount calculation processing, the feature extraction unit 512 extracts all defect candidate portions corresponding to the true defect or the pseudo defect included in the processed image, and calculates the feature amount data value corresponding to each of all the defect candidate portions. calculate. Thereafter, the process proceeds to step S450.

ステップS450では、欠陥識別処理が行なわれる。欠陥識別処理では、識別部513が、ステップS340で抽出された全ての欠陥候補部の各々を、真欠陥と、擬似欠陥とに分類する。すなわち、欠陥候補部を2つのクラスに分類する。なお、分類の手法は、前述したパターン認識分類処理と同様なので詳細な説明は繰り返さない。したがって、全ての欠陥候補部の各々を、真欠陥と、擬似欠陥とに分類することで、処理対象画像内のパターンとしての欠陥候補部を識別することになる。その後、ステップS460に進む。   In step S450, defect identification processing is performed. In the defect identification process, the identification unit 513 classifies each defect candidate part extracted in step S340 into a true defect and a pseudo defect. That is, the defect candidate part is classified into two classes. Since the classification method is the same as the pattern recognition classification process described above, detailed description will not be repeated. Therefore, by classifying each defect candidate part into a true defect and a pseudo defect, the defect candidate part as a pattern in the processing target image is identified. Thereafter, the process proceeds to step S460.

ステップS460では、ステップS450により分類された各欠陥候補部の分類結果を、表示部530に表示する。以上により、このパターン認識処理は終了する。   In step S460, the classification result of each defect candidate part classified in step S450 is displayed on display unit 530. Thus, the pattern recognition process ends.

以上説明したように、本実施の形態では、パターン認識処理時に、第1の実施の形態で生成された、欠陥の識別率をより高くさせるための画像処理アルゴリズムを使用している。   As described above, in this embodiment, the image processing algorithm generated in the first embodiment for increasing the defect identification rate is used during the pattern recognition processing.

したがって、より正確に、処理対象画像内のパターンとしての欠陥候補部を識別することができるという効果を奏する。   Therefore, there is an effect that a defect candidate portion as a pattern in the processing target image can be identified more accurately.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本実施の形態における学習装置の内部の構成を示すブロック図である。It is a block diagram which shows the internal structure of the learning apparatus in this Embodiment. 画像データ入力部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image data input part. 本実施の形態における学習装置の機能ブロック図である。It is a functional block diagram of the learning apparatus in this Embodiment. 一例としての学習画像を示す図である。It is a figure which shows the learning image as an example. 画像処理アルゴリズム生成処理のフローチャートである。It is a flowchart of an image processing algorithm generation process. 特徴量分布(ヒストグラム)の第1の例を示す図である。It is a figure which shows the 1st example of feature-value distribution (histogram). 特徴量分布の第1の例に使用された特徴量データを示す図である。It is a figure which shows the feature-value data used for the 1st example of feature-value distribution. 特徴量分布(ヒストグラム)の第2の例を示す図である。It is a figure which shows the 2nd example of feature-value distribution (histogram). 特徴量分布の第2の例に使用された特徴量データを示す図である。It is a figure which shows the feature-value data used for the 2nd example of feature-value distribution. 特徴量分布の第1および第2の例に基づく、算出部および評価部による、検討例としての算出結果を示す図である。It is a figure which shows the calculation result as a study example by the calculation part and evaluation part based on the 1st and 2nd example of feature-value distribution. 特徴量分布の第1および第2の例に基づく、算出部および評価部による、本発明の計算方法1による算出結果を示す図である。It is a figure which shows the calculation result by the calculation method 1 of this invention by the calculation part and evaluation part based on the 1st and 2nd example of feature-value distribution. 特徴量分布の第1および第2の例に基づく、算出部および評価部による、本発明の計算方法2による算出結果を示す図である。It is a figure which shows the calculation result by the calculation method 2 of this invention by the calculation part and evaluation part based on the 1st and 2nd example of feature-value distribution. 本実施の形態におけるパターン認識装置の内部の構成を示すブロック図である。It is a block diagram which shows the internal structure of the pattern recognition apparatus in this Embodiment. パターン認識処理のフローチャートである。It is a flowchart of a pattern recognition process.

符号の説明Explanation of symbols

180,180A プログラム、182 学習用画像データベース、184 画像処理アルゴリズム、500 学習装置、500A パターン認識装置、510 制御部、520 記憶部、530 表示部、532 VDP、555,555A 記録媒体、600 画像データ入力部。   180, 180A program, 182 learning image database, 184 image processing algorithm, 500 learning device, 500A pattern recognition device, 510 control unit, 520 storage unit, 530 display unit, 532 VDP, 555, 555A recording medium, 600 image data input Department.

Claims (26)

予め所属クラスが指定された複数の学習パターンに前処理を施す前処理手段と、
前記前処理が施された前記複数の学習パターンの各々から、特徴量を抽出する特徴抽出手段と、
前記複数の学習パターンの各々を、対応する特徴量の値に基づいて、複数種類のクラスのいずれかに分類する識別手段と、
前記複数種類のクラスの各々に分類された、複数の学習パターンの各々に対応する特徴量の値に対し、対応するクラス内の分布状態を示すクラス内散らばり度を、前記複数種類のクラス毎に算出し、さらに、前記複数種類のクラス間の分布状態を示すクラス間散らばり度を算出する算出手段と、
前記クラス内散らばり度が小さくなる程評価値が大きくなることと、前記クラス間散らばり度が大きくなる程評価値が大きくなることをいずれか一つないしは両方を満たす評価値を算出する評価手段とを備え、
前記評価手段は、前記評価値が高くなるように、算出した前記評価値をフィードバックさせることで、前記前処理手段、前記特徴抽出手段ないしは前記識別手段の少なくとも一つを学習させ、
前記算出手段は、前記複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、前記クラス内散らばり度を算出する際の重み付けを変化させる、学習装置。
Pre-processing means for performing pre-processing on a plurality of learning patterns in which a class belonging in advance is designated;
Feature extraction means for extracting a feature amount from each of the plurality of learning patterns subjected to the preprocessing;
Identification means for classifying each of the plurality of learning patterns into one of a plurality of classes based on the value of the corresponding feature amount;
For each of the plurality of types of classes, the degree of scatter within the class indicating the distribution state in the corresponding class for the feature value corresponding to each of the plurality of learning patterns classified into each of the plurality of types of classes. Calculating means for calculating a degree of inter-class dispersion indicating a distribution state between the plurality of types of classes;
An evaluation means for calculating an evaluation value that satisfies one or both of the following: an evaluation value that increases as the degree of dispersion within the class decreases; and an evaluation value that increases as the degree of dispersion between classes increases. With
The evaluation unit learns at least one of the preprocessing unit, the feature extraction unit, or the identification unit by feeding back the calculated evaluation value so that the evaluation value becomes high,
The learning unit is configured to change the weighting when calculating the degree of dispersion in the class as the value of the feature quantity that is far from the range in which the feature quantity values for each of the plurality of types of classes are most distributed.
前記算出手段は、
前記複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、重み付けを小さくして、前記複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値に基づいたクラス内平均を、前記複数種類のクラス毎に算出し、
前記クラス内平均からの散らばり程度を表す前記クラス内散らばり度を、前記複数種類のクラス毎に算出し、
前記複数種類のクラス毎に対応するクラス内平均に基づいて、前記クラス間散らばり度を算出する、請求項1に記載の学習装置。
The calculating means includes
Each of the plurality of types of learning patterns corresponding to each of the plurality of types of classes has a smaller weight as the value of the feature amount farther away from the range in which the value of the feature amount for each of the plurality of types of classes is the most distributed. An average in class based on the values of a plurality of corresponding feature amounts is calculated for each of the plurality of types of classes,
The degree of dispersion within the class representing the degree of dispersion from the average within the class is calculated for each of the plurality of types of classes,
The learning device according to claim 1, wherein the inter-class dispersion degree is calculated based on an intraclass average corresponding to each of the plurality of types of classes.
前記算出手段は、
前記複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応するクラス内平均候補との複数の距離を、前記複数種類のクラス毎に算出し、
前記複数の距離の各々に対し、前記複数の距離の各々の値が大きい程、算出する値が小さくなる重み付けを行なった重み付き距離を、前記複数種類のクラス毎に算出し、
算出した複数の重み付き距離を、前記複数種類のクラスの各々に対応する学習パターンの数に基づいて平均化することでクラス内散らばり度候補を、前記複数種類のクラス毎に算出し、
クラス内散らばり度候補が最小となる前記クラス内平均候補を、クラス内平均として算出し、最小となったクラス内散らばり度候補を、クラス内散らばり度候補として算出する、請求項2に記載の学習装置。
The calculating means includes
A plurality of distances between a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of the plurality of types of classes and an intra-class average candidate corresponding to the corresponding class are determined for each of the plurality of types of classes. To
For each of the plurality of distances, the weighted distance is weighted for each of the plurality of types of classes.
A plurality of weighted distances calculated are averaged based on the number of learning patterns corresponding to each of the plurality of types of classes, thereby calculating within-class dispersion degree candidates for each of the plurality of types of classes,
The learning according to claim 2, wherein the intra-class average candidate that minimizes the intra-class dispersion degree candidate is calculated as an intra-class average, and the intra-class dispersion degree candidate that is minimized is calculated as an intra-class dispersion degree candidate. apparatus.
前記算出手段が前記クラス内散らばり度を算出するための平均化は、算術平均である、請求項3に記載の学習装置。   The learning apparatus according to claim 3, wherein the averaging for calculating the degree of dispersion within the class by the calculating means is an arithmetic average. 前記算出手段は、
前記複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応する前記クラス内平均との複数の距離を、前記複数種類のクラス毎に算出し、
前記複数の距離の各々に対し、所定のべき乗値でべき乗したべき乗距離を、前記複数種類のクラス毎に算出し、
算出した複数の前記べき乗距離の分布に基づく中央値を前記クラス内散らばり度として、前記複数種類のクラス毎に算出する、請求項2に記載の学習装置。
The calculating means includes
A plurality of distances between a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of the plurality of types of classes and the average within the class corresponding to the corresponding class are determined for each of the plurality of types of classes. To
For each of the plurality of distances, a power distance that is a power of a predetermined power value is calculated for each of the plurality of types of classes,
The learning apparatus according to claim 2, wherein a median value based on the calculated distribution of the plurality of power distances is calculated for each of the plurality of types of classes as the degree of dispersion within the class.
前記べき乗値は2である、請求項5に記載の学習装置。   The learning apparatus according to claim 5, wherein the power value is two. 前記距離は、ユークリッド距離である、請求項3または請求項5に記載の学習装置。   The learning apparatus according to claim 3, wherein the distance is a Euclidean distance. 前記評価手段は、前記クラス間散らばり度を、前記複数種類のクラスのそれぞれに対応した複数のクラス内散らばり度の合計値で除算した値を、前記評価値として算出する、請求項1〜請求項7のいずれかに記載の学習装置。   The evaluation means calculates, as the evaluation value, a value obtained by dividing the inter-class dispersion degree by a total value of a plurality of intra-class dispersion degrees corresponding to each of the plurality of types of classes. The learning device according to any one of 7. 前記識別手段が、前記学習パターンを、予め指定された所属クラス以外のクラスに分類したことを、誤指定と判定する誤指定判定手段をさらに備え、
前記誤指定判定手段は、前記誤指定の対象となった学習パターンを、前記評価手段が算出する前記評価値を算出する対象となる学習パターンから除外する、請求項1〜請求項8のいずれかに記載の学習装置。
The identification means further comprises an erroneous specification determination means for determining that the learning pattern is classified into a class other than a previously assigned affiliation class as an erroneous specification,
The said incorrect designation | designated determination means excludes the learning pattern used as the object of the said erroneous designation from the learning pattern used as the object which calculates the said evaluation value which the said evaluation means calculates. The learning device described in 1.
前記学習パターンは画像であり、
前記前処理は、所定の画像処理アルゴリズムに基づいた画像処理を前記学習パターンに施す処理であり、
前記評価手段は、前記評価値に基づいて、前記画像処理アルゴリズムを変化させる、請求項1〜請求項9のいずれかに記載の学習装置。
The learning pattern is an image,
The preprocessing is processing for performing image processing based on a predetermined image processing algorithm on the learning pattern,
The learning device according to claim 1, wherein the evaluation unit changes the image processing algorithm based on the evaluation value.
前記評価手段は、前記画像処理アルゴリズムを、遺伝的アルゴリズムに基づいて変化させる、請求項10に記載の学習装置。   The learning device according to claim 10, wherein the evaluation unit changes the image processing algorithm based on a genetic algorithm. 予め所属クラスが指定された複数の学習パターンに前処理を施す工程と、
前記前処理が施された前記複数の学習パターンの各々から、特徴量を抽出する工程と、
前記複数の学習パターンの各々を、対応する特徴量の値に基づいて、複数種類のクラスのいずれかに分類する工程と、
前記複数種類のクラスの各々に分類された、複数の学習パターンの各々に対応する特徴量の値に対し、対応するクラス内の分布状態を示すクラス内散らばり度を、前記複数種類のクラス毎に算出し、さらに、前記複数種類のクラス間の分布状態を示すクラス間散らばり度を算出する工程と、
前記クラス内散らばり度が小さくなる程評価値が大きくなることと、前記クラス間散らばり度が大きくなる程評価値が大きくなることをいずれか一つないしは両方を満たす評価値を算出する工程とを含み、
前記評価値を算出する工程は、前記評価値が高くなるように、算出した前記評価値をフィードバックさせることで前記前処理を施す工程、前記抽出する工程ないしは前記分類する工程の少なくとも一つを学習させる工程を含み、
前記算出する工程は、前記複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、前記クラス内散らばり度を算出する際の重み付けを変化させる工程を含む、学習方法。
A step of pre-processing a plurality of learning patterns in which the belonging class is designated in advance;
Extracting a feature amount from each of the plurality of learning patterns subjected to the preprocessing;
Classifying each of the plurality of learning patterns into one of a plurality of classes based on the corresponding feature value;
For each of the plurality of types of classes, the degree of scatter within the class indicating the distribution state in the corresponding class for the feature value corresponding to each of the plurality of learning patterns classified into each of the plurality of types of classes. Calculating, and further calculating a degree of inter-class dispersion indicating a distribution state between the plurality of types of classes;
A step of calculating an evaluation value that satisfies any one or both of that the evaluation value increases as the degree of dispersion within the class decreases and that the evaluation value increases as the degree of dispersion between classes increases. Including
The step of calculating the evaluation value learns at least one of the step of performing the preprocessing, the step of extracting or the step of classifying by feeding back the calculated evaluation value so that the evaluation value becomes high Including the step of
The step of calculating includes a step of changing a weight when calculating the degree of dispersion within the class as the value of the characteristic amount that is far from the range in which the value of the characteristic amount for each of the plurality of types of classes is the most distributed. , Learning method.
前記クラス間散らばり度を算出する工程は、
前記複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、重み付けを小さくして、前記複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値に基づいたクラス内平均を、前記複数種類のクラス毎に算出する工程と、
前記クラス内平均からの散らばり程度を表す前記クラス内散らばり度を、前記複数種類のクラス毎に算出する工程と、
前記複数種類のクラス毎に対応するクラス内平均に基づいて、前記クラス間散らばり度を算出する工程とを含む、請求項12に記載の学習方法。
The step of calculating the inter-class dispersion degree includes
Each of the plurality of types of learning patterns corresponding to each of the plurality of types of classes has a smaller weight as the value of the feature amount farther away from the range in which the value of the feature amount for each of the plurality of types of classes is the most distributed. Calculating an average within a class based on a plurality of corresponding feature value values for each of the plurality of types of classes;
Calculating the degree of dispersion within the class representing the degree of dispersion from the average within the class for each of the plurality of types of classes;
The learning method according to claim 12, further comprising: calculating the degree of dispersion between classes based on an intraclass average corresponding to each of the plurality of types of classes.
前記クラス間散らばり度を算出する工程は、
前記複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応するクラス内平均候補との複数の距離を、前記複数種類のクラス毎に算出する工程と、
前記複数の距離の各々に対し、前記複数の距離の各々の値が大きい程、算出する値が小さくなる重み付けを行なった重み付き距離を、前記複数種類のクラス毎に算出する工程と、
算出した複数の重み付き距離を、前記複数種類のクラスの各々に対応する学習パターンの数に基づいて平均化することでクラス内散らばり度候補を、前記複数種類のクラス毎に算出し、
クラス内散らばり度候補が最小となる前記クラス内平均候補を、クラス内平均として算出し、最小となったクラス内散らばり度候補を、クラス内散らばり度候補として算出する工程とを含む、請求項13に記載の学習方法。
The step of calculating the inter-class dispersion degree includes
A plurality of distances between a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of the plurality of types of classes and an intra-class average candidate corresponding to the corresponding class are determined for each of the plurality of types of classes. A step of calculating
For each of the plurality of distances, calculating a weighted distance for each of the plurality of types of weights, in which a weight to be calculated is smaller as each of the plurality of distances is larger.
A plurality of weighted distances calculated are averaged based on the number of learning patterns corresponding to each of the plurality of types of classes, thereby calculating within-class dispersion degree candidates for each of the plurality of types of classes,
And calculating the intra-class average candidate that minimizes the intra-class dispersion degree candidate as an intra-class average, and calculating the intra-class dispersion degree candidate that is minimized as the intra-class dispersion degree candidate. The learning method described in.
前記クラス間散らばり度を算出する工程が前記クラス内散らばり度を算出するための平均化は、算術平均である、請求項14に記載の学習方法。   The learning method according to claim 14, wherein the step of calculating the inter-class dispersion degree is an arithmetic average in which the averaging for calculating the intra-class dispersion degree is an arithmetic average. 前記クラス間散らばり度を算出する工程は、
前記複数種類のクラスの各々に対応する複数の学習パターンのそれぞれに対応する複数の特徴量の値と、対応するクラスに対応する前記クラス内平均との複数の距離を、前記複数種類のクラス毎に算出する工程と、
前記複数の距離の各々に対し、所定のべき乗値でべき乗したべき乗距離を、前記複数種類のクラス毎に算出する工程と、
算出した複数の前記べき乗距離の分布に基づく中央値を前記クラス内散らばり度として、前記複数種類のクラス毎に算出する工程とを含む、請求項13に記載の学習方法。
The step of calculating the inter-class dispersion degree includes
A plurality of distances between a plurality of feature value values corresponding to each of a plurality of learning patterns corresponding to each of the plurality of types of classes and the average within the class corresponding to the corresponding class are determined for each of the plurality of types of classes. A step of calculating
For each of the plurality of distances, calculating a power distance that is a power of a predetermined power value for each of the plurality of types of classes;
The learning method according to claim 13, further comprising: calculating, for each of the plurality of types of classes, a median value based on the calculated distribution of the power distances as the degree of dispersion within the class.
前記べき乗値は2である、請求項16に記載の学習方法。   The learning method according to claim 16, wherein the power value is two. 前記距離は、ユークリッド距離である、請求項14または請求項16に記載の学習方法。   The learning method according to claim 14, wherein the distance is a Euclidean distance. 前記評価値を算出する工程は、前記クラス間散らばり度を、前記複数種類のクラスのそれぞれに対応した複数のクラス内散らばり度の合計値で除算した値を、前記評価値として算出する工程を含む、請求項12〜請求項18のいずれかに記載の学習方法。   The step of calculating the evaluation value includes a step of calculating, as the evaluation value, a value obtained by dividing the inter-class dispersion degree by a total value of a plurality of intra-class dispersion degrees corresponding to each of the plurality of classes. The learning method according to any one of claims 12 to 18. 前記分類する工程が、前記学習パターンを、予め指定された所属クラス以外のクラスに分類したことを、誤指定と判定する工程をさらに含み、
前記誤指定と判定する工程は、前記誤指定の対象となった学習パターンを、前記評価値を算出する工程が算出する前記評価値を算出する対象となる学習パターンから除外する工程を含む、請求項12〜請求項19のいずれかに記載の学習方法。
The step of classifying further includes the step of determining that the learning pattern is classified into a class other than a pre-designated affiliation class as an erroneous designation,
The step of determining to be erroneously specified includes the step of excluding the learning pattern that is the target of erroneous specification from the learning pattern that is the target of calculating the evaluation value calculated by the step of calculating the evaluation value. The learning method according to claim 12.
前記学習パターンは画像であり、
前記前処理は、所定の画像処理アルゴリズムに基づいた画像処理を前記学習パターンに施す処理であり、
前記評価値を算出する工程は、前記評価値に基づいて、前記画像処理アルゴリズムを変化させる工程を含む、請求項12〜請求項20のいずれかに記載の学習方法。
The learning pattern is an image,
The preprocessing is processing for performing image processing based on a predetermined image processing algorithm on the learning pattern,
21. The learning method according to claim 12, wherein the step of calculating the evaluation value includes a step of changing the image processing algorithm based on the evaluation value.
前記評価値を算出する工程は、前記画像処理アルゴリズムを、遺伝的アルゴリズムに基づいて変化させる工程を含む、請求項21に記載の学習方法。   The learning method according to claim 21, wherein the step of calculating the evaluation value includes a step of changing the image processing algorithm based on a genetic algorithm. コンピュータに学習処理を実行させるための学習プログラムであって、
予め所属クラスが指定された複数の学習パターンに前処理を施すステップと、
前記前処理が施された前記複数の学習パターンの各々から、特徴量を抽出するステップと、
前記複数の学習パターンの各々を、対応する特徴量の値に基づいて、複数種類のクラスのいずれかに分類するステップと、
前記複数種類のクラスの各々に分類された、複数の学習パターンの各々に対応する特徴量の値に対し、対応するクラス内の分布状態を示すクラス内散らばり度を、前記複数種類のクラス毎に算出し、さらに、前記複数種類のクラス間の分布状態を示すクラス間散らばり度を算出するステップと、
前記クラス内散らばり度が小さくなる程評価値が大きくなることと、前記クラス間散らばり度が大きくなる程評価値が大きくなることをいずれか一つないしは両方を満たす評価値を算出するステップとをコンピュータに実行させ、
前記評価値を算出するステップは、前記評価値が高くなるように、算出した前記評価値をフィードバックさせることで前記前処理を施すステップ、前記抽出するステップないしは前記分類するステップの少なくとも一つを学習させるステップを含み、
前記算出するステップは、前記複数種類のクラス毎の特徴量の値が最も多く分布している範囲から離れる特徴量の値ほど、前記クラス内散らばり度を算出する際の重み付けを変化させるステップを含む、学習プログラム。
A learning program for causing a computer to execute a learning process,
Performing a pre-processing on a plurality of learning patterns in which a belonging class is designated in advance;
Extracting a feature amount from each of the plurality of learning patterns subjected to the preprocessing;
Classifying each of the plurality of learning patterns into one of a plurality of classes based on a corresponding feature value;
For each of the plurality of types of classes, the degree of scatter within the class indicating the distribution state in the corresponding class for the feature value corresponding to each of the plurality of learning patterns classified into each of the plurality of types of classes. Calculating, and further calculating a degree of inter-class dispersion indicating a distribution state between the plurality of types of classes;
Calculating an evaluation value that satisfies any one or both of the following: an evaluation value that increases as the degree of dispersion within the class decreases; and an evaluation value that increases as the degree of dispersion between classes increases. Let the computer run,
The step of calculating the evaluation value learns at least one of the step of performing the preprocessing, the step of extracting or the step of classifying by feeding back the calculated evaluation value so that the evaluation value becomes high Including the step of
The step of calculating includes a step of changing a weight when calculating the degree of dispersion within the class, as the value of the characteristic amount is far from the range in which the value of the characteristic amount for each of the plurality of types of classes is the most distributed. , Learning program.
請求項23に記載の学習プログラムを記録した、記録媒体。   A recording medium on which the learning program according to claim 23 is recorded. 請求項10または請求項11に記載の画像処理アルゴリズムを用いて、処理対象画像のパターンを認識する、パターン認識装置。   The pattern recognition apparatus which recognizes the pattern of a process target image using the image processing algorithm of Claim 10 or Claim 11. 請求項21または請求項22に記載の画像処理アルゴリズムを用いて、処理対象画像のパターンを認識する、パターン認識方法。   A pattern recognition method for recognizing a pattern of an image to be processed using the image processing algorithm according to claim 21 or 22.
JP2005197825A 2005-07-06 2005-07-06 Learning device, learning method, learning program, recording medium, and device and method for pattern recognition Withdrawn JP2007018176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005197825A JP2007018176A (en) 2005-07-06 2005-07-06 Learning device, learning method, learning program, recording medium, and device and method for pattern recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005197825A JP2007018176A (en) 2005-07-06 2005-07-06 Learning device, learning method, learning program, recording medium, and device and method for pattern recognition

Publications (1)

Publication Number Publication Date
JP2007018176A true JP2007018176A (en) 2007-01-25

Family

ID=37755308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005197825A Withdrawn JP2007018176A (en) 2005-07-06 2005-07-06 Learning device, learning method, learning program, recording medium, and device and method for pattern recognition

Country Status (1)

Country Link
JP (1) JP2007018176A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257257A (en) * 2009-04-24 2010-11-11 Nikon Corp Apparatus and method for processing hereditary, and program
WO2011033890A1 (en) * 2009-09-17 2011-03-24 シャープ株式会社 Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device
WO2011058605A1 (en) * 2009-11-12 2011-05-19 株式会社 東芝 Metric space learning device
CN108765229A (en) * 2018-06-20 2018-11-06 大国创新智能科技(东莞)有限公司 Learning performance evaluation method and robot system based on big data and artificial intelligence
JP7438382B2 (en) 2020-03-20 2024-02-26 シェフラー テクノロジーズ アー・ゲー ウント コー. カー・ゲー Method and testing device for testing bipolar plates of electrochemical cells, especially fuel cells

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257257A (en) * 2009-04-24 2010-11-11 Nikon Corp Apparatus and method for processing hereditary, and program
WO2011033890A1 (en) * 2009-09-17 2011-03-24 シャープ株式会社 Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device
US8798345B2 (en) 2009-09-17 2014-08-05 Sharp Kabushiki Kaisha Diagnosis processing device, diagnosis processing system, diagnosis processing method, diagnosis processing program and computer-readable recording medium, and classification processing device
WO2011058605A1 (en) * 2009-11-12 2011-05-19 株式会社 東芝 Metric space learning device
JP5355708B2 (en) * 2009-11-12 2013-11-27 株式会社東芝 Metric space learning device and pattern recognition device
US8943005B2 (en) 2009-11-12 2015-01-27 Kabushiki Kaisha Toshiba Metric learning apparatus
CN108765229A (en) * 2018-06-20 2018-11-06 大国创新智能科技(东莞)有限公司 Learning performance evaluation method and robot system based on big data and artificial intelligence
CN108765229B (en) * 2018-06-20 2023-11-24 大国创新智能科技(东莞)有限公司 Learning performance evaluation method based on big data and artificial intelligence and robot system
JP7438382B2 (en) 2020-03-20 2024-02-26 シェフラー テクノロジーズ アー・ゲー ウント コー. カー・ゲー Method and testing device for testing bipolar plates of electrochemical cells, especially fuel cells

Similar Documents

Publication Publication Date Title
JP6704005B2 (en) Digital holography microscopy data analysis for hematology
JP6061713B2 (en) Inspection apparatus, inspection method and program
JP7289427B2 (en) Program, information processing method and information processing apparatus
US10043264B2 (en) Integration of automatic and manual defect classification
CN110148130B (en) Method and device for detecting part defects
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
US10861145B2 (en) Defect inspection device and defect inspection method
US9715723B2 (en) Optimization of unknown defect rejection for automatic defect classification
US10891508B2 (en) Image processing apparatus, method, and non-transitory computer-readable storage medium
JP2013167596A (en) Defect inspection device, defect inspection method, and program
US20150242686A1 (en) Methods for assessing image change and devices thereof
JP6401648B2 (en) Defect classification apparatus and defect classification method
US9443129B2 (en) Methods and apparatus for image analysis using threshold compactness features
JP2006293528A (en) Method and apparatus for selecting learning image, and method, apparatus, program and recording medium for creating image processing algorithm
JP3756507B1 (en) Image processing algorithm evaluation method and apparatus, image processing algorithm generation method and apparatus, program, and program recording medium
JP2019158628A (en) Inspection device, inspection method, and inspection program
CN114092387A (en) Generating training data usable for examining a semiconductor sample
JP2007018176A (en) Learning device, learning method, learning program, recording medium, and device and method for pattern recognition
CN111814852A (en) Image detection method, image detection device, electronic equipment and computer-readable storage medium
EP2911112A1 (en) Methods for assessing image change and devices thereof
CN117115147B (en) Textile detection method and system based on machine vision
JP2020144626A (en) System and program for detecting abnormality
Novas et al. Live monitoring in poultry houses: A broiler detection approach
Pinitjitsamut et al. Logo Detection with Artificial Intelligent
Kofler et al. Classifying defects in topography images of silicon wafers

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081007