JP2009186243A - Discriminator, discrimination method and program - Google Patents

Discriminator, discrimination method and program Download PDF

Info

Publication number
JP2009186243A
JP2009186243A JP2008024529A JP2008024529A JP2009186243A JP 2009186243 A JP2009186243 A JP 2009186243A JP 2008024529 A JP2008024529 A JP 2008024529A JP 2008024529 A JP2008024529 A JP 2008024529A JP 2009186243 A JP2009186243 A JP 2009186243A
Authority
JP
Japan
Prior art keywords
discrimination
discriminant
feature information
function
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008024529A
Other languages
Japanese (ja)
Other versions
JP5298552B2 (en
Inventor
Jun Umemura
純 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2008024529A priority Critical patent/JP5298552B2/en
Publication of JP2009186243A publication Critical patent/JP2009186243A/en
Application granted granted Critical
Publication of JP5298552B2 publication Critical patent/JP5298552B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a discriminator, a discrimination method and a program capable of adjusting a discrimination rule so that a desired discrimination result can be acquired to a wrongly determined determination object, while suppressing an influence on another discrimination result. <P>SOLUTION: This discriminator 100 for discriminating to which assembly among a plurality of kinds a determination object belongs has a discrimination plane on which a point in a space which is a mapping destination is linearly separated, when learning characteristic information is expressed as the point in the space by characteristic information and the point is mapped, based on the learning characteristic information having a known discrimination result and learning discrimination result information; a discrimination function calculation part 112 for calculating the discrimination plane so that a distance to a point having the shortest distance to the discrimination plane becomes maximum, and using the result as a discrimination function; a discrimination function correction part 120 for adjusting an influence coefficient to the discrimination function of wrongly discriminated characteristic information wherein discrimination result information by the discrimination function is different from a known discrimination result; and a discrimination part 130 for discriminating a discrimination object based on characteristic information of the discrimination object having an unknown discrimination result and a corrected discrimination function. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、製造ライン等において得られる複数のデータについて良否や適否等を判定するための判別装置、判別方法及びプログラムに関する。   The present invention relates to a discriminating apparatus, a discriminating method, and a program for determining pass / fail or a plurality of data obtained in a production line or the like.

近年、例えば製造プラントにおいて製造ラインのオートメーション化が進み、製造プラントで製造される製品の品質管理を行うために様々な検査が行われている。検査技術の進歩により、製品の欠陥などの不良状態を細部にわたり測定することが可能になり、その測定データに基づいて、検出した不良がどのような種類の不良であるのかを判別することが重要である。なお、当該想定データは、複数の測定項目のデータを要素として有することも多い。   In recent years, for example, production lines have been automated in production plants, and various inspections have been performed in order to perform quality control of products produced in the production plants. Advances in inspection technology make it possible to measure the details of defects such as product defects in detail, and it is important to determine what kind of defect the detected defect is based on the measurement data It is. Note that the assumed data often includes data of a plurality of measurement items as elements.

例えば、鋼板の製造ラインでは、製造ラインに配置されたカメラによる鋼板の撮像画像に、所定の画像処理を行うことにより鋼板表面の疵等の欠陥を検出する検査装置が使用される。この検査装置では、画像を2値化し、その画像中において欠陥を表すと推定される領域(blob、ON(=1)となった領域)をラベリングにより疵候補データ(測定データの一例)として抽出する。そして、検査装置では、例えば、高さ・幅・面積・輝度分布などのその領域の特徴情報(特徴量)から、その領域が有害な欠陥なのか無害なノイズなのか、欠陥である場合には更に、その欠陥の種類(疵種)や有害度合(深刻度合い、グレード)といった判別が行われる。例えば、許容できない欠陥が発生した場合や製造ライン自体が抱える不良により発生した欠陥である場合など、早期な対処が必要となる場合も多く、正しい判別を行うことは、製造ラインの生産性及び製品品質に大きな影響を与えうる。   For example, in a steel plate production line, an inspection device that detects defects such as wrinkles on the surface of a steel plate by performing predetermined image processing on a captured image of the steel plate by a camera arranged on the production line is used. In this inspection apparatus, an image is binarized, and an area (blob, ON (= 1) area) estimated to represent a defect in the image is extracted as label candidate data (an example of measurement data) by labeling. To do. Then, in the inspection apparatus, for example, if the area is a harmful defect or harmless noise from the feature information (feature amount) of the area, such as height, width, area, and luminance distribution, Further, the type (defect type) of the defect and the degree of harm (severity level, grade) are determined. For example, when an unacceptable defect has occurred or a defect has occurred due to a defect in the production line itself, there are many cases in which early countermeasures are required. Can greatly affect quality.

このような判別処理を実行するには、その判別規則を定める必要がある。しかし、一般に実用に耐えうる性能の判別処理を実現するには、膨大な数の複雑な判別規則群を構築する必要がある。判別規則群をユーザが自ら構築することは、構築時のユーザへの負荷も膨大になるばかりか、メンテナンス性も非常に悪くなるので現実的ではない。   In order to execute such discrimination processing, it is necessary to define the discrimination rule. However, it is generally necessary to construct a huge number of complex discrimination rule groups in order to realize performance discrimination processing that can withstand practical use. It is not realistic for the user to construct the discriminant rule group himself because the load on the user at the time of construction becomes enormous and the maintainability becomes very poor.

そこで例えば、判別を行う装置で使用する判別規則を導き出すために、特徴情報とその特徴情報の判別作業者による判別結果(正解情報)とを含む学習データを必要数用意し、その学習データに基づいて自動的に判別規則を構築する学習機能が開発されている。   Therefore, for example, in order to derive a discrimination rule to be used in a discrimination device, a necessary number of learning data including feature information and a discrimination result (correct information) by a discrimination operator of the feature information is prepared, and based on the learning data A learning function has been developed to automatically construct discrimination rules.

このような学習機能として、例えば、プロダクションシステム、ニューラルネット、決定木などが研究されており、例えば下記非特許文献1に示すように、これらの学習機能が実問題に適用されている。   As such learning functions, for example, production systems, neural networks, decision trees, and the like have been studied. For example, as shown in Non-Patent Document 1 below, these learning functions are applied to actual problems.

特開2003−344300号公報JP 2003-344300 A “パターン認識”, 尾上守夫(訳), 2001“Pattern recognition”, Morio Onoe (translation), 2001 “Statistical Learning Theory”, V.Vapnik, 1998“Statistical Learning Theory”, V.Vapnik, 1998

一方、学習機能として近年注目されている手法の1つにSVM(サポート・ベクター・マシン法:Support Vector Machine)が挙げられる(上記非特許文献2参照。)。このSVMは、例えば、以下のような特徴を有する。
(1)正解と、学習データに忠実に対応し過ぎてその他のデータに対するエラーが増加する減少である過学習とのバランスをとるように設定された評価関数を用いた最適化計算により、各疵データ点を元とし、特徴情報の各特徴量を座標軸として張られる空間内(特徴量空間)において、有害欠陥と無害なノイズとの判別境界を計算により導出する。
(2)用意した学習データは、仮想的に規定される写像関数により、特徴量空間から高次元の別の空間に写像され、その高次元空間内での超平面によって判別される(もとの空間では曲面により判別される。)。
(3)最適化計算の結果として得られる判別境界(超平面)は、用意した学習データの幾つかの線形結合による判別関数として表現される。
On the other hand, SVM (Support Vector Machine Method) is one of the methods that have been attracting attention as a learning function in recent years (see Non-Patent Document 2 above). This SVM has the following features, for example.
(1) The optimization calculation using the evaluation function set so as to balance the correct answer with the over-learning which is a decrease in which the error with respect to other data increases due to the fact that it corresponds too much to the learning data, and each Based on the data points, a discrimination boundary between harmful defects and harmless noise is derived by calculation in a space (feature amount space) spanned by each feature amount of feature information as a coordinate axis.
(2) The prepared learning data is mapped from the feature space to another high-dimensional space by a virtually defined mapping function, and is discriminated by the hyperplane in the high-dimensional space (original In space, it is identified by a curved surface).
(3) A discriminant boundary (hyperplane) obtained as a result of optimization calculation is expressed as a discriminant function by some linear combination of prepared learning data.

このSVMによる学習機能は、上記の特徴などにより複雑な判別規則を学習できると同時に、過学習に陥り難いという優れた特性を有する。   This learning function by SVM has an excellent characteristic that it can learn a complicated discrimination rule based on the above-described features and the like, and at the same time, is difficult to fall into overlearning.

しかしながら、SVMによる判別規則の算出過程は、ユーザにとってブラックボックス(black box)的な側面が多く、所望の判別性能を発揮するように柔軟に判別規則を調整するのが難しいことが多い。例えば、SVMによる計算に必要な判別関数及び当該判別関数に含まれるパラメータなどを設定して最適化計算を実行すれば、ある程度調整された判別規則を算出できる。しかしながら、例えば学習データの極一部に誤りや紛らわしいデータが含まれているようなときには、ユーザの期待した判別規則を算出できるとは限らないことがある。つまり、例えば、誤った判定結果を導き出すことを許容できない特徴情報に対して、誤った判別結果を導き出してしまうような判別規則を算出してしまう場合などがある。   However, the calculation process of the discrimination rule by the SVM has many black box side aspects for the user, and it is often difficult to adjust the discrimination rule flexibly so as to exhibit a desired discrimination performance. For example, if an optimization calculation is performed by setting a discriminant function necessary for calculation by SVM and parameters included in the discriminant function, a discriminant rule adjusted to some extent can be calculated. However, for example, when a part of the learning data includes errors or misleading data, the determination rule expected by the user may not always be calculated. That is, for example, there may be a case where a determination rule that leads to an erroneous determination result is calculated for feature information that cannot allow an erroneous determination result to be derived.

SVMによって算出された判別規則を基にして、ユーザーが所望の判別規則を算出するために、パラメータなどを調整することが可能なときがある。例えば評価関数と写像関数のパラメータをユーザが後で調整することにより、ユーザの要望をある程度反映させることができる。しかし、これらのパラメータ調整による判別規則の調整は、間接的な調整であり、十分な調整が行えない場合が少なくない。つまり、これらのパラメータは、最適化計算のパラメータであり、判別規則による判別結果を直接的に調整しうるものではない。   In some cases, it is possible for the user to adjust parameters or the like in order to calculate a desired determination rule based on the determination rule calculated by the SVM. For example, the user's desire can be reflected to some extent by the user adjusting the parameters of the evaluation function and the mapping function later. However, the adjustment of the discrimination rule by these parameter adjustments is an indirect adjustment, and there are many cases where sufficient adjustment cannot be performed. That is, these parameters are optimization calculation parameters, and the determination result based on the determination rule cannot be directly adjusted.

このような、パラメータの調整によって判別規則を十分に調整することができないことがある理由として、例えば特徴情報の不足・正解の矛盾など、学習データの不備が原因であることも考えられる。しかし、学習データを修正して再学習を行うには、莫大なメンテナンスコストや時間が必要となる。また、そもそも正解の精度において、完璧な学習データを準備すること自体が難しいことが多い。よって、実問題の適用(実用)においては、莫大なメンテナンスコストや時間をかけずに、実際の学習データを用いて判別規則の最適性をある程度犠牲にしても、所望の判別結果が得られることが望まれる場合がある。   The reason why the discrimination rule may not be sufficiently adjusted by adjusting the parameters may be due to incomplete learning data such as lack of feature information or contradiction of correct answers. However, enormous maintenance costs and time are required to correct learning data and perform relearning. In the first place, it is often difficult to prepare perfect learning data in terms of accuracy of correct answers. Therefore, in the application of practical problems (practical use), the desired discrimination results can be obtained without sacrificing enormous maintenance costs and time, even if the optimality of discrimination rules is sacrificed to some extent using actual learning data. May be desired.

上記特許文献1には、所望の判別結果が得られるように判別規則に対応した上記高次元空間内での超平面を、誤って判定された特徴情報を正しく判別できるように平行移動することにより、判別規則を調整する技術が開示されている。しかしながら、このように超平面を平行移動させることは、超平面近傍(境界付近)の特徴情報に対して、大きな影響を与える場合がある。特に、SVMでは超平面近傍の特徴情報が判別規則を決定しているので、かえって、これら超平面近傍の特徴情報を誤って判定してしまう可能性がある。   In Patent Document 1, a hyperplane in the high-dimensional space corresponding to a discrimination rule is translated so that a desired discrimination result can be obtained so that erroneously determined feature information can be correctly discriminated. A technique for adjusting a discrimination rule is disclosed. However, translating the hyperplane in this way may have a significant effect on the feature information near the hyperplane (near the boundary). In particular, in the SVM, the feature information in the vicinity of the hyperplane determines the discrimination rule, so that there is a possibility that the feature information in the vicinity of the hyperplane is erroneously determined.

本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、疵データのような複数の特徴量や要素で構成されるデータについてその適否や良否を判定するために、当該データの学習データを用いてSVMにより判別規則を導出するのに際して、誤判定したデータ点等の所定の判定対象に対して所望の判別結果が得られるように、複数のデータ内のその他のデータ点の判別結果に対する影響を抑えつつ、従来よりも柔軟に判別規則を調整することが可能な判別装置、判別方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to determine the suitability and quality of data composed of a plurality of feature amounts and elements such as bag data. When deriving a discrimination rule by SVM using the learning data of the data, the other judgments in a plurality of data are obtained so that a desired discrimination result can be obtained for a predetermined judgment target such as an erroneously judged data point. An object of the present invention is to provide a discriminating apparatus, a discriminating method, and a program capable of adjusting discriminant rules more flexibly than before while suppressing the influence on the discrimination result of data points.

上記課題を解決するために、本発明のある観点によれば、判別対象が複数種類の集合のいずれに属するのかを該判別対象を特徴付ける特徴量で構成される特徴情報を入力データとする判別関数を用い、その判別関数の出力値である結果に基づいて判別する判別装置であって、判別結果が既知の複数の学習用特徴情報と該学習用特徴情報それぞれに対応付けられた判別結果を表す学習用判別結果情報とに基づいて、学習用特徴情報それぞれを特徴情報による空間上の点として表し、仮想的に規定する写像関数により上記空間上の点を写像した際に写像先の空間上において上記点を判別結果別に線形分離する判別面と、当該判別面までの距離が最短の上記点との距離が最大になるように、サポート・ベクター・マシン法を用いて上記判別面を算出して上記判別関数を導出する判別関数算出部と、既知の判別結果を有する特徴情報であって、上記判別関数に該特徴情報を入力した結果である判別結果情報と該特徴情報の既知の判別結果とが異なる誤判別特徴情報について、上記判別結果情報と上記既知の判別結果とが一致するように、上記誤判別特徴情報が上記判別関数に対して与える影響度合を表した影響係数を調整し、上記判別関数を修正する判別関数修正部と、判別結果が未知の判別対象を、該判別対象の特徴情報を入力データとして上記修正された上記判別関数を用いて判別する判別部と、を有することを特徴とする、判別装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, a discriminant function having as input data feature information composed of feature quantities characterizing a discriminant to which of a plurality of types of discriminants belong. , And a discrimination device that discriminates based on a result that is an output value of the discriminant function, wherein the discrimination result represents a plurality of known learning feature information and a discrimination result associated with each of the learning feature information Based on the learning discrimination result information, each of the learning feature information is represented as a point on the space by the feature information, and when the point on the space is mapped by a virtually defined mapping function, The discriminant plane is calculated using the support vector machine method so that the distance between the discriminant plane that linearly separates the points according to the discriminant results and the point with the shortest distance to the discriminant plane is maximized. A discriminant function calculation unit for deriving the discriminant function, and feature information having a known discriminant result, the discriminant result information obtained by inputting the feature information into the discriminant function, and a known discriminant result of the feature information For the misclassification feature information different from the above, the influence coefficient representing the degree of influence of the misclassification feature information on the discrimination function is adjusted so that the discrimination result information matches the known discrimination result, A discriminant function correcting unit that corrects the discriminant function; and a discriminating unit that discriminates a discriminant whose discrimination result is unknown using the discriminant function that has been corrected using the feature information of the discriminant as input data. A discriminating device is provided.

この構成によれば、判別関数算出部により、学習用特徴情報及び学習用判別結果情報とに基づいて、サポート・ベクター・マシン法による学習機能を利用した判別関数を導出することができる。そして、判別関数修正部により、判別結果が誤っている誤判別特徴情報の影響係数を調整することができる。つまり、判別関数修正部は、判別関数のうち、誤判別特徴情報が関与する項を直接調整することができる。よって、判別関数を、誤判別特徴情報に対しても正しい判別結果を導き出せるように修正することができる。   According to this configuration, the discriminant function using the learning function based on the support vector machine method can be derived by the discriminant function calculation unit based on the learning feature information and the learning discriminant result information. Then, the discriminant function correcting unit can adjust the influence coefficient of the misclassification feature information in which the discrimination result is incorrect. In other words, the discriminant function correcting unit can directly adjust a term in the discriminant function that is associated with erroneous discrimination feature information. Therefore, the discriminant function can be modified so that a correct discriminant result can be derived even for misclassified feature information.

また、上記判別関数は、上記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの上記影響係数を掛けて加え合わせた総和であり、上記判別関数修正部は、該判別関数の判別結果について上記学習用特徴情報のいずれかが誤判別特徴情報となる場合、上記判別結果の判別結果が正解となるように所定の処理で該誤判別特徴情報の影響係数の大きさを調整することにより、上記判別関数を修正してもよい。
この構成によれば、学習用特徴情報に対しても正しい判別結果を導き出せるように、判別関数を修正することができる。
The discriminant function is a sum of kernel function values of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and the respective influence coefficients. And the discriminant function correcting unit performs a predetermined process so that the discriminant result of the discriminant result is correct when any of the learning feature information is erroneous discriminant feature information. The discriminant function may be modified by adjusting the influence coefficient of the misclassification feature information.
According to this configuration, the discriminant function can be modified so that a correct discriminant result can be derived for the learning feature information.

また、上記判別関数は、上記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの上記影響係数を掛けて加え合わせた総和であり、上記判別関数修正部は、上記学習用特徴情報の1又は2以上により形成された上記判別関数に、上記判別部が誤判別した誤判別特徴情報を新たに追加し、かつ、当該誤判別特徴情報の影響係数の大きさを調整して、上記判別結果の判別結果が正解となるように所定の処理で上記判別関数を修正してもよい。
この構成によれば、学習用特徴情報ではない誤判別特徴情報に対しても正しい判別結果を導き出せるように、判別関数を修正することができる。
The discriminant function is a sum of kernel function values of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and the respective influence coefficients. And the discriminant function correcting unit newly adds the misidentification feature information misidentified by the discriminator to the discriminant function formed by one or more of the learning feature information, and the misclassification The discriminant function may be corrected by a predetermined process so that the magnitude of the influence coefficient of the feature information is adjusted and the discrimination result of the discrimination result is correct.
According to this configuration, the discriminant function can be modified so that a correct discrimination result can be derived even with respect to erroneous discrimination feature information that is not feature information for learning.

また、上記判別関数算出部は、上記複数種類の集合における2つの集合の組み合わせ毎に上記判別面を算出して、当該判別面のそれぞれを判別関数とし、上記判別部は、上記判別結果が未知の判別対象を、上記判別関数のそれぞれに基づいて上記2つの集合毎に判別した結果、最も多くの上記判別関数により判別された集合に属すると判別してもよい。
この構成によれば、複数種類の集合から判別する場合には、判別関数算出部により、その複数種類の集合中の2つの集合の組み合わせ毎に判別関数を算出することができる。そして、判別部により、判別結果が未知の判別対象は、各判別関数を使用して判別した結果が最も多く示す集合に属すると判別することができる。つまり、例えば集合がN個の場合、判別関数算出部は、個の判別関数を算出することができる。そして、判別部は、個の判別関数を使用して、個の判別結果を算出し、その判別結果の個数が最も多い集合に、判別対象が属すると判別する。なお、判別対象が1の集合に属すると判別される場合、その1の集合は、最大でN−1個の判別関数の判別結果により判別されうる。
Further, the discriminant function calculating unit calculates the discriminant surface for each combination of two sets in the plurality of types of sets, and each of the discriminant surfaces is used as a discriminant function. May be determined to belong to the set determined by the largest number of the discriminant functions as a result of discrimination for each of the two sets based on each of the discriminant functions.
According to this configuration, when discriminating from a plurality of types of sets, the discriminant function calculating unit can calculate a discriminant function for each combination of two sets in the plurality of types of sets. Then, the discriminating object whose discrimination result is unknown can be discriminated by the discriminating unit as belonging to the set most frequently discriminated using the discriminant functions. That is, for example, when the number of sets is N, the discriminant function calculating unit can calculate N C 2 discriminant functions. Then, the determination unit calculates N C 2 determination results using the N C 2 determination functions, and determines that the determination target belongs to the set having the largest number of determination results. When it is determined that the discrimination target belongs to one set, the one set can be discriminated based on the discrimination results of N-1 discriminant functions at the maximum.

また、上記判別関数修正部は、少なくとも上記誤判別特徴情報の既知の判別結果と上記判別部による判別結果とが一致するまで、上記判別関数のそれぞれを修正してもよい。
この構成によれば、判別関数修正部により、判別関数のそれぞれを修正することができる。そして、この修正は、既知の判別結果と判別部による判別結果とが一致するまで行われる。つまり、上述のように判別部は、最も多くの判別関数により判別された集合に、判別対象を判別する。そこで、判別関数修正部は、少なくとも既知の判別結果が表した集合が最も多くの判別関数により判別されるように、判別関数のそれぞれを修正する。つまり、例えば、既知の判別結果が表した集合を、判別結果とする判別関数の個数が、最大となるだけの個数の判別関数を、少なくとも修正することができる。
Further, the discriminant function correcting unit may correct each of the discriminant functions until at least a known discrimination result of the erroneous discrimination feature information matches a discrimination result by the discriminator.
According to this configuration, each of the discriminant functions can be corrected by the discriminant function correcting unit. This correction is performed until the known discrimination result matches the discrimination result by the discrimination unit. That is, as described above, the discriminating unit discriminates the discrimination target in the set discriminated by the most discriminant functions. Therefore, the discriminant function correcting unit corrects each discriminant function so that at least a set represented by known discriminant results is discriminated by the most discriminant functions. That is, for example, it is possible to modify at least the number of discriminant functions that maximizes the number of discriminant functions that use the set of known discriminant results as the discriminant result.

また、上記判別対象は、製品を製造する製造プラントにおいて製造させる上記製品に発生した不良状態であり、上記特徴情報は、上記不良状態を検査した結果得られる1又は2以上の測定値を含んでもよい。   Further, the discrimination target is a defective state generated in the product to be manufactured in a manufacturing plant that manufactures the product, and the feature information may include one or more measurement values obtained as a result of inspecting the defective state. Good.

また、上記課題を解決するために、本発明の別の観点によれば、判別対象が複数種類の集合のいずれに属するのかを該判別対象を特徴付ける特徴量で構成される特徴情報を入力データとする判別関数を用い、その判別関数の出力値である結果に基づいて判別する判別方法であって、判別結果が既知の複数の学習用特徴情報と該学習用特徴情報それぞれに対応付けられた判別結果を表す学習用判別結果情報とに基づいて、学習用特徴情報それぞれを特徴情報による空間上の点として表し、仮想的に規定する写像関数により上記空間上の点を写像した際に写像先の空間上において上記点を判別結果別に線形分離する判別面と、当該判別面までの距離が最短の上記点との距離が最大になるように、サポート・ベクター・マシン法を用いて上記判別面を算出して上記判別関数を導出する判別関数算出ステップと、既知の判別結果を有する特徴情報であって、上記判別関数に該特徴情報を入力した結果である判別結果情報と該特徴情報の既知の判別結果とが異なる誤判別特徴情報について、上記判別結果情報と上記既知の判別結果とが一致するように、上記誤判別特徴情報が上記判別関数に対して与える影響度合を表した影響係数を調整し、上記判別関数を修正する判別関数修正ステップと、判別結果が未知の判別対象を、該判別対象の特徴情報を入力データとして上記修正された上記判別関数を用いて判別する判別ステップと、を有することを特徴とする、判別方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, input data includes feature information including feature quantities that characterize a discrimination target to which of a plurality of types of sets the discrimination target belongs. A discriminant function using a discriminant function, and discriminating the discriminant result corresponding to each of the plurality of learning feature information and the learning feature information. Based on the learning discrimination result information that represents the result, each of the learning feature information is represented as a point in the space by the feature information, and when the point in the space is mapped by a virtually defined mapping function, The discriminant plane is determined using the support vector machine method so that the distance between the discriminant plane that linearly separates the points according to discrimination results in space and the point with the shortest distance to the discriminant plane is maximized. A discriminant function calculation step for calculating and deriving the discriminant function; and feature information having a known discriminant result, and the discriminant result information obtained by inputting the feature information into the discriminant function and the known feature information For misclassification feature information with different discrimination results, an influence coefficient representing the degree of influence of the misclassification feature information on the discrimination function is adjusted so that the discrimination result information matches the known discrimination result A discriminant function correcting step for correcting the discriminant function; and a discriminating step for discriminating a discriminant whose discrimination result is unknown by using the discriminant function corrected using the characteristic information of the discriminant as input data. There is provided a discrimination method characterized by comprising:

また、上記判別関数は、上記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの上記影響係数を掛けて加え合わせた総和であり、上記判別関数修正ステップでは、該判別関数の判別結果について上記学習用特徴情報のいずれかが誤判別特徴情報となる場合、上記判別結果の判別結果が正解となるように所定の処理で該誤判別特徴情報の影響係数の大きさを調整してもよい。   The discriminant function is a sum of kernel function values of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and the respective influence coefficients. Yes, in the discriminant function correction step, if any of the learning feature information is misidentified feature information for the discriminant result of the discriminant function, the discriminant function corrects the discriminant result in a predetermined process so that the discriminant result is correct. You may adjust the magnitude | size of the influence coefficient of misidentification characteristic information.

また、上記判別関数は、上記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの上記影響係数を掛けて加え合わせた総和であり、上記判別関数修正ステップでは、上記学習用特徴情報の1又は2以上により形成された上記判別関数に、上記判別部が誤判別した誤判別特徴情報を新たに追加し、かつ、当該誤判別特徴情報の影響係数の大きさを調整して、上記判別結果の判別結果が正解となるように所定の処理で上記判別関数を修正してもよい。   The discriminant function is a sum of kernel function values of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and the respective influence coefficients. Yes, in the discriminant function correcting step, the discriminant feature information erroneously discriminated by the discriminator is newly added to the discriminant function formed by one or more of the learning feature information, and the misclassification The discriminant function may be corrected by a predetermined process so that the magnitude of the influence coefficient of the feature information is adjusted and the discrimination result of the discrimination result is correct.

また、上記判別関数算出ステップでは、上記複数種類の集合における2つの集合の組み合わせ毎に上記判別面を算出して、当該判別面のそれぞれを判別関数とし、上記判別ステップでは、上記判別結果が未知の判別対象を、上記判別関数のそれぞれに基づいて上記2つの集合毎に判別した結果、最も多くの上記判別関数により判別された集合に属すると判別してもよい。   In the discriminant function calculating step, the discriminant plane is calculated for each combination of two sets in the plurality of types of sets, and each discriminant plane is used as a discriminant function. In the discriminant step, the discriminant result is unknown. May be determined to belong to the set determined by the largest number of the discriminant functions as a result of discrimination for each of the two sets based on each of the discriminant functions.

また、上記判別関数修正ステップでは、少なくとも上記誤判別特徴情報の既知の判別結果と上記判別ステップにおける判別結果とが一致するまで、上記判別関数のそれぞれを修正してもよい。   In the discriminant function correcting step, each of the discriminant functions may be corrected until at least the known discriminant result of the erroneous discriminant feature information matches the discriminant result in the discriminating step.

また、上記判別対象は、製品を製造する製造プラントにおいて製造させる上記製品に発生した不良状態であり、上記特徴情報は、上記不良状態を検査した結果得られる1又は2以上の測定値を含んでもよい。   Further, the discrimination target is a defective state generated in the product to be manufactured in a manufacturing plant that manufactures the product, and the feature information may include one or more measurement values obtained as a result of inspecting the defective state. Good.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータに、判別対象が複数種類の集合のいずれに属するのかを該判別対象を特徴付ける特徴量で構成される特徴情報を入力データとする判別関数を用い、その判別関数の出力値である結果に基づいて判別する判別手順を実行させるためのプログラムであって、コンピュータに、判別結果が既知の複数の学習用特徴情報と該学習用特徴情報それぞれに対応付けられた判別結果を表す学習用判別結果情報とに基づいて、学習用特徴情報それぞれを特徴情報による空間上の点として表し、仮想的に規定する写像関数により上記空間上の点を写像した際に写像先の空間上において上記点を判別結果別に線形分離する判別面と、当該判別面までの距離が最短の上記点との距離が最大になるように、サポート・ベクター・マシン法を用いて上記判別面を算出して上記判別関数を導出する判別関数算出手順と、既知の判別結果を有する特徴情報であって、上記判別関数に該特徴情報を入力した結果である判別結果情報と該特徴情報の既知の判別結果とが異なる誤判別特徴情報について、上記判別結果情報と上記既知の判別結果とが一致するように、上記誤判別特徴情報が上記判別関数に対して与える影響度合を表した影響係数を調整し、上記判別関数を修正する判別関数修正手順と、判別結果が未知の判別対象を、該判別対象の特徴情報を入力データとして上記修正された上記判別関数を用いて判別する判別手順と、を実行させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a computer is provided with feature information including feature amounts that characterize a discrimination target to which of a plurality of types of sets the discrimination target belongs. A program for using a discriminant function as input data and executing a discriminating procedure for discriminating based on a result that is an output value of the discriminant function, wherein the computer has a plurality of learning feature information whose discrimination results are known. Based on the learning discrimination result information indicating the discrimination result associated with each of the learning feature information, each of the learning feature information is represented as a point on the space by the feature information, and the mapping function defined virtually When a point in the space is mapped, the distance between the discriminating surface that linearly separates the point according to the discrimination result in the mapping destination space and the point with the shortest distance to the discriminating surface is the maximum. A discriminant function calculation procedure for deriving the discriminant function by calculating the discriminant plane using a support vector machine method, and feature information having a known discriminant result, wherein the feature is included in the discriminant function For misidentification feature information in which discrimination result information that is a result of inputting information differs from a known discrimination result of the feature information, the misdiscrimination feature information is set so that the discrimination result information matches the known discrimination result. Adjusts the influence coefficient that expresses the degree of influence of the discriminant function on the discriminant function, corrects the discriminant function, and uses the discriminant whose discrimination result is unknown as the input data. A discriminating procedure for discriminating using the corrected discriminant function is provided.

以上説明したように本発明によれば、疵データのような複数の特徴量や要素で構成されるデータについてその適否や良否を判定するために、当該データの学習データを用いてSVMにより判別規則を導出するのに際して、誤判定したデータ点等の所定の判定対象に対して所望の判別結果が得られるように、複数のデータ内のその他のデータ点の判別結果に対する影響を抑えつつ、従来よりも柔軟に判別規則を調整することができる。   As described above, according to the present invention, in order to determine the suitability or pass / fail of data composed of a plurality of feature amounts or elements such as bag data, a discrimination rule is determined by SVM using the learning data of the data. In order to obtain a desired determination result for a predetermined determination object such as a mis-determined data point, the influence on the determination result of other data points in a plurality of data is suppressed while deriving from It is also possible to adjust the discrimination rules flexibly.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

本発明の各実施形態に係る判別装置は、判別対象のデータ点が複数種類の集合(クラスともいう。)のいずれに属するのかを、その判別対象が有する特徴情報に基づいて判別することができる。なお、ここで「特徴情報」とは、判別対象を特徴付ける様々な情報であって、複数の種類の特徴量により構成される。   The discriminating apparatus according to each embodiment of the present invention can discriminate which of a plurality of types of sets (also referred to as classes) a data point to be discriminated belongs based on feature information of the discriminating target. . Here, the “feature information” is various information characterizing the discrimination target, and is composed of a plurality of types of feature amounts.

また、判別装置は、特徴情報が得られる様々な種類のデータに対して判別対象を判別するような、様々な実施の形態に構成することができる。以下では説明の便宜上、判別装置が表面疵検査装置に適用された場合について説明する。そして、例えば、判別装置の判別対象は、表面疵検査装置が検出した疵の候補データ(疵候補とも記す)であり、疵候補が属するかどうかを判別する複数の集合は、その疵の種類(疵種とも記す)であるとして説明する。   In addition, the determination device can be configured in various embodiments that determine a determination target for various types of data from which feature information is obtained. Below, the case where a discrimination device is applied to the surface flaw inspection apparatus is demonstrated for convenience of explanation. For example, the discrimination target of the discrimination device is candidate data for wrinkles (also referred to as wrinkle candidates) detected by the surface wrinkle inspection device, and a plurality of sets for determining whether or not a wrinkle candidate belongs is the type of wrinkle ( (It is also referred to as “Kaikin”).

しかしながら、表面疵検査装置は、判別装置が適用された装置の一例であって、判別装置の適用先を限定するものではない。判別装置は、例えば、製品を製造する製造プラントの製造装置の故障状態を判別する装置、製造された製品の分類をする装置、製造された製品に発生した不良状態を判別する装置などにも適用することができる。つまり、判別装置は、所定の測定装置により各種の状態を測定することが可能で、その測定により得られた測定データ(特徴情報)に応じて複数種類に分類される様々な判別対象を判別する装置に適用することができる。この判別装置は、特に製品を製造する製造プラントで製造された製品の不良状態を判別する装置に適用される場合、非常に効果的である。更に、判別装置は、測定数値に対するものだけでなく、例えば、OCR(Optical Character Reader)などの文字認識、音声認識、指紋・網膜・顔等の識別など、パターン認識を行う様々な個所に適用することができる。この判別装置を説明するために、まず、以下では判別装置が適用された表面疵検査装置の概要について説明する。   However, the surface flaw inspection device is an example of a device to which the discrimination device is applied, and does not limit the application destination of the discrimination device. The discriminating device is also applicable to, for example, a device that discriminates a failure state of a manufacturing device of a manufacturing plant that manufactures a product, a device that classifies manufactured products, a device that discriminates a defective state that has occurred in a manufactured product, etc. can do. That is, the discriminating device can measure various states by a predetermined measuring device, and discriminates various discriminating objects classified into a plurality of types according to measurement data (feature information) obtained by the measurement. It can be applied to the device. This discriminating device is very effective particularly when applied to a device that discriminates a defective state of a product manufactured in a manufacturing plant that manufactures a product. Furthermore, the discriminating apparatus is applied not only to the measured numerical value but also to various places that perform pattern recognition such as character recognition such as OCR (Optical Character Reader), voice recognition, fingerprint, retina, face identification, etc. be able to. In order to explain this discrimination device, first, an outline of a surface flaw inspection device to which the discrimination device is applied will be described below.

<表面疵検査装置>
図1は、本発明の各実施形態に係る判別装置が適用された一例である鋼板の表面疵検査装置の構成の概要を説明するための説明図である。図2は、その表面疵検査装置の動作の概要を説明するための説明図である。
<Surface inspection device>
FIG. 1 is an explanatory diagram for explaining an outline of a configuration of a surface flaw inspection apparatus for a steel sheet, which is an example to which a determination apparatus according to each embodiment of the present invention is applied. FIG. 2 is an explanatory diagram for explaining the outline of the operation of the surface flaw inspection apparatus.

図1に示すように、表面疵検査装置1は、光源装置11と、撮像装置12と、画像処理装置13と、判別装置14と、判別結果記憶装置15と、表示装置16と、制御装置17とを有する。   As shown in FIG. 1, the surface defect inspection apparatus 1 includes a light source device 11, an imaging device 12, an image processing device 13, a determination device 14, a determination result storage device 15, a display device 16, and a control device 17. And have.

表面疵検査装置1は、鋼板製造プラント(製造プラントの一例)内に配置され、このプラントで製造される鋼板Fの表面に、例えば凹凸欠陥・スクラッチ・デントなどの疵が形成されていないか否かを検査する。そのために表面疵検査装置1は、図1に示すように、ロールR上を通板される鋼板Fに光源装置11から光を照射する。この光は、例えば平行光であってもよい。そして、表面疵検査装置1は、鋼板Fで反射した反射光を撮像装置12により撮像する。撮像画像には、光が照射された鋼板Fの表面の幅方向にわたる領域Tにある疵からの反射光が含まれる。この反射光は、撮像画像中の輝度(強度、階調)の濃淡として撮像される。   The surface flaw inspection apparatus 1 is arranged in a steel plate manufacturing plant (an example of a manufacturing plant), and whether or not wrinkles such as irregular defects, scratches, and dents are formed on the surface of the steel plate F manufactured in this plant. Inspect. Therefore, the surface flaw inspection apparatus 1 irradiates light from the light source device 11 to the steel plate F that passes through the roll R as shown in FIG. This light may be, for example, parallel light. And the surface flaw inspection apparatus 1 images the reflected light reflected by the steel plate F with the imaging device 12. The captured image includes reflected light from the eyelid in the region T across the width direction of the surface of the steel sheet F irradiated with light. This reflected light is imaged as the brightness (intensity, gradation) in the captured image.

画像処理装置13は、撮像装置12が撮像した撮像画像を画像処理して解析し、撮像画像内の輝度の濃淡の分布から疵候補の領域(つまり、疵を表すと推定される領域)をラベリングにより抽出する。この際、各疵候補には、ラベル(識別情報)が付される。そして、画像処理装置13は、画像内でこの疵候補を表した領域について、その形状や輝度等の特徴からなる特徴情報を算出する。この特徴情報には、1又は2以上の種類の特徴を表す値が含まれ、この各値を「特徴量」ともいう。この特徴量としては、例えば、その疵の高さ・深さ・幅・長さ・面積・輝度分布・色分布・形成位置などが挙げられる。そして、画像処理装置13は、この疵候補のラベルとその特徴情報とを対応付けた疵候補データを判別装置14に出力する。   The image processing device 13 performs image processing on the captured image captured by the image capturing device 12 and analyzes the result, and labels a region of a wrinkle candidate (that is, a region estimated to represent a wrinkle) from the distribution of brightness in the captured image. Extract by At this time, a label (identification information) is attached to each bag candidate. Then, the image processing device 13 calculates feature information including features such as the shape and brightness of the region representing the wrinkle candidate in the image. This feature information includes values representing one or more types of features, and each value is also referred to as a “feature amount”. Examples of the feature amount include height, depth, width, length, area, luminance distribution, color distribution, and formation position of the ridge. Then, the image processing device 13 outputs the wrinkle candidate data in which the wrinkle candidate label is associated with the feature information to the determination device 14.

判別装置14は、本実施形態に係る判別装置の一例であって、画像処理装置13から疵候補のラベルと特徴情報とからなる疵候補データを取得する。そして、判別装置14は、以下で説明する判別ロジックに従って、疵候補の疵種を判別する。判別装置14は、判別の結果として判別結果情報を算出する。この「判別結果情報」は、疵候補の判別結果を表す情報であり、具体的な例としては、正又は負の値を取り、その符号により判別結果を示す(例えば正であれば有害疵であり負であれば無害疵を示すなど。)。なお、判別結果情報には、判別装置14が算出した判別結果情報だけでなく、判別結果が既知の特徴情報に対するその判別結果を表した判別結果情報も含まれる。   The determination device 14 is an example of a determination device according to the present embodiment, and acquires wrinkle candidate data including a wrinkle candidate label and feature information from the image processing device 13. Then, the discriminating device 14 discriminates the species of the cocoon candidate according to the discrimination logic described below. The discriminator 14 calculates discrimination result information as a discrimination result. This “discrimination result information” is information indicating the discrimination result of the wrinkle candidate. As a specific example, it takes a positive or negative value and indicates the discrimination result by its sign (for example, if it is positive, If it is negative, it indicates a harmless defect.) The discrimination result information includes not only discrimination result information calculated by the discrimination device 14 but also discrimination result information representing the discrimination result with respect to feature information whose discrimination result is known.

判別装置14が判別する疵種としては、例えば、擦り疵・欠き疵等の有害な疵種(製品品質に対して与える影響が大きく許容できない疵)、及びそれらの有害度合(深刻度合・グレードなど)、並びに無害な疵(許容しうる疵や単なるノイズなど)の判別を行うが、本実施形態において疵種とは、これらの疵の種類及びその程度の区分を総称して疵種と記す。なお、説明の便宜上、以下では、本発明の第1実施形態に係る判別装置として、特徴情報に基づいて、2種類の疵種のいずれに属する疵であるのかを判別する判別装置について説明する。そして引き続き、本発明の第2実施形態に係る判別装置として、特徴情報に基づいて、2以上の複数種類の疵種のいずれに属する疵であるのかを判別する判別装置について説明する。   Examples of the species that the discriminating device 14 discriminates include, for example, harmful species such as rubbing and missing flaws (those that have a large effect on product quality and are not acceptable), and their harmfulness (severity, grade, etc.) ), And harmless soot (acceptable soot, mere noise, etc.). In this embodiment, the soot type is a generic term for these soot types and their classifications. For convenience of explanation, the following description will be made on a discriminating device for discriminating which of the two types of bag is based on the feature information as the discriminating device according to the first embodiment of the present invention. Then, as a discrimination device according to the second embodiment of the present invention, a discrimination device that discriminates which of the two or more types of grapes belongs to based on feature information will be described.

そして、判別装置14は、入力値である疵のラベル・特徴情報と、判別結果である判別結果情報とを、判別結果記憶装置15及び表示装置16に出力する。判別結果記憶装置15には、ラベル・特徴情報・判別結果情報が相互に紐付けられて記録される。表示装置16は、ラベル・特徴情報・判別結果情報を表示して、例えば、疵が検出されたこと・疵が有害であるのか無害であるのか・有害である場合どの疵種に属する疵であるのか・その有害度合などといった情報をユーザに通知する。なお、光源装置11・撮像装置12・画像処理装置13・判別装置14・判別結果記憶装置15・表示装置16は、制御装置17により制御され、上記それぞれの動作を行う。   Then, the determination device 14 outputs to the determination result storage device 15 and the display device 16 the bag label / feature information that is the input value and the determination result information that is the determination result. The discrimination result storage device 15 records labels, feature information, and discrimination result information in association with each other. The display device 16 displays the label, the feature information, and the discrimination result information, for example, whether the soot has been detected, whether the soot is harmful or harmless, or which type of soot if it is harmful The user is notified of information such as whether it is harmful or not. The light source device 11, the imaging device 12, the image processing device 13, the discrimination device 14, the discrimination result storage device 15, and the display device 16 are controlled by the control device 17 and perform the above-described operations.

この表面疵検査装置1の動作の概要について、図2を参照しつつ説明する。
まず、ステップS01が処理され、光源装置11から光が照射され、撮像装置12が鋼板Fの照射部を撮像して、輝度分布(又は色分布)を有する撮像画像を出力する。次に、ステップS03に進む。
An outline of the operation of the surface defect inspection apparatus 1 will be described with reference to FIG.
First, step S01 is processed, light is emitted from the light source device 11, and the imaging device 12 images the irradiated portion of the steel sheet F and outputs a captured image having a luminance distribution (or color distribution). Next, the process proceeds to step S03.

ステップS03では、画像処理装置13が、当該撮像画像内の輝度分布から疵部の可能性がある領域を疵候補を抽出する。そして、ステップS05に進み、このステップS05では、画像処理装置13が、疵候補を表した画像内の領域について、その疵領域の高さ・深さ・幅・長さ・面積・輝度分布・色分布・形成位置などの疵の特徴情報を算出し、ステップS07に進む。   In step S03, the image processing device 13 extracts a wrinkle candidate from a luminance distribution in the captured image for a region having a possibility of a wrinkle. Then, the process proceeds to step S05. In step S05, the image processing apparatus 13 determines the height, depth, width, length, area, luminance distribution, color of the wrinkle region for the region in the image representing the wrinkle candidate. The feature information of the wrinkles such as the distribution / formation position is calculated, and the process proceeds to step S07.

ステップS07では、判別装置14が、特徴情報から疵種を判別して、判別結果情報を算出する。そして、ステップS09に進み、表示装置16がラベル・特徴情報・判別結果情報などを表示すると共に、判別結果情報は、判別結果記憶装置15に記憶される。なお、表示装置16は、例えば判別結果情報に含まれる判別結果(つまり符合による判別結果)を表示させてもよい。そして更にステップS011に進む。   In step S07, the discrimination device 14 discriminates the species from the feature information and calculates discrimination result information. In step S09, the display device 16 displays the label, feature information, discrimination result information, and the like, and the discrimination result information is stored in the discrimination result storage device 15. Note that the display device 16 may display, for example, a determination result included in the determination result information (that is, a determination result based on a sign). Further, the process proceeds to step S011.

そして、ステップS11では、制御装置17が製造ラインが停止したか否かを判断する。製造ラインが停止した場合、手動又は製造ラインを制御するプロセスコンピュータからの指令等により表面疵検査装置1は動作を停止する。一方、製造ラインが停止していない場合、表面疵検査装置1は上記ステップS01〜ステップS09を再度繰り返し処理する。   In step S11, the control device 17 determines whether or not the production line is stopped. When the production line stops, the surface flaw inspection apparatus 1 stops its operation manually or by a command from a process computer that controls the production line. On the other hand, when the production line is not stopped, the surface flaw inspection apparatus 1 repeats the above steps S01 to S09 again.

以上、本発明の各実施形態に係る判別装置の適用例である表面疵検査装置1について説明した。表面疵検査装置1は、判別装置14を有することにより、検出した疵候補の疵種を判別することが可能である。次に、以下ではこの判別装置14の各実施形態について説明する。   In the above, the surface flaw inspection apparatus 1 which is an application example of the discrimination apparatus according to each embodiment of the present invention has been described. The surface wrinkle inspection device 1 has the discriminator 14 so that it can discriminate the species of the detected wrinkle candidate. Next, each embodiment of the discrimination device 14 will be described below.

<第1実施形態に係る判別装置>
図3は、本発明の第1実施形態に係る判別装置の構成について説明するための説明図である。
<Determination device according to the first embodiment>
FIG. 3 is an explanatory diagram for explaining the configuration of the determination device according to the first embodiment of the present invention.

図3に示す本発明の第1実施形態に係る判別装置100は、疵候補(判別対象)が、二種類の疵種(集合)のいずれに属するのかを、その疵候補の特徴情報に基づいて判別する。なお、本実施形態に係る判別装置100は、図1に示す表面疵検査装置1の判別装置14に相当する。また、上述のように、特徴情報には、例えば、その疵の高さ・深さ・幅・長さ・面積・輝度分布・形成位置などの特徴量が含まれる。この疵候補のデータ点は、各特徴量を座標軸として張られる多次元空間において、特徴情報の各特徴量の値を成分とするベクトルや、各特徴量の値を座標とする空間上の点として表現することができる。この多次元空間を「特徴量空間(特徴情報空間)」ともいう。鋼板の疵検査における当該多次元空間の次元は、100次元以上に及ぶことも珍しくはない。   The discriminating apparatus 100 according to the first embodiment of the present invention shown in FIG. 3 determines which one of the two types of soot species (set) the cocoon candidate (discrimination target) belongs to based on the feature information of the cocoon candidate. Determine. Note that the discriminating apparatus 100 according to the present embodiment corresponds to the discriminating apparatus 14 of the surface flaw inspection apparatus 1 shown in FIG. As described above, the feature information includes, for example, feature amounts such as the height, depth, width, length, area, luminance distribution, and formation position of the ridge. In the multidimensional space spanned with each feature quantity as a coordinate axis, the candidate data point is a vector having each feature value of feature information as a component or a point on the space having each feature value as coordinates. Can be expressed. This multidimensional space is also referred to as “feature amount space (feature information space)”. It is not uncommon for the dimensions of the multi-dimensional space in the steel plate wrinkle inspection to be over 100 dimensions.

なお、説明の便宜上、判別装置100が判別する二種類の疵種として、「有害な疵の集合」と「無害な疵の集合」を例に挙げて説明する。つまり、本実施形態に係る判別装置100では、疵候補が有害な疵の集合及び無害な疵の集合のどちらに属するのかが判別される。   For convenience of explanation, “a set of harmful wrinkles” and “a set of harmless wrinkles” will be described as examples of the two types of wrinkles to be discriminated by the discriminating apparatus 100. That is, in the determination apparatus 100 according to the present embodiment, it is determined whether the wrinkle candidate belongs to a harmful wrinkle set or a harmless wrinkle set.

図3に示すように、判別装置100は、判別関数作成部110と、判別関数修正部120と、判別部130とを有する。   As shown in FIG. 3, the discriminating apparatus 100 includes a discriminant function creating unit 110, a discriminant function correcting unit 120, and a discriminating unit 130.

(判別関数作成部110)
判別関数作成部110は、疵候補の判別に使用する判別関数を作成する。判別関数とは、疵候補の特徴情報を引数(入力値、入力データ)とし判別結果情報を返す(算出する)関数であり、識別関数とも言われる関数である。図3に示すように、この判別関数作成部110は、この判別関数を作成するために、学習データ記憶部111と、判別関数算出部112とを有する。
(Discriminant function creation unit 110)
The discriminant function creating unit 110 creates a discriminant function used for discriminating a wrinkle candidate. The discriminant function is a function that returns (calculates) discriminant result information using the characteristic information of the wrinkle candidate as an argument (input value, input data), and is also called a discriminant function. As shown in FIG. 3, the discriminant function creating unit 110 includes a learning data storage unit 111 and a discriminant function calculating unit 112 in order to create the discriminant function.

学習データ記憶部111には、ユーザによって予め入力された複数の学習データが記録されている。
「学習データ」とは、学習機能に学習させて判別関数を作成させるための正解データである。学習データは、特徴情報と、その特徴情報の正しい判別結果情報とを含む。この学習データに含まれる疵の特徴情報及び判別結果情報を、判別対象である他の疵候補の特徴情報及びその判別結果情報と区別するために、ここでは「学習用特徴情報」及び「学習用判別結果情報」ともいう。そして、学習データに含まれる学習用特徴情報と学習用判別結果情報とは相互に紐付けられている。つまり、学習用特徴情報と学習用判別結果情報とは一対一に対応付けられている。
The learning data storage unit 111 stores a plurality of learning data input in advance by the user.
“Learning data” is correct data for making a learning function create a discriminant function. The learning data includes feature information and correct discrimination result information of the feature information. In order to distinguish the feature information and discrimination result information of the wrinkles included in this learning data from the feature information and discrimination result information of other wrinkle candidates that are discrimination targets, here, “learning feature information” and “learning feature information” It is also called “discrimination result information”. The learning feature information included in the learning data and the learning discrimination result information are associated with each other. That is, the learning feature information and the learning discrimination result information are associated one-to-one.

通常この学習データは、鋼板の製造ライン等において、鋼板の検査作業者が実際に検出した多数の疵について、各疵の特徴情報及び当該疵の属する疵種を判定した結果(正解)に基づいて作成されることが多い。このように、学習用特徴情報としては、過去に行われた実験や実際の検査などにより検出された疵候補の特徴情報、人為的に決定された疵候補の特徴情報など、判別結果情報が既知の特徴情報を使用することができる。なお、学習用特徴情報及び学習用判別結果情報は、検査作業者により判別結果情報が先に決定され、その判別結果情報(疵種)に含まれる特徴情報が作成されることにより、作成されてもよい。   Usually, this learning data is based on the characteristic information of each rod and the result of determining the rod type to which the rod belongs (correct answer) for a large number of rods actually detected by the steel sheet inspection operator in the steel plate production line or the like. Often created. As described above, as the learning feature information, the discrimination result information such as the feature information of the cocoon candidate detected by the experiment conducted in the past or the actual inspection, the feature information of the cocoon candidate determined artificially is known. Feature information can be used. Note that the learning feature information and the learning discrimination result information are created by determining the discrimination result information first by the inspection operator and creating the feature information included in the discrimination result information (species). Also good.

以下では、学習データiの学習用特徴情報を、特徴領空間(多次元空間)内で定義されたベクトルであるxで表し、そのベクトルxの学習用判別結果情報を、スカラー値であるyで表す。そして、判別関数に入力する変数である特徴情報を、ベクトルxで表し、その結果算出される判別結果情報をスカラーyで表す。なお、ベクトルx、xの各要素が、それぞれ特徴量を表す。なお、学習用特徴情報x学習用判別結果情報yに付している疵を識別するためのiは、1〜nの正の整数であり、nは、学習データの個数を表す。また、有害な疵の集合及び無害な疵の集合を、それぞれクラスX1及びクラスX2で表す。 In the following, the learning feature information of the learning data i is represented by x i which is a vector defined in the feature space (multidimensional space), and the learning discrimination result information of the vector x i is a scalar value. This is represented by yi . The feature information that is a variable input to the discriminant function is represented by a vector x, and the discriminant result information calculated as a result is represented by a scalar y. Note that each element of the vectors x i and x represents a feature amount. Incidentally, i for identifying the defects that are subjected to the learning feature information x i learning determination result information y i is a positive integer of 1 to n, n represents the number of learning data. Further, a set of harmful moths and a set of harmless moths are represented by class X1 and class X2, respectively.

判別関数算出部112は、学習データ記憶部111から複数の学習データを取得する。そして、その学習データそれぞれに含まれる学習用特徴情報xと学習用識別情報yとに基づいて、判別関数を算出する。判別関数算出部112は、SVM(サポート・ベクター・マシン法:Support Vector Machine)による学習機能を有し、このSVMにより、判別関数を算出する。なお、ここで言うSVMは、例えば線形SVM・非線形SVMなどあらゆるSVMであってもよい。 The discriminant function calculation unit 112 acquires a plurality of learning data from the learning data storage unit 111. Then, a discriminant function is calculated based on the learning feature information x i and the learning identification information y i included in each of the learning data. The discriminant function calculation unit 112 has a learning function based on SVM (Support Vector Machine), and calculates a discriminant function using this SVM. The SVM referred to here may be any SVM such as a linear SVM or a non-linear SVM.

このSVMによる判別関数の算出方法を簡単に説明すると以下の通りである。
まず、判別関数算出部112は、各学習データiの学習用特徴情報xを、特徴量空間上の点(ベクトルx)として表す。この各学習データを特徴量空間上の点として表した例を、図4に示す。○(白抜きの丸)、□(白抜きの四角)、●(黒塗りの丸)、■(黒塗りの四角)などが、それぞれ学習データの点を表す。また、図4には、説明の便宜上、特徴量空間として、2次元の空間を示し、特徴情報を構成する2つの元として第1特徴量と第2特徴量とを示す。なお、実際の特徴量空間は、特徴情報を構成する特徴量の数だけ次元を有することになる。
A method for calculating the discriminant function by the SVM will be briefly described as follows.
First, the discriminant function calculating unit 112 represents the learning feature information x i of each learning data i as a point (vector x i ) on the feature amount space. FIG. 4 shows an example in which each learning data is represented as a point on the feature amount space. ○ (open circles), □ (open squares), ● (black circles), ■ (black squares), etc. represent the points in the learning data. For convenience of explanation, FIG. 4 shows a two-dimensional space as a feature quantity space, and shows a first feature quantity and a second feature quantity as two elements constituting the feature information. The actual feature amount space has dimensions as many as the feature amounts constituting the feature information.

そして次に、判別関数算出部112は、仮想的に規定する写像関数φにより点を写像した際に、写像先の空間(以下「写像空間」ともいう。)上において各点を判別結果別に線形分離する判別面(超平面)であって(第1の条件)、その判別面までの距離が最短の点との距離が最大になる判別面(第2の条件)を算出する。   Then, the discriminant function calculating unit 112 linearly maps each point according to the discriminant result in the mapping destination space (hereinafter also referred to as “mapped space”) when the points are mapped by the virtually defined mapping function φ. A discriminant surface (second condition) that is a discriminating surface (hyperplane) to be separated (first condition) and has a maximum distance to a point having the shortest distance to the discriminant surface is calculated.

この判別面は、写像元の特徴量空間に再度写像(すなわち逆写像)されると曲面で表される。なお、図4では、特徴量空間を2次元で表しているため、曲面は曲線(判別境界B12)で表される。この写像空間における判別面、特徴量空間における曲面又は曲線をここでは総称して「判別境界B12」とも言う。この判別境界B12は、クラスX1(有害な疵の集合)とクラスX2(無害な疵の集合)とを分離する境界線(3次元以上では境界面)を表す。図4には、クラスX1に属する学習データの点(ベクトルx)を○及び●(丸)で表し、クラスX2に属する学習データの点(ベクトルx)を、□及び■(四角)で表した。 This discriminant plane is represented by a curved surface when it is mapped again (that is, inversely mapped) to the feature amount space of the mapping source. In FIG. 4, since the feature amount space is represented in two dimensions, the curved surface is represented by a curve (determination boundary B12). The discriminant surface in the mapping space and the curved surface or curve in the feature amount space are collectively referred to herein as “discrimination boundary B12”. The discrimination boundary B12 represents a boundary line (a boundary surface in three or more dimensions) that separates the class X1 (harmful bag set) and the class X2 (harmless bag set). FIG 4 represents the point of learning data belonging to the class X1 (vector x i) with ○ and ● (circle), the training data belonging to the class X2 point (vector x i), □ and ■ at (squares) expressed.

そして、判別関数算出部112は、判別面を表す判別関数g(x)を学習データを用いて導出して設定する。この判別関数は、下記の式の形式で表されるとする。この式の右辺の各係数を多数の学習データxを用いて以下で説明する処理により決定する。そして、決定された判別関数は、その後、疵候補の特徴情報を入力データとして、その出力値を判別結果として出力するのに用いられる。 Then, the discriminant function calculating unit 112 derives and sets a discriminant function g (x) representing the discriminant plane using the learning data. This discriminant function is expressed in the form of the following equation. The coefficients of the right side of this equation with the number of learning data x i determined by processing described below. The determined discriminant function is then used to output the output value as the discrimination result using the feature information of the wrinkle candidate as input data.

Figure 2009186243
Figure 2009186243

上記判別関数g(x)に、判別を行いたい判別対象(疵)の特徴情報(ベクトルx)を代入すれば、判別関数g(x)は、判別結果情報yを出力する。この判別結果情報yは、例えば、判別対象がクラスX1に判別される場合、正の値になり、判別対象がクラスX2に判別される場合、負の値となる。つまり、判別関数g(x)は、算出値の符合により二種類の集合を判別することができる関数である。   If the feature information (vector x) of the discrimination target (疵) to be discriminated is substituted into the discriminant function g (x), the discriminant function g (x) outputs discrimination result information y. For example, the determination result information y is a positive value when the determination target is determined to be the class X1, and is a negative value when the determination target is determined to be the class X2. That is, the discriminant function g (x) is a function that can discriminate two types of sets based on the sign of the calculated value.

[SVM(Support Vector Machine)の説明]
まず具体的に、判別関数算出部112による判別関数g(x)の算出過程、ひいてはSVMについて説明すると以下の通りである。なお、ここでは、判別結果情報が判っていない判別対象を「未知判別対象」と呼び、その特徴情報を「未知特徴情報」と呼ぶ。また、学習用判別結果情報を含む、既知の判別結果情報のことを「教師判別結果情報(教師データ)」ともいう。
[Description of SVM (Support Vector Machine)]
First, specifically, the process of calculating the discriminant function g (x) by the discriminant function calculating unit 112, that is, the SVM will be described as follows. Here, a discrimination target whose discrimination result information is not known is referred to as an “unknown discrimination target”, and its feature information is referred to as “unknown feature information”. The known discrimination result information including the learning discrimination result information is also referred to as “teacher discrimination result information (teacher data)”.

SVMは、下記式(1)の形で表される判別関数(識別関数)を用いる。この判別関数は、判別関数算出部112により複数の学習データを用いて導出される。   The SVM uses a discriminant function (discriminant function) represented by the following formula (1). This discriminant function is derived by the discriminant function calculation unit 112 using a plurality of learning data.

Figure 2009186243
Figure 2009186243

ここで、ベクトルwは、学習データを用いて決定されるべき係数ベクトルを表し、その次元はnである。また、ベクトルxは、入力ベクトル(つまり判別対象の特徴情報x)を表し、スカラーbは、学習データを用いて決定されるべきスカラー定数を表す。   Here, the vector w represents a coefficient vector to be determined using learning data, and its dimension is n. A vector x represents an input vector (that is, feature information x to be discriminated), and a scalar b represents a scalar constant to be determined using learning data.

(I)第1の条件
上述のように、ベクトルxを代入した結果g(x)より算出される判別結果情報(スカラーy)が、正のときには「ベクトルxはクラスX1である」と判別し、負のときには「ベクトルxはクラスX2である」と判別する。同様に、学習データiのベクトルxに対するスカラーyiも、正であればクラスX1を表し、負であればクラスX2を表す。このスカラーyを定式化すると、下記式(2)となる。
(I) First Condition As described above, when the determination result information (scalar y) calculated from the result g (x) obtained by substituting the vector x is positive, it is determined that “the vector x is class X1”. When negative, “vector x is class X2” is determined. Similarly, the scalar yi for the vector x i of the learning data i also represent a class X1 if positive, representing the class X2 if it is negative. When this scalar y i is formulated, the following equation (2) is obtained.

Figure 2009186243
Figure 2009186243

このときSVMが学習すべき制約条件は、i=1,2,…,nに対して下記式(3)を満たすという条件になる。   At this time, the constraint condition that the SVM should learn is such that the following expression (3) is satisfied for i = 1, 2,.

Figure 2009186243
Figure 2009186243

ここで、スカラーξ(≧0)は、ベクトルxiを誤って判別したときに非零となるスラックス変数を表し、判別関数による誤判別を許容するための項である。そして、上記式(2)及び式(3)をまとめて、SVMが学習すべき制約条件は、下記式(4)及び式(5)で記述される。 Here, the scalar ξ i (≧ 0) represents a slack variable that becomes non-zero when the vector x i is erroneously determined, and is a term for allowing erroneous determination by a discriminant function. Then, the above-described equations (2) and (3) are put together, and the constraint conditions that the SVM should learn are described by the following equations (4) and (5).

Figure 2009186243
Figure 2009186243

(II)第2の条件
一方、判別関数算出部112は、g(x)=0で表される判別境界B12と、その判別境界B12までの距離が最短のベクトルxとの間の距離が、最大となるように判別関数g(x)を導出して決定する。この距離は、マージンとも呼ばれ、1/||w||で表される。よって、判別関数算出部112は、このマージンを最大化させるように判別関数g(x)を導出する。このマージン最大化は、下記式(6)で表される評価関数G(w)を最小化するという最小化問題に帰着することができる。また、上述のようにスカラーξは、誤判別を許容するための項であるので、この式(6)は、誤判別を減少させ、かつ、マージンを最大化させる判別関数を意味する。すなわち、式(6)の右辺の第1項は、上記マージンの逆数であり、第2項は、各学習データXに対して許容した誤判別のデータ全体にわたる総和を表している。いずれの項も最小化するのが目的であるが、次元が異なるため重みパラメータCを第2項に乗じた線形和を評価関数G(w)とする。
(II) a second condition the other hand, discriminant function calculation section 112, a determination boundary B12 represented by g (x) = 0, the distance to the discrimination boundary B12 is the distance between the shortest vector x i The discriminant function g (x) is derived and determined so as to be maximized. This distance is also called a margin and is represented by 1 / || w ||. Therefore, the discriminant function calculation unit 112 derives the discriminant function g (x) so as to maximize this margin. This margin maximization can be reduced to the minimization problem of minimizing the evaluation function G (w) expressed by the following equation (6). Further, as described above, the scalar ξ i is a term for allowing misidentification, so this equation (6) means a discriminant function that reduces misidentification and maximizes the margin. That is, the first term on the right side of Equation (6) is the reciprocal of the margin, and the second term represents the total sum of misclassification data allowed for each learning data X i . The purpose is to minimize both terms, but since the dimensions are different, a linear sum obtained by multiplying the second term by the weight parameter C is defined as an evaluation function G (w).

Figure 2009186243
Figure 2009186243

この最適化問題を解くために、評価関数G(w)を主問題Pとする双対問題Dを導く。つまり、判別関数算出部112は、この最小化問題をラグランジュ未定定数法によって解く。ラグランジュ変数λ(≧0)、γ(≧0)を導入すると、ラグランジュ関数Lは、下記式(7)で表される。 In order to solve this optimization problem, a dual problem D 0 with the evaluation function G (w) as the main problem P 0 is derived. That is, the discriminant function calculation unit 112 solves this minimization problem by the Lagrange undetermined constant method. When Lagrangian variables λ i (≧ 0) and γ i (≧ 0) are introduced, the Lagrangian function L is expressed by the following equation (7).

Figure 2009186243
Figure 2009186243

このラグランジュ関数を解くことができるための必要十分条件、つまり、主問題Pを解くための必要十分条件は、KKT(Karush-Kuhn-Tucker)条件より下記式(8)〜式(10)となる。 Necessary and sufficient conditions for solving the Lagrangian function, that is, necessary and sufficient conditions for solving the main problem P 0 are the following equations (8) to (10) from the KKT (Karush-Kuhn-Tucker) condition. Become.

Figure 2009186243
Figure 2009186243

最適化された係数ベクトルwを、wとすると、式(8)は、移行して下記式(11)となる。 Assuming that the optimized coefficient vector w is w * , Expression (8) shifts to Expression (11) below.

Figure 2009186243
Figure 2009186243

また、最適化されたスカラー定数bを、bとすると、ラグランジュ関数Lは、式(7)から下記式(12)の関数Fのように記述できる。 If the optimized scalar constant b is b * , the Lagrangian function L can be described as the function F in the following equation (12) from the equation (7).

Figure 2009186243
Figure 2009186243

つまり、この式(12)の関数Fが双対問題Dの評価関数となり、この評価関数Fを最大化することにより、最適化された係数W及び最適化されたスカラー定数bを求めて、判別関数g(x)を導出することができる。 That is, the function F of the equation (12) becomes an evaluation function of the dual problem D 0 , and by maximizing the evaluation function F, the optimized coefficient W * and the optimized scalar constant b * are obtained. The discriminant function g (x) can be derived.

なお、上記式(12)中の第2項は、上記式(9)を用いて下記式(13)のように計算され、上記式(12)中の第3項は、上記式(10)を用いて下記式(14)のように計算される。   The second term in the above formula (12) is calculated as the following formula (13) using the above formula (9), and the third term in the above formula (12) is calculated by the above formula (10). Is calculated as in the following formula (14).

Figure 2009186243
Figure 2009186243

従って、上記双対問題Dの評価関数Fは、下記式(15)で表される。そして、この式(15)を最大化することとなる。なお、この式(15)では、右辺の変数からラグランジュ変数γが消えている。 Therefore, the evaluation function F of the dual problem D 0 is expressed by the following equation (15). This equation (15) is maximized. In equation (15), the Lagrangian variable γ disappears from the variable on the right side.

Figure 2009186243
Figure 2009186243

この式(15)を最大化するための制約条件は、上記式(9)より導かれる下記式(16)と、上記式(10)及びγ≧0より導かれる下記式(17)との2式となる。   The constraint condition for maximizing this equation (15) is 2 of the following equation (16) derived from the above equation (9) and the following equation (17) derived from the above equation (10) and γ ≧ 0. It becomes an expression.

Figure 2009186243
Figure 2009186243

以上をまとめると、式(11)の右辺に各学習データiの特徴情報(ベクトルxi)を入力データとして代入した結果λの関数として表されるWを、式(15)の右辺に代入しながら、式(16)及び式(17)の条件の下に公知の探索的な収束計算法により、式(15)が最大値をとるように、最適化されたラグランジュ変数λすなわちλ を決定する。 In summary, W * expressed as a function of λ i as a result of substituting the feature information (vector xi) of each learning data i as input data into the right side of equation (11) is substituted into the right side of equation (15). However, an optimized Lagrangian variable λ i, i.e., λ i , so that Equation (15) takes a maximum value by a known exploratory convergence calculation method under the conditions of Equation (16) and Equation (17). * Is determined.

そして、判別関数算出部112は、決定したλ と上記式(11)とから、wを算出する。また、最適化されたスカラー定数bは、当該式(4)(等号部分)を用いてw=wとし、ある学習データiの特徴情報のベクトルxと判別結果情報yとを代入して算出する。よって、学習データを学習した結果の判別関数g(x)(上記式(1))は、記号「(・,・)」をベクトルの内積として、下記式(18)となる。 Then, the discriminant function calculating unit 112 calculates w * from the determined λ i * and the above equation (11). Further, the optimized scalar constant b * is set to w = w * using the equation (4) (equal sign part), and the feature information vector x i and the discrimination result information y i of a certain learning data i are obtained. Substitute and calculate. Therefore, the discriminant function g (x) (the above formula (1)) as a result of learning the learning data is represented by the following formula (18) with the symbol “(•, •)” as an inner product of vectors.

Figure 2009186243
Figure 2009186243

式(18)から判るように第1項において、係数である最適化されたラグランジュ変数λ >0となるxだけが判別関数g(x)を形成し、λ =0となるxは判別関数g(x)の値に寄与しない。そのために、この判別関数g(x)を形成しているベクトルxを「サポートベクトル」と呼ぶ。 As can be seen from equation (18), in the first term, only x i that is an optimized Lagrangian variable λ i * > 0 forms a discriminant function g (x), and λ i * = 0. x i does not contribute to the value of the discriminant function g (x). Therefore, the vectors x i which form the discriminant function g (x) is referred to as a "support vector".

このサポートベクトルの概要を、上述の図4を用いて説明する。図4は、本実施形態における特徴量空間の概略図である。図4に示すベクトルx中、記号●,■(黒塗りの丸又は四角)で示した点がサポートベクトルを表す。このサポートベクトルは、判別境界B12に近接したベクトルxとなる。つまり、判別関数g(x)は、全学習データにおける判別面に近接したベクトルxの線形結合により式(18)で表される。また、ベクトルxを含む各項の係数は、最適化されたラグランジュ変数λ となっているので、この非零である変数λ は、判別関数g(x)に対して各ベクトルxが与える影響度合を表していることがわかる。この変数λ をここでは、影響度係数ともいう。 The outline of this support vector will be described with reference to FIG. FIG. 4 is a schematic diagram of the feature amount space in the present embodiment. In the vector x i shown in FIG. 4, symbols ●, point indicated by ■ (black circles or squares) represents the support vectors. The support vector is a vector x i close to the discrimination boundary B12. In other words, discrimination function g (x) is represented by the formula (18) by a linear combination of the vectors x i which is close to the discrimination surface in all the training data. In addition, since the coefficient of each term including the vector x i is an optimized Lagrangian variable λ i * , this non-zero variable λ i * is determined by each vector for the discriminant function g (x). It can be seen that this represents the degree of influence given by xi . This variable λ i * is also referred to herein as an influence coefficient.

次に、非線形のSVMでは、仮想的に想定される写像関数φ(x)を使用して写像空間に写像した際に、その写像空間上において各ベクトルxやベクトルxを線形分離する判別面を算出することになる。そこで、仮想的に想定される写像関数φ(x)によりベクトルxやベクトルxなどを、特徴量空間よりも高次元の仮想的な写像空間に写像することを考える。この写像関数φ(x)を使用すると、特徴量空間において判別関数g(x)は上記式(18)で表されたが、当該写像空間において、新たな判別関数g(x)は下記式(19)で表される。なお、記号「(φ(x),φ(x))」は、写像空間上での内積を表す。 Then, the nonlinear SVM, when mapped onto the mapping space using mapping function phi (x) is virtually assumed discrimination surface for linearly separating the vectors x and vector x i on the mapping space Will be calculated. Therefore, consider mapping the like vector x and the vector x i by mapping function is virtually assumed phi (x), than the characteristic amount space into high-dimensional virtual mapping space. When this mapping function φ (x) is used, the discriminant function g (x) is expressed by the above equation (18) in the feature amount space. In the mapping space, a new discriminant function g (x) is expressed by the following equation ( 19). The symbol “(φ (x i ), φ (x))” represents an inner product in the mapping space.

Figure 2009186243
Figure 2009186243

SVMでは、下記式(20)のような関数K(x,x’)が存在する写像関数φ(x)を構築することができることが知られている。この関数K(x,x’)は、カーネル関数と呼ばれ、写像空間上におけるxとx’の内積(類似度)を返す関数である。当該カーネル関数K(x,x’)は、SVM法では公知の関数であって、これを用いて式(19)の右辺を計算することができる。   In SVM, it is known that a mapping function φ (x) in which a function K (x, x ′) like the following formula (20) exists can be constructed. This function K (x, x ') is called a kernel function, and is a function that returns the inner product (similarity) of x and x' on the mapping space. The kernel function K (x, x ′) is a well-known function in the SVM method, and the right side of Expression (19) can be calculated using this function.

Figure 2009186243
Figure 2009186243

このカーネル関数Kを使用することにより、上記式(19)で表された判別関数g(x)は、更に下記式(21)になる。   By using this kernel function K, the discriminant function g (x) expressed by the above equation (19) further becomes the following equation (21).

Figure 2009186243
Figure 2009186243

以上説明したようなSVMの学習機能を利用して、判別関数算出部112は、式(21)で表される判別関数を導出して決定することができる。なお、このSVMによる学習機能の詳しい説明は、上記非特許文献2に記載されている。   Using the SVM learning function as described above, the discriminant function calculation unit 112 can derive and determine the discriminant function represented by Expression (21). The detailed description of the learning function by SVM is described in Non-Patent Document 2.

(判別関数作成部110の動作)
この判別関数作成部110による判別関数を作成する動作について説明する。図5は、本発明の第1実施形態に係る判別装置による判別関数の作成動作及び作成時の修正動作のフローを説明する説明図である。
(Operation of Discriminant Function Creation Unit 110)
An operation of creating a discriminant function by the discriminant function creating unit 110 will be described. FIG. 5 is an explanatory diagram for explaining the flow of the discriminant function creating operation and the correcting operation at the time of creation by the discriminating apparatus according to the first embodiment of the present invention.

図5に示すように、まず、ステップS101で、判別関数算出部112が学習データ記憶部111から複数の学習データを取得する。そして、ステップS103(判別関数算出ステップ)で、判別関数算出部112が上記SVMの説明で記載した各計算を行うことにより、判別関数(上記式(21))を算出する。その後、算出された当該判別関数は、ユーザの指示等により、誤った判別をしないように修正されるが、この作成時の修正動作(ステップS201以降)については、後述する。   As shown in FIG. 5, first, in step S <b> 101, the discriminant function calculation unit 112 acquires a plurality of learning data from the learning data storage unit 111. In step S103 (discriminant function calculating step), the discriminant function calculating unit 112 performs each calculation described in the description of the SVM, thereby calculating a discriminant function (the above formula (21)). Thereafter, the calculated discriminant function is corrected so as not to make an erroneous discrimination by a user's instruction or the like. The corrective operation at the time of creation (after step S201) will be described later.

(判別関数修正部120)
再び図3を参照して、判別装置100が有する他の構成の説明に戻る。
判別関数修正部120は、判別関数作成部110が作成した判別関数g(x)を取得する。そして、判別関数修正部120は、この判別関数による判別結果が誤っている疵候補のデータ(特徴情報x)が存在する場合、当該疵候補の特徴情報に対しても正しい判別結果を算出するように判別関数を修正する。この判別結果が誤っている特徴情報を、他の特徴情報xと区別するために「誤判別特徴情報」ともいう。また、判別結果が誤っている場合とは、判別関数が算出した判別結果情報の符合が誤っている(逆である)場合を意味する。なお、多数ある学習データのうちの一部の学習データの学習用特徴情報が誤判別情報になることもあるし、学習データではない別の疵候補の特徴量情報、すなわち未知特徴情報が誤判別情報になることもありうる。判別関数修正部120は、誤判別特徴情報となった学習用特徴情報及び未知特徴情報の両方に対して、判別関数を修正することができる。これらの特定の学習データや別の疵候補、及びその特徴情報は通常ユーザにより指定される。なお、多数の学習データのうちに誤った判別結果が含まれることがある理由は、例えば検査作業者が誤判別をしたり、特徴情報自体が判別するのが困難なほど微妙なグレーゾーンにあることなどに依るものである。
(Discriminant function correcting unit 120)
Referring back to FIG. 3, the description returns to another configuration included in the determination device 100.
The discriminant function correcting unit 120 acquires the discriminant function g (x) created by the discriminant function creating unit 110. Then, when there is data for a wrinkle candidate (feature information x) for which the discrimination result by the discriminant function is incorrect, the discriminant function correcting unit 120 calculates a correct discrimination result for the feature information of the wrinkle candidate. Modify the discriminant function. The feature information in which the discrimination result is incorrect is also referred to as “misidentification feature information” in order to distinguish it from other feature information x. Further, the case where the discrimination result is incorrect means a case where the sign of the discrimination result information calculated by the discrimination function is incorrect (reverse). Note that the feature information for learning of some of the learning data may become misclassification information, or the feature amount information of another cocoon candidate that is not the learning data, that is, unknown feature information is misclassified. It can be information. The discriminant function correcting unit 120 can correct the discriminant function with respect to both the learning feature information and the unknown feature information that are misidentified feature information. These specific learning data, other wrinkle candidates, and their feature information are usually specified by the user. The reason why an erroneous determination result may be included in a large number of learning data is, for example, in a subtle gray zone that makes it difficult for an inspection worker to make an incorrect determination or to distinguish the feature information itself. It depends on things.

そのために判別関数修正部120は、重要学習データ選択部121と、判別関数確認部122と、係数算出部123と、判別関数調整部124と、誤りデータ入力部125とを有する。   For this purpose, the discriminant function correcting unit 120 includes an important learning data selecting unit 121, a discriminant function confirming unit 122, a coefficient calculating unit 123, a discriminant function adjusting unit 124, and an error data input unit 125.

学習データの学習用判別特徴情報が誤判別特徴情報であるか否かは、重要学習データ選択部121と判別関数確認部122との動作により確認される。そして、係数算出部123及び判別関数調整部124により判別関数の修正が行われる。この学習データに対する判別関数の修正を、「作成時の修正」と呼ぶ(学習データの誤り判定の調整)。   Whether or not the discriminating feature information for learning of the learning data is misidentified feature information is confirmed by the operations of the important learning data selecting unit 121 and the discriminant function confirming unit 122. The coefficient calculation unit 123 and the discrimination function adjustment unit 124 correct the discrimination function. This correction of the discriminant function for the learning data is called “correction at the time of creation” (adjustment of error determination of learning data).

一方、判別結果が未知の未知判別対象が誤って判別された場合、つまり、未知特徴情報が誤判別特徴情報である場合、ユーザが誤りデータ入力部125で、未知判別対象の未知特徴情報とその教師判別結果情報(正しい判別結果情報)とを係数算出部123に入力する。なお、この誤判別特徴情報であった未知特徴情報と、その教師判別結果情報とを合わせて「誤りデータ」ともいう。そして、誤りデータに対して、係数算出部123及び判別関数調整部124により判別関数の修正が行われる。この誤りデータに対する判別関数の修正を、「作成後の修正」と呼ぶ(学習データでないデータの誤り判定の調整)。   On the other hand, when an unknown discrimination target with an unknown discrimination result is erroneously discriminated, that is, when the unknown feature information is misclassification feature information, the user uses the error data input unit 125 to identify the unknown feature information of the unknown discrimination target and its Teacher discrimination result information (correct discrimination result information) is input to the coefficient calculation unit 123. Note that the unknown feature information that is the misidentification feature information and the teacher discrimination result information are also referred to as “error data”. Then, the discriminant function is corrected by the coefficient calculator 123 and the discriminant function adjuster 124 for the error data. This correction of the discriminant function for the error data is referred to as “correction after creation” (adjustment of error determination of data that is not learning data).

より具体的にこれらの各構成部について説明する。
重要学習データ選択部121は、作成時の修正において、学習データ記憶部111に記録された学習データのうち、特に重要な学習データ(以下「重要学習データ」ともいう。)を選択して取得する。重要学習データとは、誤った判別が許容できない学習データのことを意味する。重要学習データとしては、例えば、以下のような学習データが挙げられる。ただし、これらの重要学習データの例は、重要学習データを限定するものではない。
(1)ユーザが設定した学習データ
(2)所定の特徴量が閾値を超えている学習データなど、所定の計算により算出される重要度が高い学習データ
(3)各学習データに対応付けられて学習データ記憶部111に記録された重要度が高い学習データ
More specifically, each of these components will be described.
The important learning data selection unit 121 selects and acquires particularly important learning data (hereinafter also referred to as “important learning data”) from the learning data recorded in the learning data storage unit 111 in the correction at the time of creation. . The important learning data means learning data that cannot be erroneously discriminated. Examples of important learning data include the following learning data. However, these important learning data examples do not limit the important learning data.
(1) Learning data set by the user (2) Learning data with high importance calculated by a predetermined calculation, such as learning data in which a predetermined feature amount exceeds a threshold value (3) Corresponding to each learning data Highly important learning data recorded in the learning data storage unit 111

判別関数確認部122は、作成時の修正において、正確な判別を行うことができる判別関数が算出されたか否かを、重要学習データを使用して確認する。より具体的には、判別関数確認部122は、判別関数算出部112が算出した判別関数に、重要学習データの学習用特徴情報を代入する。そして、判別結果情報を算出する。そして、判別関数確認部122は、この算出した判別結果情報が示す判別結果が、重要学習データの学習用判別結果情報が示す正しい判別結果と等しいか否か、つまり符合が一致するか否かを確認する。なお、判別結果情報の数値までが一致している必要はない。換言すれば、判別関数確認部122は、重要学習データの学習用特徴情報が誤判別特徴情報となるか否かを確認する。判別関数確認部122は、判別結果が正しい場合には、判別関数を判別部130に出力し、判別結果が正しくない場合には、その正しくない結果が導かれた重要学習データと、判別関数とを係数算出部123に出力する。   The discriminant function confirmation unit 122 confirms whether or not a discriminant function capable of performing accurate discrimination has been calculated in the correction at the time of creation using the important learning data. More specifically, the discriminant function confirmation unit 122 substitutes the learning feature information of the important learning data into the discriminant function calculated by the discriminant function calculator 112. Then, determination result information is calculated. Then, the discrimination function confirmation unit 122 determines whether or not the discrimination result indicated by the calculated discrimination result information is equal to the correct discrimination result indicated by the learning discrimination result information of the important learning data, that is, whether or not the signs match. Check. Note that the numerical values of the discrimination result information do not need to match. In other words, the discriminant function confirmation unit 122 confirms whether or not the learning feature information of the important learning data is misidentified feature information. The discriminant function confirming unit 122 outputs the discriminant function to the discriminator 130 when the discriminant result is correct, and when the discriminant result is incorrect, the discriminant function and the important learning data from which the incorrect result is derived, Is output to the coefficient calculation unit 123.

係数算出部123は、作成時の修正における動作として、重要学習データの誤判別特徴情報に対しても正しい判別結果が導かれるように、その誤判別特徴情報(x)に対する新たな影響係数(λ’)を算出する。そして、係数算出部123は、算出した影響係数及び判別関数を判別関数調整部124に出力する。 The coefficient calculation unit 123 performs a new influence coefficient (x j ) on the misclassification feature information (x j ) so that a correct discrimination result is derived for the misclassification feature information of the important learning data as an operation in correction at the time of creation. λ j ′) is calculated. Then, the coefficient calculating unit 123 outputs the calculated influence coefficient and discriminant function to the discriminant function adjusting unit 124.

判別関数調整部124は、作成時の修正における動作として、判別関数を形成している重要学習データの誤判別特徴情報(x)の影響係数(λ)を、上記係数算出部123が算出した影響係数(λ’)に変更することにより判別関数を調整する。そして、判別関数調整部124は、調整した判別関数を、判別部130で実際の判別に使用する判別関数に設定する。 The discriminant function adjusting unit 124 calculates the influence coefficient (λ j ) of the misclassified feature information (x j ) of the important learning data forming the discriminant function as the operation in the correction at the time of creation. The discriminant function is adjusted by changing to the influence coefficient (λ j ′). Then, the discriminant function adjusting unit 124 sets the adjusted discriminant function as a discriminant function used by the discriminator 130 for actual discrimination.

一方、誤りデータ入力部125は、作成後の修正において、誤りデータをユーザの指示により係数算出部123に入力する。この誤りデータ入力部125は、制御装置17やユーザによって制御される。そして、実際に疵候補を判別した際に、判定が誤っていた疵候補が発見されると、誤りデータ入力部125は、制御装置17又はユーザによって操作されて、その疵候補の未知特徴情報及び教師判別結果情報(正しい判別結果情報)とを誤りデータとして係数算出部123に入力する。   On the other hand, the error data input unit 125 inputs error data to the coefficient calculation unit 123 according to a user instruction in the correction after creation. The error data input unit 125 is controlled by the control device 17 or the user. And when actually determining the wrinkle candidate, if a wrinkle candidate whose determination is wrong is found, the error data input unit 125 is operated by the control device 17 or the user, and the unknown feature information of the wrinkle candidate and Teacher discrimination result information (correct discrimination result information) is input to the coefficient calculation unit 123 as error data.

上記係数算出部123は、作成後の修正における動作として、判別部130が判別に使用している判別関数を取得する。そして、係数算出部123は、誤りデータの誤判別特徴情報(x’)に対しても正しい判別結果が導かれるような新たな影響係数(λ’)を算出する。なお、この係数算出部123による影響係数の算出過程は、作成時の修正と作成後の修正とでは異なる。そして、係数算出部123は、算出した影響係数及び判別関数を判別関数調整部124に出力する。   The coefficient calculation unit 123 acquires a discriminant function used for discrimination by the discriminator 130 as an operation in correction after creation. Then, the coefficient calculation unit 123 calculates a new influence coefficient (λ ′) that leads to a correct determination result for the erroneous determination feature information (x ′) of the error data. Note that the process of calculating the influence coefficient by the coefficient calculation unit 123 is different between the correction at the time of creation and the correction after the creation. Then, the coefficient calculating unit 123 outputs the calculated influence coefficient and discriminant function to the discriminant function adjusting unit 124.

上記判別関数調整部124は、作成後の修正における動作として、誤りデータの誤判別特徴情報(ベクトルx’)を、サポートベクトルとして判別関数g(x)に新たに追加する(組み込む)ことにより判別関数を調整する。その際、判別関数調整部124は、誤りデータの影響係数として、係数算出部123が算出した影響係数(λ’)を使用する。そして、判別関数調整部124は、調整した判別関数を、判別部130で実際の判別に使用する判別関数に設定する。   The discriminant function adjusting unit 124 discriminates by adding (incorporating) erroneous discriminating feature information (vector x ′) of error data to the discriminant function g (x) as a support vector as an operation in correction after creation. Adjust the function. At that time, the discriminant function adjustment unit 124 uses the influence coefficient (λ ′) calculated by the coefficient calculation unit 123 as the influence coefficient of the error data. Then, the discriminant function adjusting unit 124 sets the adjusted discriminant function as a discriminant function used by the discriminator 130 for actual discrimination.

この判別関数修正部120による修正動作について説明する前に、判別装置100が有する他の構成である判別部130について説明する。   Before describing the correcting operation by the discriminant function correcting unit 120, the discriminating unit 130 which is another configuration of the discriminating apparatus 100 will be described.

(判別部130)
判別部130は、判別関数調整部124により設定された判別関数を使用して、疵の候補(判別対象)を判別する。つまり、判別部130は、疵の候補の特徴情報xを判別関数g(x)に代入し、判別結果情報yを算出する。そして、判別部130は、算出した判別結果情報yの符合が正であるか負であるかに応じて、その疵の候補が有害な疵の集合(クラスX1)に属するのか、又は、無害な疵の集合(クラスX2)に属するのかを判別して、判別結果を出力する。この際、判別部130は、判別結果だけでなく、特徴情報x及び判別結果情報yなどを出力してもよい。
(Determination unit 130)
The discriminating unit 130 discriminates a cocoon candidate (discrimination target) using the discriminant function set by the discriminant function adjusting unit 124. That is, the determination unit 130 substitutes the feature information x of the eyelid candidate into the determination function g (x), and calculates the determination result information y. Then, the determination unit 130 determines whether the candidate for the eye belongs to a harmful eyelid set (class X1) or harmless depending on whether the sign of the calculated determination result information y is positive or negative. It is discriminated whether it belongs to a set of bags (class X2), and the discrimination result is output. At this time, the determination unit 130 may output not only the determination result but also the feature information x and the determination result information y.

(判別部130の判別動作)
この判別部130による判別動作について、図6を参照しつつ説明する。
図6は、本発明の第1実施形態に係る判別装置による判別動作について説明するための説明図である。
(Determination operation of the discrimination unit 130)
The determination operation by the determination unit 130 will be described with reference to FIG.
FIG. 6 is an explanatory diagram for explaining the discrimination operation by the discrimination device according to the first embodiment of the present invention.

図6に示すように、判別部130は、判別ステップとして、以下のステップS301〜ステップS305を処理する。より具体的には、判別部130は、未知判別対象の未知特徴情報(判別を行いたい疵候補の特徴情報)を取得すると、ステップS301を処理する。このステップS301では、判別部130は、未知特徴情報xを、設定されている判別関数g(x)に代入する。そして、ステップS303に進み、判別関数による計算が行われて判別結果情報yを算出する。ステップS303の処理後はステップS305に進み、判別部130は、判別結果情報に応じた判別結果を出力する。   As shown in FIG. 6, the determination unit 130 processes the following steps S301 to S305 as determination steps. More specifically, when the determination unit 130 acquires unknown feature information of an unknown determination target (feature information of a candy candidate to be determined), the determination unit 130 processes step S301. In step S <b> 301, the determination unit 130 substitutes the unknown feature information x for the set determination function g (x). Then, the process proceeds to step S303, where the calculation by the discriminant function is performed to calculate the discriminant result information y. After the process of step S303, the process proceeds to step S305, and the determination unit 130 outputs a determination result corresponding to the determination result information.

(判別関数修正部120による修正動作について)
ここで上記判別関数修正部120による判別関数の修正についてより詳細に説明する。
(Regarding the correction operation by the discriminant function correction unit 120)
Here, the correction of the discriminant function by the discriminant function correcting unit 120 will be described in more detail.

重要学習データを誤って判定した場合や、誤りデータが発生した場合、重要学習データ又は誤りデータの誤判定特徴情報も、特徴量空間上の点として表すことができる。この誤判定特徴情報をベクトル(空間上の点)x’又はxで表し、図7A及び図7Bに示す(j=1〜n)。なお、誤った判定は、ベクトルx’又はxをクラスX2(y<0)に属すると判定すべきであったところを、誤ってクラスX1(y>0)に属すると判定してしまった場合やその逆の場合を意味する。図7A及び図7Bには、判別関数(判別境界B12)は、ベクトルx’又はxがクラスX2に属するように特徴量空間を区切らねばならないところ、ベクトルx’又はxがクラスX1に属するように特徴量空間を区切っている場合を示した。このような判別関数が算出されると、ベクトルxが重要学習データである場合には、判別関数確認部122がこの重要学習データを検出する。一方、ベクトルx’が誤りデータである場合には、誤りデータ入力部125がこの誤りデータを入力する。そして、判別関数確認部122は、作成時の修正又は作成後の修正により判別関数を修正する。 When the important learning data is erroneously determined or error data is generated, the erroneous determination feature information of the important learning data or the error data can also be expressed as a point on the feature amount space. This misjudgment feature information is represented by a vector (a point in space) x ′ or x j and shown in FIGS. 7A and 7B (j = 1 to n). Incidentally, the determination of false, <a place that should have been determined to belong to (0, incorrectly class X1 (y a vector x 'or x j class X2 y)> had been determined to belong to 0) Means the case and vice versa. FIG 7A and 7B, the discrimination function (determination boundary B12) is 'where or x j is must separate the feature space to belong to a class X2, vector x' vectors x or x j belong to the class X1 As shown, the feature space is divided. When such a discriminant function is calculated, if the vector xj is important learning data, the discriminant function confirmation unit 122 detects this important learning data. On the other hand, when the vector x ′ is error data, the error data input unit 125 inputs this error data. Then, the discriminant function confirmation unit 122 corrects the discriminant function by correction at the time of creation or correction after creation.

[作成時の修正について]
この作成時の修正についてより詳細に説明する。
作成時の修正について説明する前に、算出された判別関数を構成するサポートベクトルと学習データとの関係について説明する。
[About modification at the time of creation]
This correction at the time of creation will be described in more detail.
Before explaining the correction at the time of creation, the relationship between the support vector constituting the calculated discriminant function and the learning data will be explained.

SVMでは、KKT(Karush-Kuhn-Tucker)の相補性条件より下記式(22)及び式(23)が成立する。   In SVM, the following formulas (22) and (23) are established from the complementary condition of KKT (Karush-Kuhn-Tucker).

Figure 2009186243
Figure 2009186243

また、学習データ(x)がサポートベクトルとならなかった場合には、上述の通り、λ =0となる。よって、上記式(10)より下記式(24)が導かれ、式(24)と上記式(23)とから下記式(25)が更に導かれる。 If the learning data (x i ) is not a support vector, λ i * = 0 as described above. Therefore, the following formula (24) is derived from the above formula (10), and the following formula (25) is further derived from the formula (24) and the above formula (23).

Figure 2009186243
Figure 2009186243

この式(25)と上記式(4)とから下記式(26)が導かれる。   From this equation (25) and the above equation (4), the following equation (26) is derived.

Figure 2009186243
Figure 2009186243

式(26)からは、yが負の場合には判別関数の計算結果も負になり、yが正の場合には判別関数の計算結果も正となることが判る。つまり、判別関数算出部112により算出された判別関数は、サポートベクトルとならなかった学習データ(x)に対しては必ず正しい判別を行えることが判る。 From equation (26), the calculation result of the discrimination function becomes negative if y i is negative, if y i is positive it can be seen that the calculation results positive discriminant function. That is, it can be seen that the discriminant function calculated by the discriminant function calculator 112 can always make a correct discrimination with respect to learning data (x i ) that has not become a support vector.

一方、学習データ(x)がサポートベクトルである場合には、上述の通り、λ ≠0となる。よって、上記式(22)より、下記式(27)が導かれる。 On the other hand, when the learning data (x i ) is a support vector, λ i * ≠ 0 as described above. Therefore, the following formula (27) is derived from the above formula (22).

Figure 2009186243
Figure 2009186243

このλ は、上記式(17)より0〜Cまでに値を取るので、このλ について以下のケースA及びケースBに場合分けをする。 The lambda i * Since taking values until 0~C the above equation (17), a case analysis on the lambda i * in the following case A and case B.

ケースA)0<λ <Cのとき
上記式(10)より下記式(28)が導かれ、γ≠0となるため、式(23)より下記式(29)が導かれる。
Case A) When 0 <λ i * <C, the following equation (28) is derived from the above equation (10), and γ i ≠ 0. Therefore, the following equation (29) is derived from the equation (23).

Figure 2009186243
Figure 2009186243

よって、この式(29)と上記式(27)とから、下記式(30)が導かれる。   Therefore, the following equation (30) is derived from the equation (29) and the above equation (27).

Figure 2009186243
Figure 2009186243

式(30)からは、yが負の場合には判別関数の計算結果も負になり、yが正の場合には判別関数の計算結果も正となることが判る。つまり、判別関数算出部112により算出された判別関数は、サポートベクトルとなった学習データ(x)のうち0<λ <Cとなる学習データに対しても必ず正しい判別を行えることが判る。 From equation (30), the calculation result of the discrimination function becomes negative if y i is negative, if y i is positive it can be seen that the calculation results positive discriminant function. In other words, the discriminant function calculated by the discriminant function calculator 112 can surely perform correct discrimination even for learning data in which 0 <λ i * <C among learning data (x i ) that has become a support vector. I understand.

ケースB)λ =Cのとき
一方、ケースBの場合、上記式(10)より、下記式(31)が導かれる。
Case B) When λ i * = C On the other hand, in the case of Case B, the following equation (31) is derived from the above equation (10).

Figure 2009186243
Figure 2009186243

そこで、更にξについて、上記式(5)の範囲内でケースB1及びケースB2に場合分けをする。 Therefore, ξ i is further divided into case B1 and case B2 within the range of the above equation (5).

ケースB1)0≦ξ≦1のとき
上記式(27)より、下記式(32)が導かれる。
Case B1) When 0 ≦ ξ i ≦ 1, the following equation (32) is derived from the above equation (27).

Figure 2009186243
Figure 2009186243

よって、式(32)からは、yが負の場合には判別関数の計算結果も負になり、yが正の場合には判別関数の計算結果も正となることが判る。つまり、判別関数算出部112により算出された判別関数は、サポートベクトルとなった学習データ(x)のうち、λ =C、0≦ξ≦1となる学習データに対しても必ず正しい判別を行えることが判る。 Therefore, it can be seen from equation (32) that when y i is negative, the calculation result of the discriminant function is also negative, and when y i is positive, the calculation result of the discriminant function is also positive. That is, the discriminant function calculated by the discriminant function calculating unit 112 is always the learning data (λ i * = C, 0 ≦ ξ i ≦ 1) among the learning data (x i ) that is the support vector. It can be seen that correct discrimination can be made.

ケースB2)1<ξのとき
同様に上記式(27)より、下記式(33)が導かれる。
Case B2) When 1 <ξ i Similarly, the following equation (33) is derived from the above equation (27).

Figure 2009186243
Figure 2009186243

よって、式(33)からは、yが負の場合には判別関数の計算結果は正になり、yが正の場合には判別関数の計算結果は負となることが判る。つまり、判別関数算出部112により算出された判別関数は、サポートベクトルとなった学習データ(x)のうち、λ =C、1<ξとなる学習データに対しては必ず誤った判別を行ってしまうことが判る。 Therefore, from the equation (33), the calculation result of the discrimination function is positive if y i is negative, y i is the case of a positive calculation result of the discrimination function is understood to be a negative. That is, the discriminant function calculated by the discriminant function calculation unit 112 is always wrong for the learning data (λ i * = C, 1 <ξ i ) among the learning data (x i ) that is the support vector. It turns out that discrimination is performed.

つまり、以上で説明したサポートベクトルと学習データとの関係から、誤った判定がなされる学習データは、サポートベクトルであり、かつ、λ =C、1<ξとなることが判る。 That is, it can be seen from the relationship between the support vector and the learning data described above that the learning data that is erroneously determined is a support vector and that λ i * = C and 1 <ξ i .

そこで、判別関数修正部120は、図5に示すように、作成時には以下のような修正動作を行う。なお、誤った判定がなされる重要学習データの学習用特徴情報(誤判別特徴情報)をベクトルx(jは1〜nまでの整数)とし、その正しい判別結果を表す学習用判別結果情報(教師判別結果情報)をyとする。この場合、ベクトルxにより判別関数g(x)が算出する判別結果情報yは、下記式(34)で表される。 Therefore, as shown in FIG. 5, the discriminant function correcting unit 120 performs the following correcting operation at the time of creation. Note that learning feature information (misidentification feature information) of important learning data that is erroneously determined is a vector x j (j is an integer from 1 to n), and learning determination result information (a) indicating the correct determination result ( Let j j be the teacher discrimination result information). In this case, determination result information y for calculating judged by vectors x j function g (x) is is represented by the following formula (34).

Figure 2009186243
Figure 2009186243

まず、判別関数修正部120は、判別関数作成部110から判別関数を取得すると、図5に示すようにステップS201を処理する。このステップS201では、重要学習データ選択部121が、学習データ記憶部111から重要学習データを選択して取得する。そして、ステップS203に進む。   First, when the discriminant function correcting unit 120 acquires the discriminant function from the discriminant function creating unit 110, the discriminant function correcting unit 120 processes step S201 as shown in FIG. In step S <b> 201, the important learning data selection unit 121 selects and acquires important learning data from the learning data storage unit 111. Then, the process proceeds to step S203.

ステップS203では、判別関数確認部122が、重要学習データの学習用特徴情報xを判別関数g(x)に代入して判別結果情報yを算出する。そして、ステップS205に進む。 In step S203, the discrimination function confirmation unit 122 calculates the determination result information y the training feature information x j important training data is substituted into the discriminant function g (x). Then, the process proceeds to step S205.

ステップS205では、判別関数確認部122が、判別関数が正しい判別を行うか否かを確認する。つまり、判別結果情報yの符合が、学習用判別結果情報yの符合と一致するか否かを確認する。両者の符合が一致する場合、判別関数確認部122は正しい判別結果である判断して、ステップS211に進む。一方、両者の符合が一致しない場合、判別関数確認部122は誤った判別結果である判断して、ステップS207に進む。 In step S205, the discriminant function confirmation unit 122 confirms whether or not the discriminant function performs correct discrimination. In other words, sign determination result information y is, checks whether to match the sign of the learning determination result information y j. If the signs match, the discrimination function confirmation unit 122 determines that the discrimination result is correct, and the process proceeds to step S211. On the other hand, if the signs of the two do not match, the discriminant function confirmation unit 122 determines that the result is an incorrect discrimination result, and proceeds to step S207.

ステップS207では、係数算出部123が、判別結果情報yが学習用判別結果情報yと一致するように(符合が一致するように)、影響係数λ’を算出する。より具体的には、係数算出部123は、下記式(35)を満たすように影響係数λ’を算出する。そして、ステップS209に進む。 In step S207, the coefficient calculation unit 123 calculates the influence coefficient λ j ′ so that the discrimination result information y matches the learning discrimination result information y j (so that the signs match). More specifically, the coefficient calculation unit 123 calculates the influence coefficient λ j ′ so as to satisfy the following formula (35). Then, the process proceeds to step S209.

Figure 2009186243
Figure 2009186243

ステップS209(判別関数修正ステップ)では、判別関数調整部124が、上記算出された影響係数λ’を使用して影響係数λを調整し、判別関数を修正する。より具体的には、上述したように誤り判定された重要学習データは、判別関数のサポートベクトルとなっている。そこで、判別関数調整部124は、誤判定された重要学習データの学習用特徴情報xの影響係数λを、係数算出部123が算出した影響係数λ’に変更する。そして、判別関数調整部124は、判別関数作成部110が作成した判別関数g(x)を、下記式(36)で表される新たな判別関数g(x)へと修正する。そして、ステップS211に進む。 In step S209 (determination function modifying step), discriminant function adjusting portion 124, using the above calculated influence coefficients lambda j 'to adjust the influence coefficient lambda j, modifying the discriminant function. More specifically, the important learning data subjected to the error determination as described above is a support vector of the discriminant function. Therefore, the discrimination function adjusting portion 124, erroneous influence coefficients lambda j of the determined critical learning training feature information x j of the data is changed to the coefficient calculation unit 123 has calculated influence coefficients lambda j '. Then, the discriminant function adjusting unit 124 corrects the discriminant function g (x) created by the discriminant function creating unit 110 into a new discriminant function g 1 (x) represented by the following formula (36). Then, the process proceeds to step S211.

Figure 2009186243
Figure 2009186243

ステップS211では、判別関数調整部124が、判別部130が判別に使用する判別関数を、修正した判別関数g(x)に設定する。そして、判別関数の作成動作及び修正動作は終了する。 In step S211, the discriminant function adjusting unit 124 sets the discriminant function used by the discriminator 130 for discrimination to the corrected discriminant function g 1 (x). Then, the discriminant function creation operation and correction operation end.

このように影響係数λ’を変更することは、判別関数における判別結果を直接変更する操作に該当する。つまり、一般のSVMでは、上記式(17)により影響係数λに上限が決定されているので、重要学習データを誤って判定する判別関数を算出してしまう可能性がある。しかしながら、本実施形態に係る判別装置100は、誤判定された重要学習データに対してのみ影響係数λを上記式(17)を超えて調整する。よって、図7A又は図7Bに概念的に示すように、判別装置100は、判別境界B12が誤り判定された学習データxをも正しく区画するように、判別境界B12を湾曲(曲線B−1、図7B参照。)させたり、判別境界B−2による分離した領域を形成させることができる。よって、判別装置100は、他の特徴情報の判別結果に与える影響を抑えつつ、誤って判定してしまった判定対象に対して所望の判別結果が得られるように判別関数(つまり判別規則)を調整することができる。 Changing the influence coefficient λ j ′ in this way corresponds to an operation for directly changing the discrimination result in the discrimination function. That is, in the general SVM, since the upper limit is determined for the influence coefficient λ by the above equation (17), there is a possibility of calculating a discriminant function for erroneously determining important learning data. However, the determination apparatus 100 according to the present embodiment adjusts the influence coefficient λ beyond the above equation (17) only for erroneously determined important learning data. Therefore, as conceptually shown in FIG. 7A or FIG. 7B, judgment apparatus 100, as determined boundary B12 correctly compartment also learning data x j it is determined error, curved discrimination boundary B12 (Curve B-1 7B), or a region separated by the discrimination boundary B-2 can be formed. Therefore, the discriminating apparatus 100 uses a discriminant function (that is, a discriminant rule) so as to obtain a desired discriminant result for a judgment object that has been erroneously judged while suppressing the influence on the discrimination result of other feature information. Can be adjusted.

[作成後の修正について]
以上、判別関数修正部120による修正動作のうち作成時の修正について説明した。
次に、図8を参照しつつ、他の修正動作である作成後の修正について詳細に説明する。図8は、本発明の第1実施形態に係る判別装置による判別関数の作成後の修正動作について説明するための説明図である。
[Modification after creation]
The correction at the time of creation in the correction operation by the discriminant function correction unit 120 has been described above.
Next, with reference to FIG. 8, the correction after creation, which is another correction operation, will be described in detail. FIG. 8 is an explanatory diagram for explaining a correction operation after creation of a discriminant function by the discriminating apparatus according to the first embodiment of the present invention.

なお、SVMでは、学習データでない誤りデータがあり、この誤りデータが許容することができないデータである場合には、その誤りデータをも正しく判定するように再学習させる必要、つまり、判別関数を再度作成し直す必要がある。判別関数を再度作成するには、判別関数算出部112が、誤りデータを学習データに加えて再度上記最適化計算を実行する必要がある。   In SVM, if there is error data that is not learning data, and this error data is unacceptable data, it is necessary to re-learn to correctly determine the error data, that is, the discriminant function is set again. It needs to be recreated. In order to create the discriminant function again, the discriminant function calculation unit 112 needs to add the error data to the learning data and execute the optimization calculation again.

しかし、一般に表面疵検査装置1において学習データの個数は数千個、それぞれの学習用特徴情報の特徴量も数百個を超える場合も珍しくない。よって、誤りデータが発生する度にこの再学習を繰り返すのでは、莫大なメンテナンスコストや時間が必要となる。   However, it is not uncommon for the surface defect inspection apparatus 1 to have several thousand pieces of learning data, and the amount of feature information of each piece of learning exceeds several hundred pieces. Therefore, repeating this relearning every time error data is generated requires enormous maintenance costs and time.

そこで、本実施形態に係る判別装置100は、上記構成を有することにより、以下のような動作を行う。なお、誤りデータを、ベクトルx’とし、その正しい判別結果を表す教師判別結果情報をy’とする。この場合、ベクトルx’により判別関数が算出する判別結果情報yは、下記式(37)で表される。   Therefore, the discrimination device 100 according to the present embodiment performs the following operation by having the above configuration. Note that the error data is a vector x ', and teacher discrimination result information indicating the correct discrimination result is y'. In this case, the discrimination result information y calculated by the discriminant function based on the vector x ′ is expressed by the following equation (37).

Figure 2009186243
Figure 2009186243

まず、教師判別結果情報がy’=+1であるのに、判別結果情報がy=g(x’)<0であった場合について説明する。   First, a case where the discrimination result information is y = g (x ′) <0 while the teacher discrimination result information is y ′ = + 1 will be described.

図8に示すように、まず、ステップS401が処理され、誤りデータ入力部125が、誤りデータを係数算出部123に入力する。つまり、誤りデータ入力部125は、誤りデータの未知特徴情報x’(誤判別特徴情報)と、その正しい判別結果である教師判別結果情報y’とを係数算出部123に入力する。そして、ステップS403に進む。   As shown in FIG. 8, first, step S <b> 401 is processed, and the error data input unit 125 inputs error data to the coefficient calculation unit 123. That is, the error data input unit 125 inputs the unknown feature information x ′ (error discrimination feature information) of the error data and the teacher discrimination result information y ′ that is the correct discrimination result to the coefficient calculation unit 123. Then, the process proceeds to step S403.

ステップS403では、係数算出部123が、判別結果情報yが教師判別結果情報y’と一致するように(符合が一致するように)、影響係数λ’を差出する。より具体的には、係数算出部123は、下記式(38)を満たすように影響係数λ’を算出する。そして、ステップS405に進む。   In step S403, the coefficient calculation unit 123 sends out the influence coefficient λ ′ so that the discrimination result information y matches the teacher discrimination result information y ′ (so that the signs match). More specifically, the coefficient calculation unit 123 calculates the influence coefficient λ ′ so as to satisfy the following formula (38). Then, the process proceeds to step S405.

Figure 2009186243
Figure 2009186243

ステップ405では、判別関数調整部124が、誤りデータの誤判別特徴情報x’をサポートベクトルとして判別関数g(x)に追加する。より具体的には、判別関数調整部124は、判別部130で使用されている判別関数g(x)に、誤判別特徴情報x’で記述される項を追加することにより、判別関数g(x)を下記式(39)で表される判別関数g(x)へと修正する。そして、ステップS407に進む。 In step 405, the discriminant function adjusting unit 124 adds the erroneous discrimination feature information x ′ of the error data to the discriminant function g (x) as a support vector. More specifically, the discriminant function adjusting unit 124 adds a term described by the misclassification feature information x ′ to the discriminant function g (x) used by the discriminator 130, so that the discriminant function g ( x) is corrected to a discriminant function g 2 (x) represented by the following formula (39). Then, the process proceeds to step S407.

Figure 2009186243
Figure 2009186243

ステップS407では、判別関数調整部124が、判別部130が判別に使用する判別関数を、修正した判別関数g(x)に設定する。そして、判別関数の作成動作及び修正動作は終了する。 In step S407, the discriminant function adjusting unit 124 sets the discriminant function used by the discriminator 130 for discrimination to the corrected discriminant function g 2 (x). Then, the discriminant function creation operation and correction operation are completed.

その結果、誤りデータx’に対して判別部130で算出される判別結果情報は、下記式(40)に示すように正となる。   As a result, the discrimination result information calculated by the discrimination unit 130 for the error data x ′ is positive as shown in the following formula (40).

Figure 2009186243
Figure 2009186243

なお、教師判別結果情報がy’=−1であるのに、判別結果情報がy=g(x’)>0であった場合も、同様に修正することができる。この際、ステップS403において、係数算出部123は、下記式(41)を満たすように影響係数λ’を算出する。その結果、未知特徴情報x’に対して判別部130で算出される判別結果情報yは、下記式(42)に示すように負となる。 Even when the teacher determination result information is y ′ = − 1 and the determination result information is y = g (x ′)> 0, the correction can be made in the same manner. At this time, in step S403, the coefficient calculation unit 123 calculates the influence coefficient λ j ′ so as to satisfy the following equation (41). As a result, the discrimination result information y calculated by the discrimination unit 130 with respect to the unknown feature information x ′ is negative as shown in the following formula (42).

Figure 2009186243
Figure 2009186243

上述のように、影響係数λ’を算出して、誤りデータをサポートベクトルとして判別関数に導入`することも、判別関数における判別結果を直接変更する操作に属する。この修正前のSVMの判別関数は、学習データの学習用特徴情報であるサポートベクトルの線形結合で表される。よって、一般には、学習データでない誤りデータについて正しい判別結果を得るためには、再度判別関数を算出する必要がある。しかしながら、本実施形態に係る判別装置100は、学習データとは異なる誤りデータをサポートベクトルとして判別関数に追加することにより、判別関数を調整することができる。よって、他の特徴情報の判別結果に与える影響を抑えつつ、誤って判定してしまった判定対象に対して所望の判別結果が得られるように判別関数(つまり判別規則)を調整することができる。   As described above, calculating the influence coefficient λ ′ and introducing the error data as a support vector into the discriminant function also belongs to an operation of directly changing the discriminant result in the discriminant function. The SVM discriminant function before correction is represented by a linear combination of support vectors, which are feature information for learning of learning data. Therefore, generally, in order to obtain a correct discrimination result for error data that is not learning data, it is necessary to calculate a discrimination function again. However, the discriminating apparatus 100 according to the present embodiment can adjust the discriminant function by adding error data different from the learning data as a support vector to the discriminant function. Therefore, it is possible to adjust the discriminant function (that is, the discriminant rule) so as to obtain a desired discriminant result with respect to the judgment target that has been erroneously judged while suppressing the influence on the discriminant result of other feature information. .

<第2実施形態>
以上、本発明の第1実施形態に係る判別装置100について説明した。
次に、図9を参照しつつ、本発明の第2実施形態に係る判別装置200について説明する。図9は、本発明の第2実施形態に係る判別装置の構成について説明するための説明図である。
Second Embodiment
Heretofore, the determination device 100 according to the first embodiment of the present invention has been described.
Next, a determination device 200 according to the second embodiment of the present invention will be described with reference to FIG. FIG. 9 is an explanatory diagram for explaining a configuration of a determination device according to the second embodiment of the present invention.

図9に示す本実施形態に係る判別装置200は、疵候補(判別対象)が、3以上の複数種類の疵種(集合)のいずれに属するのかを、その疵候補の特徴情報に基づいて判別する。なお、本実施形態に係る判別装置200は、図1に示す表面疵検査装置1の判別装置14に相当する。   The discriminating apparatus 200 according to the present embodiment shown in FIG. 9 discriminates which of the three or more types of cocoon types (sets) the cocoon candidate (discrimination target) belongs to based on the feature information of the cocoon candidate. To do. Note that the discrimination device 200 according to the present embodiment corresponds to the discrimination device 14 of the surface flaw inspection apparatus 1 shown in FIG.

この判別装置200も、上記第1実施形態に係る判別装置100と同様のSVMの判別関数を使用して、疵種の判別を行う。上述のようにSVMの判別関数は、二種類の集合(クラス)の判別を判別結果情報の符合で表す。よって、判別装置200は、N種類のクラス(N>2)の判別を行う場合、個の判別関数を使用する。つまり、判別装置200は、N種類のクラス中の2種類のクラスの判別を行う判別関数を、クラスの組み合わせの個数(判別境界の個数)だけ使用する。そして、判別装置200は、多数決により、どのクラスに属するかの判別を行う。つまり、判別装置200は、未知判別対象の未知特徴情報xを、複数の判別関数に代入し、判別結果情報yが最も多く示したクラスに未知判別対象が属すると判別する。ここでは、1又は2以上の判別関数が1のクラスを示した場合、そのクラスを示した判別関数の個数を、そのクラスが獲得した「票」ともいう。そして、複数のクラスをX1、X2、X3、…とした場合、各クラスの得票数をn1、n2、n3、…とする。つまり、判別装置200は、「未知判別対象xは得票数nkが最も多いクラスXkに属する(k=1〜N)」と判別する。なお、1つのクラスは、N−1個の判別関数により判別されるので、1つのクラスの最大得票数は、N−1となる。 The discriminating apparatus 200 also discriminates species by using the SVM discriminant function similar to that of the discriminating apparatus 100 according to the first embodiment. As described above, the discrimination function of the SVM represents discrimination of two types of sets (classes) by the sign of discrimination result information. Therefore, the discriminating apparatus 200 uses N C two discriminant functions when discriminating N types of classes (N> 2). That is, the discriminating apparatus 200 uses a discriminant function for discriminating two types of classes out of N types of classes by the number of combinations of classes (the number of discriminant boundaries). Then, the determination device 200 determines which class it belongs to by majority vote. That is, the discriminating apparatus 200 substitutes the unknown feature information x of the unknown discrimination target into a plurality of discriminant functions, and discriminates that the unknown discrimination target belongs to the class indicated most by the discrimination result information y. Here, when one or two or more discriminant functions indicate one class, the number of discriminant functions indicating the class is also referred to as “votes” acquired by the class. When the plurality of classes are X1, X2, X3,..., The number of votes obtained for each class is n1, n2, n3,. That is, the determination device 200 determines that “the unknown determination target x belongs to the class Xk with the largest number of votes nk (k = 1 to N)”. Since one class is discriminated by N-1 discriminant functions, the maximum number of votes obtained for one class is N-1.

このように判別装置200は、上記第1実施形態に係る判別装置100における二クラスの判別を複数回行うことにより、3以上のクラスの判別を行う。よって、判別装置200は、第1実施形態に係る判別装置100と共通する構成及び動作が多いので、以下では、第1実施形態に係る判別装置100との相違点を中心に説明する。   As described above, the determination device 200 determines three or more classes by performing two-class determination in the determination device 100 according to the first embodiment a plurality of times. Therefore, since the determination device 200 has many configurations and operations that are common to the determination device 100 according to the first embodiment, the following description will focus on differences from the determination device 100 according to the first embodiment.

図9に示すように、判別装置200は、第1実施形態に係る判別装置100が有する判別関数修正部120と判別部130に代えて、判別関数修正部220と判別部230とを有する。なお、判別装置200が有する判別関数作成部110は、第1実施形態に係る判別装置100と同様の構成により、複数の判別関数を算出する。   As illustrated in FIG. 9, the determination device 200 includes a determination function correction unit 220 and a determination unit 230 instead of the determination function correction unit 120 and the determination unit 130 included in the determination device 100 according to the first embodiment. Note that the discriminant function creating unit 110 included in the discriminating apparatus 200 calculates a plurality of discriminant functions with the same configuration as that of the discriminating apparatus 100 according to the first embodiment.

判別部230は、判別部の一例であって、上述の通り、複数の判別関数を使用して、未知判別対象の未知特徴情報を、これらの判別関数に代入する。そして、判別部230は、各クラスXkの得票数を計算する。そして、判別部230は、得票数nkの最も多いクラスXkを判定結果として出力する。なお、判別部230の他の動作は、上記第1実施形態に係る判別部130と同様である。   The discriminating unit 230 is an example of a discriminating unit, and substitutes unknown feature information of an unknown discrimination target into these discriminant functions using a plurality of discriminant functions as described above. Then, the determination unit 230 calculates the number of votes for each class Xk. Then, the determination unit 230 outputs the class Xk having the largest number of votes nk as the determination result. Other operations of the determination unit 230 are the same as those of the determination unit 130 according to the first embodiment.

判別関数修正部220は、第1実施形態に係る判別関数修正部120が有する構成に加えて、更に、得票数確認部226と、判別関数選択部227とを有する。なお、この判別関数修正部220が1の判別関数に対して行う判別関数の修正は、上記第1実施形態に係る判別関数修正部120が行う判別関数の修正と同様である。しかし、判別部230が正しい判別結果を導くように判別関数を修正するために全ての判別関数を修正することは、必ずしも必要ではなく、1又は2以上の判別関数を選択して、その判別関数を修正すればよい場合がある。この修正する判別関数を選択するために、判別関数修正部220は、上記得票数確認部226と、判別関数選択部227とを有する。以下では、この修正する判別関数の選択動作を中心に各構成及び動作を説明する。   The discriminant function correcting unit 220 further includes a vote number checking unit 226 and a discriminant function selecting unit 227 in addition to the configuration of the discriminant function correcting unit 120 according to the first embodiment. The discriminant function correction performed by the discriminant function correcting unit 220 on one discriminant function is the same as the discriminant function correction performed by the discriminant function correcting unit 120 according to the first embodiment. However, it is not always necessary to correct all the discriminant functions so that the discriminator 230 corrects the discriminant functions so as to derive a correct discriminant result. One or more discriminant functions are selected and the discriminant function is selected. May be corrected. In order to select the discriminant function to be corrected, the discriminant function correcting unit 220 includes the vote number checking unit 226 and the discriminant function selecting unit 227. Hereinafter, each configuration and operation will be described focusing on the selection operation of the discriminant function to be corrected.

なお、作成時の修正(重要学習データに対する修正)では、作成時に判別関数確認部122が全ての判別関数を1つ1つ確認すれば、誤った判別を行った判別関数をその都度修正して全ての判別関数を修正することは、容易である。しかしながら、作成後の修正(誤りデータに対する修正)では、判別関数は既に作成されており、かつ、1つ1つの判別関数を確認して全ての判別関数を修正するには、メンテナンスコスト及び時間が必要である。よって、判別関数を選択して修正することは、特に、作成後の修正において、効力を発揮する。よって、以下では、この作成後の修正を例に挙げて、判別関数の選択動作を説明する。ただし、作成時の修正における判別関数の選択動作も、下記で説明する作成後の修正の場合と同様に実施することができ、かつ、判別規則の構築時のコスト及び時間を節約できることは言うまでもない。   In the correction at the time of creation (correction for important learning data), if the discriminant function confirmation unit 122 confirms all the discriminant functions one by one at the time of creation, the discriminant function that performed the wrong discrimination is corrected each time. It is easy to modify all discriminant functions. However, in the correction after correction (correction for error data), the discriminant function has already been created, and it takes maintenance cost and time to check every discriminant function and correct all discriminant functions. is necessary. Therefore, selecting and correcting the discriminant function is particularly effective in correction after creation. Therefore, in the following, the discriminant function selection operation will be described using the modification after the creation as an example. However, it goes without saying that the selection function of the discriminant function in the correction at the time of creation can be performed in the same manner as in the case of the correction after creation described below, and the cost and time at the time of construction of the discrimination rule can be saved. .

得票数確認部226は、誤りデータ入力部125から誤りデータを取得する。この誤りデータの取得をトリガーとして、得票数確認部226は、判別部230から各クラスXkの得票数nkを取得する。そして、得票数確認部226は、誤りデータの教師判別結果情報が表す正しいクラスXt(t=1〜N)が判別されるために、何個の判別関数を修正する必要があるのか、つまり得票数ntを何個増やせば誤りデータが正しいクラスXtに判別されるのかを確認する。   The vote count confirmation unit 226 acquires error data from the error data input unit 125. Using the acquisition of the error data as a trigger, the vote number confirmation unit 226 obtains the vote number nk of each class Xk from the determination unit 230. Then, the vote number confirmation unit 226 determines how many discriminant functions need to be corrected in order to discriminate the correct class Xt (t = 1 to N) indicated by the teacher discrimination result information of the error data, that is, the vote It is confirmed how many times nt is increased to determine whether the error data is the correct class Xt.

この得票数確認部226による得票数nkの確認では、最大得票モードと最小得票モードとが存在する。最大得票モードは、クラスXtが最大の得票数ntで選出されるように、判別関数を調整するモードであり、最小得票モードは、クラスXtが最小の得票数ntで選出されるように、判別関数を調整するモードである。   In the confirmation of the number of votes nk by the vote number confirmation unit 226, there are a maximum vote mode and a minimum vote mode. The maximum vote mode is a mode for adjusting the discrimination function so that the class Xt is selected with the maximum number of votes nt, and the minimum vote mode is determined so that the class Xt is selected with the minimum number of votes nt. This mode adjusts the function.

最大得票モードでは、正しいクラスXtと、他のクラスXo(o=1〜N,o≠t)とを判別する判別関数を全て修正数することにより、クラスXtが最大得票数N−1で選出される。よって、得票数確認部226は、修正する必要のある判別関数の個数ΔnをN−1に設定する。   In the maximum vote mode, class Xt is selected with the maximum number of votes N-1 by correcting all the discriminant functions for discriminating between correct class Xt and other classes Xo (o = 1 to N, o ≠ t). Is done. Therefore, the vote count checking unit 226 sets the number of discriminant functions Δn that needs to be corrected to N−1.

一方、最小得票モードでは、まず、得票数確認部226は、各クラスXkの得票数nkを確認し、正しいクラスXtの得票数ntよりも多い得票数noを得ているクラスXoを特定する(nt<no)。そして、得票数確認部226は、必要のある判別関数の個数Δnを1に設定する。つまり、この最小得票モードでは、正しいクラスXtの得票数ntが、他のクラスの得票数noよりも大きくなるまでΔnを1に設定し、必要投票数に達してnt>noとなったらΔnを0に設定する。   On the other hand, in the minimum vote mode, first, the vote number confirmation unit 226 confirms the number nk of votes nk of each class Xk, and identifies the class Xo that obtains the number of votes no greater than the number of votes nt of the correct class Xt ( nt <no). Then, the vote number confirmation unit 226 sets the number of necessary discriminant functions Δn to 1. That is, in this minimum vote mode, Δn is set to 1 until the vote number nt of the correct class Xt becomes larger than the vote number no of other classes, and Δn is set when the required vote number is reached and nt> no. Set to 0.

なお、作成時の修正では、得票数確認部226は、誤りデータの変わりに、判別関数確認部122による確認結果が誤っていた場合に動作を開始する。そして、得票数確認部226は、判別関数確認部122が判別関数を確認した際に算出された判別結果情報を累積して得票数nkを算出する。また、得票数確認部226は、判別関数確認部122から取得した学習用判別結果情報から、正しいクラスXkを特定する。   In the correction at the time of creation, the vote number confirmation unit 226 starts the operation when the confirmation result by the discrimination function confirmation unit 122 is incorrect instead of the error data. Then, the vote count confirmation unit 226 calculates the vote count nk by accumulating the discrimination result information calculated when the discrimination function confirmation unit 122 confirms the discrimination function. In addition, the vote count confirmation unit 226 identifies the correct class Xk from the learning discrimination result information acquired from the discrimination function confirmation unit 122.

判別関数選択部227は、得票数確認部226から、修正すべき判別関数の個数Δn及び正しいクラスXkを取得する。判別関数選択部227は、更に、判別部230から、クラスXkを判別先のクラスとしているN−1個の判別関数及びその判別関数の判別結果情報yを取得する。そして、判別関数選択部227は、取得した判別関数に、その判別結果情報yの絶対値の小さい順に順位を付ける(ソート)。更に、判別関数選択部227は、個数Δnだけの判別関数を、係数算出部123に出力して、係数算出部123及び判別関数調整部124に判別関数を修正させる。この際、判別関数選択部227は、順位が小さい順に判別関数を出力する。つまり、判別関数選択部227は、上位の判別関数を出力する。また、判別関数選択部227は、1の修正においては、一端出力した判別関数以外の判別関数を出力する。つまり、既に修正した判別関数は出力しない。   The discriminant function selection unit 227 obtains the number of discriminant functions Δn to be corrected and the correct class Xk from the vote count confirmation unit 226. The discriminant function selection unit 227 further acquires, from the discriminator 230, N−1 discriminant functions whose class Xk is the class to be discriminated and the discrimination result information y of the discriminant function. Then, the discriminant function selection unit 227 ranks (sorts) the acquired discriminant functions in ascending order of the absolute value of the discrimination result information y. Further, the discriminant function selection unit 227 outputs as many discriminant functions as the number Δn to the coefficient calculator 123, and causes the coefficient calculator 123 and the discriminant function adjuster 124 to correct the discriminant function. At this time, the discriminant function selection unit 227 outputs the discriminant functions in ascending order. That is, the discriminant function selection unit 227 outputs the upper discriminant function. In addition, the discriminant function selection unit 227 outputs a discriminant function other than the discriminant function output once in the correction of one. That is, the already corrected discriminant function is not output.

よって、最大得票モードでは、クラスXkを判別先のクラスとしているN−1個の判別関数の修正が行われる。一方、最小得票モードでは、正しいクラスXtが選出されるまで、判別結果情報yの絶対値が小さい順に判別関数の修正が行われる。   Therefore, in the maximum vote mode, N-1 discriminant functions whose class Xk is the class to be discriminated are corrected. On the other hand, in the minimum vote mode, the discrimination function is corrected in ascending order of the absolute value of the discrimination result information y until the correct class Xt is selected.

なお、作成時の修正では、判別関数選択部227は、判別関数確認部122から、クラスXkを判別先のクラスとしているN−1個の判別関数及びその判別関数の判別結果情報yを取得する。   In the modification at the time of creation, the discriminant function selection unit 227 acquires, from the discriminant function confirmation unit 122, N-1 discriminant functions having the class Xk as a class to be discriminated and the discriminant result information y of the discriminant function. .

上記最小得票モードにおける判別関数の修正動作について、図10を参照して説明する。
図10は、本発明の第2実施形態に係る判別装置の動作について説明するための説明図である。
The discriminant function correcting operation in the minimum vote mode will be described with reference to FIG.
FIG. 10 is an explanatory diagram for explaining the operation of the determination device according to the second embodiment of the present invention.

この最小得票モードにおいて、誤りデータ入力部125から誤りデータなどを取得した得票数確認部226は、修正する必要がある判別関数の個数Δnを1に設定する。すると、ステップS501が処理され、判別関数選択部227が、正しいクラスXtの判別を行っているN−1個の判別関数を取得して、その判別関数を、判別結果情報yの絶対値の小さい順にソートする。そして、ステップS503に進む。   In this minimum vote mode, the vote number confirmation unit 226 that has acquired error data or the like from the error data input unit 125 sets the number Δn of discriminant functions that need to be corrected to 1. Then, step S501 is processed, and the discriminant function selection unit 227 obtains N−1 discriminant functions that are discriminating the correct class Xt, and the discriminant function is obtained with a small absolute value of the discriminant result information y. Sort in order. Then, the process proceeds to step S503.

ステップS503では、判別関数選択部227が、未修正で、かつ、上位の判別関数を1つ係数算出部123に出力して、その判別関数を係数算出部123及び判別関数調整部124に修正させる。このステップS503の処理後は、ステップS505に進む。   In step S503, the discriminant function selection unit 227 outputs one uncorrected and higher-order discriminant function to the coefficient calculator 123, and causes the coefficient calculator 123 and the discriminant function adjuster 124 to correct the discriminant function. . After the process of step S503, the process proceeds to step S505.

ステップS505では、判別部230が、修正された判別関数を使用して各クラスXiの得票数niを算出する。そして、得票数確認部226が、正しいクラスXtの得票数ntが、そのクラスXtが選出されるのに十分な得票数(必要得票数)に達しているか否かを確認する。つまり、nt>noとなっているか否かが確認される。そして、必要得票数に達していない場合には、ステップS503を繰り返し処理し、必要得票数に達している場合には、動作を終了する。   In step S505, the determination unit 230 calculates the number of votes ni for each class Xi using the corrected determination function. Then, the vote number confirmation unit 226 confirms whether or not the number nt of the correct class Xt has reached a sufficient number of votes (necessary number of votes) for selecting the class Xt. That is, it is confirmed whether or not nt> no. If the required number of votes has not been reached, step S503 is repeated, and if the required number of votes has been reached, the operation is terminated.

このような動作により、最小得票モードでは、修正する判別関数の個数を最小限に抑えることができる。よって、判別関数の修正に要する時間及びコストを削減することができる。一方、判別関数が算出する判別結果情報yの絶対値が小さいことは、判別境界B12に近いことを意味する。よって、yの絶対値が小さい判別関数から修正することにより、判別の確からしさが低い判別関数を修正することができる。つまり、最小得票モードでは、判別関数の修正による影響を最小限に抑えることができる。   By such an operation, in the minimum vote mode, the number of discriminant functions to be corrected can be minimized. Therefore, the time and cost required for correcting the discriminant function can be reduced. On the other hand, a small absolute value of the discrimination result information y calculated by the discrimination function means that it is close to the discrimination boundary B12. Therefore, by correcting from a discriminant function having a small absolute value of y, it is possible to correct a discriminant function having a low probability of discrimination. That is, in the minimum vote mode, it is possible to minimize the influence due to the correction of the discriminant function.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されないことは言うまでもない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described in detail, referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記各実施形態で説明した一連の処理は、専用のハードウエアにより実行させてもよいが、ソフトウエアにより実行させてもよい。一連の処理をソフトウエアにより行う場合、図11に示すような汎用又は専用のコンピュータにプログラムを実行させることにより、上記の一連の処理を実現することができる。   For example, the series of processes described in the above embodiments may be executed by dedicated hardware, but may be executed by software. When the series of processes is performed by software, the above series of processes can be realized by causing a general-purpose or dedicated computer as shown in FIG. 11 to execute the program.

図11は、プログラムを実行することにより一連の処理を実現するコンピュータの構成例を説明するための説明図である。一連の処理を行うプログラムのコンピュータによる実行について説明すれば、以下のようになる。   FIG. 11 is an explanatory diagram for explaining a configuration example of a computer that realizes a series of processes by executing a program. The execution of a program for performing a series of processes by a computer will be described as follows.

図11に示すように、コンピュータは、例えば、バス301及び入出力インターフェイス306等を介して接続された、CPU(Central Processing Unit)302と、HDD(Hard Disk Drive)303・ROM(Read Only Memory)304・RAM(Random Access Memory)305等の記録装置と、LAN(Local Area Network)・インターネット等のネットワーク308に接続された通信装置307と、マウス・キーボード(図示せず)等の入力装置309と、フレキシブルディスク、各種のCD(Compact Disc)・MO(Magneto Optical)ディスク・DVD(Digital Versatile Disc)等の光ディスク、磁気ディスク、半導体メモリ等のリムーバブル記録媒体311等を読み書きするドライブ310と、モニタなどの表示装置16・スピーカやヘッドホンなどの音声出力装置312などの出力装置等を有する。   As shown in FIG. 11, for example, the computer includes a central processing unit (CPU) 302, a hard disk drive (HDD) 303, and a read only memory (ROM) connected via a bus 301 and an input / output interface 306 and the like. 304, a recording device such as a RAM (Random Access Memory) 305, a communication device 307 connected to a network 308 such as a LAN (Local Area Network) or the Internet, and an input device 309 such as a mouse / keyboard (not shown) , Flexible disk, various optical discs such as CD (Compact Disc), MO (Magneto Optical) disc, DVD (Digital Versatile Disc), etc., a drive 310 for reading / writing from / to a removable recording medium 311 such as a magnetic disc or a semiconductor memory, a monitor, etc. Display device 16-Audio output device such as speakers and headphones An output device such as such as 12.

そして、CPU302が、記録装置に記録されたプログラム、ネットワーク308を介して受信したプログラム、またはリムーバブル記録媒体311から読み出したプログラム等に従って、各種の処理を実行することにより、上記の一連の処理が、実現される。この際、CPU302は、必要に応じて入力装置309から入力する情報や信号に基づいて各種の処理を行ってもよい。そして、この処理結果は、必要に応じて上記の記録装置やリムーバブル記録媒体311等に記録されてもよく、出力装置に出力されてもよく、ネットワーク308に送信されてもよい。   The CPU 302 executes various processes in accordance with a program recorded in the recording device, a program received via the network 308, a program read from the removable recording medium 311, etc. Realized. At this time, the CPU 302 may perform various processes based on information and signals input from the input device 309 as necessary. Then, the processing result may be recorded on the recording device, the removable recording medium 311 or the like as necessary, may be output to the output device, or may be transmitted to the network 308.

尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。   In this specification, the steps described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the described order. Including processing to be performed. Further, it goes without saying that the order can be appropriately changed even in the steps processed in time series.

本発明の各実施形態に係る判別装置が適用された一例である表面疵検査装置の構成の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of a structure of the surface flaw inspection apparatus which is an example to which the discrimination | determination apparatus concerning each embodiment of this invention was applied. 本発明の各実施形態に係る判別装置が適用された一例である表面疵検査装置の動作の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of operation | movement of the surface flaw inspection apparatus which is an example to which the discrimination | determination apparatus concerning each embodiment of this invention was applied. 本発明の第1実施形態に係る判別装置の構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the discrimination | determination apparatus concerning 1st Embodiment of this invention. 本発明の各実施形態に係る判別装置が判別する判別対象を特徴量空間上の点として表した一例を説明するための説明図である。It is explanatory drawing for demonstrating an example which represented the discrimination | determination object which the discrimination | determination apparatus concerning each embodiment of this invention discriminate | determines as a point on feature-value space. 本発明の第1実施形態に係る判別装置による判別関数の作成動作及び作成時の修正動作について説明するための説明図である。It is explanatory drawing for demonstrating the production | generation operation | movement of the discriminant function by the discriminating device which concerns on 1st Embodiment of this invention, and the correction operation at the time of creation. 本発明の第1実施形態に係る判別装置による判別動作について説明するための説明図である。It is explanatory drawing for demonstrating the discrimination | determination operation | movement by the discrimination device which concerns on 1st Embodiment of this invention. 本発明の各実施形態に係る判別装置による判別関数の修正動作について説明するための説明図である。It is explanatory drawing for demonstrating correction operation | movement of the discriminant function by the discriminating apparatus which concerns on each embodiment of this invention. 本発明の各実施形態に係る判別装置による判別関数の修正動作について説明するための説明図である。It is explanatory drawing for demonstrating correction operation | movement of the discriminant function by the discriminating apparatus which concerns on each embodiment of this invention. 本発明の第1実施形態に係る判別装置による判別関数の作成後の修正動作について説明するための説明図である。It is explanatory drawing for demonstrating correction operation | movement after preparation of the discriminant function by the discriminating apparatus which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る判別装置の構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the discrimination | determination apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係る判別装置の動作について説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of the discrimination | determination apparatus which concerns on 2nd Embodiment of this invention. プログラムを実行することにより一連の処理を実現するコンピュータの構成例を説明するための説明図である。And FIG. 14 is an explanatory diagram for explaining a configuration example of a computer that realizes a series of processes by executing a program.

符号の説明Explanation of symbols

1 表面疵検査装置
11 光源装置
12 撮像装置
13 画像処理装置
14,100,200 判別装置
15 判別結果記憶装置
16 表示装置
17 制御装置
110 判別関数作成部
111 学習データ記憶部
112 判別関数算出部
120,220 判別関数修正部
121 重要学習データ選択部
122 判別関数確認部
123 係数算出部
124 判別関数調整部
125 誤りデータ入力部
130,230 判別部
226得票数確認部
227 判別関数選択部
301 バス
302 CPU
303 HDD
304 ROM
305 RAM
306 入出力インターフェイス
307 通信装置
308 ネットワーク
309 入力装置
310 ドライブ
311 リムーバブル記録媒体
312 音声出力装置
F 鋼板
R ロール
T 表面の領域
DESCRIPTION OF SYMBOLS 1 Surface wrinkle inspection apparatus 11 Light source apparatus 12 Imaging apparatus 13 Image processing apparatus 14,100,200 Discriminating apparatus 15 Discrimination result storage apparatus 16 Display apparatus 17 Control apparatus 110 Discriminant function creation part 111 Learning data storage part 112 Discriminant function calculation part 120, 220 Discriminant Function Correction Unit 121 Important Learning Data Selection Unit 122 Discrimination Function Confirmation Unit 123 Coefficient Calculation Unit 124 Discrimination Function Adjustment Unit 125 Error Data Input Unit 130, 230 Discrimination Unit 226 Number of Votes Confirmation Unit 227 Discrimination Function Selection Unit 301 Bus 302 CPU
303 HDD
304 ROM
305 RAM
306 Input / output interface 307 Communication device 308 Network 309 Input device 310 Drive 311 Removable recording medium 312 Audio output device F Steel plate R Roll T Surface area

Claims (13)

判別対象が複数種類の集合のいずれに属するのかを該判別対象を特徴付ける特徴量で構成される特徴情報を入力データとする判別関数を用い、その判別関数の出力値である結果に基づいて判別する判別装置であって、
判別結果が既知の複数の学習用特徴情報と該学習用特徴情報それぞれに対応付けられた判別結果を表す学習用判別結果情報とに基づいて、学習用特徴情報それぞれを特徴情報による空間上の点として表し、仮想的に規定する写像関数により前記空間上の点を写像した際に写像先の空間上において前記点を判別結果別に線形分離する判別面と、当該判別面までの距離が最短の前記点との距離が最大になるように、サポート・ベクター・マシン法を用いて前記判別面を算出して前記判別関数を導出する判別関数算出部と、
既知の判別結果を有する特徴情報であって、前記判別関数に該特徴情報を入力した結果である判別結果情報と該特徴情報の既知の判別結果とが異なる誤判別特徴情報について、前記判別結果情報と前記既知の判別結果とが一致するように、前記誤判別特徴情報が前記判別関数に対して与える影響度合を表した影響係数を調整し、前記判別関数を修正する判別関数修正部と、
判別結果が未知の判別対象を、該判別対象の特徴情報を入力データとして前記修正された前記判別関数を用いて判別する判別部と、
を有することを特徴とする、判別装置。
Using a discriminant function that uses feature information composed of feature quantities that characterize the discriminant as input data, it is discriminated based on the result that is the output value of the discriminant function. A discrimination device,
Based on a plurality of learning feature information whose discrimination results are known and learning discrimination result information representing the discrimination results associated with each of the learning feature information, each of the learning feature information is represented by a point in the space based on the feature information. When a point in the space is mapped by a virtually defined mapping function, the determination surface that linearly separates the point according to the determination result in the mapping destination space, and the distance to the determination surface is the shortest A discriminant function calculator for calculating the discriminant surface using a support vector machine method and deriving the discriminant function so that the distance to the point is maximized;
Discrimination result information for feature information having a known discrimination result, wherein the discrimination result information is a result of inputting the feature information to the discrimination function and the known discrimination result of the feature information is different. And a discriminant function correcting unit that corrects the discriminant function by adjusting an influence coefficient representing the degree of influence of the misclassified feature information on the discriminant function so that the known discriminant result matches
A discrimination unit that discriminates a discrimination target whose discrimination result is unknown using the corrected discrimination function using the feature information of the discrimination target as input data;
A discrimination apparatus characterized by comprising:
前記判別関数は、前記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの前記影響係数を掛けて加え合わせた総和であり、
前記判別関数修正部は、該判別関数の判別結果について前記学習用特徴情報のいずれかが誤判別特徴情報となる場合、前記判別結果の判別結果が正解となるように所定の処理で該誤判別特徴情報の影響係数の大きさを調整することにより、前記判別関数を修正することを特徴とする、請求項1に記載の判別装置。
The discriminant function is a sum obtained by multiplying the kernel function value of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and multiplying each of the influence coefficients,
The discriminant function correcting unit performs the discriminant in a predetermined process so that the discriminant result of the discriminant is correct when any of the learning feature information is mis-discriminated feature information. The discriminating apparatus according to claim 1, wherein the discriminant function is modified by adjusting a magnitude of an influence coefficient of feature information.
前記判別関数は、前記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの前記影響係数を掛けて加え合わせた総和であり、
前記判別関数修正部は、前記学習用特徴情報の1又は2以上により形成された前記判別関数に、前記判別部が誤判別した誤判別特徴情報を新たに追加し、かつ、当該誤判別特徴情報の影響係数の大きさを調整して、前記判別結果の判別結果が正解となるように所定の処理で前記判別関数を修正することを特徴とする、請求項1又は2に記載の判別装置。
The discriminant function is a sum obtained by multiplying the kernel function value of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and multiplying each of the influence coefficients,
The discriminant function correcting unit newly adds misdiscrimination feature information erroneously discriminated by the discriminator to the discriminant function formed by one or more of the learning feature information, and the misclassification feature information. The discriminating apparatus according to claim 1, wherein the discriminant function is corrected by a predetermined process so that the discriminant result of the discriminant result is correct by adjusting the magnitude of the influence coefficient of the discriminant.
前記判別関数算出部は、前記複数種類の集合における2つの集合の組み合わせ毎に前記判別面を算出して、当該判別面のそれぞれを判別関数とし、
前記判別部は、前記判別結果が未知の判別対象を、前記判別関数のそれぞれに基づいて前記2つの集合毎に判別した結果、最も多くの前記判別関数により判別された集合に属すると判別することを特徴とする、請求項1〜3のいずれかに記載の判別装置。
The discriminant function calculating unit calculates the discriminant surface for each combination of two sets in the plurality of types of sets, and each of the discriminant surfaces is used as a discriminant function,
The discriminating unit discriminates that a discriminant whose discrimination result is unknown belongs to a set discriminated by the most discriminant functions as a result of discriminating each discriminant for each of the two sets based on the discriminant functions. The discrimination device according to claim 1, wherein
前記判別関数修正部は、少なくとも前記誤判別特徴情報の既知の判別結果と前記判別部による判別結果とが一致するまで、前記判別関数のそれぞれを修正することを特徴とする、請求項4に記載の判別装置。   5. The discriminant function correcting unit corrects each of the discriminant functions until at least a known discrimination result of the misclassification feature information matches a discrimination result by the discriminator. Discriminating device. 前記判別対象は、製品を製造する製造プラントにおいて製造させる前記製品に発生した不良状態であり、
前記特徴情報は、前記不良状態を検査した結果得られる1又は2以上の測定値を含むことを特徴とする、請求項1〜5のいずれかに記載の判別装置。
The determination target is a defective state generated in the product to be manufactured in a manufacturing plant that manufactures the product,
6. The determination apparatus according to claim 1, wherein the feature information includes one or more measurement values obtained as a result of inspecting the defective state.
判別対象が複数種類の集合のいずれに属するのかを該判別対象を特徴付ける特徴量で構成される特徴情報を入力データとする判別関数を用い、その判別関数の出力値である結果に基づいて判別する判別方法であって、
判別結果が既知の複数の学習用特徴情報と該学習用特徴情報それぞれに対応付けられた判別結果を表す学習用判別結果情報とに基づいて、学習用特徴情報それぞれを特徴情報による空間上の点として表し、仮想的に規定する写像関数により前記空間上の点を写像した際に写像先の空間上において前記点を判別結果別に線形分離する判別面と、当該判別面までの距離が最短の前記点との距離が最大になるように、サポート・ベクター・マシン法を用いて前記判別面を算出して前記判別関数を導出する判別関数算出ステップと、
既知の判別結果を有する特徴情報であって、前記判別関数に該特徴情報を入力した結果である判別結果情報と該特徴情報の既知の判別結果とが異なる誤判別特徴情報について、前記判別結果情報と前記既知の判別結果とが一致するように、前記誤判別特徴情報が前記判別関数に対して与える影響度合を表した影響係数を調整し、前記判別関数を修正する判別関数修正ステップと、
判別結果が未知の判別対象を、該判別対象の特徴情報を入力データとして前記修正された前記判別関数を用いて判別する判別ステップと、
を有することを特徴とする、判別方法。
Using a discriminant function that uses feature information composed of feature quantities that characterize the discriminant as input data, it is discriminated based on the result that is the output value of the discriminant function. A discrimination method,
Based on a plurality of learning feature information whose discrimination results are known and learning discrimination result information representing the discrimination results associated with each of the learning feature information, each of the learning feature information is represented by a point in the space based on the feature information. When a point in the space is mapped by a virtually defined mapping function, the determination surface that linearly separates the point according to the determination result in the mapping destination space, and the distance to the determination surface is the shortest A discriminant function calculating step for deriving the discriminant function by calculating the discriminant surface using a support vector machine method so that the distance to the point is maximized;
Discrimination result information for feature information having a known discrimination result, wherein the discrimination result information is a result of inputting the feature information to the discrimination function and the known discrimination result of the feature information is different. And a discriminant function correcting step for correcting the discriminant function by adjusting an influence coefficient representing the degree of influence of the misclassified feature information on the discriminant function so that the known discriminant result and the known discriminant result match.
A discrimination step of discriminating a discrimination target whose discrimination result is unknown using the corrected discrimination function using the feature information of the discrimination target as input data;
A discrimination method characterized by comprising:
前記判別関数は、前記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの前記影響係数を掛けて加え合わせた総和であり、
前記判別関数修正ステップでは、該判別関数の判別結果について前記学習用特徴情報のいずれかが誤判別特徴情報となる場合、前記判別結果の判別結果が正解となるように所定の処理で該誤判別特徴情報の影響係数の大きさを調整することにより、前記判別関数を修正することを特徴とする、請求項7に記載の判別方法。
The discriminant function is a sum obtained by adding each of the influence coefficients to the kernel function value of the support vector machine method using each of the learning feature information and the feature information to be discriminated as input data,
In the discriminant function correcting step, if any of the learning feature information is misidentified feature information with respect to the discriminant result of the discriminant function, the misclassification is performed in a predetermined process so that the discriminant result of the discriminant result is correct. 8. The discrimination method according to claim 7, wherein the discriminant function is modified by adjusting a magnitude of an influence coefficient of feature information.
前記判別関数は、前記学習用特徴情報それぞれと判別対象の特徴情報とを入力データとするサポート・ベクター・マシン法のカーネル関数値に、それぞれの前記影響係数を掛けて加え合わせた総和であり、
前記判別関数修正ステップでは、前記学習用特徴情報の1又は2以上により形成された前記判別関数に、前記判別部が誤判別した誤判別特徴情報を新たに追加し、かつ、当該誤判別特徴情報の影響係数の大きさを調整して、前記判別結果の判別結果が正解となるように所定の処理で前記判別関数を修正することを特徴とする、請求項7又は8に記載の判別方法。
The discriminant function is a sum obtained by multiplying the kernel function value of the support vector machine method using each of the learning feature information and the discriminating target feature information as input data and multiplying each of the influence coefficients,
In the discriminant function correcting step, the discriminant feature information misidentified by the discriminator is newly added to the discriminant function formed by one or more of the learning feature information, and the misclassified feature information 9. The discrimination method according to claim 7, wherein the discriminant function is corrected by a predetermined process such that the influence coefficient of the discrepancy is adjusted and the discrimination result of the discrimination result becomes a correct answer.
前記判別関数算出ステップでは、前記複数種類の集合における2つの集合の組み合わせ毎に前記判別面を算出して、当該判別面のそれぞれを判別関数とし、
前記判別ステップでは、前記判別結果が未知の判別対象を、前記判別関数のそれぞれに基づいて前記2つの集合毎に判別した結果、最も多くの前記判別関数により判別された集合に属すると判別することを特徴とする、請求項7〜9のいずれかに記載の判別装置。
In the discriminant function calculating step, the discriminant surface is calculated for each combination of two sets in the plurality of types of sets, and each of the discriminant surfaces is used as a discriminant function,
In the discrimination step, the discrimination target whose discrimination result is unknown is discriminated for each of the two sets based on each of the discriminant functions, and as a result, is discriminated to belong to the set discriminated by the most discriminant functions. The discrimination device according to any one of claims 7 to 9, wherein
前記判別関数修正ステップでは、少なくとも前記誤判別特徴情報の既知の判別結果と前記判別ステップにおける判別結果とが一致するまで、前記判別関数のそれぞれを修正することを特徴とする、請求項10に記載の判別装置。   11. The discriminant function correction step corrects each of the discriminant functions until at least a known discrimination result of the misclassification feature information matches a discrimination result in the discrimination step. Discriminating device. 前記判別対象は、製品を製造する製造プラントにおいて製造させる前記製品に発生した不良状態であり、
前記特徴情報は、前記不良状態を検査した結果得られる1又は2以上の測定値を含むことを特徴とする、請求項7〜11のいずれかに記載の判別方法。
The determination target is a defective state generated in the product to be manufactured in a manufacturing plant that manufactures the product,
The determination method according to claim 7, wherein the feature information includes one or more measurement values obtained as a result of inspecting the defect state.
コンピュータに、判別対象が複数種類の集合のいずれに属するのかを該判別対象を特徴付ける特徴量で構成される特徴情報を入力データとする判別関数を用い、その判別関数の出力値である結果に基づいて判別する判別手順を実行させるためのプログラムであって、
コンピュータに、
判別結果が既知の複数の学習用特徴情報と該学習用特徴情報それぞれに対応付けられた判別結果を表す学習用判別結果情報とに基づいて、学習用特徴情報それぞれを特徴情報による空間上の点として表し、仮想的に規定する写像関数により前記空間上の点を写像した際に写像先の空間上において前記点を判別結果別に線形分離する判別面と、当該判別面までの距離が最短の前記点との距離が最大になるように、サポート・ベクター・マシン法を用いて前記判別面を算出して前記判別関数を導出する判別関数算出手順と、
既知の判別結果を有する特徴情報であって、前記判別関数に該特徴情報を入力した結果である判別結果情報と該特徴情報の既知の判別結果とが異なる誤判別特徴情報について、前記判別結果情報と前記既知の判別結果とが一致するように、前記誤判別特徴情報が前記判別関数に対して与える影響度合を表した影響係数を調整し、前記判別関数を修正する判別関数修正手順と、
判別結果が未知の判別対象を、該判別対象の特徴情報を入力データとして前記修正された前記判別関数を用いて判別する判別手順と、
を実行させるためのプログラム。
Based on the result that is the output value of the discriminant function, using a discriminant function that uses as input data the feature information composed of the feature quantity that characterizes the discriminant object, to which of the multiple types of sets the discriminant object belongs to A program for executing a determination procedure for determining
On the computer,
Based on a plurality of learning feature information whose discrimination results are known and learning discrimination result information representing the discrimination results associated with each of the learning feature information, each of the learning feature information is represented by a point in the space based on the feature information. When a point in the space is mapped by a virtually defined mapping function, the determination surface that linearly separates the point according to the determination result in the mapping destination space, and the distance to the determination surface is the shortest A discriminant function calculation procedure for deriving the discriminant function by calculating the discriminant surface using a support vector machine method so that the distance from the point is maximized;
Discrimination result information for feature information having a known discrimination result, wherein the discrimination result information is a result of inputting the feature information to the discrimination function and the known discrimination result of the feature information is different. And a discriminant function correction procedure for correcting the discriminant function by adjusting an influence coefficient representing the degree of influence of the misdiscrimination feature information on the discriminant function so that the known discriminant result matches
A discrimination procedure for discriminating a discrimination target whose discrimination result is unknown using the corrected discrimination function with the feature information of the discrimination target as input data,
A program for running
JP2008024529A 2008-02-04 2008-02-04 Discrimination device, discrimination method, and program Active JP5298552B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008024529A JP5298552B2 (en) 2008-02-04 2008-02-04 Discrimination device, discrimination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008024529A JP5298552B2 (en) 2008-02-04 2008-02-04 Discrimination device, discrimination method, and program

Publications (2)

Publication Number Publication Date
JP2009186243A true JP2009186243A (en) 2009-08-20
JP5298552B2 JP5298552B2 (en) 2013-09-25

Family

ID=41069642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008024529A Active JP5298552B2 (en) 2008-02-04 2008-02-04 Discrimination device, discrimination method, and program

Country Status (1)

Country Link
JP (1) JP5298552B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011158711A1 (en) * 2010-06-14 2011-12-22 住友金属工業株式会社 Defect determination device
WO2012050108A1 (en) * 2010-10-14 2012-04-19 住友金属工業株式会社 Welding quality determination device
JP2016001450A (en) * 2014-06-12 2016-01-07 オムロン株式会社 Image recognition device and featured value data registration method to image recognition device
CN108956653A (en) * 2018-05-31 2018-12-07 广东正业科技股份有限公司 A kind of quality of welding spot detection method, system, device and readable storage medium storing program for executing
CN110360932A (en) * 2019-06-10 2019-10-22 上海交通大学 Part on-line checking and data processing platform (DPP) and method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08254501A (en) * 1995-03-16 1996-10-01 Hitachi Denshi Ltd Method and apparatus for visual inspection
JPH11344450A (en) * 1998-06-03 1999-12-14 Hitachi Ltd Instruction data forming method and defect classifying method and apparatus thereof
JP2002190025A (en) * 2000-12-22 2002-07-05 Fuji Xerox Co Ltd Method and device for pattern identification
JP2003344300A (en) * 2002-05-21 2003-12-03 Jfe Steel Kk Surface defect determination method
JP2004085503A (en) * 2002-08-29 2004-03-18 Dainippon Screen Mfg Co Ltd Classifying apparatus, yield control system, classifying method, substrate manufacturing method, and program
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
JP2006258535A (en) * 2005-03-16 2006-09-28 Omron Corp Inspection device and inspection method
JP2007114843A (en) * 2005-10-18 2007-05-10 Denso Corp Quality deciding device
JP2007327937A (en) * 2006-05-09 2007-12-20 Omron Corp Inspection device, inspection method, inspection program and computer readable recording medium with the same recorded thereon

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08254501A (en) * 1995-03-16 1996-10-01 Hitachi Denshi Ltd Method and apparatus for visual inspection
JPH11344450A (en) * 1998-06-03 1999-12-14 Hitachi Ltd Instruction data forming method and defect classifying method and apparatus thereof
JP2002190025A (en) * 2000-12-22 2002-07-05 Fuji Xerox Co Ltd Method and device for pattern identification
JP2004536367A (en) * 2001-01-23 2004-12-02 バイオウルフ テクノロジーズ エルエルスィー Computer-based image analysis
JP2003344300A (en) * 2002-05-21 2003-12-03 Jfe Steel Kk Surface defect determination method
JP2004085503A (en) * 2002-08-29 2004-03-18 Dainippon Screen Mfg Co Ltd Classifying apparatus, yield control system, classifying method, substrate manufacturing method, and program
JP2006258535A (en) * 2005-03-16 2006-09-28 Omron Corp Inspection device and inspection method
JP2007114843A (en) * 2005-10-18 2007-05-10 Denso Corp Quality deciding device
JP2007327937A (en) * 2006-05-09 2007-12-20 Omron Corp Inspection device, inspection method, inspection program and computer readable recording medium with the same recorded thereon

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011158711A1 (en) * 2010-06-14 2011-12-22 住友金属工業株式会社 Defect determination device
JP5505818B2 (en) * 2010-06-14 2014-05-28 新日鐵住金株式会社 Defect determination device
US8977580B2 (en) 2010-06-14 2015-03-10 Nippon Steel & Sumitomo Metal Corporation Defect classification apparatus
WO2012050108A1 (en) * 2010-10-14 2012-04-19 住友金属工業株式会社 Welding quality determination device
US20130248505A1 (en) * 2010-10-14 2013-09-26 Nippon Steel & Sumitomo Metal Corporation Welding quality classification apparatus
JP2016001450A (en) * 2014-06-12 2016-01-07 オムロン株式会社 Image recognition device and featured value data registration method to image recognition device
CN108956653A (en) * 2018-05-31 2018-12-07 广东正业科技股份有限公司 A kind of quality of welding spot detection method, system, device and readable storage medium storing program for executing
CN110360932A (en) * 2019-06-10 2019-10-22 上海交通大学 Part on-line checking and data processing platform (DPP) and method
CN110360932B (en) * 2019-06-10 2020-08-04 上海交通大学 Part online detection and data processing platform and method

Also Published As

Publication number Publication date
JP5298552B2 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
CN111052331B (en) System and method for identifying disturbances in detected defects and defects of interest
JP6573226B2 (en) DATA GENERATION DEVICE, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
US10043264B2 (en) Integration of automatic and manual defect classification
US9715723B2 (en) Optimization of unknown defect rejection for automatic defect classification
JP6781415B2 (en) Neural network learning device, method, program, and pattern recognition device
US10803575B2 (en) System, method and computer program product for generating a training set for a classifier
JP4376145B2 (en) Image classification learning processing system and image identification processing system
CN110648305B (en) Industrial image detection method, system and computer readable recording medium
JP5298552B2 (en) Discrimination device, discrimination method, and program
CN114092387B (en) Generating training data usable for inspection of semiconductor samples
US11321633B2 (en) Method of classifying defects in a specimen semiconductor examination and system thereof
JP2011014152A (en) Abnormal region detecting device and abnormal region detection method
JP5446127B2 (en) Discrimination method, discrimination device, and program
JP6988995B2 (en) Image generator, image generator and image generator
JP7150918B2 (en) Automatic selection of algorithm modules for specimen inspection
US11132790B2 (en) Wafer map identification method and computer-readable recording medium
KR102364865B1 (en) A method and apparatus for determining whether the product is defective or not
CN116091496B (en) Defect detection method and device based on improved Faster-RCNN
WO2021199227A1 (en) Error cause estimation device and estimation method
EP3696771A1 (en) System for processing an input instance, method, and medium
JP2007018176A (en) Learning device, learning method, learning program, recording medium, and device and method for pattern recognition
JP2020052474A (en) Sorter building method, image classification method, sorter building device, and image classification device
US20240071057A1 (en) Microscopy System and Method for Testing a Sensitivity of an Image Processing Model
JP6960356B2 (en) Teacher data creation support method and teacher data creation support device
CN113689067B (en) Image guarantee information evaluation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

R151 Written notification of patent or utility model registration

Ref document number: 5298552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350