JP2009276967A - Outlier detection method, outlier detector, and program - Google Patents

Outlier detection method, outlier detector, and program Download PDF

Info

Publication number
JP2009276967A
JP2009276967A JP2008126897A JP2008126897A JP2009276967A JP 2009276967 A JP2009276967 A JP 2009276967A JP 2008126897 A JP2008126897 A JP 2008126897A JP 2008126897 A JP2008126897 A JP 2008126897A JP 2009276967 A JP2009276967 A JP 2009276967A
Authority
JP
Japan
Prior art keywords
outlier
upper limit
data
sum
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008126897A
Other languages
Japanese (ja)
Other versions
JP5186278B2 (en
Inventor
Junya Nishiguchi
純也 西口
Osao Kaseda
長生 綛田
Hirotaka Nakayama
弘隆 中山
Masao Arakawa
雅生 荒川
Yeboon Yun
禮分 尹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2008126897A priority Critical patent/JP5186278B2/en
Publication of JP2009276967A publication Critical patent/JP2009276967A/en
Application granted granted Critical
Publication of JP5186278B2 publication Critical patent/JP5186278B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reliably detect an outlier with less computation volume. <P>SOLUTION: The outlier detector includes: a storage section 1 for storing learning data; an SVR calculation section 2 for obtaining Lagrange multiplier of respective data from learning data by μ-ε-SVR; an outlier candidate selection section 3 for selecting the data having the maximum Lagrange multiplier as the candidate of the outlier; a Lagrange multiplier total sum upper limit determination section 4 for determining whether the total sum of the Lagrange multiplier is smaller than the upper limit value; an outlier removing section 5 for removing the data selected by the outlier candidate selection section 3 from the learning data as the outlier when the total sum of the Lagrange multiplier is equal to the upper limit value; and a processing control section 6 for repeatedly executing the processing to the learning data after removing the outlier until the total sum of the Lagrange multiplier becomes smaller than the upper limit value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の学習データの中から他のデータの傾向と離れた外れ値を検出する外れ値検出方法、外れ値検出装置およびプログラムに関するものである。   The present invention relates to an outlier detection method, an outlier detection apparatus, and a program for detecting an outlier that is apart from the tendency of other data from among a plurality of learning data.

ソフトセンサとは、オンライン計測が困難な物理量を代替センサの組み合わせにより推定する手法で、プロセス産業の分野などで広く使用されている。通常、ソフトセンサでは、オフラインで計測された学習データをもとに特性式を構築する。しかし、計測データには、機器の測定誤差による計測ノイズと測定ミスによる外れ値(異常値)とが含まれるため、計測ノイズや外れ値に対応する手法を採用していないと、適切な推定モデルを作成することが困難になり、高精度の推定が不可能になる。   A soft sensor is a technique for estimating a physical quantity that is difficult to measure online by using a combination of alternative sensors, and is widely used in the field of the process industry. Normally, a soft sensor constructs a characteristic equation based on learning data measured offline. However, since measurement data includes measurement noise due to instrument measurement errors and outliers (abnormal values) due to measurement errors, an appropriate estimation model can be obtained unless a method that supports measurement noise or outliers is used. It becomes difficult to create a high-precision estimation.

計測ノイズの影響を抑える手法としてはロバスト推定手法が有効であるが、他のデータの傾向からかけ離れた外れ値についてはあらかじめ検出して除去しておく必要がある。外れ値の検出については、ロバストな推定モデルであるサポートベクトル回帰(Support Vector Regression、以下SVRとする)を用いた手法が知られている(例えば非特許文献1参照)。   A robust estimation method is effective as a method for suppressing the influence of measurement noise, but outliers that are far from other data tendencies need to be detected and removed in advance. For detection of outliers, a method using support vector regression (hereinafter referred to as SVR), which is a robust estimation model, is known (see, for example, Non-Patent Document 1).

以下、非特許文献1に開示された従来のε−SVRを用いた外れ値検出方法について説明する。図7は従来の外れ値検出方法を説明するフローチャートである。
ε−SVRの主問題は、学習データを(xi,yi)(i=1,・・・・,l)とすると、次式のように表すことができる。なお、xiはベクトル量である。
Hereinafter, a conventional outlier detection method using ε-SVR disclosed in Non-Patent Document 1 will be described. FIG. 7 is a flowchart for explaining a conventional outlier detection method.
The main problem of ε-SVR can be expressed as the following equation when learning data is (x i , y i ) (i = 1,..., l). X i is a vector quantity.

Figure 2009276967
Figure 2009276967

ここで、φ(xi)は特徴空間への写像関数、wは特徴空間上の超平面重みベクトル、bは特徴空間上のバイアス、Cはトレードオフパラメータ、εは学習データの特性を表すモデルとして推定される関数に対するデータの許容誤差、ξi,ξ’iはスラック変数である。また、「s.t.」以降の式は制約式を示している。 Here, φ (x i ) is a mapping function to the feature space, w is a hyperplane weight vector on the feature space, b is a bias on the feature space, C is a trade-off parameter, and ε is a model representing the characteristics of the learning data Data tolerances for the function estimated as ξ i , ξ ′ i are slack variables. The expressions after “st” indicate constraint expressions.

ε−SVRの主問題は、式(1)に示す目的関数で平均誤差を最小化するというものである。ε−SVRでは、図8に示すように最適な関数(超平面)81に平行で等距離にある2つの超平面82と83の間になるべく全てのデータ80が収まるような関数81を求める。スラック変数ξi,ξ’iは2つの超平面82と83の間に収まりきらなかったデータの、2つの超平面82,83からのはみ出しの度合い、すなわち回帰誤差を表すものである。式(1)に対する双対問題は、次式のように表すことができる。 The main problem of ε-SVR is to minimize the average error with the objective function shown in equation (1). In ε-SVR, as shown in FIG. 8, a function 81 is obtained so that all data 80 can be contained between two hyperplanes 82 and 83 that are parallel to and equidistant from the optimal function (hyperplane) 81. The slack variables ξ i and ξ ′ i represent the degree of protrusion of the data that does not fit between the two hyperplanes 82 and 83 from the two hyperplanes 82 and 83, that is, the regression error. The dual problem for equation (1) can be expressed as:

Figure 2009276967
Figure 2009276967

式(2)において、αi,α’iは対応する制約式の目的関数に対するデータごとの感度を表すラグランジュ乗数である。αi=0であれば、データiの誤差は許容誤差εよりも小さく、0<αi<Cであれば、データiの誤差は許容誤差εと等しく、αi=Cであれば、データiの誤差は許容誤差εよりも大きい。また、K(xi,xj)はカーネル関数である。上記と同様に、xi,xjはベクトル量である。双対問題では、個々のラグランジュ乗数αi,α’iに上限制約Cが規定される。 In equation (2), α i and α ′ i are Lagrange multipliers representing the sensitivity of each data to the objective function of the corresponding constraint equation. If α i = 0, the error of data i is smaller than the allowable error ε. If 0 <αi <C, the error of data i is equal to the allowable error ε. If α i = C, the data i Is larger than the tolerance ε. K (x i , x j ) is a kernel function. Similarly to the above, x i and x j are vector quantities. In the dual problem, an upper limit constraint C is defined for each Lagrangian multiplier α i , α ′ i .

従来の外れ値検出方法では、まず許容誤差εの最大値を決定する(図7ステップS200)。続いて、式(1)、式(2)を用いて学習データ(xi,yi)からラグランジュ乗数αi,α’iを求める(ステップS201)。次に、許容誤差εを変化量Δεだけ小さくなるように変化させ(ステップS202)、変化後の許容誤差εが0より小さいかどうかを判定する(ステップS203)。変化後の許容誤差εが0以上の場合はステップS201に戻り、変化後の許容誤差εが0より小さい場合はステップS204に進む。こうして、許容誤差εが0より小さくなるまで、ステップS201〜S203の処理が複数回繰り返される。ここでは、ステップS201〜S203の処理がm回繰り返されるものとする。 In the conventional outlier detection method, first, the maximum value of the allowable error ε is determined (step S200 in FIG. 7). Subsequently, the Lagrange multipliers α i and α ′ i are obtained from the learning data (x i , y i ) using the equations (1) and (2) (step S201). Next, the allowable error ε is changed so as to be reduced by the change amount Δε (step S202), and it is determined whether the changed allowable error ε is smaller than 0 (step S203). When the allowable error ε after change is 0 or more, the process returns to step S201, and when the allowable error ε after change is smaller than 0, the process proceeds to step S204. Thus, the processes in steps S201 to S203 are repeated a plurality of times until the allowable error ε is smaller than 0. Here, it is assumed that the processes of steps S201 to S203 are repeated m times.

許容誤差εが0より小さくなった場合、αi=C/lまたはα’i=C/lが成立しかつξi>0.5σまたはξ’i>0.5σが成立する回数をデータごとに集計する(ステップS204)。なお、σは誤差標準偏差である。次に、ステップS204で集計した回数のうち最大回数が一定回数kより大きくかつm回の誤差標準偏差が0.01以下であるかどうかを判定する(ステップS205)。 When the allowable error ε is smaller than 0, α i = C / l or α ′ i = C / l and ξ i > 0.5σ or ξ ′ i > 0.5σ is determined for each data. (Step S204). Note that σ is an error standard deviation. Next, it is determined whether or not the maximum number of times counted in step S204 is larger than the predetermined number k and the m standard error of deviation is 0.01 or less (step S205).

最大回数が一定回数kより大きいという条件かm回の誤差標準偏差が0.01以下という条件のうち少なくとも一方が成立しない場合、ステップS204で集計した回数のうち最大回数のデータを学習データの中から除去し(ステップS206)、ステップS200に戻る。こうして、ステップS205において判定Yesとなるまで、ステップS200〜S206の処理が繰り返される。そして、ステップS205において最大回数が一定回数kより大きくかつm回の誤差標準偏差が0.01以下となった場合、外れ値検出を終える。   If at least one of the condition that the maximum number of times is larger than the predetermined number k or the condition that the error standard deviation of m times is 0.01 or less does not hold, the data of the maximum number of times counted in step S204 is included in the learning data (Step S206), and the process returns to step S200. Thus, the processes in steps S200 to S206 are repeated until the determination in step S205 is Yes. In step S205, when the maximum number is larger than the predetermined number k and the m standard error deviation is 0.01 or less, the outlier detection is finished.

このように、ε−SVRを用いた外れ値検出方法では、許容誤差εの幅を段階的に変化させて複数回計算する(すなわち、モデル複雑さを変える)。そして、ラグランジュ乗数αi,α’iが上限値C/lに達しているデータは外れ値である可能性が高いことを利用して、外れ値の候補を求める。この外れ値候補から真の外れ値を推定するために、異なる許容誤差εで複数回の計算を行い、上限となる確率が高いデータを外れ値として除去している。この外れ値の除去を、全体の誤差が変化しなくなるまで(すなわち、RMS誤差の複数回計算でのばらつきが小さくなるまで)繰り返す。 As described above, in the outlier detection method using ε-SVR, the width of the allowable error ε is changed stepwise and is calculated a plurality of times (that is, the model complexity is changed). Then, using the fact that the data whose Lagrange multipliers α i and α ′ i have reached the upper limit value C / 1 are likely to be outliers, outlier candidates are obtained. In order to estimate a true outlier from this outlier candidate, a plurality of calculations are performed with different tolerances ε, and data with a high probability of being the upper limit is removed as an outlier. This removal of outliers is repeated until the overall error does not change (that is, until the variation in the multiple calculation of the RMS error is reduced).

また、別の外れ値検出方法として、推定誤差が大きいデータを外れ値として除去する方法がある。この外れ値検出方法を図9を用いて説明する。図9において、90は学習データx、91は学習データxに含まれる外れ値、92は学習データxから推定される関数f(x)を表す。この外れ値検出方法では、学習データxから推定される関数f(x)との誤差が大きいデータを外れ値として除去する。   As another outlier detection method, there is a method of removing data having a large estimation error as an outlier. This outlier detection method will be described with reference to FIG. In FIG. 9, 90 represents learning data x, 91 represents an outlier included in the learning data x, and 92 represents a function f (x) estimated from the learning data x. In this outlier detection method, data having a large error from the function f (x) estimated from the learning data x is removed as an outlier.

E.M.Jordaan et al.,“Robust Outlier Detection using SVM Regression”,Neural Network,2004 Proceeding.2004 IEEE International Joint ConferenceE.M.Jordaan et al., “Robust Outlier Detection using SVM Regression”, Neural Network, 2004 Proceeding. 2004 IEEE International Joint Conference

ε−SVRを用いた外れ値検出方法では、ラグランジュ乗数αiまたはα’iが上限値C/lに達している外れ値候補が多数存在するので、外れ値を絞り込むために許容誤差εを変えて複数回の集計をとる必要がある。したがって、1回の外れ値検出に複数回SVRの計算を行うことになり、1回の外れ値検出にm回の計算回数が必要だとすれば、n個の外れ値を検出するためにn×m回の計算回数が必要となる。このように、ε−SVRを用いた外れ値検出方法では、繰り返しの計算回数が多くなり、時間がかかるので、多次元で大量のデータを扱う場合に適していないという問題点があった。 In the outlier detection method using ε-SVR, there are many outlier candidates whose Lagrange multipliers α i or α ′ i have reached the upper limit value C / l. Therefore, the tolerance ε is changed to narrow the outlier. It is necessary to take multiple counts. Therefore, if one outlier is detected, the SVR is calculated a plurality of times, and if one outlier detection requires m calculation times, n is detected in order to detect n outliers. Xm times of calculation are required. As described above, the outlier detection method using ε-SVR has a problem that it is not suitable for handling a large amount of data in a multidimensional manner because the number of repeated calculations increases and it takes time.

また、推定誤差が大きいデータを外れ値として除去する外れ値検出方法では、計算量は少ないものの、非線形モデルの場合、推定関数自体が外れ値の影響を受け、その影響を検出できないので、誤った外れ値を検出してしまうという問題点があった。例えば図10の例では、推定関数が外れ値91の影響を受けているために、推定関数が正常なデータ90から離れてしまっている状態が生じている。   In addition, the outlier detection method that removes data with large estimation errors as outliers requires a small amount of computation, but in the case of a nonlinear model, the estimation function itself is affected by the outliers and cannot be detected. There was a problem that an outlier was detected. For example, in the example of FIG. 10, since the estimation function is affected by the outlier 91, the estimation function is separated from the normal data 90.

本発明は、上記課題を解決するためになされたもので、少ない計算量で確実に外れ値を検出することができる外れ値検出方法、外れ値検出装置およびプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an outlier detection method, an outlier detection apparatus, and a program that can reliably detect an outlier with a small amount of calculation.

本発明の外れ値検出方法は、個々のデータのラグランジュ乗数に上限を規定せず、ラグランジュ乗数の総和の上限を規定するμ−ε−SVR(サポートベクトル回帰)により、複数の学習データから各データのラグランジュ乗数を求める計算手順と、各学習データのうち前記ラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択手順と、各学習データの前記ラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定手順と、前記ラグランジュ乗数の総和が前記上限値の場合に、前記外れ値候補選択手順で選択したデータを外れ値として確定し、このデータを前記複数の学習データの中から除去する外れ値除去手順と、前記ラグランジュ乗数総和上限判定手順において前記ラグランジュ乗数の総和が前記上限値より小さくなるまで、前記外れ値を除去した後の学習データについて前記計算手順と外れ値候補選択手順とラグランジュ乗数総和上限判定手順と外れ値除去手順とを繰り返し実行させる制御手順とを備えることを特徴とするものである。   The outlier detection method of the present invention does not define an upper limit for the Lagrangian multiplier of individual data, but uses μ-ε-SVR (support vector regression) that defines the upper limit of the sum of the Lagrange multipliers. A calculation procedure for obtaining a Lagrangian multiplier of each of the learning data, an outlier candidate selection procedure for selecting the data having the largest Lagrangian multiplier among the learning data as an outlier candidate, and the sum of the Lagrange multipliers of each learning data is a predetermined upper limit. A Lagrange multiplier sum upper limit determination procedure for determining whether or not the value is smaller than the value, and when the sum of the Lagrange multipliers is the upper limit value, the data selected in the outlier candidate selection procedure is determined as an outlier, and the data is In the outlier removal procedure for removing from a plurality of learning data and the Lagrange multiplier sum upper limit determination procedure, The calculation procedure, outlier candidate selection procedure, Lagrange multiplier sum upper limit determination procedure, and outlier removal procedure are repeatedly executed on the learning data after removing the outlier until the sum of the Lagrange multipliers becomes smaller than the upper limit. And a control procedure to be performed.

また、本発明の外れ値検出方法の1構成例において、前記学習データを(xi,yi)(i=1,・・・・,l)、特徴空間への写像関数をφ(xi)、特徴空間上の超平面重みベクトルをw、特徴空間上のバイアスをb、あらかじめ定められたトレードオフパラメータをμ、許容誤差をε、スラック変数をξ,ξ’、ラグランジュ乗数をαi,α’iとしたとき、前記μ−ε−SVRの主問題は、

Figure 2009276967
で表され、主問題に対する双対問題は、
Figure 2009276967
で表される。 Further, in one configuration example of the outlier detection method of the present invention, the learning data is (x i , y i ) (i = 1,..., L), and the mapping function to the feature space is φ (x i ), Hyperplane weight vector on feature space, b on feature space, b, predetermined tradeoff parameter μ, tolerance error ε, slack variables ξ, ξ ', Lagrange multiplier α i , When α ′ i , the main problem of μ-ε-SVR is
Figure 2009276967
The dual problem for the main problem is
Figure 2009276967
It is represented by

また、本発明の外れ値検出装置は、個々のデータのラグランジュ乗数に上限を規定せず、ラグランジュ乗数の総和の上限を規定するμ−ε−SVR(サポートベクトル回帰)により、複数の学習データから各データのラグランジュ乗数を求める計算手段と、各学習データのうち前記ラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択手段と、各学習データの前記ラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定手段と、前記ラグランジュ乗数の総和が前記上限値の場合に、前記外れ値候補選択手段で選択されたデータを外れ値として確定し、このデータを前記複数の学習データの中から除去する外れ値除去手段と、前記ラグランジュ乗数総和上限判定手段の判定において前記ラグランジュ乗数の総和が前記上限値より小さくなるまで、前記外れ値を除去した後の学習データについて前記計算手段と外れ値候補選択手段とラグランジュ乗数総和上限判定手段と外れ値除去手段とに処理を繰り返し実行させる制御手段とを備えることを特徴とするものである。   In addition, the outlier detection apparatus of the present invention does not define an upper limit for the Lagrange multipliers of individual data, but uses μ-ε-SVR (support vector regression) that defines the upper limit of the sum of Lagrange multipliers from a plurality of learning data. Calculation means for obtaining a Lagrange multiplier for each data, outlier candidate selection means for selecting data having the largest Lagrange multiplier among each learning data as an outlier candidate, and a total sum of the Lagrange multipliers for each learning data is predetermined. A Lagrange multiplier sum upper limit determining means for determining whether or not the upper limit value is less than the upper limit value, and when the sum of the Lagrange multipliers is the upper limit value, the data selected by the outlier candidate selection means is determined as an outlier, Outlier removal means for removing data from the plurality of learning data, and Lagrange multiplier sum upper limit determination means In the determination, until the sum of the Lagrange multipliers becomes smaller than the upper limit value, the calculation means, the outlier candidate selection means, the Lagrange multiplier sum upper limit determination means, and the outlier removal means for the learning data after removing the outliers. And a control means for repeatedly executing the process.

また、本発明の外れ値検出プログラムは、個々のデータのラグランジュ乗数に上限を規定せず、ラグランジュ乗数の総和の上限を規定するμ−ε−SVR(サポートベクトル回帰)により、複数の学習データから各データのラグランジュ乗数を求める計算手順と、各学習データのうち前記ラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択手順と、各学習データの前記ラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定手順と、前記ラグランジュ乗数の総和が前記上限値の場合に、前記外れ値候補選択手順で選択したデータを外れ値として確定し、このデータを前記複数の学習データの中から除去する外れ値除去手順と、前記ラグランジュ乗数総和上限判定手順において前記ラグランジュ乗数の総和が前記上限値より小さくなるまで、前記外れ値を除去した後の学習データについて前記計算手順と外れ値候補選択手順とラグランジュ乗数総和上限判定手順と外れ値除去手順とを繰り返し実行させる制御手順とを、コンピュータに実行させることを特徴とするものである。   Further, the outlier detection program of the present invention does not define an upper limit for the Lagrangian multiplier of individual data, but uses μ-ε-SVR (support vector regression) that defines the upper limit of the sum of Lagrange multipliers from a plurality of learning data. A calculation procedure for obtaining a Lagrange multiplier for each data, an outlier candidate selection procedure for selecting data having the maximum Lagrange multiplier among each learning data as an outlier candidate, and a total sum of the Lagrange multipliers for each learning data are predetermined. If the sum of the Lagrange multipliers is determined to be smaller than the upper limit value, and the sum of the Lagrange multipliers is the upper limit value, the data selected in the outlier candidate selection procedure is determined as an outlier, and this data Outlier removal procedure from the plurality of learning data, and the Lagrange multiplier sum upper limit determination procedure In order, the calculation procedure, the outlier candidate selection procedure, the Lagrange multiplier sum upper limit determination procedure, and the outlier removal procedure for the learning data after removing the outlier until the sum of the Lagrange multipliers becomes smaller than the upper limit. A control procedure to be repeatedly executed is executed by a computer.

本発明によれば、ラグランジュ乗数によって外れ値を検出するε−SVRの特徴を備えているために、推定関数自体が外れ値の影響を受けていることを定量化できるので、確実に外れ値を検出・除去できるとともに、個々のデータのラグランジュ乗数に上限を規定しないμ−ε−SVRを用いるので、少ない計算量で外れ値を検出・除去することができる。   According to the present invention, since the feature of ε-SVR that detects an outlier by a Lagrange multiplier is provided, it is possible to quantify that the estimation function itself is affected by the outlier, so that the outlier can be reliably determined. Since μ-ε-SVR that can detect and remove and does not define an upper limit for the Lagrangian multiplier of each data is used, outliers can be detected and removed with a small amount of calculation.

以下、本発明の実施の形態について図面を参照して説明する。図1は本発明の実施の形態に係る外れ値検出装置の構成を示すブロック図である。
外れ値検出装置は、あらかじめ用意された複数の学習データを記憶する記憶部1と、μ−ε−SVRにより学習データから各データのラグランジュ乗数を求めるSVR計算部2と、各学習データのうちラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択部3と、各学習データのラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定部4と、ラグランジュ乗数の総和が上限値以上の場合に、外れ値候補選択部3で選択されたデータを外れ値として確定し、このデータを学習データの中から除去する外れ値除去部5と、ラグランジュ乗数総和上限判定部4の判定においてラグランジュ乗数の総和が上限値より小さくなるまで、外れ値を除去した後の学習データについてSVR計算部2と外れ値候補選択部3とラグランジュ乗数総和上限判定部4と外れ値除去部5とに処理を繰り返し実行させる処理制御部6とを有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an outlier detection apparatus according to an embodiment of the present invention.
The outlier detection device includes a storage unit 1 that stores a plurality of learning data prepared in advance, an SVR calculation unit 2 that obtains a Lagrange multiplier of each data from the learning data by μ-ε-SVR, and a Lagrange of each learning data. An outlier candidate selection unit 3 that selects data having the largest multiplier as an outlier candidate; a Lagrange multiplier sum upper limit determination unit 4 that determines whether the sum of Lagrange multipliers of each learning data is smaller than a predetermined upper limit value; When the sum of Lagrange multipliers is equal to or greater than the upper limit value, the data selected by the outlier candidate selection unit 3 is determined as an outlier, and the outlier removal unit 5 removes this data from the learning data, and the Lagrange multiplier The learning data after the outliers are removed until the sum of the Lagrange multipliers becomes smaller than the upper limit in the determination by the total upper limit determination unit 4. The SVR calculation unit 2, the outlier candidate selection unit 3, the Lagrange multiplier sum upper limit determination unit 4, and the outlier removal unit 5 have a processing control unit 6 that repeatedly executes the processing.

μ−ε−SVRでは、ε−SVRのように目的関数で平均誤差を最小化する代わりに、目的関数で最大誤差を最小化することを特徴としている。μ−ε−SVRの主問題は、学習データを(xi,yi)(i=1,・・・・,l)とすると、次式のように表すことができる。なお、入力xiはベクトル量であり、yiは入力xiに対する出力である。 The μ-ε-SVR is characterized by minimizing the maximum error with the objective function instead of minimizing the average error with the objective function like the ε-SVR. The main problem of μ-ε-SVR can be expressed as the following equation when learning data is (x i , y i ) (i = 1,..., l). Note that the input x i is a vector quantity, and y i is an output for the input x i .

Figure 2009276967
Figure 2009276967

式(3)において、φ(xi)は特徴空間への写像関数、wは特徴空間上の超平面重みベクトル、bは特徴空間上のバイアス、μはトレードオフパラメータ、εは学習データの特性を表すモデルとして推定される関数に対するデータの許容誤差、ξ,ξ’はスラック変数である。wTはベクトルwの転置行列を示している。また、「s.t.」以降の式は制約式を示している。 In Expression (3), φ (x i ) is a mapping function to the feature space, w is a hyperplane weight vector on the feature space, b is a bias on the feature space, μ is a trade-off parameter, and ε is a characteristic of learning data Data tolerances for functions estimated as models representing ξ and ξ ′ are slack variables. w T represents a transposed matrix of the vector w. The expressions after “st” indicate constraint expressions.

μ−ε−SVRでは、図2に示すように各学習データ20の誤差のうち最大誤差が最小になるような関数(超平面)21を求める。また、μ−ε−SVRでは、スラック変数ξ,ξ’はデータごとの値ではなく、許容誤差εからのはみ出しの度合いが最も大きいデータの回帰誤差を表す。ここで、スラック変数ξは図2において関数21よりも下側にあるデータのはみ出しの度合いを表し、スラック変数ξ’は関数21よりも上側にあるデータのはみ出しの度合いを表す。式(3)に対する双対問題は、次式のように表すことができる。   In μ-ε-SVR, a function (hyperplane) 21 that minimizes the maximum error among the errors of each learning data 20 is obtained as shown in FIG. In μ-ε-SVR, the slack variables ξ and ξ ′ are not values for each data, but represent the regression error of data having the largest degree of protrusion from the allowable error ε. Here, the slack variable ξ represents the degree of protrusion of data below the function 21 in FIG. 2, and the slack variable ξ ′ represents the degree of protrusion of data above the function 21. The dual problem for equation (3) can be expressed as:

Figure 2009276967
Figure 2009276967

式(4)において、αi,α’iは対応する制約式の目的関数に対するデータごとの感度を表すラグランジュ乗数である。図2においてデータが関数21よりも下側にあるかどうかを判定する制約式が式(3)のwTφ(xi)+b−yi≦ε+ξ,ξ≧0,i=1,・・・,lとなる。この制約式の感度に対応するラグランジュ乗数がαiである。同様に、図2においてデータが関数21よりも上側にあるかどうかを判定する制約式が式(3)のyi−wTφ(xi)−b≦ε+ξ’,ξ’≧0,i=1,・・・,lとなる。この制約式の感度に対応するラグランジュ乗数がα’iである。αi=0であれば、データiの誤差は推定される関数に対する各データの誤差のうちの最大誤差よりも小さく、αi>0であれば、データiの誤差は最大誤差と等しく、Σαi=Cであれば、データiの誤差は許容誤差εより大きい。また、K(xi,xj)はカーネル関数である。上記と同様に、xi,xjはベクトル量である。μ−ε−SVRでは、トレードオフパラメータμと許容誤差εをあらかじめ設定する。なお、これらのパラメータは作成するソフトセンサなどの要求仕様に基づいて適宜設計する。 In equation (4), α i and α ′ i are Lagrange multipliers representing the sensitivity of each data to the objective function of the corresponding constraint equation. In FIG. 2, the constraint equation for determining whether or not the data is below the function 21 is w T φ (x i ) + b−y i ≦ ε + ξ, ξ ≧ 0, i = 1,. ., L. The Lagrange multiplier corresponding to the sensitivity of this constraint equation is α i . Similarly, in FIG. 2, the constraint equation for determining whether the data is above the function 21 is y i −w T φ (x i ) −b ≦ ε + ξ ′, ξ ′ ≧ 0, i in Equation (3). = 1,..., L. The Lagrange multiplier corresponding to the sensitivity of this constraint equation is α ′ i . If α i = 0, the error of data i is smaller than the maximum error among the errors of each data with respect to the estimated function. If α i > 0, the error of data i is equal to the maximum error, and Σα If i = C, the error of data i is greater than the tolerance ε. K (x i , x j ) is a kernel function. Similarly to the above, x i and x j are vector quantities. In μ-ε-SVR, a trade-off parameter μ and an allowable error ε are set in advance. These parameters are appropriately designed based on the required specifications of the soft sensor to be created.

従来のε−SVRとμ−ε−SVRとの違いは、ε−SVRの主問題が正則化項と誤差総和とを足した式で表されるのに対し、μ−ε−SVRの主問題が正則化項と最大誤差とを足した式で表される点と、ε−SVRの双対問題の制約式が各ラグランジュ乗数の上限を制限しているのに対し、μ−ε−SVRの双対問題の制約式がラグランジュ乗数の総和の上限を制限している点である。   The difference between the conventional ε-SVR and μ-ε-SVR is that the main problem of ε-SVR is expressed by an expression obtained by adding the regularization term and the sum of errors, whereas the main problem of μ-ε-SVR. Is expressed by a formula obtained by adding the regularization term and the maximum error, and the constraint equation of the dual problem of ε-SVR restricts the upper limit of each Lagrange multiplier, whereas the dual of μ-ε-SVR The constraint equation in question limits the upper limit of the sum of Lagrange multipliers.

このように、式(3)に対する双対問題では、ラグランジュ乗数の総和に対して上限制約が課せられるため、複数のグランジュ乗数が上限で等しくなることはない。前述のとおり、ラグランジュ乗数は、対応する制約式の目的関数に対する感度を表す。したがって、データの中に外れ値が存在する場合、ラグランジュ乗数が最大値をとるデータが、他のデータから最も大きく離れた外れ値であると推定できる。これによりμ−ε−SVRでは、ε−SVRに比べ計算量を削減することができる。この理由について、詳しくは後述する。   Thus, in the dual problem with respect to Equation (3), an upper limit constraint is imposed on the sum of Lagrange multipliers, so that a plurality of Grange multipliers are not equal at the upper limit. As described above, the Lagrangian multiplier represents the sensitivity of the corresponding constraint equation to the objective function. Therefore, when an outlier exists in the data, it can be estimated that the data having the largest Lagrange multiplier is the outlier that is farthest from other data. Thereby, in [mu]-[epsilon] -SVR, the amount of calculation can be reduced compared to [epsilon] -SVR. The reason for this will be described later in detail.

更に式(3)についてのクーン・タッカーの条件より式(5)を導くことができ、データの中に外れ値が存在する場合はラグランジュ乗数の総和が上限値μをとると言える。   Furthermore, Equation (5) can be derived from Kuhn-Tucker's condition for Equation (3), and if there is an outlier in the data, it can be said that the sum of Lagrange multipliers takes the upper limit value μ.

Figure 2009276967
Figure 2009276967

本実施の形態では、以上のようなμ−ε−SVRの特徴を利用し、以下の手順で外れ値検出を行う。図3は本実施の形態の外れ値検出装置の動作を示すフローチャートである。
まず、SVR計算部2は、式(3)、式(4)を用いて、記憶部1に記憶されている学習データ(xi,yi)(i=1,・・・・,l)から各データのラグランジュ乗数αi,α’iを求める(ステップS100)。
In the present embodiment, outlier detection is performed by the following procedure using the above-described features of μ-ε-SVR. FIG. 3 is a flowchart showing the operation of the outlier detection apparatus of this embodiment.
First, the SVR calculation unit 2 uses the equations (3) and (4) to learn data (x i , y i ) (i = 1,..., L) stored in the storage unit 1. To obtain the Lagrange multipliers α i and α ′ i of each data (step S100).

続いて、外れ値候補選択部3は、各学習データのうちラグランジュ乗数αiまたはα’iのどちらか一方が最大となるデータを外れ値の候補として選択する(ステップS101)。なお、データiに関するラグランジュ乗数αiとα’iのうち、どちらか一方は必ず0になる。
次に、ラグランジュ乗数総和上限判定部4は、SVR計算部2の計算結果から、式(6)に示すように各学習データのラグランジュ乗数αi,α’iの総和Σ(αi+α’i)が上限値2μより小さいかどうかを判定する(ステップS102)。
Subsequently, the outlier candidate selection unit 3 selects, as the outlier candidate, data in which either one of the Lagrange multipliers α i or α ′ i is the largest among the learning data (step S101). Note that one of the Lagrange multipliers α i and α ′ i for the data i is always 0.
Next, the Lagrange multiplier sum upper limit determination unit 4 calculates the sum Σ (α i + α ′ i of Lagrange multipliers α i and α ′ i of each learning data from the calculation result of the SVR calculation unit 2 as shown in Expression (6). ) Is smaller than the upper limit value 2μ (step S102).

Figure 2009276967
Figure 2009276967

処理制御部6は、ラグランジュ乗数αi,α’iの総和Σ(αi+α’i)が上限値2μより小さいと判定された場合(ステップS102においてYES)、SVR計算部2と外れ値候補選択部3とラグランジュ乗数総和上限判定部4と外れ値除去部5に終了指示信号を出力して図3の処理を終了させる。 When it is determined that the sum Σ (α i + α ′ i ) of Lagrange multipliers α i and α ′ i is smaller than the upper limit value 2 μ (YES in step S102), the processing control unit 6 and the SVR calculation unit 2 and outlier candidates An end instruction signal is output to the selection unit 3, the Lagrange multiplier sum upper limit determination unit 4, and the outlier removal unit 5, and the process of FIG.

外れ値除去部5は、ラグランジュ乗数αi,α’iの総和Σ(αi+α’i)が上限値2μと等しいと判定された場合(ステップS102においてNO)、外れ値候補選択部3が外れ値の候補として選択したデータを外れ値として確定し、このデータを記憶部1に記憶されている学習データの中から除去する(ステップS103)。 When the outlier removal unit 5 determines that the sum Σ (α i + α ′ i ) of the Lagrange multipliers α i and α ′ i is equal to the upper limit value 2μ (NO in step S102), the outlier candidate selection unit 3 Data selected as an outlier candidate is confirmed as an outlier, and this data is removed from the learning data stored in the storage unit 1 (step S103).

ラグランジュ乗数αi,α’iの総和Σ(αi+α’i)が上限値2μと等しいと判定された場合、処理制御部6は、外れ値の除去後に、SVR計算部2と外れ値候補選択部3とラグランジュ乗数総和上限判定部4と外れ値除去部5に対して再実行指示信号を出力する。この再実行指示信号の出力により、ステップS100に戻って、SVR計算部2は、外れ値が除去された後の学習データについて各データのラグランジュ乗数αi,α’iを再び計算する。 If it is determined that the total sum Σ (α i + α ′ i ) of the Lagrange multipliers α i and α ′ i is equal to the upper limit value 2 μ, the processing control unit 6 and the SVR calculation unit 2 and the outlier candidate after the outlier removal. A re-execution instruction signal is output to the selection unit 3, the Lagrange multiplier sum upper limit determination unit 4, and the outlier removal unit 5. When the re-execution instruction signal is output, the process returns to step S100, and the SVR calculation unit 2 recalculates Lagrange multipliers α i and α ′ i of each data for the learning data from which the outlier has been removed.

こうして、ステップS102においてラグランジュ乗数αi,α’iの総和Σ(αi+α’i)が上限値2μより小さくなるまで、ステップS100〜S103の処理が繰り返し実行される。本実施の形態では、1回の計算で1点ずつ確実に外れ値を検出・除去することができ、全ての外れ値を除去した時点で図3の処理が終了する。 In this way, the processes of steps S100 to S103 are repeatedly executed until the sum Σ (α i + α ′ i ) of the Lagrange multipliers α i and α ′ i becomes smaller than the upper limit value 2μ in step S102. In this embodiment, outliers can be reliably detected and removed point by point in one calculation, and the processing of FIG. 3 ends when all outliers are removed.

本実施の形態の有効性を人工的に作成した学習データで検証した。人工データを作成するため、入力xiを[0,1]の一様分布から100点サンプリングし、計測ノイズηiを正規分布N(0,0.05)で生成し、外れ値3点に付加する値θiを±0.5とし、出力yiをyi=(sin2πxi2+ηi+θiで定義した。
このように人工的に作成したデータを学習データとして、本実施の形態の外れ値検出装置によって外れ値を検出した結果を図4(A)〜図4(D)に示す。図4(A)〜図4(D)において、40は学習データ、41は学習データから推定した関数によって入力xiから出力yiを計算した推定結果、42〜44は外れ値を表している。
The effectiveness of the present embodiment was verified with artificially created learning data. In order to create artificial data, input x i is sampled at 100 points from a uniform distribution of [0, 1], measurement noise η i is generated by normal distribution N (0, 0.05), and outliers are set at 3 points. The value θ i to be added was set to ± 0.5, and the output y i was defined as y i = (sin 2πx i ) 2 + η i + θ i .
FIG. 4A to FIG. 4D show the results of detecting outliers with the outlier detection apparatus of the present embodiment using the artificially created data as learning data. 4A to 4D, reference numeral 40 denotes learning data, 41 denotes an estimation result obtained by calculating the output y i from the input x i using a function estimated from the learning data, and 42 to 44 denote outliers. .

図4(A)は初期の学習データとこの学習データを基にした推定結果と図3のステップS100〜S103の処理を1回行って外れ値42を検出した結果を示している。図4(B)は外れ値42を除去した後の学習データとこの学習データを基にした推定結果と2回目の処理を行って外れ値43を検出した結果を示している。図4(C)は外れ値42,43を除去した後の学習データとこの学習データを基にした推定結果と3回目の処理を行って外れ値44を検出した結果を示している。図4(D)は外れ値42〜44を除去した後の学習データとこの学習データを基にした推定結果を示している。図4(A)〜図4(D)によれば、3点の外れ値42〜44が適切に除去された後、最終的に推定精度が向上していることが分かる。3回目の外れ値除去後、ラグランジュ乗数の総和は2.98となり、外れ値検出装置の処理は終了した。   FIG. 4A shows initial learning data, an estimation result based on the learning data, and a result of detecting the outlier 42 by performing the processing of steps S100 to S103 in FIG. 3 once. FIG. 4B shows learning data after the outlier 42 is removed, an estimation result based on the learning data, and a result of detecting the outlier 43 by performing the second processing. FIG. 4C shows the learning data after the outliers 42 and 43 are removed, the estimation result based on the learning data, and the result of detecting the outlier 44 by performing the third processing. FIG. 4D shows the learning data after the outliers 42 to 44 are removed and the estimation result based on the learning data. 4A to 4D, it can be seen that the estimation accuracy is finally improved after the three outliers 42 to 44 are appropriately removed. After the third outlier removal, the sum of the Lagrangian multipliers was 2.98, and the outlier detection device processing was terminated.

次に、多くの先行研究で外れ値が特定されているStacklossデータにより検証を行った。Stacklossデータについては、文献「K.A.Brownlee,“Statistical Theory and Methodology in Science and Engineering”,New York,Wiley,p.491-500,1960」に開示されている。Stacklossデータを図5に示す。図5において、51は外れ値を表している。   Next, verification was performed using Stackloss data in which outliers were identified in many previous studies. The Stackloss data is disclosed in the document “K. A. Brownlee,“ Statistical Theory and Methodology in Science and Engineering ”, New York, Wiley, p. 491-500, 1960”. The Stackloss data is shown in FIG. In FIG. 5, 51 indicates an outlier.

Stacklossデータは、硝酸製造プラントでの運転条件とアンモニア損失量との関係を取得したデータセットである。図5において、Yは吸収塔で吸収されなかったアンモニア損失量(プラント処理効率の逆の指標で、%の10倍)、X1は冷却空気の流量、X2は吸収塔の冷却水温度、X3は硝酸濃度([per 1000,minus 500])である。図5はアンモニアから硝酸を製造する硝酸製造プラントにおける21日分の運転履歴を示している。副産物の酸化窒素は吸収塔で吸収する。21日分のデータのうち、先行研究で指摘されている外れ値は1,3,4,21番目の4つのデータである。図5から、可視化だけでは外れ値を見つけることが難しいことが分かる。   The Stackloss data is a data set obtained by acquiring the relationship between the operating conditions in the nitric acid production plant and the ammonia loss amount. In FIG. 5, Y is the amount of ammonia loss that has not been absorbed by the absorption tower (an inverse index of plant processing efficiency, 10 times the%), X1 is the flow rate of cooling air, X2 is the cooling water temperature of the absorption tower, and X3 is Nitric acid concentration ([per 1000, minus 500]). FIG. 5 shows an operation history for 21 days in a nitric acid production plant for producing nitric acid from ammonia. By-product nitric oxide is absorbed by the absorption tower. Out of 21 days of data, the outliers pointed out in previous studies are the 4th data of 1, 3, 4 and 21st. FIG. 5 shows that it is difficult to find outliers only by visualization.

このようなStacklossデータを学習データとして、本実施の形態の外れ値検出装置によって外れ値を検出した結果を図6(A)〜図6(D)に示す。図6(A)〜図6(D)において、60〜63は外れ値を表している。図6(A)は図3のステップS100〜S103の処理を1回行って21番目のデータを外れ値60として検出したことを示している。図6(B)は2回目の処理を行って4番目のデータを外れ値61として検出したことを示している。図6(C)は3回目の処理を行って3番目のデータを外れ値62として検出したことを示している。図6(D)は4回目の処理を行って1番目のデータを外れ値63として検出したことを示している。   FIG. 6A to FIG. 6D show the results of detecting outliers with such Stackloss data as learning data by the outlier detection apparatus of the present embodiment. 6A to 6D, 60 to 63 represent outliers. FIG. 6A shows that the processing of steps S100 to S103 of FIG. FIG. 6B shows that the second process is performed and the fourth data is detected as an outlier 61. FIG. 6C shows that the third process is performed and the third data is detected as an outlier 62. FIG. 6D shows that the fourth process is performed and the first data is detected as an outlier 63.

Stacklossデータに対して本実施の形態を適用した結果、図6(A)〜図6(D)に示した各回のラグランジュ乗数の値により、各回でラグランジュ乗数が最大のデータを外れ値として検出できていることが分かる。ラグランジュ乗数の総和は4回目の除去後0.03となり、上限値2μと比べると極めて小さい値であることから、これ以上外れ値が存在しないと判断できる。   As a result of applying this embodiment to the Stackloss data, data having the largest Lagrange multiplier can be detected as an outlier by each Lagrange multiplier value shown in FIGS. 6 (A) to 6 (D). I understand that The sum of the Lagrangian multipliers is 0.03 after the fourth removal, and is extremely small compared to the upper limit value 2μ. Therefore, it can be determined that there are no more outliers.

従来のε−SVRを用いた外れ値検出方法では、ラグランジュ乗数に上限があって、定性的な判断材料に留まる。このため、定量的な外れ値検出を行うには許容誤差εを変化させながら、複数回のフィッティングを行う必要がある。これに対して、本実施の形態では、ラグランジュ乗数を個々に定量化しており、ラグランジュ乗数の値に差ができるため、1回のフィッティングで定量的な外れ値検出を行うことができる。本実施の形態では、n個の外れ値を検出するためにn回の計算をすればよいことになり、n×m回の計算回数が必要であった従来のε−SVRを用いた外れ値検出方法よりも計算量を削減することができる。   In the conventional outlier detection method using ε-SVR, the Lagrange multiplier has an upper limit, and remains a qualitative determination material. For this reason, in order to perform quantitative outlier detection, it is necessary to perform fitting multiple times while changing the allowable error ε. On the other hand, in the present embodiment, the Lagrange multipliers are individually quantified, and the Lagrange multiplier values can be different, so that quantitative outlier detection can be performed with a single fitting. In this embodiment, it is only necessary to calculate n times in order to detect n outliers, and the outliers using the conventional ε-SVR, which required n × m times of calculation, are required. The amount of calculation can be reduced as compared with the detection method.

また、推定誤差が大きいデータを外れ値として除去する従来の外れ値検出方法では、誤差だけで判断するため、推定曲面が歪んでいる場合、外れ値に有利な定量化となってしまう。これに対して、本実施の形態では、誤差を定量的な判断材料として加えることにより、外れ値検出の精度を向上させることができる。   In addition, in the conventional outlier detection method that removes data having a large estimation error as an outlier, the determination is made based only on the error. Therefore, if the estimated curved surface is distorted, quantification is advantageous for the outlier. On the other hand, in this embodiment, the accuracy of outlier detection can be improved by adding an error as a quantitative determination material.

なお、本実施の形態の外れ値検出装置は、CPU、記憶装置および外部とのインタフェースを備えたコンピュータとこれらのハードウェア資源を制御するプログラムによって実現することができる。このようなコンピュータにおいて、本発明の外れ値検出方法を実現させるための外れ値検出プログラムは、フレキシブルディスク、CD−ROM、DVD−ROM、メモリカードなどの記録媒体に記録された状態で提供される。CPUは、記録媒体から読み込んだプログラムを記憶装置に書き込み、プログラムに従って本実施の形態で説明したような処理を実行する。   Note that the outlier detection apparatus of the present embodiment can be realized by a computer having a CPU, a storage device, and an external interface, and a program for controlling these hardware resources. In such a computer, an outlier detection program for realizing the outlier detection method of the present invention is provided in a state of being recorded on a recording medium such as a flexible disk, a CD-ROM, a DVD-ROM, or a memory card. . The CPU writes the program read from the recording medium into the storage device, and executes processing as described in this embodiment according to the program.

本発明は、例えばプロセス産業の分野において計測データから外れ値を検出して除去する技術に適用することができる。   The present invention can be applied to a technique for detecting and removing outliers from measurement data, for example, in the field of the process industry.

本発明の実施の形態に係る外れ値検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the outlier detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態のμ−ε−SVRで推定される関数を説明する図である。It is a figure explaining the function estimated by (micro | micron | mu) -SVR of embodiment of this invention. 図1の外れ値検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the outlier detection apparatus of FIG. 人工的に作成したデータを学習データとして図1の外れ値検出装置によって外れ値を検出した結果を示す図である。It is a figure which shows the result of having detected the outlier by the outlier detection apparatus of FIG. 1 by using the artificially created data as learning data. 学習データの1例であるStacklossデータを示す図である。It is a figure which shows the Stackloss data which is an example of learning data. Stacklossデータを学習データとして図1の外れ値検出装置によって外れ値を検出した結果を示す図である。It is a figure which shows the result of having detected the outlier by the outlier detection apparatus of FIG. 1 by using Stackloss data as learning data. 従来の外れ値検出方法を説明するフローチャートである。It is a flowchart explaining the conventional outlier detection method. 従来のε−SVRで推定される関数を説明する図である。It is a figure explaining the function estimated by the conventional epsilon-SVR. 従来の別の外れ値検出方法を説明する図である。It is a figure explaining another conventional outlier detection method. 図9の外れ値検出方法の問題点を説明する図である。It is a figure explaining the problem of the outlier detection method of FIG.

符号の説明Explanation of symbols

1…記憶部、2…SVR計算部、3…外れ値候補選択部、4…ラグランジュ乗数総和上限判定部、5…外れ値除去部、6…処理制御部。   DESCRIPTION OF SYMBOLS 1 ... Memory | storage part, 2 ... SVR calculation part, 3 ... Outlier candidate selection part, 4 ... Lagrange multiplier sum total upper limit determination part, 5 ... Outlier removal part, 6 ... Process control part.

Claims (5)

個々のデータのラグランジュ乗数に上限を規定せず、ラグランジュ乗数の総和の上限を規定するμ−ε−SVR(サポートベクトル回帰)により、複数の学習データから各データのラグランジュ乗数を求める計算手順と、
各学習データのうち前記ラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択手順と、
各学習データの前記ラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定手順と、
前記ラグランジュ乗数の総和が前記上限値の場合に、前記外れ値候補選択手順で選択したデータを外れ値として確定し、このデータを前記複数の学習データの中から除去する外れ値除去手順と、
前記ラグランジュ乗数総和上限判定手順において前記ラグランジュ乗数の総和が前記上限値より小さくなるまで、前記外れ値を除去した後の学習データについて前記計算手順と外れ値候補選択手順とラグランジュ乗数総和上限判定手順と外れ値除去手順とを繰り返し実行させる制御手順とを備えることを特徴とする外れ値検出方法。
A calculation procedure for determining a Lagrangian multiplier of each data from a plurality of learning data by μ-ε-SVR (support vector regression) that defines an upper limit of a sum of Lagrange multipliers without specifying an upper limit for Lagrange multipliers of individual data;
Outlier candidate selection procedure for selecting data having the largest Lagrangian multiplier among each learning data as an outlier candidate;
A Lagrange multiplier sum upper limit determination procedure for determining whether or not the sum of the Lagrange multipliers of each learning data is smaller than a predetermined upper limit;
When the sum of the Lagrange multipliers is the upper limit value, the data selected in the outlier candidate selection procedure is determined as an outlier, and the outlier removal procedure for removing this data from the plurality of learning data;
Until the sum of the Lagrange multipliers becomes smaller than the upper limit value in the Lagrange multiplier sum upper limit determination procedure, the calculation procedure, the outlier candidate selection procedure, and the Lagrange multiplier sum upper limit determination procedure for the learning data after removing the outliers, An outlier detection method comprising: a control procedure for repeatedly executing an outlier removal procedure.
請求項1記載の外れ値検出方法において、
前記学習データを(xi,yi)(i=1,・・・・,l)、特徴空間への写像関数をφ(xi)、特徴空間上の超平面重みベクトルをw、特徴空間上のバイアスをb、あらかじめ定められたトレードオフパラメータをμ、許容誤差をε、スラック変数をξ,ξ’、ラグランジュ乗数をαi,α’iとしたとき、前記μ−ε−SVRの主問題は、
Figure 2009276967
で表され、主問題に対する双対問題は、
Figure 2009276967
で表されることを特徴とする外れ値検出方法。
The outlier detection method according to claim 1,
The learning data is (x i , y i ) (i = 1,..., L), the mapping function to the feature space is φ (x i ), the hyperplane weight vector on the feature space is w, the feature space When the upper bias is b, the predetermined trade-off parameter is μ, the allowable error is ε, the slack variables are ξ and ξ ′, and the Lagrange multipliers are α i and α ′ i , the main of the μ-ε-SVR The problem is,
Figure 2009276967
The dual problem for the main problem is
Figure 2009276967
An outlier detection method characterized by the following:
個々のデータのラグランジュ乗数に上限を規定せず、ラグランジュ乗数の総和の上限を規定するμ−ε−SVR(サポートベクトル回帰)により、複数の学習データから各データのラグランジュ乗数を求める計算手段と、
各学習データのうち前記ラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択手段と、
各学習データの前記ラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定手段と、
前記ラグランジュ乗数の総和が前記上限値の場合に、前記外れ値候補選択手段で選択されたデータを外れ値として確定し、このデータを前記複数の学習データの中から除去する外れ値除去手段と、
前記ラグランジュ乗数総和上限判定手段の判定において前記ラグランジュ乗数の総和が前記上限値より小さくなるまで、前記外れ値を除去した後の学習データについて前記計算手段と外れ値候補選択手段とラグランジュ乗数総和上限判定手段と外れ値除去手段とに処理を繰り返し実行させる制御手段とを備えることを特徴とする外れ値検出装置。
Calculation means for obtaining a Lagrange multiplier for each data from a plurality of learning data by μ-ε-SVR (support vector regression) that defines an upper limit of the sum of Lagrange multipliers without defining an upper limit for Lagrange multipliers of individual data;
Outlier candidate selection means for selecting data having the largest Lagrangian multiplier among the learning data as outlier candidates;
Lagrange multiplier total upper limit determination means for determining whether the total sum of the Lagrange multipliers of each learning data is smaller than a predetermined upper limit value;
When the sum of the Lagrange multipliers is the upper limit value, the data selected by the outlier candidate selection unit is determined as an outlier, and the outlier removal unit removes this data from the plurality of learning data;
Until the sum of the Lagrange multipliers becomes smaller than the upper limit value in the determination by the Lagrange multiplier sum upper limit determination means, the calculation means, the outlier candidate selection means, and the Lagrange multiplier sum upper limit determination for the learning data after removing the outliers An outlier detection device comprising: control means for causing the means and the outlier removal means to repeatedly execute processing.
請求項3記載の外れ値検出装置において、
前記学習データを(xi,yi)(i=1,・・・・,l)、特徴空間への写像関数をφ(xi)、特徴空間上の超平面重みベクトルをw、特徴空間上のバイアスをb、あらかじめ定められたトレードオフパラメータをμ、許容誤差をε、スラック変数をξ,ξ’、ラグランジュ乗数をαi,α’iとしたとき、前記μ−ε−SVRの主問題は、
Figure 2009276967
で表され、主問題に対する双対問題は、
Figure 2009276967
で表されることを特徴とする外れ値検出装置。
In the outlier detection device according to claim 3,
The learning data is (x i , y i ) (i = 1,..., L), the mapping function to the feature space is φ (x i ), the hyperplane weight vector on the feature space is w, the feature space When the upper bias is b, the predetermined trade-off parameter is μ, the allowable error is ε, the slack variables are ξ and ξ ′, and the Lagrange multipliers are α i and α ′ i , the main of the μ-ε-SVR The problem is,
Figure 2009276967
The dual problem for the main problem is
Figure 2009276967
An outlier detection device characterized by the following:
個々のデータのラグランジュ乗数に上限を規定せず、ラグランジュ乗数の総和の上限を規定するμ−ε−SVR(サポートベクトル回帰)により、複数の学習データから各データのラグランジュ乗数を求める計算手順と、
各学習データのうち前記ラグランジュ乗数が最大となるデータを外れ値の候補として選択する外れ値候補選択手順と、
各学習データの前記ラグランジュ乗数の総和が所定の上限値より小さいかどうかを判定するラグランジュ乗数総和上限判定手順と、
前記ラグランジュ乗数の総和が前記上限値の場合に、前記外れ値候補選択手順で選択したデータを外れ値として確定し、このデータを前記複数の学習データの中から除去する外れ値除去手順と、
前記ラグランジュ乗数総和上限判定手順において前記ラグランジュ乗数の総和が前記上限値より小さくなるまで、前記外れ値を除去した後の学習データについて前記計算手順と外れ値候補選択手順とラグランジュ乗数総和上限判定手順と外れ値除去手順とを繰り返し実行させる制御手順とを、コンピュータに実行させることを特徴とする外れ値検出プログラム。
A calculation procedure for determining a Lagrangian multiplier of each data from a plurality of learning data by μ-ε-SVR (support vector regression) that defines an upper limit of a sum of Lagrange multipliers without specifying an upper limit for Lagrange multipliers of individual data;
Outlier candidate selection procedure for selecting data having the largest Lagrangian multiplier among each learning data as an outlier candidate;
A Lagrange multiplier sum upper limit determination procedure for determining whether or not the sum of the Lagrange multipliers of each learning data is smaller than a predetermined upper limit;
When the sum of the Lagrange multipliers is the upper limit value, the data selected in the outlier candidate selection procedure is determined as an outlier, and the outlier removal procedure for removing this data from the plurality of learning data;
Until the sum of the Lagrange multipliers becomes smaller than the upper limit value in the Lagrange multiplier sum upper limit determination procedure, the calculation procedure, the outlier candidate selection procedure, and the Lagrange multiplier sum upper limit determination procedure for the learning data after removing the outliers, An outlier detection program that causes a computer to execute a control procedure that repeatedly executes an outlier removal procedure.
JP2008126897A 2008-05-14 2008-05-14 Outlier detection method, outlier detection device, and program Active JP5186278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008126897A JP5186278B2 (en) 2008-05-14 2008-05-14 Outlier detection method, outlier detection device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008126897A JP5186278B2 (en) 2008-05-14 2008-05-14 Outlier detection method, outlier detection device, and program

Publications (2)

Publication Number Publication Date
JP2009276967A true JP2009276967A (en) 2009-11-26
JP5186278B2 JP5186278B2 (en) 2013-04-17

Family

ID=41442349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008126897A Active JP5186278B2 (en) 2008-05-14 2008-05-14 Outlier detection method, outlier detection device, and program

Country Status (1)

Country Link
JP (1) JP5186278B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164029A (en) * 2011-02-03 2012-08-30 Fujitsu Ltd Input parameter calculation method, device, and program
CN104713730A (en) * 2015-01-29 2015-06-17 西北工业大学 Method for determining degeneration rate of aircraft engine according to vibration signal
JP2016537702A (en) * 2013-09-27 2016-12-01 ドイッチェ テレコム アーゲー Method and system for evaluating measurements obtained from a system
JP2017083188A (en) * 2015-10-23 2017-05-18 アズビル株式会社 Characteristic model identification method, characteristic model identification device and intelligent sensor
JP2019191817A (en) * 2018-04-23 2019-10-31 一般財団法人電力中央研究所 Power demand prediction device, power demand prediction method, and power demand prediction program
CN111127459A (en) * 2019-12-30 2020-05-08 武汉理工大学 Real-time image processing system for road track detection
CN112102890A (en) * 2020-07-28 2020-12-18 浙江中控技术股份有限公司 MCS synthesis device reaction temperature prediction method based on machine learning model
JP2022025095A (en) * 2014-12-10 2022-02-09 コーニンクレッカ フィリップス エヌ ヴェ System and method for translation of medical imaging using machine learning
JP7359829B2 (en) 2021-12-14 2023-10-11 株式会社日立製作所 Machine learning systems and methods

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CSNG200700813005; 尹 禮分 他2名: '計算知能を用いた逐次近似多目的最適化手法' 計測自動制御学会論文集 第43巻, 第8号, 20070831, p.672-678., 社団法人計測自動制御学会 *
JPN6012067596; 尹 禮分 他2名: '計算知能を用いた逐次近似多目的最適化手法' 計測自動制御学会論文集 第43巻, 第8号, 20070831, p.672-678., 社団法人計測自動制御学会 *
JPN7012005307; E.M.Jordaan et al.: 'Robust outlier detection using SVM regression' 2004 IEEE International Joint Conference on Neural Networks Vol.3, 200407, p.2017-2022. *
JPN7012005308; Hirotaka Nakayama, Yeboon Yun: 'Support Vector Regression Based on Goal Programming and Multi-objective Programming' 2006 International Joint Conference on Neural Networks(IJCNN '06) , 20060716, p.1156-1161. *
JPN7012005309; Johan COLLIEZ et al.: 'Robust Regression and Outlier Detection withSVR: Application to Optic Flow Estimation' British Machine Vision Conference 2006 , 2006 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164029A (en) * 2011-02-03 2012-08-30 Fujitsu Ltd Input parameter calculation method, device, and program
JP2016537702A (en) * 2013-09-27 2016-12-01 ドイッチェ テレコム アーゲー Method and system for evaluating measurements obtained from a system
JP2022025095A (en) * 2014-12-10 2022-02-09 コーニンクレッカ フィリップス エヌ ヴェ System and method for translation of medical imaging using machine learning
CN104713730A (en) * 2015-01-29 2015-06-17 西北工业大学 Method for determining degeneration rate of aircraft engine according to vibration signal
JP2017083188A (en) * 2015-10-23 2017-05-18 アズビル株式会社 Characteristic model identification method, characteristic model identification device and intelligent sensor
JP2019191817A (en) * 2018-04-23 2019-10-31 一般財団法人電力中央研究所 Power demand prediction device, power demand prediction method, and power demand prediction program
JP7098400B2 (en) 2018-04-23 2022-07-11 一般財団法人電力中央研究所 Power demand forecaster, power demand forecasting method and power demand forecasting program
CN111127459A (en) * 2019-12-30 2020-05-08 武汉理工大学 Real-time image processing system for road track detection
CN112102890A (en) * 2020-07-28 2020-12-18 浙江中控技术股份有限公司 MCS synthesis device reaction temperature prediction method based on machine learning model
CN112102890B (en) * 2020-07-28 2023-12-15 浙江中控技术股份有限公司 MCS synthesis device reaction temperature prediction method based on machine learning model
JP7359829B2 (en) 2021-12-14 2023-10-11 株式会社日立製作所 Machine learning systems and methods

Also Published As

Publication number Publication date
JP5186278B2 (en) 2013-04-17

Similar Documents

Publication Publication Date Title
JP5186278B2 (en) Outlier detection method, outlier detection device, and program
EP3380948B1 (en) Environmental monitoring systems, methods and media
JP6458403B2 (en) Prediction model generation device, prediction model generation method, and program
Hurtado et al. Fuzzy structural analysis based on fundamental reliability concepts
JP2017194341A (en) Abnormality diagnosis method, abnormality diagnosis device, and abnormality diagnosis program
Jin et al. Sequential measurement strategy for wafer geometric profile estimation
Shittu et al. A systematic review of structural reliability methods for deformation and fatigue analysis of offshore jacket structures
JP5827425B1 (en) Predictive diagnosis system and predictive diagnosis method
CN110957011B (en) Online production parameter estimation method of continuous stirring reactor under unknown time-varying measurement noise
CN107436983A (en) A kind of O-shaped rubber seal life-span prediction method based on multivariate sample difference
Ballesteros et al. Bayesian hierarchical models for uncertainty quantification in structural dynamics
Yuan et al. Calibration of stochastic computer models using stochastic approximation methods
JP5261740B2 (en) Neutralization depth prediction device for concrete structure and program to make computer calculate neutralization depth
JP2010122825A (en) Data estimating device, data estimating method, and data estimating program
Binning et al. Sigma point filters for dynamic nonlinear regime switching models
Dasgupta et al. Characterizing the stability of nisq devices
JPWO2016111240A1 (en) Information processing system, change point detection method, and program
Döppel et al. Efficient neural network models of chemical kinetics using a latent asinh rate transformation
JP5738778B2 (en) Optimal model estimation apparatus, method, and program
EP3895014A1 (en) Identifying faults in system data
CN112884151B (en) Method and system for controlling environment of glass melting furnace based on causal reasoning
JP3877948B2 (en) Model construction method and model construction system
KR101549349B1 (en) Method for building energy modeling based on data driven model and Method and system for optimal energy management and control
Ihshaish et al. Towards improving numerical weather predictions by evolutionary computing techniques
Khakifirooz et al. Neural ordinary differential equation for sequential optimal design of fatigue test under accelerated life test analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

R150 Certificate of patent or registration of utility model

Ref document number: 5186278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3