JP2001022722A - Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable - Google Patents

Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable

Info

Publication number
JP2001022722A
JP2001022722A JP11191065A JP19106599A JP2001022722A JP 2001022722 A JP2001022722 A JP 2001022722A JP 11191065 A JP11191065 A JP 11191065A JP 19106599 A JP19106599 A JP 19106599A JP 2001022722 A JP2001022722 A JP 2001022722A
Authority
JP
Japan
Prior art keywords
neural network
conditioned
learning
law
qualitative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11191065A
Other languages
Japanese (ja)
Inventor
Kazumi Saito
和巳 斉藤
Ryohei Nakano
良平 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP11191065A priority Critical patent/JP2001022722A/en
Publication of JP2001022722A publication Critical patent/JP2001022722A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To find a number law conditioned by a qualitative variable even if an original data distribution is based upon different polynomials by partial spaces when the relation that an input vector consisting of multiple qualitative variables and quantitative variables and a target output value have is find as a number law conditioned by a qualitative variable as to a set of instances consisting of the input vector and the target output value of the quantitative variable value. SOLUTION: By this number law finding method, a learning target function is set by adding a term obtained by multiplying the sum of squares of the combination weight of a neural network by a normalization coefficient to the term of the sum of square errors between target output values of respective instances and the output value of the neural network, which is learnt by using a secondary learning method; and the number of intermediate units of the neural network and the normalization coefficient are determined by using a crossing verifying method and a neural network as the learning result is converted into a number law conditioned by a qualitative variable by using a rule decomposing method.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、質的変数で条件付
けられる数法則の発見方法及び装置及び質的変数で条件
付けられる数法則の発見プログラムを格納した記憶媒体
に係り、特に、複数の質的変数値と量的変数値から構成
される入力ベクトル及び、量的変数値の目標出力値から
なる事例の集合に対して、入力ベクトルと当該目標出力
値の間に潜む関係を質的変数で条件付けられる数法則と
して発見するための質的変数で条件付けられる数法則の
発見方法及び装置及び質的変数で条件付けられる数法則
の発見プログラムを格納した記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for discovering a number law conditional on qualitative variables, and a storage medium storing a program for finding a number law conditional on qualitative variables. For a set of examples consisting of an input vector consisting of variable values and quantitative variable values and a target output value of a quantitative variable value, qualitatively qualify the relationship lurking between the input vector and the target output value. The present invention relates to a method and apparatus for discovering a number law conditioned by a qualitative variable to be discovered as a number law obtained, and a storage medium storing a program for finding a number law conditioned by a qualitative variable.

【0002】科学的発見を支援することは、学術上だけ
でなく、産業上も広い分野において極めて有用であり、
データから数法則を発見する課題は中心的である。例え
ば、法則発見システムを使えば、数値データからケプラ
ーの第3法則T=kr3/2 など発見できる。
[0002] Supporting scientific discovery is extremely useful not only in academic fields but also in a wide range of industries.
The task of discovering number laws from data is central. For example, if a rule discovery system is used, Kepler's third law T = kr 3/2 can be discovered from numerical data.

【0003】[0003]

【従来の技術】数法則の発見方法としては、先駆的研究
であるBACONシステム[P. Langley, H.A. Simon,
G. Bradshaw, J. Zytokow: "Scientific discovery: co
mputational explorations of the creative process".
MIT Press (1987) ]の後、様々な法則発見法[P. Langl
ey, J. Zytkow: "A robust approach to numeric disco
very", Proc. seventh International Machine Leaning
Conference, 411-418 (1990)],[C. Schaffer: "Bivari
ate scientific function finding in a sampled,real-
data testbed", Machine Learning, 12(1/2/3): 167-18
3 (1993)] が提案されている。
2. Description of the Related Art As a method of discovering a number law, a pioneering study of the BACON system [P. Langley, HA Simon,
G. Bradshaw, J. Zytokow: "Scientific discovery: co
mputational explorations of the creative process ".
MIT Press (1987)], followed by various law discovery methods [P. Langl
ey, J. Zytkow: "A robust approach to numeric disco
very ", Proc. seventh International Machine Leaning
Conference, 411-418 (1990)], [C. Schaffer: "Bivari
ate scientific function finding in a sampled, real-
data testbed ", Machine Learning, 12 (1/2/3): 167-18
3 (1993)].

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
提案の探索において、組み合わせ爆発が生じる。予め適
切な関数の定義が必要であると共に、データノイズに弱
い等の欠点がある。このように、従来の方法では、単一
の多項式法則を当てはめるが、本来のデータ分布が部分
空間毎に別々の多項式に従うような場合には、単一の多
項式をあてはめようとしてもうまく行かない。
However, in the search of the above proposal, a combination explosion occurs. There are drawbacks such as the need to define an appropriate function in advance and the vulnerability to data noise. As described above, in the conventional method, a single polynomial rule is applied. However, in a case where the original data distribution follows different polynomials for each subspace, an attempt to apply a single polynomial does not work.

【0005】例えば、クローンの法則F=4πεq1
2 /γ2 は、γだけ離れた電荷q1とq2 の間に働く力
Fの大きさを規定する。この法則は、媒体の誘電率εを
比例定数とし、例えば、水の中では、F=8897.3
52q1 2 /γ2 、空気中では、F=111.280
1 2 /γ2 のようになる。このような場合には、部
分空間毎に別々の法則を用意すべきである。
For example, the clone law F = 4πεq 1 q
2 / γ 2 defines the magnitude of the force F acting between the charges q 1 and q 2 separated by γ. This law defines the dielectric constant ε of the medium as a proportionality constant. For example, in water, F = 8897.3
52q 1 q 2 / γ 2 , F = 111.280 in air
q 1 q 2 / γ 2 . In such a case, separate rules should be prepared for each subspace.

【0006】本発明は、上記の点に鑑みなされたもの
で、複数の質的変数値と量的変数値から構成される入力
ベクトル、及び、量的変数値の目標出力値からなる事例
の集合に対して、当該入力ベクトルと該目標出力値の間
に潜む関係を、質的変数で、条件付けられる数法則とし
て発見する際に、本来のデータ分布が部分空間毎に別々
の多項式に従うような場合でも、質的変数で条件付けら
れる数法則を発見することが可能な質的変数で条件付け
られる数法則の発見方法及び装置及び質的変数で条件付
けられる数法則の発見プログラムを格納した記憶媒体を
提供することを目的とする。
The present invention has been made in view of the above points, and has an input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of the quantitative variable values. In contrast, when finding the relationship lurking between the input vector and the target output value as a qualitative variable and a conditional law, when the original data distribution follows a separate polynomial for each subspace However, the present invention provides a method and apparatus for discovering a number law conditioned by a qualitative variable, and a storage medium storing a program for finding a number law conditional on a qualitative variable. The purpose is to:

【0007】[0007]

【課題を解決するための手段】図1は、本発明の原理を
説明するための図である。本発明(請求項1)は、複数
の質的変数値と量的変数値から構成される入力ベクト
ル、及び量的変数値の目標出力値からなる事例の集合に
対して、該入力ベクトルと該目標出力値の間に潜む関係
を、質的変数で条件付けられる数法則として発見するた
めの質的変数で条件付けられる数法則の発見方法におい
て、各事例における目標出力値とニューラルネットの出
力値の自乗誤差の和の項に、ニューラルネットの結合重
みの自乗和を正則化係数倍した項を付加して学習目的関
数を設定し(ステップ1)、2次学習法を用いて、ニュ
ーラルネットの学習を行い(ステップ2)、交差検証法
を用いてニューラルネットの中間ユニットの個数と正則
化係数の決定し(ステップ3)、ルール分解法を用いて
学習結果のニューラルネットを質的変数で条件付けられ
る数法則に変換する(ステップ4)。
FIG. 1 is a diagram for explaining the principle of the present invention. The present invention (claim 1) provides an input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of quantitative variable values. In a method of finding a number law conditioned by qualitative variables to discover the relationship lurking between target output values as a number law conditioned by qualitative variables, the square of the target output value and the output value of the neural network in each case is used. A learning objective function is set by adding a term obtained by multiplying the sum of squares of the connection weights of the neural network by the regularization coefficient to the term of the error sum (step 1), and learning of the neural network is performed using the secondary learning method. (Step 2), determine the number of intermediate units of the neural network and the regularization coefficient using the cross-validation method (Step 3), and use the rule decomposition method to condition the neural network of the learning result with qualitative variables. Into a number law eclipsed (Step 4).

【0008】本発明(請求項2)は、ルール分解法とし
て、無変動重みのゼロシフト、基本ルールの抽出、該基
本ルールの合成を行う。図2は、本発明の原理構成図で
ある。本発明(請求項3)は、複数の質的変数値と量的
変数値から構成される入力ベクトル、及び量的変数値の
目標出力値からなる事例の集合に対して、該入力ベクト
ルと該目標出力値の間に潜む関係を、質的変数で条件付
けられる数法則として発見するための質的変数で条件付
けられる数法則発見装置であって、各事例における目標
出力値とニューラルネットの出力値の自乗誤差の和の項
に、ニューラルネットの結合重みの自乗和を正則化係数
倍した項を付加して学習目的関数を設定する学習目的関
数設定手段10と、2次学習法を用いて、ニューラルネ
ットの学習を行うニューラルネット学習手段20と、交
差検証法を用いてニューラルネットの中間ユニットの個
数と正則化係数の決定するモデル決定手段30と、ルー
ル分解法を用いて学習結果のニューラルネットを質的変
数で条件付けられる数法則に変換する数法則変換手段4
0とを有する。
According to the present invention (claim 2), as a rule decomposition method, zero shift of a non-variable weight, extraction of a basic rule, and synthesis of the basic rule are performed. FIG. 2 is a diagram illustrating the principle of the present invention. The present invention (Claim 3) provides an input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of quantitative variable values. A numerical law finding apparatus conditioned by a qualitative variable for discovering a relation lurking between target output values as a numerical law conditioned by a qualitative variable, wherein the target value and the output value of the neural network in each case are obtained. A learning objective function setting means 10 for setting a learning objective function by adding a term obtained by multiplying a sum of squares of connection weights of a neural network by a regularization coefficient to a term of a square error, and a neural learning method using a secondary learning method A neural network learning means 20 for learning the net; a model determining means 30 for determining the number of intermediate units of the neural network and a regularization coefficient using a cross-validation method; and a learning result using a rule decomposition method. The number rule conversion means 4 for converting the neural net number law is conditioned by qualitative variables
0.

【0009】本発明(請求項4)は、数法則変換手段で
用いるルール分解法として、無変動重みのゼロシフト、
基本ルールの抽出、該基本ルールの合成を行う。本発明
(請求項5)は、複数の質的変数値と量的変数値から構
成される入力ベクトル、及び量的変数値の目標出力値か
らなる事例の集合に対して、該入力ベクトルと該目標出
力値の間に潜む関係を、質的変数で条件付けられる数法
則として発見するための質的変数で条件付けられる数法
則の発見プログラムを格納した記憶媒体であって、各事
例における目標出力値とニューラルネットの出力値の自
乗誤差の和の項に、ニューラルネットの結合重みの自乗
和を正則化係数倍した項を付加して学習目的関数を設定
する学習目的関数設定プロセスと、2次学習法を用い
て、ニューラルネットの学習を行うニューラルネット学
習プロセスと、交差検証法を用いてニューラルネットの
中間ユニットの個数と正則化係数の決定するモデル決定
プロセスと、ルール分解法を用いて学習結果のニューラ
ルネットを質的変数で条件付けられる数法則に変換する
数法則変換プロセスとを有する。
According to the present invention (claim 4), the rule decomposition method used in the number law conversion means includes a zero shift of a non-variable weight,
The basic rules are extracted and the basic rules are synthesized. The present invention (claim 5) provides an input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of the quantitative variable values. A storage medium storing a discovery program of a number law conditioned by qualitative variables for discovering a relationship lurking between target output values as a number law conditioned by qualitative variables. A learning objective function setting process for setting a learning objective function by adding a term obtained by multiplying a sum of squares of connection weights of the neural network by a regularization coefficient to a term of a sum of square errors of output values of the neural network, and a secondary learning method , A neural network learning process for learning the neural network, a model determination process for determining the number of intermediate units and a regularization coefficient of the neural network using a cross-validation method, And a number rule conversion process for converting Lumpur decomposition neural network learning result using several law is conditioned by the qualitative variables.

【0010】本発明(請求項6)は、数法則変換プロセ
スで用いるルール分解法として、無変動重みのゼロシフ
ト、基本ルールの抽出、該基本ルールの合成を行う。上
記のように、本発明は、各事例における目標出力値とニ
ューラルネットの出力値の自乗誤差の和の項に、ニュー
ラルネットの結合重みの自乗和を正則化係数倍した項を
付加して学習目的関数を設定し、該ニューラルネットの
2次学習を行い、交差検証法を用いてニューラルネット
の中間ユニットの個数と正則化係数を決定し、学習結果
ニューラルネットの質的変数で条件付けられる数法則へ
変換する。このとき、ルール分割法として、無変動重み
のゼロシフト、基本ルールの抽出、基本ルールの合成を
行う。
According to the present invention (claim 6), as a rule decomposition method used in the number law conversion process, zero shift of non-variable weight, extraction of basic rules, and synthesis of the basic rules are performed. As described above, according to the present invention, learning is performed by adding a term obtained by multiplying a sum of squares of connection weights of a neural network by a regularization coefficient to a term of a square error between a target output value and an output value of a neural network in each case. The objective function is set, the secondary learning of the neural network is performed, the number of intermediate units of the neural network and the regularization coefficient are determined using the cross-validation method, and the number rule conditioned by the qualitative variables of the learning result neural network. Convert to At this time, as a rule division method, zero shift of the non-variable weight, extraction of basic rules, and synthesis of basic rules are performed.

【0011】これにより、本来のデータ分布が部分空間
毎に別々の多項式に従うような場合でも、質的変数で条
件付けられる数法則を発見することが可能となる。
Thus, even when the original data distribution follows different polynomials for each subspace, it is possible to find a number law conditional on qualitative variables.

【0012】[0012]

【発明の実施の形態】図3は、本発明の数法則発見装置
の構成を示す。数法則発見装置は、学習目的関数設定部
10、学習部20、係数決定部30、及び数法則変換部
40から構成される。学習目的関数設定部10は、入力
された事例集合の各事例における目標出力値とニューラ
ルネットの出力値の自乗誤差の和の項に、ニューラルネ
ットの結合重みの自乗和を正則化係数倍した項を付加し
て学習目的関数を設定する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 3 shows a configuration of a number law finding apparatus according to the present invention. The number law finding device includes a learning objective function setting unit 10, a learning unit 20, a coefficient determination unit 30, and a number law conversion unit 40. The learning objective function setting unit 10 calculates a term obtained by multiplying the sum of the square errors of the neural network connection weights by the regularization coefficient by the sum of the square errors of the target output value and the output value of the neural network in each case of the input case set. Is added to set the learning objective function.

【0013】学習部20は、2次学習法によりニューラ
ルネットの学習を行う。係数決定部30は、交差検証法
を用いてニューラルネットの中間ニュニットの個数と正
則化係数を決定する。数法則変換部40は、学習結果ニ
ューラルネットの質的変数で条件付けられる数法則へ変
換するもので、変換には、ルール分解法として、無変
動重みのゼロシフト法、基本ルールの抽出法、基本
ルールの合成法を用いる。
The learning section 20 learns a neural network by a secondary learning method. The coefficient determining unit 30 determines the number of intermediate units and the regularization coefficient of the neural network using the cross-validation method. The number-law conversion unit 40 converts the learning result into a number law conditioned by the qualitative variables of the neural network. The conversion includes a rule decomposition method such as a zero-shift method of a constant weight, an extraction method of a basic rule, and a basic rule. Is used.

【0014】以下に上記の構成要素を詳細に説明する。 1. 基本的枠組み:各サンプルが変数群(q1 ,…,
K1,x1 ,…,xK2,y)で表されるとする。qk
質的変数、xk は量的変数、yは基準変数とする。ま
た、Lk をとり得るカテゴリの数とする。処理の便宜
上、qk を以下のような2進のダミー変数qklで表す。
Hereinafter, the above components will be described in detail. 1. Basic framework: Each sample is a set of variables (q 1 , ...,
q K1, x 1, ..., and is represented by x K2, y). q k is a qualitative variable, x k is a quantitative variable, and y is a reference variable. Also, let L k be the number of possible categories. For convenience of processing, q k is represented by the following binary dummy variable q kl .

【0015】[0015]

【数1】 (Equation 1)

【0016】ここでは、真のデータモデルが以下のよう
なルールからなると仮定する(γ=1,…,R)。各ル
ールの条件部は質的変数の論理積とする。但し、
Here, it is assumed that the true data model has the following rules (γ = 1,..., R). The condition part of each rule is a logical product of qualitative variables. However,

【0017】[0017]

【数2】 (Equation 2)

【0018】は条件部に現れるダミー変数の集合とす
る。
Is a set of dummy variables appearing in the condition part.

【0019】[0019]

【数3】 (Equation 3)

【0020】実行部は、パラメータThe execution unit includes a parameter

【0021】[0021]

【数4】 (Equation 4)

【0022】を持つ多項式とする。Let be a polynomial having

【0023】[0023]

【数5】 (Equation 5)

【0024】2. 条件部の数値表現 条件部を数値表現するために、以下のような関数gを導
入する。
2. Numerical expression of conditional part In order to numerically express the conditional part, the following function g is introduced.

【0025】[0025]

【数6】 (Equation 6)

【0026】ここで、Here,

【0027】[0027]

【数7】 (Equation 7)

【0028】は、上式右辺に現れるパラメータからなる
ベクトルとする。いま、このパラメータ値を以下のよう
に設定する。
Is a vector composed of parameters appearing on the right side of the above equation. Now, this parameter value is set as follows.

【0029】[0029]

【数8】 (Equation 8)

【0030】βを大きな正数とすれば、条件部が成立す
るとき、
If β is a large positive number, when the condition part is satisfied,

【0031】[0031]

【数9】 (Equation 9)

【0032】となり、成立しないときには、And if not,

【0033】[0033]

【数10】 (Equation 10)

【0034】exp (−β) 0が効いてきて、Exp (−β) 0 becomes effective,

【0035】[0035]

【数11】 [Equation 11]

【0036】となるので、以下は式(2)を十分な精度
で近似する。
Thus, the following approximates equation (2) with sufficient accuracy.

【0037】[0037]

【数12】 (Equation 12)

【0038】従って、それらを足し合わせた下式は、真
のデータモデルを十分な精度で近似する。ただし、Ψ
は、パラメータ群
Therefore, the following equation obtained by adding them approximates the true data model with sufficient accuracy. However, Ψ
Is the parameter group

【0039】[0039]

【数13】 (Equation 13)

【0040】からなる。Consists of

【0041】[0041]

【数14】 [Equation 14]

【0042】3.ニューラルネットによる学習 次に、学習部20におけるニューラルネットによる学習
について説明する。利用できるデータを
3. Learning by Neural Network Next, learning by the neural network in the learning unit 20 will be described. Available data

【0043】[0043]

【数15】 (Equation 15)

【0044】とする。このとき、以下の計算式は、fを
適切に用意すれば、式(6)を完全に表現することがで
きる。
It is assumed that At this time, the following calculation formula can completely express formula (6) if f is appropriately prepared.

【0045】[0045]

【数16】 (Equation 16)

【0046】Θはパラメータベクトルで、 wi,j =0,…,J,vjkl , j=1,…,J,k=1,…,K1 , l=1,…,Lk , 及び、 wjk,j=1,…,J, k=1,…,K2 からなる。また、その次数をMとする。式(7)は、J
個の隠れユニットを持つ3層ニューラルネットワークの
フィードフォワード計算式と解釈できる。
[0046] Θ is a parameter vector, w i, j = 0, ..., J, v jkl, j = 1, ..., J, k = 1, ..., K 1, l = 1, ..., L k, and , w jk, j = 1, ..., J, k = 1, ..., consisting of K 2. Also, the order is M. Equation (7) is J
This can be interpreted as a feedforward calculation formula of a three-layer neural network having three hidden units.

【0047】ニューラルネット学習では、誤差関数E
(Θ)に重みのペナルティ項Ω(Θ)を付加すると汎化
性能が著しく向上することが知られている。さらに、ペ
ナルティ項付加には不要な重みをゼロにする効果も期待
でき、法則発見の観点からも都合がよい。実験によれ
ば、2乗ペナルティと2次学習アルゴリズムの組み合わ
せが汎化性能の向上効果が著しい。そこで、以下のよう
な目的関数が考えられる。但し、λはペナルティ係数、
θm ∈Θとする。
In the neural network learning, the error function E
It is known that adding a penalty term Ω (Θ) to (Θ) significantly improves generalization performance. Furthermore, the effect of adding unnecessary weights to the penalty term can be expected to be zero, which is convenient from the viewpoint of finding rules. According to the experiment, the combination of the square penalty and the secondary learning algorithm has a remarkable effect of improving the generalization performance. Therefore, the following objective function can be considered. Where λ is a penalty coefficient,
θ m ∈Θ.

【0048】[0048]

【数17】 [Equation 17]

【0049】しかし、このようにペナルティ係数が単一
の2乗ペナルティは、変数変換に不変でない重みを求め
るという欠点がある。実際、
However, the square penalty having a single penalty coefficient has a drawback that a weight that is not invariant to variable transformation is obtained. In fact,

【0050】[0050]

【数18】 (Equation 18)

【0051】のような変数変換に不変な重みを求めるに
は、重み毎に異なるペナルティ係数を用意する必要があ
るが、これは、係数の数が多過ぎて学習が容易でない。
そこで、ここでは、入力層から隠れ層への重みだけにペ
ナルティを課すことにする。こうすれば、上記のような
変数変換にも不変な重みを単一のペナルティ係数で求め
ることができる。即ち、式(7)に従う法則の発見問題
は、以下の目的関数を最小にするパラメータを求める問
題として定式化できる。
In order to obtain an invariant weight for variable conversion as described above, it is necessary to prepare a different penalty coefficient for each weight, but this is not easy because the number of coefficients is too large.
Therefore, here, a penalty is imposed only on the weight from the input layer to the hidden layer. In this way, a weight that is invariant to the above-described variable conversion can be obtained with a single penalty coefficient. That is, the problem of finding the rule according to the equation (7) can be formulated as a problem of finding a parameter that minimizes the following objective function.

【0052】[0052]

【数19】 [Equation 19]

【0053】3.モデル選択の基準 次に、係数決定部30において、ニューラルネットの中
間ユニットの個数と正則化係数の結果を行う場合につい
て説明する。データが与えられている状態で、式(7)
の最適隠れユニット数J* も式(9)の最適ペナルティ
係数λ* も未知である。データを説明する最適なモデル
とモデルパラメータを求めるためには、データからJ*
やλ* を選択する基準が必要である。本発明では、この
基準として交差検証法cross-validationを用いる。交差
検証法は、ニューラルネットなどの学習機械の汎化性能
を評価するのにしばしば利用される。ここで、汎化と
は、学習に用いないデータに対する性能を指す。交差検
証法では、与えられたデータDをランダムにS個のセグ
メントに分割する(Gs ,s=1,…,S)。そして、
S−1個のセグメントを学習に使用し、残りの1個を
(汎化の)テストに使用する。セグメント数とサンプル
数が等しい場合は、特に、一つ抜き法leave-one-out と
呼ばれる。この手順をS回繰り返し、最終的には以下の
平均2乗誤差MSECVを求める。
3. Criteria for Model Selection Next, a case will be described in which the coefficient determination unit 30 determines the number of intermediate units of the neural network and the result of the regularization coefficient. With the data given, equation (7)
The optimal number of hidden units J * and the optimal penalty coefficient λ * in equation (9) are unknown. To find the optimal model and model parameters that describe the data, J *
And criteria for selecting λ * are required. In the present invention, the cross-validation method cross-validation is used as this criterion. Cross-validation is often used to evaluate the generalization performance of learning machines such as neural networks. Here, generalization refers to the performance for data not used for learning. In the cross-validation method, given data D is randomly divided into S segments (G s , s = 1,..., S). And
S-1 segments are used for training and the remaining one is used for (generalization) testing. If the number of segments is equal to the number of samples, it is called leave-one-out. This procedure is repeated S times, and finally the following mean square error MSE CV is obtained.

【0054】[0054]

【数20】 (Equation 20)

【0055】次に、数法則変換部40について説明す
る。 5.ルール分解アルゴリズム 上記基準を用いて、一つのニューラルネットを最良の法
則候補として選択できたとする。それを元のルール集合
に分解する必要がある。重みWは多項式の形成に使えば
よいが、重みVの利用の仕方はそれほど単純ではなく、
以下に示す手順でルール分解に使う。なお、微小な変動
を無視するパラメータεを導入し、無用なルールの発生
を防ぐ。
Next, the number law conversion unit 40 will be described. 5. Rule decomposition algorithm It is assumed that one neural net can be selected as the best rule candidate using the above criteria. It needs to be decomposed into the original rule set. The weight W may be used to form a polynomial, but the way of using the weight V is not so simple.
The following procedure is used for rule decomposition. It should be noted that a parameter ε that ignores minute fluctuations is introduced to prevent the occurrence of useless rules.

【0056】 無変動重みのゼロシフト:以下の手順
を各隠れユニットjについて繰り返す。質的変数kの重
みが max l (vjkl )−min l (vjk)≦ε のように無変動とみなせるときには、定常文を重みwj
に掛けてからゼロにシフトする(vjkl =0)。
Zero shift of non-variable weight: The following procedure is repeated for each hidden unit j. When the weight of the qualitative variable k is regarded as no variation as max l (v jkl) -min l (v jk) ≦ ε is a constant sentences weights w j
And then shift to zero (v jkl = 0).

【0057】[0057]

【数21】 (Equation 21)

【0058】 基本ルールの抽出:以下の手順を各隠
れユニットjについて繰り返す。変動する重みを持つ質
的変数群については、各ダミー変数のすべての組み合わ
せをつくり、uで採番する。u番目の組み合わせに対し
て、ダミー変数の集合Qj:u が定まるので、それに対応
する重みの寄与分を計算し、重みw’j に掛ける。
Extraction of basic rules: The following procedure is repeated for each hidden unit j. For a qualitative variable group having fluctuating weights, all combinations of each dummy variable are created and numbered with u. Since a set Q j: u of dummy variables is determined for the u-th combination, the corresponding weight contribution is calculated and multiplied by the weight w ′ j .

【0059】[0059]

【数22】 (Equation 22)

【0060】かくして、質的変数の論理積を条件部に持
つ以下のような基本ルールが抽出できる。なお、|w
j:u |<εである重みに対しては、tj:u =0とする。
In this way, the following basic rule having the logical product of the qualitative variables in the condition part can be extracted. | W
For weights where j: u | <ε, t j: u = 0.

【0061】[0061]

【数23】 (Equation 23)

【0062】 基本ルールの合成:隠れユニットj,
j’で求めた基本ルールを合成する。合成はすべての組
み合わせについて行い、条件部は論理積として合成し、
実行部は単なる和をとる。
Synthesis of basic rules: hidden unit j,
The basic rules determined by j 'are synthesized. Composition is performed for all combinations, and the conditional part is composed as a logical product.
The execution unit simply sums.

【0063】[0063]

【数24】 (Equation 24)

【0064】なお、条件部が常に「偽」となる組み合わ
せは破棄する。上記の合成を隠れユニットが無くなるま
で繰り返して、共通の定数項w0 を各実行部に加算すれ
ば、式(2)のようなルールに分解できる。
A combination whose condition part is always "false" is discarded. If the above combination is repeated until there are no hidden units, and a common constant term w 0 is added to each execution unit, the combination can be decomposed into a rule such as Expression (2).

【0065】[0065]

【実施例】以下、上記のロジックを用いた質的変数で条
件付けられる数法則の発見法に対する実施例を図面と共
に説明する。図4は、本発明の一実施例の数法則発見装
置の構成を示し、、図5は、本発明の一実施例の学習部
の構成を示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A description will now be given, with reference to the drawings, of an embodiment of a method for finding a number law conditional on qualitative variables using the above logic. FIG. 4 shows a configuration of a number-law finding device according to an embodiment of the present invention, and FIG. 5 shows a configuration of a learning unit according to an embodiment of the present invention.

【0066】正則化項を用いたニューラルネットの学習
を行う学習部20は、正則化係数μの初期値とその下限
値を設定する設定部21、結合重みの初期化を行う初期
化部22、反復の停止条件を判定する停止条件判定部2
3、結合重みの修正方向を計算する探索方向計算部2
4、結合重みの修正幅を計算する探索幅計算部25、結
合重みを更新する結合重み更新部26、交差検証誤差を
計算する誤差計算部27及びアルゴリズムの終了判定部
28から構成される。
A learning unit 20 for learning a neural network using a regularization term includes a setting unit 21 for setting an initial value of a regularization coefficient μ and its lower limit, an initialization unit 22 for initializing connection weights, Stop condition determination unit 2 that determines the stop condition of repetition
3. Search direction calculation unit 2 for calculating the correction direction of the connection weight
4, a search width calculating unit 25 for calculating a correction width of the connection weight, a connection weight updating unit 26 for updating the connection weight, an error calculating unit 27 for calculating the cross-validation error, and an end determination unit 28 for the algorithm.

【0067】ここで、人工データとして、本発明の評価
のため、質的変数q2 で条件付けられた多項式群を考え
る。
Here, a group of polynomials conditioned by a qualitative variable q 2 is considered as artificial data for evaluation of the present invention.

【0068】[0068]

【数25】 (Equation 25)

【0069】質的変数をq1 ,q2 ,q3 、量的変数を
1 ,…,x9 とし、カテゴリ数Lkは、2、3、4と
する。q1 ,q3 ,x6 ,…,x9 は、法則に無関係な
変数である。各変数値はランダムに生成するが、量的変
数値は区間[0,1]内の値とし、基準変数値には小さ
な正規乱数を付加する。サンプル数を400とする(N
=400)。
The qualitative variables are q 1 , q 2 , q 3 , the quantitative variables are x 1 ,..., X 9 , and the number of categories L k is 2, 3, 4. q 1 , q 3 , x 6 ,..., x 9 are variables unrelated to the rule. Each variable value is randomly generated, but the quantitative variable value is a value in the section [0, 1], and a small normal random number is added to the reference variable value. Set the number of samples to 400 (N
= 400).

【0070】学習では、重みvjkl,jkの初期値は、平
均0、標準偏差1の正規分布に従うように、また、重み
j の初期値は0、定数項w0 の初期値は基準変数値の
平均値とした。学習は、勾配が十分小さくなったとき、
(‖▽J(Θ)‖2 /M<10-8)、または、処理時間
が100秒を超えたとき終了させた。ペナルティ係数λ
は、10×100 から10×10-9まで、10-1刻みと
した。また、隠れユニット数は、1から4まで変化させ
た(J=1,2,3,4)。同じJとλに対して試行を
10回繰り返した。
In the learning, the initial values of the weights v jkl and w jk follow a normal distribution having an average of 0 and a standard deviation of 1. The initial value of the weight w j is 0, and the initial value of the constant term w 0 is a reference value. The average value of the variable values was used. Learning starts when the gradient is small enough.
(‖ ▽ J (Θ) ‖ 2 / M <10 -8 ) or when the processing time exceeded 100 seconds, the process was terminated. Penalty factor λ
From 10 × 10 0 to 10 × 10 -9 in 10 -1 increments. The number of hidden units was changed from 1 to 4 (J = 1, 2, 3, 4). The trial was repeated 10 times for the same J and λ.

【0071】その学習結果を図6に示す。学習データに
対する誤差RMSEは、J=4のとき最小になるが、学
習データとは別に生成したテストデータ(10,000
サンプル)に対しては、J=3のとき最小になる。これ
より、J* =3と推測できる。J=3のとき、本発明で
発見した法則例を示す。
FIG. 6 shows the learning result. The error RMSE with respect to the learning data is minimized when J = 4, but the test data (10,000) generated separately from the learning data.
Sample), it becomes minimum when J = 3. From this, it can be inferred that J * = 3. When J = 3, an example of the rule discovered in the present invention is shown.

【0072】[0072]

【数26】 (Equation 26)

【0073】これに、前述のルール分解アルゴリズムを
適用することにより、以下の法則が発見できた。
By applying the above rule decomposition algorithm to this, the following rule was found.

【0074】[0074]

【数27】 [Equation 27]

【0075】既存法ABACUSのように事前に特定の
関数系を用意する必要もなく、元の法則とほぼ同じもの
が復元できた。また、条件付き多項式群が1枚のニュー
ラルネットが学習できる点も本発明の特徴と言える。次
に、現実データとして自動車データを用いて本発明を評
価する。自動車データ(UCI機械学習データベースを
利用)は、1985年に米国に輸入された自動車やトラ
ックの諸元と価格のデータである。11の質的説明変
数、14の量的説明変数、及び基準変数(価格)があ
る。欠測値のあるサンプルを除いて、159サンプルが
利用できる(N=159)。従来の分析では、線形解析
とk−NN法を適用して、それぞれ、MDE=14.2
%と、11.8%であった。但し、MDE(mean deviat
ion error)は、
Unlike the existing method AVACUS, there is no need to prepare a specific function system in advance, and almost the same rule as the original rule can be restored. Another feature of the present invention is that a neural network having one conditional polynomial group can be learned. Next, the present invention is evaluated using vehicle data as real data. Automobile data (using the UCI machine learning database) is data on the specifications and prices of automobiles and trucks imported to the United States in 1985. There are 11 qualitative explanatory variables, 14 quantitative explanatory variables, and a reference variable (price). Except for samples with missing values, 159 samples are available (N = 159). In the conventional analysis, a linear analysis and a k-NN method were applied to obtain MDE = 14.2.
% And 11.8%. However, MDE (mean deviat
ion error)

【0076】[0076]

【数28】 [Equation 28]

【0077】で定義される。全データが学習に使用さ
れ、テストにも使用された。本発明を適用する実験条件
は前実験と同じとした。但し、J=1,2,3とした。
また、各変数は、次のように変数変換したが、発見する
法則はこれに不変であることが示せる。
Is defined as All data was used for training and for testing. The experimental conditions for applying the present invention were the same as in the previous experiment. However, J = 1, 2, and 3.
In addition, each variable was transformed as follows, but it can be shown that the rule to be found is invariant to this.

【0078】[0078]

【数29】 (Equation 29)

【0079】3つのケース、すなわち、量的変数だけ
のデータ、質的変数+1質的変数のデータ、全変数
のデータに、本発明を適用した。その結果、ケースで
は過学習が生じて汎化性能がケースよりも劣化するこ
と、及びケースの汎化性能は、ケースを上回ること
がわかった。ケースで使用した質的変数は製造メーカ
2 である。ケースの中では、隠れユニット数J=1
の汎化性能が最良であった。j=1のとき、本発明が発
見した法則を示す。これをルール群に分解するのは簡単
である。この法則のMDEは8.4%であった。なお、
第k番目の製造メーカ(q2k)を単にqk と表した。
The present invention was applied to three cases, namely, data of only quantitative variables, data of qualitative variables + 1 data of qualitative variables, and data of all variables. As a result, it was found that in the case, over-learning occurred and the generalization performance deteriorated as compared with the case, and that the generalization performance of the case exceeded the case. Qualitative variables used in the case is a manufacturer q 2. In the case, the number of hidden units J = 1
Had the best generalization performance. When j = 1, the rule discovered by the present invention is shown. It is easy to break this down into rules. The MDE for this rule was 8.4%. In addition,
The k-th manufacturer (q 2k ) was simply denoted as q k .

【0080】[0080]

【数30】 [Equation 30]

【0081】また、上記の説明では、図3、図4の構成
に基づいて説明したが、これらの図の学習目的関数設定
部10、学習部20、係数決定部30、数法則変換部4
0をプログラムとして構築し、数法則発見装置として利
用されるコンピュータに接続されるディスク装置や、フ
ロッピー(登録商標)ディスク、CD−ROM等の可搬
記憶媒体に格納しておき、本発明を実施する際にインス
トールすることにより容易に本発明を実現できる。
Although the above description has been made based on the configurations shown in FIGS. 3 and 4, the learning objective function setting unit 10, the learning unit 20, the coefficient determination unit 30, and the number law conversion unit 4 shown in FIGS.
0 is constructed as a program and stored in a portable storage medium such as a disk device connected to a computer used as a number law finding device, a floppy (registered trademark) disk, or a CD-ROM. The present invention can be easily realized by installing the software at the time of installation.

【0082】なお、本発明は、上記の実施例に限定され
ることなく、特許請求の範囲内で種々変更・応用が可能
である。
The present invention is not limited to the above embodiments, but can be variously modified and applied within the scope of the claims.

【0083】[0083]

【発明の効果】上述のように、本発明によれば、複数の
質的変数値と量的変数値から構成される入力ベクトル、
及び量的変数値の目標出力値からなる事例の集合に対し
て、入力ベクトルと目標出力値の間に潜む関係を、質的
変数で条件付けられる数法則として発見する際に、各事
例における目標出力値とニューラルネットの出力値の自
乗誤差の和の項に、ニューラルネットの結合重みの自乗
和を正則化係数倍した項を付加して学習目的関数を設定
し、該ニューラルネットの2次学習を行い、交差検証法
を用いてニューラルネットの中間ユニットの個数と正則
化係数を決定し、学習結果ニューラルネットの質的変数
で条件付けられる数法則へ変換する。このとき、ルール
分割法として、無変動重みのゼロシフト、基本ルールの
抽出、基本ルールの合成を行う。
As described above, according to the present invention, an input vector composed of a plurality of qualitative variable values and quantitative variable values,
When the relationship between the input vector and the target output value is discovered as a number law conditioned on qualitative variables for a set of cases consisting of A learning objective function is set by adding a term obtained by multiplying the sum of squares of the connection weights of the neural network by the regularization coefficient to the term of the square error of the output value of the neural network and the secondary learning of the neural network. Then, the number of intermediate units of the neural network and the regularization coefficient are determined by using the cross-validation method, and the result is converted into a number rule conditioned by qualitative variables of the learning result neural network. At this time, as a rule division method, zero shift of the non-variable weight, extraction of basic rules, and synthesis of basic rules are performed.

【0084】これにより、本来のデータ分布が部分空間
毎に別々の多項式に従うような場合でも、質的変数で条
件付けられる数法則を発見することができる。
As a result, even when the original data distribution follows different polynomials for each subspace, it is possible to find a number law conditional on qualitative variables.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明するための図である。FIG. 1 is a diagram for explaining the principle of the present invention.

【図2】本発明の原理構成図である。FIG. 2 is a principle configuration diagram of the present invention.

【図3】本発明の数法則発見装置の構成図である。FIG. 3 is a configuration diagram of a number law finding device of the present invention.

【図4】本発明の一実施例の数法則発見装置の構成図で
ある。
FIG. 4 is a configuration diagram of a number law finding device according to an embodiment of the present invention.

【図5】本発明の一実施例の学習部の構成図である。FIG. 5 is a configuration diagram of a learning unit according to an embodiment of the present invention.

【図6】本発明の一実施例の人工データへの適用結果で
ある。
FIG. 6 shows a result of applying one embodiment of the present invention to artificial data.

【符号の説明】[Explanation of symbols]

10 学習目的関数設定手段、学習目的関数設定部 20 ニューラルネット学習手段、学習部 21 設定部 22 初期化部 23 停止条件判定部 24 探索方向計算部 25 探索幅計算部 26 結合重み更新部 27 誤差計算部 28 終了判定部 30 モデル決定手段、係数決定部 40 数法則変換手段、数法則変換部 Reference Signs List 10 learning objective function setting means, learning objective function setting unit 20 neural network learning means, learning unit 21 setting unit 22 initialization unit 23 stop condition determination unit 24 search direction calculation unit 25 search width calculation unit 26 connection weight update unit 27 error calculation Unit 28 end determination unit 30 model determination unit, coefficient determination unit 40 number law conversion unit, number law conversion unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の質的変数値と量的変数値から構成
される入力ベクトル、及び量的変数値の目標出力値から
なる事例の集合に対して、該入力ベクトルと該目標出力
値の間に潜む関係を、質的変数で条件付けられる数法則
として発見するための質的変数で条件付けられる数法則
の発見方法において、 各事例における目標出力値とニューラルネットの出力値
の自乗誤差の和の項に、ニューラルネットの結合重みの
自乗和を正則化係数倍した項を付加して学習目的関数を
設定し、 2次学習法を用いて、ニューラルネットの学習を行い、 交差検証法を用いてニューラルネットの中間ユニットの
個数と正則化係数の決定し、 ルール分解法を用いて学習結果のニューラルネットを質
的変数で条件付けられる数法則に変換することを特徴と
する質的変数で条件付けられる数法則の発見方法。
1. An input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of quantitative variable values, the input vector and the target output value In the method of finding the number law conditioned by qualitative variables to discover the relationship between them as a number law conditioned by qualitative variables, the method of finding the sum of the squared error between the target output value and the output value of the neural network in each case A learning objective function is set by adding a term obtained by multiplying the sum of the squares of the connection weights of the neural net by the regularization coefficient to the term, and the neural network is trained using the secondary learning method, and the cross-validation method is used. The number of intermediate units of the neural network and the regularization coefficient are determined, and the neural network resulting from the learning is converted into a number law conditional on qualitative variables using a rule decomposition method. Number law discovery methods of which is conditioned on.
【請求項2】 前記ルール分解法として、 無変動重みのゼロシフト、基本ルールの抽出、該基本ル
ールの合成を行う請求項1記載の質的変数で条件付けら
れる数法則の発見方法。
2. The method according to claim 1, wherein the rule decomposition method includes zero-shifting a non-variable weight, extracting a basic rule, and synthesizing the basic rule.
【請求項3】 複数の質的変数値と量的変数値から構成
される入力ベクトル、及び量的変数値の目標出力値から
なる事例の集合に対して、該入力ベクトルと該目標出力
値の間に潜む関係を、質的変数で条件付けられる数法則
として発見するための質的変数で条件付けられる数法則
発見装置であって、 各事例における目標出力値とニューラルネットの出力値
の自乗誤差の和の項に、ニューラルネットの結合重みの
自乗和を正則化係数倍した項を付加して学習目的関数を
設定する学習目的関数設定手段と、 2次学習法を用いて、ニューラルネットの学習を行うニ
ューラルネット学習手段と、 交差検証法を用いてニューラルネットの中間ユニットの
個数と正則化係数の決定するモデル決定手段と、 ルール分解法を用いて学習結果のニューラルネットを質
的変数で条件付けられる数法則に変換する数法則変換手
段とを有することを特徴とする質的変数で条件付けられ
る数法則発見装置。
3. An input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of the quantitative variable values, wherein the input vector and the target output value A numerical law finding device conditioned by a qualitative variable for discovering the relationship between them as a numerical law conditioned by a qualitative variable, comprising a sum of a squared error between a target output value and a neural network output value in each case. A learning objective function setting means for setting a learning objective function by adding a term obtained by multiplying the sum of squares of the connection weights of the neural network by the regularization coefficient to the term, and learning the neural network using the secondary learning method A neural network learning means, a model determining means for determining the number of intermediate units and a regularization coefficient of the neural network using a cross-validation method, and a neural network learning result using a rule decomposition method. The number rule discovery device is conditioned by the qualitative variables and having a number laws conversion means for converting the number law is conditioned by the qualitative variables.
【請求項4】 前記数法則変換手段で用いるルール分解
法として、 無変動重みのゼロシフト、基本ルールの抽出、該基本ル
ールの合成を行う請求項3記載の質的変数で条件付けら
れる数法則発見装置。
4. The number rule finding apparatus conditioned on qualitative variables according to claim 3, wherein the rule decomposition method used in the number rule conversion means performs zero shift of a constant weight, extracts a basic rule, and synthesizes the basic rule. .
【請求項5】 複数の質的変数値と量的変数値から構成
される入力ベクトル、及び量的変数値の目標出力値から
なる事例の集合に対して、該入力ベクトルと該目標出力
値の間に潜む関係を、質的変数で条件付けられる数法則
として発見するための質的変数で条件付けられる数法則
の発見プログラムを格納した記憶媒体であって、 各事例における目標出力値とニューラルネットの出力値
の自乗誤差の和の項に、ニューラルネットの結合重みの
自乗和を正則化係数倍した項を付加して学習目的関数を
設定する学習目的関数設定プロセスと、 2次学習法を用いて、ニューラルネットの学習を行うニ
ューラルネット学習プロセスと、 交差検証法を用いてニューラルネットの中間ユニットの
個数と正則化係数の決定するモデル決定プロセスと、 ルール分解法を用いて学習結果のニューラルネットを質
的変数で条件付けられる数法則に変換する数法則変換プ
ロセスとを有することを特徴とする質的変数で条件付け
られる数法則の発見プログラムを格納した記憶媒体。
5. An input vector composed of a plurality of qualitative variable values and quantitative variable values, and a set of cases composed of target output values of the quantitative variable values. A storage medium that stores a program for finding a number law conditioned by qualitative variables for discovering the hidden relationship between them as a number law conditioned by qualitative variables, the target output value and the output of the neural network in each case A learning objective function setting process for setting a learning objective function by adding a term obtained by multiplying the sum of the squares of the connection weights of the neural network by the regularization coefficient to the term of the sum of square errors of the values, A neural network learning process for learning the neural network, a model determination process for determining the number of intermediate units and a regularization coefficient of the neural network using a cross-validation method, and a rule. Storage medium storing a number laws discovery programs is conditioned by qualitative variables, characterized in that it comprises a number law conversion process of converting the neural net learning result in several law is conditioned by the qualitative variables using a solution.
【請求項6】 前記数法則変換プロセスで用いるルール
分解法として、 無変動重みのゼロシフト、基本ルールの抽出、該基本ル
ールの合成を行う請求項5記載の質的変数で条件付けら
れる数法則の発見プログラムを格納した記憶媒体。
6. The discovery of a number law conditioned on qualitative variables according to claim 5, wherein the rule decomposition method used in the number law conversion process includes zero shift of a constant weight, extraction of a basic rule, and synthesis of the basic rule. A storage medium that stores programs.
JP11191065A 1999-07-05 1999-07-05 Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable Pending JP2001022722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11191065A JP2001022722A (en) 1999-07-05 1999-07-05 Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11191065A JP2001022722A (en) 1999-07-05 1999-07-05 Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable

Publications (1)

Publication Number Publication Date
JP2001022722A true JP2001022722A (en) 2001-01-26

Family

ID=16268302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11191065A Pending JP2001022722A (en) 1999-07-05 1999-07-05 Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable

Country Status (1)

Country Link
JP (1) JP2001022722A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018511870A (en) * 2015-03-13 2018-04-26 中国科学院声学研究所Institute Of Acoustics, Chinese Academy Of Sciences Big data processing method for segment-based two-stage deep learning model
CN111179591A (en) * 2019-12-30 2020-05-19 银江股份有限公司 Road network traffic time sequence characteristic data quality diagnosis and restoration method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018511870A (en) * 2015-03-13 2018-04-26 中国科学院声学研究所Institute Of Acoustics, Chinese Academy Of Sciences Big data processing method for segment-based two-stage deep learning model
CN111179591A (en) * 2019-12-30 2020-05-19 银江股份有限公司 Road network traffic time sequence characteristic data quality diagnosis and restoration method
CN111179591B (en) * 2019-12-30 2021-02-26 银江股份有限公司 Road network traffic time sequence characteristic data quality diagnosis and restoration method

Similar Documents

Publication Publication Date Title
CN109190537B (en) Mask perception depth reinforcement learning-based multi-person attitude estimation method
CN106570464B (en) Face recognition method and device for rapidly processing face shielding
Paris et al. Applying boosting techniques to genetic programming
US20210012183A1 (en) Method and device for ascertaining a network configuration of a neural network
Cheng et al. Classification logit two-sample testing by neural networks for differentiating near manifold densities
CN112669215A (en) Training text image generation model, text image generation method and device
JPH08227408A (en) Neural network
JP4369791B2 (en) Modeling directed scale-free object relationships
Lyu et al. Probabilistic object detection via deep ensembles
US7702489B2 (en) Method and apparatus for fast machine learning using probability maps and fourier transforms
JP2001022722A (en) Method and device for finding number law conditioned by qualitative variable and storage medium stored with finding program for number law conditioned by qualitative variable
CN114997378A (en) Inductive graph neural network pruning method, system, device and storage medium
US9336498B2 (en) Method and apparatus for improving resilience in customized program learning network computational environments
US20050021316A1 (en) Modeling directed scale-free object relationships
Hu et al. Initial investigation of speech synthesis based on complex-valued neural networks
Ayala et al. Cascaded free search differential evolution applied to nonlinear system identification based on correlation functions and neural networks
Coolen et al. On-line learning from restricted training sets in multilayer neural networks
Havangi A new modified particle filter with application in target tracking
CN111539536B (en) Method and device for evaluating service model hyper-parameters
Sergeev et al. Selecting the parameters of production equipment by means of a genetic algorithm.
Hall et al. The use of simulation techniques for expert system test and evaluation
Hollósi et al. Training capsule networks with various parameters
CN113836027B (en) Method for generating failure test case by using generation type network
Mirhassani et al. Fuzzy decision fusion of complementary experts based on evolutionary cepstral coefficients for phoneme recognition
Ivakhnenko Short-Term Process Forecasting by Analogues Complexing GMDH Algorithm