JPH07311754A - Learning machine - Google Patents

Learning machine

Info

Publication number
JPH07311754A
JPH07311754A JP6131439A JP13143994A JPH07311754A JP H07311754 A JPH07311754 A JP H07311754A JP 6131439 A JP6131439 A JP 6131439A JP 13143994 A JP13143994 A JP 13143994A JP H07311754 A JPH07311754 A JP H07311754A
Authority
JP
Japan
Prior art keywords
learning
data
input
initial
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6131439A
Other languages
Japanese (ja)
Inventor
Kenji Fukumizu
健次 福水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP6131439A priority Critical patent/JPH07311754A/en
Publication of JPH07311754A publication Critical patent/JPH07311754A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To efficiently and precisely perform a learning by generating optimum learning data which are effective to the learning. CONSTITUTION:A learning data generation part 4 generates input data xnu according to a probable rule and generates the learning data (xnu, ynu) by using the real response of an unknown system to the input data as tutor data ynu, and an initial learning data generation part 4a which generates initial learning data and an update learning data generation part 4b which generates learning data for update are provided corresponding to that a conditioned probability estimation part 2 carries out the learning in two stages of learning for initial learning and subsequent parameter update.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、システム同定,パター
ン認識や制御問題などのように、与えられた入力から望
ましい出力を得るのに利用可能な学習機械に関する。
FIELD OF THE INVENTION This invention relates to learning machines that can be used to obtain a desired output from a given input, such as system identification, pattern recognition and control problems.

【0002】[0002]

【従来の技術】従来、ニューラルネットワークなどの統
計的学習機械では、学習メカニズムとして、例えばバッ
クプロパゲーション(誤差逆伝播アルゴリズム)などが知
られている。統計的学習機械が例えば図2に示すよう
に、入力層51と中間層52と出力層53とからなる3
層構造のパーセプトロン(階層的ネットワーク)である場
合、バックプロパゲーションの学習メカニズムは、入力
層51のユニットと中間層52のユニットとの結合の重
み,中間層52のユニットと出力層53のユニットとの
結合の重みをパラメータに含めて、二乗誤差最小化の学
習を行なうものである。より具体的には、m層のネット
ワークを考え、k層の第iユニットへの入力の総和をi
k i,出力をok iとし、k−1層の第iユニットからk層
の第iユニットへの結合の重みをwk-1 i k jとし、各ユニ
ットの入出力関係を与える関数をfとすると、これらの
変数の間の関係は次式のようになる。
2. Description of the Related Art Conventionally, in a statistical learning machine such as a neural network, for example, back propagation (error back propagation algorithm) is known as a learning mechanism. As shown in FIG. 2, the statistical learning machine includes an input layer 51, an intermediate layer 52, and an output layer 53.
In the case of a layered perceptron (hierarchical network), the learning mechanism of the backpropagation is that the weight of the coupling between the unit of the input layer 51 and the unit of the intermediate layer 52, the unit of the intermediate layer 52 and the unit of the output layer 53 The weight of the coupling of is included in the parameter, and learning of the square error minimization is performed. More specifically, considering an m-layer network, the sum of the inputs to the i-th unit of the k-layer is i
k i, the output and o k i, the weight of binding to the i-th unit of k layer and w k-1 i k j from the i unit k-1 layer, a function that gives the input-output relationship of each unit Given f, the relationship between these variables is:

【0003】[0003]

【数1】 [Equation 1]

【0004】損失関数rを誤差の二乗にとると、ある入
出力パターンの組(x,y)が与えられたときの損失関数
rは、次式で与えられる。
Taking the loss function r as the square of the error, the loss function r when a certain set of input / output patterns (x, y) is given is given by the following equation.

【0005】[0005]

【数2】 [Equation 2]

【0006】ここで、wは、対応付けを与えるネットワ
ークの結合の重みを全てまとめたものであり、結合の重
みwの学習を行なうには(すなわち、結合の重みwの修
正量を求めるには)、損失関数rの結合の重みwについ
てのグラディエント(勾配)∂r/∂wk-1 i k jを計算すれ
ば良い。すなわち、1回の修正の大きさを決めるパラメ
ータをεとするとき、結合の重みwの修正量△wk-1 i k j
は、次式で与えられる。
[0006] Here, w is a collection of all the connection weights of the network to which the association is given, and in order to learn the connection weight w (that is, to find the correction amount of the connection weight w). ), The gradient (gradient) ∂r / ∂w k-1 i k j for the weight w of the connection of the loss function r may be calculated. That is, when the parameter that determines the magnitude of one modification is ε, the modification amount Δw k−1 i k j of the connection weight w is
Is given by the following equation.

【0007】[0007]

【数3】 [Equation 3]

【0008】数3の第2番目,第3番目の式から、結合
の重みwk-1 i k jの修正に使う信号dk jがk=mからk=
2に向かって再帰的に計算されることがわかる。また、
数3の第3番目の式から、このdk jの計算の過程は、出
力層での理想出力と実際の出力との誤差dk+1 hを入力と
して、出力層から入力層の方向へ、信号の伝播とは逆の
方向にwk i k+1 hで重みを付けた和をとりながら、伝播さ
せていくようになっている。これが、バックプロパゲー
ション(誤差逆伝播)学習アルゴリズムである。
[0008] Number 3 the second, from the third equation, the signal d k j used to modify the weights w k-1 i k j of coupling k = m k =
It can be seen that it is calculated recursively toward 2. Also,
From the third equation of the equation 3, the process of calculating d k j is that the error d k + 1 h between the ideal output and the actual output in the output layer is used as an input, and the direction from the output layer to the input layer is changed. , And propagates while taking the sum weighted by w k i k + 1 h in the opposite direction to the signal propagation. This is the backpropagation (error backpropagation) learning algorithm.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上述し
たような従来の学習機械では、学習データは受動的にし
か与えられず、学習に有効な学習データを発生するよう
にはなっていない。例えば、上述したバックプロパゲー
ションの学習アルゴリズムを用いた学習機械では、学習
データ(入出力パターンの組(x,y))として、通常、真
の確率分布から受動的に発生したものを用いているが、
真の確率分布に従う標本で学習するのが最適であるとの
保証は全くなく、従って、上述したバックプロパゲーシ
ョンの学習アルゴリズムでは、実際には、振動を減ら
し、学習の収束を早めるために、次式のような修正を行
なったりしなければならなかった。
However, in the conventional learning machine as described above, the learning data is given only passively, and the learning data effective for learning is not generated. For example, in a learning machine using the above-described learning algorithm of back propagation, as learning data (a pair of input / output patterns (x, y)), one that is passively generated from a true probability distribution is usually used. But,
There is no guarantee that learning with a sample that follows the true probability distribution is optimal, so the backpropagation learning algorithm described above actually uses the following to reduce oscillations and accelerate learning convergence: I had to make corrections like expressions.

【0010】[0010]

【数4】 [Equation 4]

【0011】なお、数4において、αは小さな正の定
数,tは修正の回数を表わしている。
In Equation 4, α represents a small positive constant and t represents the number of corrections.

【0012】このように、従来の学習機械では、学習に
有効な最適な学習データを発生させて学習を行なうよう
にはなっていなかったので、学習を効率良くかつ精度良
く行なうことができないという問題があった。
As described above, the conventional learning machine has not been designed to generate the optimum learning data effective for learning to perform the learning, so that the learning cannot be performed efficiently and accurately. was there.

【0013】本発明は、学習に有効な最適な学習データ
を発生させ、学習を効率良くかつ精度良く行なうことの
可能な学習機械を提供することを目的としている。
It is an object of the present invention to provide a learning machine capable of generating optimum learning data effective for learning and performing learning efficiently and accurately.

【0014】[0014]

【課題を解決するための手段および作用】上記目的を達
成するために、請求項1記載の発明は、入力ベクトル空
間Xからの入力ベクトルxを受け取る入力手段と、学習
用入力データとそれに対する前記未知システムの応答で
ある教師データとの組からなる学習データを用いて、所
定のパラメータθの学習を行ない、真の条件付確率p
(y|x)を推定し、これによって未知システムの推定を
行なう条件付確率推定手段と、条件付確率推定手段によ
って学習されたパラメータ〈θ〉を用いて、入力手段か
ら与えられた未学習の入力ベクトルxに対する出力yを
条件付確率p(y|x;〈θ〉)に従う標本として算出す
る出力手段と、条件付確率推定手段が用いる学習データ
を、確率的規則に従って発生させた入力データと該入力
データに対する未知システムの応答とから作成する学習
データ作成手段とを有している。この構成では、学習デ
ータ作成手段により学習に有効な最適な学習データを発
生させることができ、これにより、学習を効率良くかつ
精度良く行なうことができる。
In order to achieve the above object, the invention according to claim 1 is an input means for receiving an input vector x from an input vector space X, an input data for learning and the above-mentioned input data for it. Using the learning data that is a set of the teacher data that is the response of the unknown system, the learning of the predetermined parameter θ is performed, and the true conditional probability p
(y | x) is estimated, and the conditional probability estimating means for estimating the unknown system by this, and the parameter <θ> learned by the conditional probability estimating means are used to obtain an unlearned value given by the input means. The output means for calculating the output y for the input vector x as a sample according to the conditional probability p (y | x; <θ>), and the input data generated according to the stochastic rule, the learning data used by the conditional probability estimation means Learning data creating means is created from the response of the unknown system to the input data. With this configuration, it is possible to generate the optimum learning data effective for learning by the learning data creating means, and thereby the learning can be performed efficiently and accurately.

【0015】また、請求項2乃至6記載の発明は、条件
付確率推定手段は、初期のパラメータを学習する初期学
習手段と、初期のパラメータが確定した後、新たな学習
データによってパラメータを更新するパラメータ更新手
段とを有し、また、学習データ作成手段は、条件付確率
推定手段の初期学習手段が用いる初期学習データを作成
する初期学習データ作成手段と、初期学習データ作成手
段において初期学習が終了した後に、パラメータ更新手
段が用いる更新用学習データを作成する更新用学習デー
タ作成手段とを有している。これにより、システムの稼
動状況に応じ、学習に有効な最適な学習データを発生さ
せることができる。
Further, in the inventions according to claims 2 to 6, the conditional probability estimating means updates the parameters with new learning data after the initial learning means for learning the initial parameters and the initial parameters are determined. Parameter learning means, and the learning data creating means, the initial learning data creating means for creating the initial learning data used by the initial learning means of the conditional probability estimating means, and the initial learning ends in the initial learning data creating means. After that, it has an update learning data creating means for creating the update learning data used by the parameter updating means. As a result, optimum learning data effective for learning can be generated according to the operating status of the system.

【0016】[0016]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明に係る学習機械の一実施例の構成図
である。本実施例の学習機械は、L次元の入力ベクトル
空間Xからの入力ベクトルx=(x1,…,xL)に対し
て、真の条件付確率p(y|x)に従うM次元の出力ベク
トル空間Y上の出力ベクトルy=(y1,…,yM)を発生
する未知システムを推定する学習機械(統計的学習機械)
であって、図1を参照すると、この学習機械は、L次元
の入力ベクトル空間Xからの入力ベクトルxを受け取る
入力部1と、学習入力データxν(1≦ν≦N)とそれに
対する上記未知システムの応答である教師データy
ν(1≦ν≦N)との組からなるN個の学習データ
{xν,yν|1≦ν≦N}を用いて、所定のパラメー
タθの学習を行ない、未知システム,すなわち真の条件
付確率p(y|x)を推定する条件付確率推定部2と、条
件付確率推定部2によって学習されたパラメータ〈θ〉
を用いて、入力部1から与えられた未学習の入力ベクト
ルxに対する出力yを条件付確率p(y|x;〈θ〉)に
従う標本として算出する出力部3と、条件付確率推定部
2が用いる学習データ{xν,yν}(ν=1〜N)を作
成する学習データ作成部4とを有している。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an embodiment of a learning machine according to the present invention. The learning machine according to the present embodiment outputs an M-dimensional output according to a true conditional probability p (y | x) for an input vector x = (x 1 , ..., X L ) from an L-dimensional input vector space X. A learning machine (statistical learning machine) that estimates an unknown system that generates an output vector y = (y 1 , ..., y M ) on a vector space Y
Therefore, referring to FIG. 1, the learning machine includes an input unit 1 that receives an input vector x from an L-dimensional input vector space X, learning input data x ν (1 ≦ ν ≦ N), and Teacher data y which is the response of the unknown system
Using N learning data {x ν , y ν | 1 ≤ ν ≤ N} consisting of a set of ν (1 ≤ ν ≤ N), learning of a predetermined parameter θ is performed, and an unknown system, that is, true The conditional probability estimator 2 for estimating the conditional probability p (y | x), and the parameter <θ> learned by the conditional probability estimator 2.
Using, the output unit 3 for calculating the output y for the unlearned input vector x given from the input unit 1 as a sample according to the conditional probability p (y | x; <θ>), and the conditional probability estimation unit 2 And a learning data creating unit 4 for creating learning data {x ν , y ν } (ν = 1 to N).

【0017】ここで、条件付確率推定部2には、初期学
習データを用いてパラメータθの初期学習を行なう初期
学習部2aと、初期のパラメータθが確定した後、更新
用学習データを用いてパラメータθの更新を行なうパラ
メータ更新部2bとが設けられている。本実施例におい
ては、条件付確率推定部2は、上記のように、学習を、
初期学習とその後のパラメータ更新の2段階に分けて行
なうが、初期学習部2a,パラメータ更新部2bのいず
れも、パラメータθの推定量(学習結果)〈θ〉を、例え
ば、パラメータθを持つパラメータ付確率密度関数族
{p(y|x;θ)}を用い、統計の分野で良く知られて
いる最尤推定法により、次式のように求めるようになっ
ている。
Here, the conditional probability estimation unit 2 uses an initial learning unit 2a that performs initial learning of the parameter θ using the initial learning data, and the learning data for updating after the initial parameter θ is determined. A parameter updating unit 2b for updating the parameter θ is provided. In the present embodiment, the conditional probability estimator 2 performs learning as described above,
The initial learning and the subsequent parameter updating are performed in two stages. In both the initial learning unit 2a and the parameter updating unit 2b, the estimated amount (learning result) <θ> of the parameter θ is, for example, a parameter having the parameter θ. Using the attached probability density function family {p (y | x; θ)}, the maximum likelihood estimation method well known in the field of statistics is used to obtain the following equation.

【0018】[0018]

【数5】 [Equation 5]

【0019】すなわち、Sを最大にするパラメータθを
推定量〈θ〉として求めるようになっている。
That is, the parameter θ that maximizes S is obtained as the estimated amount <θ>.

【0020】また、学習データ作成部4は、確率的規則
に従って入力データxνを発生し、それらに対する真の
未知システムの応答を教師データyνとして学習データ
{xν,yν}を作成するが、条件付確率推定部2が、
学習を、初期学習とその後のパラメータ更新との2段階
に分けて行なうことに対応させて、初期学習データを作
成する初期学習データ作成部4aと、更新用学習データ
を作成する更新用学習データ作成部4bとが設けられて
いる。
Further, the learning data creation unit 4 creates the input data x ν according to the stochastic rule, and creates the learning data {x ν , y ν } with the response of the true unknown system to them as the teacher data y ν. However, the conditional probability estimation unit 2
Initial learning data creation unit 4a that creates initial learning data and update learning data creation that creates update learning data in correspondence with performing learning in two stages of initial learning and subsequent parameter update And a section 4b.

【0021】初期学習データ作成部4aは、実際の入力
データの分布が既知の場合には、実際の入力データの分
布に従って、初期学習データを作成することができる。
例えば、この学習機械の利用時(稼動時)に生じる入力デ
ータの発生分布の推定量から初期学習データの入力デー
タxνを発生させ、初期学習データ{xν,yν}を作
成することができる。これに対し、実際の入力データの
分布が未知の場合には、予め事前の知識に基づいて定め
られた一様分布や正規分布に従って、初期学習データを
作成することができる。例えば、この学習機械が予め用
意した一定の入力空間上の確率分布に従って、初期学習
データの入力データxνを発生させ、初期学習データ
{xν,yν}を作成することができる。
When the distribution of the actual input data is known, the initial learning data creating section 4a can create the initial learning data according to the distribution of the actual input data.
For example, the initial learning data {x ν , y ν } may be generated by generating the input data x ν of the initial learning data from the estimated amount of the generation distribution of the input data generated when the learning machine is used (operating). it can. On the other hand, when the actual distribution of the input data is unknown, the initial learning data can be created according to the uniform distribution or the normal distribution that is determined in advance based on prior knowledge. For example, the learning machine can generate the initial learning data {x ν , y ν } by generating the input data x ν of the initial learning data according to the probability distribution on the constant input space prepared in advance.

【0022】また、更新用学習データ作成部4bは、所
定の確率密度関数r(x;v)によって更新用学習データ
を作成するようになっている。すなわち、更新用学習デ
ータ作成部4bは、入力ベクトル空間X上のパラメータ
(v)付確率密度関数族{r(x;v)}を保持しており、
例えば、この学習機械の利用時(稼動時)に発生する実際
の入力データの発生分布の確率密度関数q(x)の推定量
〈q(x)〉と条件付確率推定部2の初期学習部2aによ
り得られたパラメータθの推定値〈θ〉とを用いて、学
習データの入力データxνを{r(x;v)}に従って発
生させた場合の学習誤差の推定値E(v)を最小にするパ
ラメータvの値を最適値として計算し、最適化されたパ
ラメータvによる確率密度関数r(x;v)によって、更
新用学習データの入力データxνを発生させ、更新用学
習データ{xν,yν}を作成するようになっている。
The update learning data creating section 4b is adapted to create update learning data by a predetermined probability density function r (x; v). That is, the update learning data creation unit 4b uses the parameters in the input vector space X
(v) holds the probability density function family {r (x; v)},
For example, the estimated amount <q (x)> of the probability density function q (x) of the occurrence distribution of the actual input data that occurs when this learning machine is used (operating) and the initial learning unit of the conditional probability estimation unit 2 The estimated value E (v) of the learning error when the input data x ν of the learning data is generated according to {r (x; v)} using the estimated value <θ> of the parameter θ obtained by 2a. The value of the parameter v to be minimized is calculated as the optimum value, and the input data x v of the learning data for updating is generated by the probability density function r (x; v) based on the optimized parameter v, and the learning data for updating { x ν , y ν } is created.

【0023】なお、学習機械の利用時(稼動時)に発生す
る実際の入力データの発生分布の確率密度関数q(x)の
推定量〈q(x)〉としては、例えば、この学習機械の実
際の稼動時と同じ状況で入力データをN’個発生させ、
その分布をパラメトリックモデルにより推定したり、あ
るいは、次式のようにデルタ関数で表わして、予め用意
することができる。
The estimated amount <q (x)> of the probability density function q (x) of the distribution of the actual input data generated when the learning machine is used (when operating) is, for example, Generate N'input data in the same situation as the actual operation,
The distribution can be estimated by a parametric model, or represented by a delta function as in the following equation, and prepared in advance.

【0024】[0024]

【数6】 [Equation 6]

【0025】また、学習誤差の推定値E(v)を最小にす
るパラメータvの値の計算は、更新用学習データ作成部
4b内の学習誤差最小化回路5によってなされる。より
具体的には、学習誤差最小化回路5は、次式の学習誤差
推定値E(v)を最小化するように、パラメータvを最適
化する。
The calculation of the value of the parameter v that minimizes the estimated value E (v) of the learning error is performed by the learning error minimization circuit 5 in the update learning data creation unit 4b. More specifically, the learning error minimization circuit 5 optimizes the parameter v so as to minimize the learning error estimated value E (v) of the following equation.

【0026】[0026]

【数7】 [Equation 7]

【0027】ここで、〈I〉,〈J(v)〉は行列であ
り、次のように計算される。
Here, <I> and <J (v)> are matrices, which are calculated as follows.

【0028】[0028]

【数8】 [Equation 8]

【0029】一般には最小値を与えるvを解析的に解く
のは困難な場合が多いので、例えば最急降下法によって
逐次更新していくことによりvを最適化していけばよ
い。このようにして得られたパラメータを〈v〉と書く
ことにする。更新用学習データ作成手段は、r(x;
〈v〉)に従ってある個数の入力データを発生させ、そ
の入力データと、それらに対する真の未知システムの出
力結果である教師データとからなる学習データを更新用
学習データとして作成する。パラメータ更新部2bは、
この更新用学習データを用いてp(y|x;θ)のパラメ
ータθを再び最尤推定法によって学習し直す。
In general, it is often difficult to analytically solve v that gives the minimum value, so v may be optimized by sequentially updating it by, for example, the steepest descent method. The parameter thus obtained will be written as <v>. The update learning data creating means is r (x;
According to <v>), a certain number of input data are generated, and learning data composed of the input data and teacher data which is an output result of a truly unknown system for them is created as update learning data. The parameter updating unit 2b
Using this update learning data, the parameter θ of p (y | x; θ) is learned again by the maximum likelihood estimation method.

【0030】上で述べた方式が学習誤差を低減する上で
有効であることを以下に述べる。
It will be described below that the method described above is effective in reducing the learning error.

【0031】いま真の条件つき確率p(y|x)は、設定
したモデル{p(y|x;θ)}に含まれているものと
し、p(y|x)=p(y|x;θ0)とする。ここで、θ0
は真のパラメータである。また学習データを発生させる
入力分布の密度函数をr(x)として、これにより作成し
たN個の学習データから最尤推定によって得られたパラ
メータを〈θ〉とする。このとき学習の損失の量Rを次
式のように測る。
Now, the true conditional probability p (y | x) is assumed to be included in the set model {p (y | x; θ)}, and p (y | x) = p (y | x ; Θ 0 ). Where θ 0
Is a true parameter. Further, the density function of the input distribution that generates the learning data is r (x), and the parameter obtained by the maximum likelihood estimation from the N learning data thus created is <θ>. At this time, the learning loss amount R is measured by the following equation.

【0032】[0032]

【数9】 [Equation 9]

【0033】この損失の測り方はKullback-Leibler Div
ergenceに基づくもので統計の分野ではよく用いられる
ものである。この量Rをθ0のまわりでテイラー展開す
ると、次式のようになる。
How to measure this loss is Kullback-Leibler Div
It is based on ergence and is often used in the field of statistics. Taylor expansion of this amount R around θ 0 gives the following equation.

【0034】[0034]

【数10】 [Equation 10]

【0035】上式において1階微分の項(第2項)はyで
積分することにより“0”となることがわかる。また、
上式の第1項は推定量〈θ〉に依存しない項である。従
って、学習の良さを判定するには、上式の第3項を見れ
ばよいことがわかる。この項の値を学習データの出方に
よって期待値をとったものをE0とすると、E0は簡単な
計算により次式のように求まる。
In the above equation, it is understood that the first-order differential term (second term) becomes "0" by integrating with y. Also,
The first term in the above equation is a term that does not depend on the estimator <θ>. Therefore, it can be seen that the third term of the above equation can be seen to determine the goodness of learning. Letting E 0 be the expected value of the value of this term depending on the way the learning data appears, E 0 is obtained by a simple calculation as in the following equation.

【0036】[0036]

【数11】 [Equation 11]

【0037】ここで、統計的推定の分野で良く知られて
いるように、次式が成り立つ。
Here, as well known in the field of statistical estimation, the following equation holds.

【0038】[0038]

【数12】 [Equation 12]

【0039】Iab,Jabを次式のように定義すると、When I ab and J ab are defined as follows,

【0040】[0040]

【数13】 [Equation 13]

【0041】数12から次の近似式が導き出せる。The following approximate expression can be derived from the equation (12).

【0042】[0042]

【数14】 [Equation 14]

【0043】本発明の更新用学習データ作成部4bが用
いる学習誤差の推定値は、この値E0を各行列の推定値
を用いて計算したものであり、この量を小さくすること
が学習の誤差を小さくすることにつながっていることが
わかる。
The estimated value of the learning error used by the update learning data creating unit 4b of the present invention is calculated by using the estimated value of each matrix for the value E 0 , and it is necessary to reduce the amount of learning. It can be seen that this leads to reducing the error.

【0044】次に、このような構成の学習機械の動作に
ついて説明する。本実施例の学習機械は、この学習機械
が与える任意の入力xに対してp(y|x)に従う標本を
返答することができる未知システムを推定するのに用い
られる。例えばシステム同定の問題などでは、真のシス
テムは任意の入力に対して出力を返すことができる場合
も多い。本実施例の学習機械は、このようなシステムを
推定するのに用いることができる。
Next, the operation of the learning machine having such a configuration will be described. The learning machine of this embodiment is used to estimate an unknown system capable of returning a sample according to p (y | x) for an arbitrary input x given by this learning machine. True systems can often return outputs for arbitrary inputs, such as in system identification problems. The learning machine of this embodiment can be used to estimate such a system.

【0045】未知システムの推定(学習)は、条件付確率
推定部2で行なわれるが、条件付確率推定部2に対する
学習データを発生させるため、本実施例では、学習デー
タ作成部4が設けられている。学習データ作成部4は、
条件付確率推定部2に学習データを与えるため、確率的
規則に従って入力データを発生し、それらに対する真の
未知システムの応答を教師データとして、学習データを
作成する。
The estimation (learning) of the unknown system is performed by the conditional probability estimator 2, but in order to generate learning data for the conditional probability estimator 2, a learning data generator 4 is provided in this embodiment. ing. The learning data creation unit 4
In order to provide learning data to the conditional probability estimation unit 2, input data is generated according to the stochastic rule, and learning data is created by using the response of the true unknown system to them as the teacher data.

【0046】この際、先ず、学習データ作成部4の初期
学習データ作成部4aが、所定の入力データ分布に従っ
て、初期学習データ{xν,yν}を作成する。初期学
習データ{xν,yν}が作成されると、条件付確率推
定部2の初期学習部2aは、この初期学習データ
{xν,yν}を用いて、所定のパラメータθの初期学
習を行ない、初期学習結果〈θ〉を生成する。
At this time, first, the initial learning data creating unit 4a of the learning data creating unit 4 creates the initial learning data {x ν , y ν } according to a predetermined input data distribution. When the initial learning data {x ν , y ν } is created, the initial learning unit 2a of the conditional probability estimation unit 2 uses this initial learning data {x ν , y ν } to initialize the predetermined parameter θ. Learning is performed to generate an initial learning result <θ>.

【0047】このようにして、初期学習がなされた後、
学習データ作成部4の更新用学習データ作成部4bは、
この学習機械の稼動時に発生する実際の入力データの発
生分布の確率密度関数q(x)の推定量〈q(x)〉と条件
付確率推定部2の初期学習部2aにより得られたパラメ
ータθの推定値〈θ〉とを用いて、学習データの入力デ
ータxνを確率密度関数族{r(x;v)}に従って発生
させた場合の学習誤差の推定値E(v)を最小にするパラ
メータvの値を最適値として計算し、最適化されたパラ
メータvによる確率密度関数r(x;v)によって、更新
用学習データの入力データxνを発生させ、更新用学習
データ{xν,yν}を作成する。更新用学習データ
{xν,yν}が作成されると、条件付確率推定部2の
パラメータ更新部2bは、更新用学習データ{xν,y
ν}を用いて、パラメータθの更新学習を行ない、更新
学習結果〈θ〉を生成する。ここで、更新用学習データ
{xν,yν}は、学習に有効な最適な学習データとな
っており、従って、条件付確率推定部2のパラメータ更
新部2bは、学習を効率良くかつ精度良く行なって、精
度の高い(学習誤差の小さい)学習結果〈θ〉を迅速に得
ることができる。
After the initial learning is performed in this way,
The update learning data creation unit 4b of the learning data creation unit 4 is
The estimated amount <q (x)> of the probability density function q (x) of the occurrence distribution of the actual input data that occurs when the learning machine is operating, and the parameter θ obtained by the initial learning unit 2a of the conditional probability estimation unit 2. And the estimated value <θ> of the learning data are used to minimize the estimated value E (v) of the learning error when the input data x ν of the learning data is generated according to the probability density function family {r (x; v)}. The value of the parameter v is calculated as the optimum value, and the input data x ν of the learning data for update is generated by the probability density function r (x; v) based on the optimized parameter v, and the learning data for update {x ν , Create y ν }. When the update learning data {x ν , y ν } is created, the parameter updating unit 2b of the conditional probability estimation unit 2 updates the update learning data {x ν , y.
ν } is used to perform the update learning of the parameter θ, and the update learning result <θ> is generated. Here, the update learning data {x ν , y ν } is optimum learning data effective for learning, and therefore, the parameter updating unit 2b of the conditional probability estimating unit 2 efficiently and accurately performs learning. By performing well, a highly accurate (small learning error) learning result <θ> can be quickly obtained.

【0048】このようにして、条件付確率推定部2にお
いてパラメータθの学習が行なわれ、更新学習結果
〈θ〉が生成された後、入力部1から入力ベクトルxが
与えられると、出力部3は、条件付確率推定部2によっ
て学習されたパラメータ(更新学習結果)〈θ〉を用い
て、与えられた入力ベクトルxに対する出力yを条件付
確率p(y|x;〈θ〉)に従う標本として算出すること
ができる。
In this way, the parameter probability θ is learned in the conditional probability estimator 2, and after the update learning result <θ> is generated, when the input vector x is given from the input unit 1, the output unit 3 Is a sample that follows the conditional probability p (y | x; <θ>) of the output y for the given input vector x using the parameter (update learning result) <θ> learned by the conditional probability estimator 2. Can be calculated as

【0049】以上のように、本実施例では、システム同
定の問題のように、学習機械が用意した入力データに対
して未知システムが教師データを与えてくれる問題を、
ニューラルネットワークなどの統計的学習機械によって
学習する場合に、学習データをどのように用意するのが
最適かを設計することができ、学習後の推定精度を向上
させることができる。
As described above, in the present embodiment, the problem that the unknown system gives the teacher data to the input data prepared by the learning machine, such as the system identification problem,
When learning is performed by a statistical learning machine such as a neural network, it is possible to design how to prepare the learning data optimally, and improve the estimation accuracy after learning.

【0050】[0050]

【発明の効果】以上に説明したように、請求項1記載の
発明によれば、条件付確率推定手段が用いる学習データ
を、確率的規則に従って発生させた入力データと該入力
データに対する未知システムの応答とから作成するの
で、学習に有効な最適な学習データを発生させ、学習を
効率良くかつ精度良く行なうことができる。
As described above, according to the first aspect of the present invention, the learning data used by the conditional probability estimating means is the input data generated according to the stochastic rule and the unknown system for the input data. Since it is created from the response, the optimum learning data effective for learning can be generated and learning can be performed efficiently and accurately.

【0051】また、請求項2乃至6記載の発明によれ
ば、条件付確率推定手段は、初期のパラメータを学習す
る初期学習手段と、初期のパラメータが確定した後、新
たな学習データによってパラメータを更新するパラメー
タ更新手段とを有し、また、学習データ作成手段は、条
件付確率推定手段の初期学習手段が用いる初期学習デー
タを作成する初期学習データ作成手段と、初期学習デー
タ作成手段において初期学習が終了した後に、パラメー
タ更新手段が用いる更新用学習データを作成する更新用
学習データ作成手段とを有しているので、学習に有効な
最適な学習データを発生させ、学習を効率良くかつ精度
良く行なうことができる。
According to the invention described in claims 2 to 6, the conditional probability estimating means determines the parameters by the initial learning means for learning the initial parameters and the new learning data after the initial parameters are determined. The learning data creating means includes an initial learning data creating means for creating initial learning data used by the initial learning means of the conditional probability estimating means, and an initial learning in the initial learning data creating means. After the completion of the above, since it has an update learning data creating means for creating the update learning data used by the parameter updating means, the optimum learning data effective for learning is generated, and the learning is efficiently and accurately performed. Can be done.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る学習機械の一実施例の構成図であ
る。
FIG. 1 is a configuration diagram of an embodiment of a learning machine according to the present invention.

【図2】統計的学習機械としての3層構造のパーセプト
ロンを示す図である。
FIG. 2 is a diagram showing a perceptron having a three-layer structure as a statistical learning machine.

【符号の説明】[Explanation of symbols]

1 入力部 2 条件付確率推定部 3 出力部 4 学習データ作成部 2a 初期学習部 2b パラメータ更新部 4a 初期学習データ作成部 4b 更新用学習データ作成部 5 学習誤差最小化回路 1 Input Part 2 Conditional Probability Estimating Part 3 Output Part 4 Learning Data Creating Part 2a Initial Learning Part 2b Parameter Updating Part 4a Initial Learning Data Creating Part 4b Updating Learning Data Creating Part 5 Learning Error Minimization Circuit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力ベクトル空間Xからの入力ベクトル
xに対して真の条件付確率p(y|x)に従う出力ベクト
ルyを発生する未知システムを推定する学習機械であっ
て、入力ベクトル空間Xからの入力ベクトルxを受け取
る入力手段と、学習用入力データとそれに対する前記未
知システムの応答である教師データとの組からなる学習
データを用いて、所定のパラメータθの学習を行ない、
真の条件付確率p(y|x)を推定し、これによって未知
システムの推定を行なう条件付確率推定手段と、条件付
確率推定手段によって学習されたパラメータ〈θ〉を用
いて、入力手段から与えられた未学習の入力ベクトルx
に対する出力yを条件付確率p(y|x;〈θ〉)に従う
標本として算出する出力手段と、条件付確率推定手段が
用いる学習データを、確率的規則に従って発生させた入
力データと該入力データに対する未知システムの応答と
から作成する学習データ作成手段とを有していることを
特徴とする学習機械。
1. A learning machine for estimating an unknown system that produces an output vector y according to a true conditional probability p (y | x) with respect to an input vector x from an input vector space X. Using the input means for receiving the input vector x from and the learning data consisting of the learning input data and the teacher data which is the response of the unknown system to the learning data, learning of the predetermined parameter θ is performed,
From the input means, the true conditional probability p (y | x) is estimated and the conditional probability estimating means for estimating the unknown system by this, and the parameter <θ> learned by the conditional probability estimating means are used. Given unlearned input vector x
Output means for calculating the output y for the sample as a sample according to the conditional probability p (y | x; <θ>), the learning data used by the conditional probability estimation means, the input data generated according to the stochastic rule, and the input data. A learning machine for creating learning data from the response of the unknown system to the learning machine.
【請求項2】 請求項1記載の学習機械において、前記
条件付確率推定手段は、初期のパラメータを学習する初
期学習手段と、初期のパラメータが確定した後、新たな
学習データによってパラメータを更新するパラメータ更
新手段とを有し、また、前記学習データ作成手段は、前
記条件付確率推定手段の初期学習手段が用いる初期学習
データを作成する初期学習データ作成手段と、前記初期
学習データ作成手段において初期学習が終了した後に、
パラメータ更新手段が用いる更新用学習データを作成す
る更新用学習データ作成手段とを有していることを特徴
とする学習機械。
2. The learning machine according to claim 1, wherein the conditional probability estimation means updates the parameters with new learning data after the initial learning means for learning the initial parameters and the initial parameters are determined. A parameter updating means, and the learning data creating means, the initial learning data creating means for creating the initial learning data used by the initial learning means of the conditional probability estimating means, and the initial learning data creating means After learning,
A learning machine comprising: update learning data creating means for creating update learning data used by the parameter updating means.
【請求項3】 請求項2記載の学習機械において、前記
初期学習データ作成手段は、該学習機械の利用時に生じ
る入力の発生分布の推定量から初期学習データの入力デ
ータを発生させることを特徴とする学習機械。
3. The learning machine according to claim 2, wherein the initial learning data creating means generates the input data of the initial learning data from an estimated amount of an input occurrence distribution generated when the learning machine is used. Learning machine to do.
【請求項4】 請求項2記載の学習機械において、前記
初期学習データ作成手段は、該学習機械が予め用意した
一定の入力空間上の確率分布に従って、初期学習データ
の入力データを発生させることを特徴とする学習機械。
4. The learning machine according to claim 2, wherein the initial learning data creating means generates the input data of the initial learning data according to a probability distribution on a constant input space prepared in advance by the learning machine. Characteristic learning machine.
【請求項5】 請求項2記載の学習機械において、前記
更新用学習データ作成手段は、入力ベクトル空間上のパ
ラメータ付確率密度函数{r(x;v)}を保持してお
り、学習機械の稼働時に生じる入力データの発生分布の
確率密度函数の推定量〈q(x)〉と初期学習手段により
得られたパラメータθの推定値〈θ〉とを用いて、学習
データの入力データを{r(x;v)}に従って発生させ
た場合の学習誤差の推定値E(v)を小さくするパラメー
タvの値を最適値として計算し、最適化されたパラメー
タvによる確率密度函数r(x;v)によって更新用学習
データの入力データを発生させることを特徴とする学習
機械。
5. The learning machine according to claim 2, wherein the learning data creating means for updating holds a parameterized probability density function {r (x; v)} on an input vector space, The input data of the learning data is set to {r by using the estimated amount <q (x)> of the probability density function of the occurrence distribution of the input data generated at the time of operation and the estimated value <θ> of the parameter θ obtained by the initial learning means. (x; v)} The value of the parameter v that reduces the estimated value E (v) of the learning error when generated according to (x; v)} is calculated as an optimum value, and the probability density function r (x; v) by the optimized parameter v is calculated. ) Is used to generate input data of update learning data.
【請求項6】 請求項5記載の学習機械において、前記
最適なパラメータvは、学習誤差の推定値E(v)を最小
化するように最急降下法を用いてパラメータvの逐次更
新を行なうことにより得られることを特徴とする学習機
械。
6. The learning machine according to claim 5, wherein the optimum parameter v is sequentially updated using the steepest descent method so as to minimize the estimated value E (v) of the learning error. A learning machine characterized by being obtained by.
JP6131439A 1994-05-19 1994-05-19 Learning machine Pending JPH07311754A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6131439A JPH07311754A (en) 1994-05-19 1994-05-19 Learning machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6131439A JPH07311754A (en) 1994-05-19 1994-05-19 Learning machine

Publications (1)

Publication Number Publication Date
JPH07311754A true JPH07311754A (en) 1995-11-28

Family

ID=15057993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6131439A Pending JPH07311754A (en) 1994-05-19 1994-05-19 Learning machine

Country Status (1)

Country Link
JP (1) JPH07311754A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343124A (en) * 2005-06-07 2006-12-21 Keio Gijuku Measuring method of plurality of chemical materials
JP2010528364A (en) * 2007-05-24 2010-08-19 パロ・アルト・リサーチ・センター・インコーポレーテッド Diagnosing intermittent failures
WO2017185347A1 (en) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 Apparatus and method for executing recurrent neural network and lstm computations

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343124A (en) * 2005-06-07 2006-12-21 Keio Gijuku Measuring method of plurality of chemical materials
JP4635220B2 (en) * 2005-06-07 2011-02-23 学校法人慶應義塾 Measuring methods for multiple chemical substances
JP2010528364A (en) * 2007-05-24 2010-08-19 パロ・アルト・リサーチ・センター・インコーポレーテッド Diagnosing intermittent failures
WO2017185347A1 (en) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 Apparatus and method for executing recurrent neural network and lstm computations
US11531860B2 (en) 2016-04-29 2022-12-20 Cambricon (Xi'an) Semiconductor Co., Ltd. Apparatus and method for executing recurrent neural network and LSTM computations
US11727244B2 (en) 2016-04-29 2023-08-15 Cambricon Technologies Corporation Limited Apparatus and method for executing recurrent neural network and LSTM computations

Similar Documents

Publication Publication Date Title
Den Haan et al. Solving the stochastic growth model by parameterizing expectations
US6985781B2 (en) Residual activation neural network
US6363289B1 (en) Residual activation neural network
US11099552B2 (en) Method and system for accelerating convergence of recurrent neural network for machine failure prediction
KR930002746B1 (en) Parameter indentification method
JPH07311754A (en) Learning machine
CN108665002A (en) A kind of two classification task label noises tolerance grader learning method
JPH08221378A (en) Learning machine
US5706401A (en) Method for editing an input quantity for a neural network
JP2540654B2 (en) Learning device for neural network
JP7047665B2 (en) Learning equipment, learning methods and learning programs
Heidergott A weak derivative approach to optimization of threshold parameters in a multicomponent maintenance system
SHIGEI et al. Numerical evaluation of incremental vector quantization using stochastic relaxation
CN115933604B (en) Fault detection and prediction control method based on data driving
US20220180233A1 (en) Method for determining simulation data
JPH10198645A (en) Method and device for learning neural net
CN106595661A (en) Reconstruction method of inertial sensor signal
US6963862B1 (en) Method and system for training a recurrent network
US20240005188A1 (en) Shift rule for gradient determination in parameterised quantum evolutions
JPH10187649A (en) Neural network
Tham On-line learning using hierarchical mixtures of experts
JP2021144659A (en) Calculator, method for calculation, and program
Hache et al. Control-Oriented Neural State-Space Models for State-Feedback Linearization and Pole Placement
Necoara et al. OR-SAGA: Over-relaxed stochastic average gradient mapping algorithms for finite sum minimization
Smith et al. Evolutionary computation techniques for telephone networks traffic supervision based on a qualitative stream propagation model