JPH08221378A - 学習機械 - Google Patents

学習機械

Info

Publication number
JPH08221378A
JPH08221378A JP7046202A JP4620295A JPH08221378A JP H08221378 A JPH08221378 A JP H08221378A JP 7046202 A JP7046202 A JP 7046202A JP 4620295 A JP4620295 A JP 4620295A JP H08221378 A JPH08221378 A JP H08221378A
Authority
JP
Japan
Prior art keywords
learning
parameter
learning data
data
conditional probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7046202A
Other languages
English (en)
Inventor
Kenji Fukumizu
健次 福水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP7046202A priority Critical patent/JPH08221378A/ja
Publication of JPH08221378A publication Critical patent/JPH08221378A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 学習に有効な最適な学習データを発生させ、
学習を効率良くかつ精度良く行なうことが可能である。 【構成】 条件付確率推定部2は、学習データ選択部5
によって選択された学習データからパラメータ〈θ〉を
算出し、算出したパラメータを学習データ選択部5に与
えて該パラメータ〈θ〉に基づき新たな学習データを学
習データ選択部5に選択させ、選択された新たな学習デ
ータから新たなパラメータ〈θ〉を算出するというよう
に、パラメータθの更新を最適なパラメータが得られる
まで繰り返し行ない、最終的なパラメータ〈θ〉を得る
ようになっている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、システム同定,パター
ン認識や制御問題などに利用され、与えられた入力から
望ましい出力を得たりするために、学習データからパラ
メータの最適化を行なう学習機械に関する。
【0002】
【従来の技術】従来、ニューラルネットワークなどの統
計的学習機械では、学習メカニズムとして、例えばバッ
クプロパゲーション(誤差逆伝播アルゴリズム)などが知
られている。統計的学習機械が例えば図2に示すよう
に、入力層51と中間層52と出力層53とからなる3
層構造のパーセプトロン(階層的ネットワーク)である場
合、バックプロパゲーションの学習メカニズムは、入力
層51のユニットと中間層52のユニットとの結合の重
み,中間層52のユニットと出力層53のユニットとの
結合の重みをパラメータに含めて、二乗誤差最小化の学
習を行なうものである。より具体的には、m層のネット
ワークを考え、k層の第iユニットへの入力の総和をi
k i,出力をok iとし、k−1層の第iユニットからk層
の第iユニットへの結合の重みをwk-1 i k jとし、各ユニ
ットの入出力関係を与える関数をfとすると、これらの
変数の間の関係は次式のようになる。
【0003】
【数1】
【0004】損失関数rを誤差の二乗にとると、ある入
出力パターンの組(x,y)が与えられたときの損失関数
rは、次式で与えられる。
【0005】
【数2】
【0006】ここで、wは、対応付けを与えるネットワ
ークの結合の重みを全てまとめたものであり、結合の重
みwの学習を行なうには(すなわち、結合の重みwの修
正量を求めるには)、損失関数rの結合の重みwについ
てのグラディエント(勾配)∂r/∂wk-1 i k jを計算すれ
ば良い。すなわち、1回の修正の大きさを決めるパラメ
ータをεとするとき、結合の重みwの修正量△wk-1 i k j
は、次式で与えられる。
【0007】
【数3】
【0008】数3の第2番目,第3番目の式から、結合
の重みwk-1 i k jの修正に使う信号dk jがk=mからk=
2に向かって再帰的に計算されることがわかる。また、
数3の第3番目の式から、このdk jの計算の過程は、出
力層での理想出力と実際の出力との誤差dk+1 hを入力と
して、出力層から入力層の方向へ、信号の伝播とは逆の
方向にwk i k+1 hで重みを付けた和をとりながら、伝播さ
せていくようになっている。これが、バックプロパゲー
ション(誤差逆伝播)学習アルゴリズムである。
【0009】
【発明が解決しようとする課題】しかしながら、上述し
たような従来の学習機械では、学習データは受動的にし
か与えられず、学習に有効な学習データを発生するよう
にはなっていない。例えば、上述したバックプロパゲー
ションの学習アルゴリズムを用いた学習機械では、学習
データ(入出力パターンの組(x,y))として、通常、真
の確率分布から受動的に発生したものを用いているが、
真の確率分布に従う標本で学習するのが最適であるとの
保証は全くなく、従って、上述したバックプロパゲーシ
ョンの学習アルゴリズムでは、実際には、振動を減ら
し、学習の収束を早めるために、次式のような修正を行
なったりしなければならなかった。
【0010】
【数4】
【0011】なお、数4において、αは小さな正の定
数,tは修正の回数を表わしている。
【0012】このように、従来の学習機械では、学習に
有効な最適な学習データを発生させて学習を行なうよう
にはなっていなかったので、学習を効率良くかつ精度良
く行なうことができないという問題があった。また、従
来では、学習データとしてどのようなものを用いれば最
適であるかを決定することができず、従って、学習を効
率良くかつ精度良く行なわせることができなかった。
【0013】本発明は、学習に有効な最適な学習データ
を発生させ、学習を効率良くかつ精度良く行なうことの
可能な学習機械を提供することを目的としている。
【0014】
【課題を解決するための手段および作用】上記目的を達
成するために、請求項1記載の発明は、入力ベクトル空
間Xからの入力ベクトルxに対して真の条件付確率p
(y|x)に従う出力ベクトルyを発生する未知システム
を推定する学習機械であって、入力ベクトル空間Xから
の入力ベクトルxを受け取る入力手段と、学習用入力デ
ータとそれに対する未知システムの応答である教師デー
タとの組からなる学習データを用いて、所定のパラメー
タθの学習を行ない、真の条件付確率p(y|x)を推定
し、これによって未知システムの推定を行なう条件付確
率推定手段と、条件付確率推定手段によって学習された
パラメータ〈θ〉を用いて、入力手段から与えられた未
学習の入力ベクトルxに対する出力yを条件付確率p
(y|x;〈θ〉)に従う標本として算出する出力手段
と、条件付確率推定手段が用いる学習データを、確率的
規則に従って選択する学習データ選択手段とを有してい
る。これにより、学習に有効な最適な学習データを選択
することができ、これにより、学習を効率良くかつ精度
良く行なうことができて、学習後のシステムの推定精度
を向上させることができる。
【0015】また、請求項2乃至6記載の発明では、条
件付確率推定手段は、学習データ選択手段によって選択
された学習データからパラメータ〈θ〉を算出し、算出
したパラメータを学習データ選択手段に与えて該パラメ
ータ〈θ〉に基づき新たな学習データを学習データ選択
手段に選択させ、選択された新たな学習データから新た
なパラメータ〈θ〉を算出するというように、パラメー
タθの更新を最適なパラメータが得られるまで繰り返し
行ない、最終的なパラメータ〈θ〉を得るようになって
いる。これにより、学習に有効な最適な学習データを選
択させ、パラメータの学習を効率良くかつ精度良く行な
うことができる。
【0016】
【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明に係る学習機械の一実施例の構成図
である。本実施例の学習機械は、L次元の入力ベクトル
空間Xからの入力ベクトルx=(x1,…,xL)に対し
て、真の条件付確率p(y|x)に従うM次元の出力ベク
トル空間Y上の出力ベクトルy=(y1,…,yM)を発生
する未知システムを推定する学習機械(統計的学習機械)
であって、図1を参照すると、この学習機械は、L次元
の入力ベクトル空間Xからの入力ベクトルxを受け取る
入力部1と、学習入力データxν(k)とそれに対する上
記未知システムの応答である教師データyν(k)との組
からなるN’個の学習データ{xν(k),yν(k)|1≦
k≦N’}を用いて、所定のパラメータθの学習を行な
い、未知システム,すなわち真の条件付確率p(y|x)
を推定する条件付確率推定部2と、条件付確率推定部2
によって学習されたパラメータ〈θ〉を用いて、入力部
1から与えられた未学習の入力ベクトルxに対する出力
yを条件付確率p(y|x;〈θ〉)に従う標本として算
出する出力部3と、予め用意されたN個の学習データ
{xν,yν|1≦ν≦N}を保持する学習データ保持
部4と、学習データ保持部4に保持されているN個の学
習データ{xν,yν|1≦ν≦N}のうちから、条件
付確率推定部2が用いるN’個の学習データ
{xν(k),yν(k)|ν(k)∈{1,…,N}|1≦
k≦N’}を確率的規則(確率モデル)に従って選択する
学習データ選択部5とを有している。
【0017】ここで、条件付確率推定部2は、学習デー
タ選択部5によって選択された学習データ{xν(k)
ν(k)}に基づきパラメータ〈θ〉を算出し、算出し
たパラメータ〈θ〉を学習データ選択部5に与えて該パ
ラメータ〈θ〉に基づき新たな学習データを学習データ
選択部5に選択させ、選択された新たな学習データ{x
ν(k),yν(k)}から新たなパラメータ〈θ〉を算出す
るというように、パラメータθの更新を最適なパラメー
タが得られるまで繰り返し行ない、最終的なパラメータ
〈θ〉を得るようになっている。
【0018】なお、条件付確率推定部2におけるパラメ
ータθの更新は、学習データ保持部4に予め用意された
N個の学習データ{xν,yν|1≦ν≦N}の中から
重複を許して選択されたN’個の学習データ
{xν(k),yν(k)|ν(k)∈{1,…,N}|1≦
k≦N’}を用いて、パラメータθを例えば統計の分野
で良く知られている最尤推定法により、例えば次式のよ
うに推定する(学習する)ことによってなされる。
【0019】
【数5】
【0020】すなわち、条件付確率推定部2は、Sを最
大にするパラメータθを推定量〈θ〉として求めること
ができる。
【0021】また、学習データ選択部5は、学習データ
を選択するのに用いられるパラメータvをもった入力ベ
クトル空間上の確率モデル{r(x;v)}を保持する確
率モデル保持部6と、確率モデル保持部6に保持されて
いる確率モデル{r(x;v)}に従うサンプルxを発生
させるサンプル発生回路7と、学習データ保持部4に保
持されているN個の学習データ{xν,yν|1≦ν≦
N}のうちから、サンプルxに最も近い位置にあるN’
個のデータxνを選択し、それに対応するN’個のデー
タyνと合わせて学習データ{xν(k),yν(k)|ν
(k)∈{1,…,N}|1≦k≦N’}とし、条件付
確率推定部2に与えるデータ選択回路8とを有し、さら
に、上述したようなパラメータθの繰り返し更新処理を
行なうために、条件付確率推定部2からパラメータ
〈θ〉が与えられると、該パラメータ〈θ〉に基づき、
パラメータvを更新し、確率モデル保持部6に保持され
ている確率モデル{r(x;v)}を更新する確率モデル
更新回路9を備えている。なお、上記確率モデル保持部
6には、初期時には、予め定められたパラメータv0
もつ一定の確率分布r(x;v0)が保持されているとす
る。
【0022】このような構成では、学習データ選択部5
は、初期時には予め定められた一定の確率分布r(x;
0)に従って、初期の学習データの選択を行ない、条件
付確率推定部2からのパラメータ〈θ〉に基づき新たな
学習データを選択するときには、条件付確率推定部2か
らのパラメータ〈θ〉に基づいてパラメータvを更新
し、更新された確率分布r(x;v)に従って学習データ
保持部4から学習データ{xν(k),yν(k)}を選択す
ることができる。
【0023】なお、確率モデル保持部6に保持される確
率モデルr(x;v)としては、パラメータvを離散的な
パラメータvν(1≦ν≦N)とし、次式のようなモデ
ルを用いることができる。
【0024】
【数6】
【0025】ここで、パラメータvνは入力データxν
の発生頻度を表わしており、r(x;v)として数6を用
いることで、サンプル発生回路7から発生頻度の高いサ
ンプルxを発生させ、データ選択回路8において、発生
頻度の高い学習データを選択させることができて、学習
データを最適化することが可能となる。
【0026】また、最適なパラメータvは、学習誤差の
推定値E(v)を最小化するようにパラメータvの逐次更
新を行なうことにより得られる。このため、学習データ
選択部5の確率モデル更新回路9には、条件付確率推定
部2における学習誤差の推定値E(v)を算出する誤差推
定値算出回路10と、学習誤差の推定値E(v)を最小化
するようにパラメータvの逐次更新を行なう逐次更新回
路11とが設けられており、確率モデル更新回路9は、
学習機械の利用時に生じる入力データの発生分布の確率
密度函数の推定量〈q(x)〉と初期の学習データにより
条件付確率推定部2で得られた初期のパラメータθの推
定値〈θ〉とを用いて、学習データの入力データを{r
(x;v)}に従って発生させた場合の学習誤差の推定値
E(v)を小さくするパラメータvの値を最適値として計
算し、最適化されたパラメータvによる確率密度函数r
(x;v)を確率モデル保持部6に保持(更新)させるよう
にしている。
【0027】より具体的には、確率モデル更新回路9の
誤差推定値算出回路10は、次式の学習誤差推定値E
(v)を最小化するように、パラメータvを最適化するよ
うにしている。
【0028】
【数7】
【0029】但し、〈I〉,〈J(v)〉は行列であり、
次のように計算される。
【0030】
【数8】
【0031】ここで、〈q(x)〉は、前述のように、こ
の学習機械が実際に使用されるとしたときの入力データ
の発生分布q(x)の推定値であり、{xν}を用いれ
ば、入力データの発生分布q(x)をパラメトリックに、
あるいはノンパラメトリックに推定することができる。
また、この推定値〈q(x)〉を事前の知識により与えて
も良い。
【0032】また、確率モデル更新回路9は、学習の誤
差推定値E(v)を最小化するようにパラメータvを最適
化するのに、この学習機械がニューラルネットワークな
どの非線形モデルである場合には、逐次更新回路11に
おいて最急降下法でパラメータvを逐次更新するのがよ
い。
【0033】次に、このような学習機械の処理動作例に
ついて説明する。本実施例の学習機械は、この学習機械
が与える任意の入力xに対してp(y|x)に従う標本を
返答することができる未知システムを推定するのに用い
られる。例えばシステム同定の問題などでは、真のシス
テムは任意の入力に対して出力を返すことができる場合
も多い。本実施例の学習機械は、このようなシステムを
推定するのに用いることができる。
【0034】未知システムの推定(学習)は、条件付確率
推定部2で行なわれるが、条件付確率推定部2に対し
て、学習データ選択部5から学習データが与えられる。
【0035】この際、学習データ選択部5においては、
初期時には、確率モデル保持部6に初期のパラメータv
0をもつ確率モデル{r(x;v0)}が保持されており、
学習データ選択部5は、初期時において、先ず、確率モ
デル{r(x;v0)}に従うサンプルxをサンプル発生
回路7で発生させ、このサンプルxに最も近いN’個の
学習データ{xν(k);yν(k)|1≦k≦N’}を学習
データ保持部4に予め保持されているN個の学習データ
{xν;yν|1≦ν≦N}の中から選択し、これを初
期の学習データとして条件付確率推定部2に与える。
【0036】これにより、条件付確率推定部2は、この
初期の学習データ{xν(k),yν(k)}を用いて、所定
のパラメータθの初期学習を行ない、初期の学習結果,
すなわち初期のパラメータ推定値〈θ〉を算出する。
【0037】このようにして、初期学習がなされ、初期
のパラメータ推定値〈θ〉が得られると、条件付確率推
定部2は、このパラメータ推定値〈θ〉を学習データ選
択部5に与える。これにより、学習データ選択部5の確
率モデル更新回路9は、この学習機械の稼動時に発生す
る実際の入力データの発生分布の確率密度関数q(x)の
推定量〈q(x)〉と条件付確率推定部2の初期学習によ
り得られたパラメータθの推定値〈θ〉とを用いて、学
習誤差の推定値E(v)を最小にするパラメータvの値を
最適値として計算し、最適化されたパラメータvにより
確率モデル保持部6に保持されている確率モデルr
(x;v)を更新する。
【0038】このように、確率モデルr(x;v)の更新
がなされた後、学習データ選択部5では、更新された新
たな確率モデル{r(x;v)}に従うサンプルをサンプ
ルxをサンプル発生回路7で発生させ、このサンプルx
に最も近いN’個の学習データ{xν(k);yν(k)|1
≦k≦N’}を学習データ保持部4に予め保持されてい
るN個の学習データ{xν;yν|1≦ν≦N}の中か
ら選択し、これを新たな学習データとして条件付確率推
定部2に与える。
【0039】これにより、条件付確率推定部2は、この
新たな学習データ{xν(k),yν(k)}を用いて、パラ
メータθの更新学習を行ない、更新学習結果,すなわち
新たなパラメータ推定値〈θ〉を算出する。
【0040】このようにして、新たなパラメータ推定値
〈θ〉が得られると、条件付確率推定部2は、この新た
なパラメータ推定値〈θ〉を学習データ選択部5に与
え、この新たなパラメータ推定値〈θ〉によりパラメー
タv,確率モデルr(x;v)を更新させ、更新された確
率モデルにより学習データの選択更新を行なわせる。
【0041】このように、条件付確率推定部2と学習デ
ータ選択部5とによって、パラメータ推定値〈θ〉,学
習データの選択更新を所定の終了条件が満たされるまで
逐次繰り返し行なう。例えば所定の繰り返し回数になる
まで、あるいは、所定の誤差基準を満たすまで、繰り返
し行なう。このような繰り返し処理がなされることで、
最適な学習データが最終的に得られ、従って、条件付確
率推定部2においては、学習を効率良くかつ精度良く行
なって、精度の高い(学習誤差の小さい)学習結果,すな
わちパラメータ推定値〈θ〉を迅速に得ることができ
る。
【0042】このようにして、条件付確率推定部2にお
いてパラメータθの学習が行なわれ、更新学習結果
〈θ〉が生成された後、入力部1から入力ベクトルxが
与えられると、出力部3は、条件付確率推定部2によっ
て学習されたパラメータ(更新学習結果)〈θ〉を用い
て、与えられた入力ベクトルxに対する出力yを条件付
確率p(y|x;〈θ〉)に従う標本として算出すること
ができる。
【0043】以上のように、本実施例では、システム同
定の問題のように、学習機械が用意した入力データに対
して未知システムが教師データを与えてくれる問題を、
ニューラルネットワークなどの統計的学習機械によって
学習する場合に、学習データをどのように用意するのが
最適かを設計することができ、学習後の推定精度を向上
させることができる。
【0044】
【発明の効果】以上に説明したように、請求項1記載の
発明によれば、入力ベクトル空間Xからの入力ベクトル
xに対して真の条件付確率p(y|x)に従う出力ベクト
ルyを発生する未知システムを推定する学習機械であっ
て、入力ベクトル空間Xからの入力ベクトルxを受け取
る入力手段と、学習用入力データとそれに対する未知シ
ステムの応答である教師データとの組からなる学習デー
タを用いて、所定のパラメータθの学習を行ない、真の
条件付確率p(y|x)を推定し、これによって未知シス
テムの推定を行なう条件付確率推定手段と、条件付確率
推定手段によって学習されたパラメータ〈θ〉を用い
て、入力手段から与えられた未学習の入力ベクトルxに
対する出力yを条件付確率p(y|x;〈θ〉)に従う標
本として算出する出力手段と、条件付確率推定手段が用
いる学習データを、確率的規則に従って選択する学習デ
ータ選択手段とを有しているので、学習に有効な最適な
学習データを選択することができ、これにより、学習を
効率良くかつ精度良く行なうことができて、学習後のシ
ステムの推定精度を向上させることができる。
【0045】また、請求項2乃至6記載の発明によれ
ば、条件付確率推定手段は、学習データ選択手段によっ
て選択された学習データからパラメータ〈θ〉を算出
し、算出したパラメータを学習データ選択手段に与えて
該パラメータ〈θ〉に基づき新たな学習データを学習デ
ータ選択手段に選択させ、選択された新たな学習データ
から新たなパラメータ〈θ〉を算出するというように、
パラメータθの更新を最適なパラメータが得られるまで
繰り返し行ない、最終的なパラメータ〈θ〉を得るよう
になっているので、学習に有効な最適な学習データを選
択させ、パラメータの学習を効率良くかつ精度良く行な
うことができる。
【図面の簡単な説明】
【図1】本発明に係る学習機械の一実施例の構成図であ
る。
【図2】統計的学習機械としての3層構造のパーセプト
ロンを示す図である。
【符号の説明】
1 入力部 2 条件付確率推定部 3 出力部 4 学習データ保持部 5 学習データ選択部 6 確率モデル保持部 7 サンプル発生回路 8 データ選択回路 9 確率モデル更新回路 10 誤差推定値算出回路 11 逐次更新回路

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 入力ベクトル空間Xからの入力ベクトル
    xに対して真の条件付確率p(y|x)に従う出力ベクト
    ルyを発生する未知システムを推定する学習機械であっ
    て、入力ベクトル空間Xからの入力ベクトルxを受け取
    る入力手段と、学習用入力データとそれに対する前記未
    知システムの応答である教師データとの組からなる学習
    データを用いて、所定のパラメータθの学習を行ない、
    真の条件付確率p(y|x)を推定し、これによって未知
    システムの推定を行なう条件付確率推定手段と、条件付
    確率推定手段によって学習されたパラメータ〈θ〉を用
    いて、入力手段から与えられた未学習の入力ベクトルx
    に対する出力yを条件付確率p(y|x;〈θ〉)に従う
    標本として算出する出力手段と、条件付確率推定手段が
    用いる学習データを、確率的規則に従って選択する学習
    データ選択手段とを有していることを特徴とする学習機
    械。
  2. 【請求項2】 請求項1記載の学習機械において、前記
    条件付確率推定手段は、前記学習データ選択手段によっ
    て選択された学習データからパラメータ〈θ〉を算出
    し、算出したパラメータを学習データ選択手段に与えて
    該パラメータ〈θ〉に基づき新たな学習データを学習デ
    ータ選択手段に選択させ、選択された新たな学習データ
    から新たなパラメータ〈θ〉を算出するというように、
    パラメータθの更新を最適なパラメータが得られるまで
    繰り返し行ない、最終的なパラメータ〈θ〉を得るよう
    になっていることを特徴とする学習機械。
  3. 【請求項3】 請求項2記載の学習機械において、前記
    学習データ選択手段は、パラメータvをもった入力ベク
    トル空間上の確率モデル{r(x;v)}を保持してお
    り、該確率モデルr(x;v)に従うサンプルxを発生さ
    せ、該サンプルxに最も近い位置にあるデータxνを学
    習データとして選択することを特徴とする学習機械。
  4. 【請求項4】 請求項2または請求項3記載の学習機械
    において、前記学習データ選択手段は、初期時には予め
    定められたパラメータv0をもつ一定の確率分布r(x;
    0)に従って、初期の学習データの選択を行ない、前記
    条件付確率推定手段からのパラメータ〈θ〉に基づき新
    たな学習データを選択するときには、条件付確率推定手
    段からのパラメータ〈θ〉に基づいてパラメータvを更
    新し、更新された確率分布r(x;v)に従って学習デー
    タを選択することを特徴とする学習機械。
  5. 【請求項5】 請求項2または請求項3記載の学習機械
    において、前記学習データ選択手段は、学習機械の利用
    時に生じる入力データの発生分布の確率密度函数の推定
    量〈q(x)〉と初期の学習データにより前記条件付確率
    推定手段で得られた初期のパラメータθの推定値〈θ〉
    とを用いて、学習データの入力データを{r(x;v)}
    に従って発生させた場合の学習誤差の推定値E(v)を小
    さくするパラメータvの値を最適値として計算し、最適
    化されたパラメータvによる確率密度函数r(x;v)に
    よって学習データの選択を行なうことを特徴とする学習
    機械。
  6. 【請求項6】 請求項5記載の学習機械において、前記
    最適なパラメータvは、学習誤差の推定値E(v)を最小
    化するように最急降下法を用いてパラメータvの逐次更
    新を行なうことにより得られることを特徴とする学習機
    械。
JP7046202A 1995-02-10 1995-02-10 学習機械 Pending JPH08221378A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7046202A JPH08221378A (ja) 1995-02-10 1995-02-10 学習機械

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7046202A JPH08221378A (ja) 1995-02-10 1995-02-10 学習機械

Publications (1)

Publication Number Publication Date
JPH08221378A true JPH08221378A (ja) 1996-08-30

Family

ID=12740506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7046202A Pending JPH08221378A (ja) 1995-02-10 1995-02-10 学習機械

Country Status (1)

Country Link
JP (1) JPH08221378A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010528364A (ja) * 2007-05-24 2010-08-19 パロ・アルト・リサーチ・センター・インコーポレーテッド 間欠的故障の診断
JP2017516197A (ja) * 2015-03-31 2017-06-15 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 交通標識を認識する方法及び装置
US10614160B2 (en) 2017-05-16 2020-04-07 Fujitsu Limited Computer-readable recording medium recording learning program, learning method, and learning apparatus
JP2021526063A (ja) * 2018-09-04 2021-09-30 深▲セン▼先進技術研究院 不整脈検出方法、装置、電子装置およびコンピュータ記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010528364A (ja) * 2007-05-24 2010-08-19 パロ・アルト・リサーチ・センター・インコーポレーテッド 間欠的故障の診断
JP2017516197A (ja) * 2015-03-31 2017-06-15 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 交通標識を認識する方法及び装置
US10614160B2 (en) 2017-05-16 2020-04-07 Fujitsu Limited Computer-readable recording medium recording learning program, learning method, and learning apparatus
JP2021526063A (ja) * 2018-09-04 2021-09-30 深▲セン▼先進技術研究院 不整脈検出方法、装置、電子装置およびコンピュータ記憶媒体

Similar Documents

Publication Publication Date Title
Chaer et al. A mixture-of-experts framework for adaptive Kalman filtering
EP0150762A2 (en) Apparatus for identification of a process parameter
CN115099606A (zh) 一种电网调度模型的训练方法及终端
US20230120256A1 (en) Training an artificial neural network, artificial neural network, use, computer program, storage medium and device
JPH08221378A (ja) 学習機械
CN116009990B (zh) 基于宽注意力机制的云边协同元强化学习计算卸载方法
WO2020161935A1 (ja) 学習装置、学習方法、及び、プログラム
Al_Duais et al. A review on enhancements to speed up training of the batch back propagation algorithm
CN115972211A (zh) 基于模型不确定性与行为先验的控制策略离线训练方法
Yang et al. Continuous control for searching and planning with a learned model
Morales Deep Reinforcement Learning
RU2725789C1 (ru) Способ обработки массивов аналоговых сигналов
JPH07311754A (ja) 学習機械
Chockalingam et al. Extending World Models for Multi-Agent Reinforcement Learning in MALMÖ.
Alihodzic et al. Extreme learning machines for data classification tuning by improved bat algorithm
JPH10198645A (ja) ニューラルネット学習方法及び装置
US20220260995A1 (en) Machine learning for trajectory planning
JPH10134018A (ja) 法則発見方法と装置及び法則発見プログラムを格納した記憶媒体、及びニューラルネット学習方法と装置及びニューラルネット学習プログラムを格納した記憶媒体
JPH10187649A (ja) ニューラルネットワーク
JPH0962645A (ja) 専門家の階層混合モデルの構築的学習方法
JP3312042B2 (ja) 学習機械
CN114168655B (zh) 基于周期性的网络流量预测方法
US6963862B1 (en) Method and system for training a recurrent network
Kafka et al. Investigating the interaction between gradient-only line searches and different activation functions
JPH10254846A (ja) 回帰型神経回路網の学習方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041109