JP3751982B2 - ニューラルネットワークの学習方式 - Google Patents
ニューラルネットワークの学習方式 Download PDFInfo
- Publication number
- JP3751982B2 JP3751982B2 JP05287993A JP5287993A JP3751982B2 JP 3751982 B2 JP3751982 B2 JP 3751982B2 JP 05287993 A JP05287993 A JP 05287993A JP 5287993 A JP5287993 A JP 5287993A JP 3751982 B2 JP3751982 B2 JP 3751982B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- signal vector
- neural network
- error
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習方式に関する。
【0002】
【従来の技術】
入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークは、パターン分類、関数同定に基づく予測等を低コストで実現することが可能な実用的手法である。入力信号ベクトルとは、ニューラルネットワークに入力される、一般に多次元の信号のベクトルであり、出力信号ベクトルとは、入力信号ベクトルをニューラルネットワークに入力した時にニューラルネットワークから出力される、一般に多次元の信号のベクトルである。また、教師信号ベクトルとは、ある入力信号ベクトルをニューラルネットワークに入力したときの出力信号ベクトルとして望ましい信号、すなわち模範値とでもいうべき信号のベクトルである。
【0003】
さて、ニューラルネットワークにパターン分類、予測等を行わせる場合は、それに先立ち、ニューラルネットワークに学習用データセットの学習を行わせておく必要がある。学習用データセットは、入力信号ベクトルと教師信号ベクトルとの組のサンプルの集合で、個々のデータを人為的に作成する場合と、実際の物理的、化学的プロセスから計測によって得る場合とがある。前者の例としては、文字分類を行わせるニューラルネットワークの学習用データセットを作成する場合で、文字とその分類先は操作者が与える。後者の例としては、ある物理系の伝達関数を同定するためのニューラルネットワークの学習用データセットを作成する場合で、系の入力信号および出力信号を計測して、それらをそれぞれ入力信号ベクトルおよび教師信号ベクトルとする。
【0004】
パターン分類、関数同定による予測等が可能なニューラルネットワークとしては、パーセプトロン、(M)ADALINE、バックプロパゲーションネットワーク等が挙げられる。中でもバックプロパゲーションネットワークは、理論的には任意の関数を近似できることが知られており、応用範囲の広いモデルである。これらのモデルの学習方式は、学習用データセットの中のある入力信号ベクトルをニューラルネットワークに入力した時のニューラルネットワークの出力信号ベクトルとそれに対する教師信号ベクトルとの差の、学習用データセットすべてについての自乗和を最小化する方向(最急降下方向)に内部構造を少しずつ変更することで学習を行うというもので、通常はこのような動作を何回も繰り返すことで出力信号ベクトルの精度を徐々に高めていく。学習がうまく収束すれば、学習用データセットの中の任意の入力信号ベクトルをニューラルネットワークに与えると、ニューラルネットワークはそれに対する教師信号ベクトルに(限りなく)近い出力信号ベクトルを出力する。
【0005】
特に、バックプロパゲーションネットワークにおける学習方式は、 D. E. Rumelhart, G. E. Hinton, R. J. Williamsによる "Learning Internal Representations by Error Propagation" ( Parallel Distributed Processing, D. E. Rumelhart, J.L.McClelland, and the PDP Research Group, MIT Press, 1986)に示されている。
【0006】
【発明が解決しようとする課題】
入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習に用いる教師信号ベクトルを、物理的計測手段、または化学的計測手段、あるいはその他の計測手段によって得る場合、多くの場合は計測値には定量的計測誤差が含まれている。したがって、入力信号ベクトルが同一であっても、それに対する教師信号ベクトルは計測誤差のため一般には一致しない。このような信号について従来の学習方式を適用した場合、教師信号ベクトルの含んでいる計測誤差に影響を受け、正しい学習を行わせるのが困難であるという問題点があった。
【0007】
本発明は、かかる従来の学習方式の問題点に鑑み、教師信号ベクトルが誤差を含んでいる場合においても、正しく、かつ高速にニューラルネットワークに学習を行わせる学習方式を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明による学習方式は、教師信号ベクトルが含んでいる誤差を考慮した学習をさせることにより、正しい学習を高速に行わせるようにしたもので、入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習方式において、前記出力信号ベクトルと前記教師信号ベクトルの差分ベクトルを計算する差分計算手段と、前記教師信号ベクトルの各要素値の誤差範囲を表す上限値と下限値の組を要素として誤差範囲ベクトルとし、前記差分ベクトルの各要素値が前記誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内に入っているか否かを判定する誤差比較手段と、前記誤差比較手段においてすべての要素値が誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内と判定された場合はニューラルネットワークに入力信号ベクトル及び教師信号ベクトルの組を学習しない指示を行い、そうでない場合はニューラルネットワークに入力信号ベクトル及び教師信号ベクトルの組を学習する指示を行う学習指示手段とを有するものである。
【0009】
【作用】
本発明の構成および作用を図を用いて詳細に説明する。
図1において、J次元の入力信号ベクトルとK次元の教師信号ベクトルの組N個からなる学習用データセットのP番目(1 ≦P≦N)の入力信号ベクトル1(IP)をニューラルネットワーク3に入力し、K次元の出力信号ベクトル4(OP)を得る。
【0010】
次に、差分計算部5にて、出力信号ベクトル4(OP)から教師信号ベクトル2(TP)を減算する。この結果得られる差分ベクトルDのi番目の要素をDi、出力信号ベクトル4(OP)及び教師信号ベクトル2(TP)のi番目の要素をそれぞれOPi 、TPi とすると、
Di = OPi - TPi (1 ≦ i ≦ K)
である。
【0011】
このようにして得られた差分ベクトルが、計測誤差の範囲を示す誤差範囲ベクトル7の範囲内に入っているか否かの判定を誤差比較部6にて行う。この比較は次のように行う。何らかの計測手段によって得られた教師信号ベクトルのi番目(1 ≦i≦K)の値Tiの真の値がViであるとき、Tiの誤差範囲が、
Ai ≦ Vi - Ti ≦ Bi
であるとすると、誤差比較部6は、差分ベクトルDのi番目の要素Diにおいて、
Ai ≦ Di ≦ Bi
がすべてのi (1 ≦i≦K)について成り立つか否かの判定を行う。判定結果は「真」または「偽」のいずれかで、これが学習指示部8に渡される。
【0012】
学習指示部8は、誤差比較部6から渡された値が「偽」であるときには、ニューラルネットワーク3に対し、入力信号1(IP)と教師信号2(TP)の組を学習する指示を出す。ニューラルネットワーク3はそれ本来の学習方式で学習を行う。一方、誤差比較部6から渡された値が「真」であるときには、学習指示部8はニューラルネットワーク3に対して学習指示を出さない。ニューラルネットワーク3は、入力信号1(IP)と教師信号2(IP)の組については学習しない。
【0013】
以上の処理をすべてのPに対して行うことを1サイクルとし、これをある所定のサイクル数だけ繰り返し行うか、または、あるサイクルにおいて、すべてのPについて誤差比較部8の出力が1度も「偽」とならなかった場合に、ニューラルネットワーク3の学習を終了する。
【0014】
この方式により、教師信号ベクトルに誤差が含まれている場合も正しい学習を実行できる。しかも、学習用データセットのすべての要素について常に学習計算を行うわけではないので、学習に要する時間が短縮される。
【0015】
【実施例】
次に、本発明の具体的な実施例を図面を用いて説明する。
ここでは、3層バックプロパゲーションネットワークを用いて、入出力系の入力と出力の関係を示す関数を同定する場合を例として説明する。対象となっている系は2入力1出力で、2個の入力信号x、yは、
z= 0.8sin( x+y) +0.1 (1)
という関数で1個の出力信号zに変換されているものとする。
【0016】
ところが、何らかの計測手段によって得られる出力信号zは、[-0.05, 0.05] に一様分布する計測誤差を含んでいるものとする。すなわち、あるxとyに対する系の出力信号の計測値uは、
u= z+ w
である。wは真の出力信号値zに含まれる計測誤差で、[-0.05, 0.05] の一様乱数である。結局、「あるxとyを入力したらuという出力が観測された」ということだけが、対象の系について外部から知り得るすべてであるとする。
【0017】
さて、ある入力信号(x, y)とそれに対する出力信号の計測値(u) の組につき、2次元ベクトル(x, y)をニューラルネットワークの入力信号ベクトル、1次元ベクトル(u) を教師信号ベクトルとして、このようなサンプルの組を多数集めたものを学習用データセットとする。これをニューラルネットワークに学習させることによって、対象としている系の入出力関係を同定する。
【0018】
このような目的に本発明を適用した場合の動作の様子を図2に示す。
図2において、学習用データセットの1番目が与える入力信号ベクトル1のx、yの値はそれぞれ0.125 、0.084 である。これをニューラルネットワーク3に入力し、ニューラルネットワーク3の演算を行って得られた出力信号ベクトル4の値は0.332 である。次に、出力信号ベクトル4の値から教師信号ベクトル2の値である0.255 を減算した差分ベクトルの値0.077 が、差分計算部5にて算出される。誤差比較部6では、差分算出部5の演算結果である0.077 が、誤差範囲ベクトル7が与える[-0.05, 0.05] に入っているか否かをチェックする。
【0019】
0.077 >0.05であり、0.077 は誤差範囲[-0.05, 0.05] に入っていないので、誤差比較部6は「偽」という値を学習指示部8に渡す。「偽」という値を受けた学習指示部8は、ニューラルネット3に対し、入力信号ベクトル1と教師信号ベクトル2の組を学習するよう指示を出す。ニューラルネットワーク3は入力信号ベクトル1と教師信号ベクトル2の組について学習演算を行う。
【0020】
また、図2において、学習用データセットの2番目が与える入力信号ベクトル1のx、yの値はそれぞれ0.535 、0.948 である。これをニューラルネットワーク3に入力し、ニューラルネットワーク3の演算を行って得られた出力信号ベクトル4の値は0.885 である。次に、出力信号ベクトル4の値から教師信号ベクトル2の値である0.864 を減算した差分ベクトルの値0.021 が、差分計算部5にて算出される。誤差比較部6では、差分算出部5の演算結果である0.021 が、誤差範囲ベクトル7が与える[-0.05, 0.05] に入っているか否かをチェックする。-0.05 ≦ 0.021 ≦ 0.05 であり、0.021 は誤差範囲[-0.05, 0.05] に入っているので、誤差比較部6は「真」という値を学習指示部8に渡す。「真」という値を受けた学習指示部8は、ニューラルネット3に対し、入力信号ベクトル1と教師信号ベクトル2の組を学習する指示を出さない。この結果、ニューラルネットワーク3は入力信号ベクトル1と教師信号ベクトル2の組について学習演算を行わない。
【0021】
このような動作を学習用データセットすべて(図2では 100個)に対して適用する。この動作を1サイクルとすると、これを 100サイクル繰り返した結果と、従来の学習方式(入力信号ベクトルと教師信号ベクトルを毎回必ず学習する方式)を 100サイクル繰り返した場合の結果とを比較したものを図3に示す。図3は、ニューラルネットワークの学習を開始してからの経過時間と、
【0022】
【数1】
【0023】
で定義される学習誤差Eとの関係をプロットしたグラフである。
【0024】
これより、本発明による方式が、従来方式よりも学習誤差が早い時期に小さくなることがわかる。例えば、学習誤差が1.0 に達するまでに要する時間は、従来方式によると3.0 秒であるのに対し、本発明によると2.4 秒である。
【0025】
また、100 回の繰り返し学習をするのに要する時間は、従来方式によれば15.9秒であるのに対し、本発明によれば11.5秒であり、従来方式よりも短い時間で学習が終了していることがわかる。
【0026】
図4は、学習用データセットの 100個の要素について、入力信号ベクトル(2次元)の2個の値の和を横軸に、それに対する教師信号ベクトル(1次元)の値を縦軸にとってプロットしたグラフである。また、グラフ中の3本の曲線は、(1) 式で与えられる曲線と、それから±0.05だけ離れた曲線のグラフである。これより、教師信号ベクトルの値は、(1) 式で与えられるzを中心に±0.05の範囲内を振れていることが分かる。
【0027】
図5は、本発明による方法で学習を行ったニューラルネットワークに、学習用データセットの 100個すべての入力信号ベクトル(2次元)を与えた場合について、グラフの横軸にニューラルネットワークに入力した入力信号ベクトルの要素の和を、縦軸にニューラルネットワークの出力信号ベクトルの値をプロットしたグラフである。グラフ中の3本の曲線は、図4と同様に(1) 式で与えられる曲線と、それから±0.05だけ離れた曲線のグラフである。ニューラルネットワークの出力信号値の大部分が、(1) で与えれらるzの±0.05の範囲内に入っていることが分かる。
【0028】
図3、図5より、本発明による方法でニューラルネットの学習を行うことで関数の同定を行った場合、入力信号ベクトルと誤差を含んだ教師信号ベクトルからもとの関数をよく近似した関数を、短時間で同定できることが分かる。
【0029】
【発明の効果】
本発明によれば、教師信号ベクトルの誤差範囲が既知である場合に、ニューラルネットワークの学習計算において、出力信号ベクトルと教師信号ベクトルの差分ベクトルのすべての要素値が、誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内にある場合は学習計算を行わないようにしているから、教師信号ベクトルに誤差が含まれている場合も正しい学習を実行でき、かつ、学習に要する時間が短縮される。
【図面の簡単な説明】
【図1】本発明の構成を示すブロック図である。
【図2】本発明の一実施例における信号値を示す図である。
【図3】本発明と従来方式の学習誤差の減少速度を比較した図である。
【図4】学習用データセットの入力信号ベクトルと教師信号ベクトルの関係を示す図である。
【図5】本発明による方式で学習を終えたニューラルネットワークにおける学習用データセットの入力信号ベクトルと、出力信号ベクトルの関係を示す図である。
【符号の説明】
1 入力信号ベクトル
2 教師信号ベクトル
3 ニューラルネットワーク
4 出力信号ベクトル
5 差分計算部
6 誤差比較部
7 誤差範囲ベクトル
8 学習指示部
【産業上の利用分野】
本発明は、入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習方式に関する。
【0002】
【従来の技術】
入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークは、パターン分類、関数同定に基づく予測等を低コストで実現することが可能な実用的手法である。入力信号ベクトルとは、ニューラルネットワークに入力される、一般に多次元の信号のベクトルであり、出力信号ベクトルとは、入力信号ベクトルをニューラルネットワークに入力した時にニューラルネットワークから出力される、一般に多次元の信号のベクトルである。また、教師信号ベクトルとは、ある入力信号ベクトルをニューラルネットワークに入力したときの出力信号ベクトルとして望ましい信号、すなわち模範値とでもいうべき信号のベクトルである。
【0003】
さて、ニューラルネットワークにパターン分類、予測等を行わせる場合は、それに先立ち、ニューラルネットワークに学習用データセットの学習を行わせておく必要がある。学習用データセットは、入力信号ベクトルと教師信号ベクトルとの組のサンプルの集合で、個々のデータを人為的に作成する場合と、実際の物理的、化学的プロセスから計測によって得る場合とがある。前者の例としては、文字分類を行わせるニューラルネットワークの学習用データセットを作成する場合で、文字とその分類先は操作者が与える。後者の例としては、ある物理系の伝達関数を同定するためのニューラルネットワークの学習用データセットを作成する場合で、系の入力信号および出力信号を計測して、それらをそれぞれ入力信号ベクトルおよび教師信号ベクトルとする。
【0004】
パターン分類、関数同定による予測等が可能なニューラルネットワークとしては、パーセプトロン、(M)ADALINE、バックプロパゲーションネットワーク等が挙げられる。中でもバックプロパゲーションネットワークは、理論的には任意の関数を近似できることが知られており、応用範囲の広いモデルである。これらのモデルの学習方式は、学習用データセットの中のある入力信号ベクトルをニューラルネットワークに入力した時のニューラルネットワークの出力信号ベクトルとそれに対する教師信号ベクトルとの差の、学習用データセットすべてについての自乗和を最小化する方向(最急降下方向)に内部構造を少しずつ変更することで学習を行うというもので、通常はこのような動作を何回も繰り返すことで出力信号ベクトルの精度を徐々に高めていく。学習がうまく収束すれば、学習用データセットの中の任意の入力信号ベクトルをニューラルネットワークに与えると、ニューラルネットワークはそれに対する教師信号ベクトルに(限りなく)近い出力信号ベクトルを出力する。
【0005】
特に、バックプロパゲーションネットワークにおける学習方式は、 D. E. Rumelhart, G. E. Hinton, R. J. Williamsによる "Learning Internal Representations by Error Propagation" ( Parallel Distributed Processing, D. E. Rumelhart, J.L.McClelland, and the PDP Research Group, MIT Press, 1986)に示されている。
【0006】
【発明が解決しようとする課題】
入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習に用いる教師信号ベクトルを、物理的計測手段、または化学的計測手段、あるいはその他の計測手段によって得る場合、多くの場合は計測値には定量的計測誤差が含まれている。したがって、入力信号ベクトルが同一であっても、それに対する教師信号ベクトルは計測誤差のため一般には一致しない。このような信号について従来の学習方式を適用した場合、教師信号ベクトルの含んでいる計測誤差に影響を受け、正しい学習を行わせるのが困難であるという問題点があった。
【0007】
本発明は、かかる従来の学習方式の問題点に鑑み、教師信号ベクトルが誤差を含んでいる場合においても、正しく、かつ高速にニューラルネットワークに学習を行わせる学習方式を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明による学習方式は、教師信号ベクトルが含んでいる誤差を考慮した学習をさせることにより、正しい学習を高速に行わせるようにしたもので、入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習方式において、前記出力信号ベクトルと前記教師信号ベクトルの差分ベクトルを計算する差分計算手段と、前記教師信号ベクトルの各要素値の誤差範囲を表す上限値と下限値の組を要素として誤差範囲ベクトルとし、前記差分ベクトルの各要素値が前記誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内に入っているか否かを判定する誤差比較手段と、前記誤差比較手段においてすべての要素値が誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内と判定された場合はニューラルネットワークに入力信号ベクトル及び教師信号ベクトルの組を学習しない指示を行い、そうでない場合はニューラルネットワークに入力信号ベクトル及び教師信号ベクトルの組を学習する指示を行う学習指示手段とを有するものである。
【0009】
【作用】
本発明の構成および作用を図を用いて詳細に説明する。
図1において、J次元の入力信号ベクトルとK次元の教師信号ベクトルの組N個からなる学習用データセットのP番目(1 ≦P≦N)の入力信号ベクトル1(IP)をニューラルネットワーク3に入力し、K次元の出力信号ベクトル4(OP)を得る。
【0010】
次に、差分計算部5にて、出力信号ベクトル4(OP)から教師信号ベクトル2(TP)を減算する。この結果得られる差分ベクトルDのi番目の要素をDi、出力信号ベクトル4(OP)及び教師信号ベクトル2(TP)のi番目の要素をそれぞれOPi 、TPi とすると、
Di = OPi - TPi (1 ≦ i ≦ K)
である。
【0011】
このようにして得られた差分ベクトルが、計測誤差の範囲を示す誤差範囲ベクトル7の範囲内に入っているか否かの判定を誤差比較部6にて行う。この比較は次のように行う。何らかの計測手段によって得られた教師信号ベクトルのi番目(1 ≦i≦K)の値Tiの真の値がViであるとき、Tiの誤差範囲が、
Ai ≦ Vi - Ti ≦ Bi
であるとすると、誤差比較部6は、差分ベクトルDのi番目の要素Diにおいて、
Ai ≦ Di ≦ Bi
がすべてのi (1 ≦i≦K)について成り立つか否かの判定を行う。判定結果は「真」または「偽」のいずれかで、これが学習指示部8に渡される。
【0012】
学習指示部8は、誤差比較部6から渡された値が「偽」であるときには、ニューラルネットワーク3に対し、入力信号1(IP)と教師信号2(TP)の組を学習する指示を出す。ニューラルネットワーク3はそれ本来の学習方式で学習を行う。一方、誤差比較部6から渡された値が「真」であるときには、学習指示部8はニューラルネットワーク3に対して学習指示を出さない。ニューラルネットワーク3は、入力信号1(IP)と教師信号2(IP)の組については学習しない。
【0013】
以上の処理をすべてのPに対して行うことを1サイクルとし、これをある所定のサイクル数だけ繰り返し行うか、または、あるサイクルにおいて、すべてのPについて誤差比較部8の出力が1度も「偽」とならなかった場合に、ニューラルネットワーク3の学習を終了する。
【0014】
この方式により、教師信号ベクトルに誤差が含まれている場合も正しい学習を実行できる。しかも、学習用データセットのすべての要素について常に学習計算を行うわけではないので、学習に要する時間が短縮される。
【0015】
【実施例】
次に、本発明の具体的な実施例を図面を用いて説明する。
ここでは、3層バックプロパゲーションネットワークを用いて、入出力系の入力と出力の関係を示す関数を同定する場合を例として説明する。対象となっている系は2入力1出力で、2個の入力信号x、yは、
z= 0.8sin( x+y) +0.1 (1)
という関数で1個の出力信号zに変換されているものとする。
【0016】
ところが、何らかの計測手段によって得られる出力信号zは、[-0.05, 0.05] に一様分布する計測誤差を含んでいるものとする。すなわち、あるxとyに対する系の出力信号の計測値uは、
u= z+ w
である。wは真の出力信号値zに含まれる計測誤差で、[-0.05, 0.05] の一様乱数である。結局、「あるxとyを入力したらuという出力が観測された」ということだけが、対象の系について外部から知り得るすべてであるとする。
【0017】
さて、ある入力信号(x, y)とそれに対する出力信号の計測値(u) の組につき、2次元ベクトル(x, y)をニューラルネットワークの入力信号ベクトル、1次元ベクトル(u) を教師信号ベクトルとして、このようなサンプルの組を多数集めたものを学習用データセットとする。これをニューラルネットワークに学習させることによって、対象としている系の入出力関係を同定する。
【0018】
このような目的に本発明を適用した場合の動作の様子を図2に示す。
図2において、学習用データセットの1番目が与える入力信号ベクトル1のx、yの値はそれぞれ0.125 、0.084 である。これをニューラルネットワーク3に入力し、ニューラルネットワーク3の演算を行って得られた出力信号ベクトル4の値は0.332 である。次に、出力信号ベクトル4の値から教師信号ベクトル2の値である0.255 を減算した差分ベクトルの値0.077 が、差分計算部5にて算出される。誤差比較部6では、差分算出部5の演算結果である0.077 が、誤差範囲ベクトル7が与える[-0.05, 0.05] に入っているか否かをチェックする。
【0019】
0.077 >0.05であり、0.077 は誤差範囲[-0.05, 0.05] に入っていないので、誤差比較部6は「偽」という値を学習指示部8に渡す。「偽」という値を受けた学習指示部8は、ニューラルネット3に対し、入力信号ベクトル1と教師信号ベクトル2の組を学習するよう指示を出す。ニューラルネットワーク3は入力信号ベクトル1と教師信号ベクトル2の組について学習演算を行う。
【0020】
また、図2において、学習用データセットの2番目が与える入力信号ベクトル1のx、yの値はそれぞれ0.535 、0.948 である。これをニューラルネットワーク3に入力し、ニューラルネットワーク3の演算を行って得られた出力信号ベクトル4の値は0.885 である。次に、出力信号ベクトル4の値から教師信号ベクトル2の値である0.864 を減算した差分ベクトルの値0.021 が、差分計算部5にて算出される。誤差比較部6では、差分算出部5の演算結果である0.021 が、誤差範囲ベクトル7が与える[-0.05, 0.05] に入っているか否かをチェックする。-0.05 ≦ 0.021 ≦ 0.05 であり、0.021 は誤差範囲[-0.05, 0.05] に入っているので、誤差比較部6は「真」という値を学習指示部8に渡す。「真」という値を受けた学習指示部8は、ニューラルネット3に対し、入力信号ベクトル1と教師信号ベクトル2の組を学習する指示を出さない。この結果、ニューラルネットワーク3は入力信号ベクトル1と教師信号ベクトル2の組について学習演算を行わない。
【0021】
このような動作を学習用データセットすべて(図2では 100個)に対して適用する。この動作を1サイクルとすると、これを 100サイクル繰り返した結果と、従来の学習方式(入力信号ベクトルと教師信号ベクトルを毎回必ず学習する方式)を 100サイクル繰り返した場合の結果とを比較したものを図3に示す。図3は、ニューラルネットワークの学習を開始してからの経過時間と、
【0022】
【数1】
【0023】
で定義される学習誤差Eとの関係をプロットしたグラフである。
【0024】
これより、本発明による方式が、従来方式よりも学習誤差が早い時期に小さくなることがわかる。例えば、学習誤差が1.0 に達するまでに要する時間は、従来方式によると3.0 秒であるのに対し、本発明によると2.4 秒である。
【0025】
また、100 回の繰り返し学習をするのに要する時間は、従来方式によれば15.9秒であるのに対し、本発明によれば11.5秒であり、従来方式よりも短い時間で学習が終了していることがわかる。
【0026】
図4は、学習用データセットの 100個の要素について、入力信号ベクトル(2次元)の2個の値の和を横軸に、それに対する教師信号ベクトル(1次元)の値を縦軸にとってプロットしたグラフである。また、グラフ中の3本の曲線は、(1) 式で与えられる曲線と、それから±0.05だけ離れた曲線のグラフである。これより、教師信号ベクトルの値は、(1) 式で与えられるzを中心に±0.05の範囲内を振れていることが分かる。
【0027】
図5は、本発明による方法で学習を行ったニューラルネットワークに、学習用データセットの 100個すべての入力信号ベクトル(2次元)を与えた場合について、グラフの横軸にニューラルネットワークに入力した入力信号ベクトルの要素の和を、縦軸にニューラルネットワークの出力信号ベクトルの値をプロットしたグラフである。グラフ中の3本の曲線は、図4と同様に(1) 式で与えられる曲線と、それから±0.05だけ離れた曲線のグラフである。ニューラルネットワークの出力信号値の大部分が、(1) で与えれらるzの±0.05の範囲内に入っていることが分かる。
【0028】
図3、図5より、本発明による方法でニューラルネットの学習を行うことで関数の同定を行った場合、入力信号ベクトルと誤差を含んだ教師信号ベクトルからもとの関数をよく近似した関数を、短時間で同定できることが分かる。
【0029】
【発明の効果】
本発明によれば、教師信号ベクトルの誤差範囲が既知である場合に、ニューラルネットワークの学習計算において、出力信号ベクトルと教師信号ベクトルの差分ベクトルのすべての要素値が、誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内にある場合は学習計算を行わないようにしているから、教師信号ベクトルに誤差が含まれている場合も正しい学習を実行でき、かつ、学習に要する時間が短縮される。
【図面の簡単な説明】
【図1】本発明の構成を示すブロック図である。
【図2】本発明の一実施例における信号値を示す図である。
【図3】本発明と従来方式の学習誤差の減少速度を比較した図である。
【図4】学習用データセットの入力信号ベクトルと教師信号ベクトルの関係を示す図である。
【図5】本発明による方式で学習を終えたニューラルネットワークにおける学習用データセットの入力信号ベクトルと、出力信号ベクトルの関係を示す図である。
【符号の説明】
1 入力信号ベクトル
2 教師信号ベクトル
3 ニューラルネットワーク
4 出力信号ベクトル
5 差分計算部
6 誤差比較部
7 誤差範囲ベクトル
8 学習指示部
Claims (3)
- 入力信号ベクトルと教師信号ベクトルを入力とし、出力信号ベクトルを出力とするニューラルネットワークの学習方式において、
前記出力信号ベクトルと前記教師信号ベクトルの差分ベクトルを計算する差分計算手段と、
前記教師信号ベクトルの各要素値の誤差範囲を表す上限値と下限値の組を要素として誤差範囲ベクトルとし、前記差分ベクトルの各要素値が前記誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内に入っているか否かを判定する誤差比較手段と、
前記誤差比較手段においてすべての要素値が誤差範囲ベクトルの対応する要素の上限値と下限値の範囲内と判定された場合はニューラルネットワークに入力信号ベクトル及び教師信号ベクトルの組を学習しない指示を行い、そうでない場合はニューラルネットワークに入力信号ベクトル及び教師信号ベクトルの組を学習する指示を行う学習指示手段とを有することを特徴とするニューラルネットワークの学習方式。 - 前記教師信号ベクトルの各要素値の誤差は、前記教師信号ベクトルを計測により得ることによる計測誤差であり、上限値と下限値で表される誤差範囲に分布することを特徴とする請求項1に記載のニューラルネットワークの学習方式。
- 前記教師信号ベクトルの各要素値の誤差は、前記誤差範囲に一様分布することを特徴とする請求項2に記載のニューラルネットワークの学習方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05287993A JP3751982B2 (ja) | 1993-02-18 | 1993-02-18 | ニューラルネットワークの学習方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05287993A JP3751982B2 (ja) | 1993-02-18 | 1993-02-18 | ニューラルネットワークの学習方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06243273A JPH06243273A (ja) | 1994-09-02 |
JP3751982B2 true JP3751982B2 (ja) | 2006-03-08 |
Family
ID=12927174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05287993A Expired - Fee Related JP3751982B2 (ja) | 1993-02-18 | 1993-02-18 | ニューラルネットワークの学習方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3751982B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6593015B1 (en) | 1999-11-18 | 2003-07-15 | Kennametal Pc Inc. | Tool with a hard coating containing an aluminum-nitrogen compound and a boron-nitrogen compound and method of making the same |
JP2007280054A (ja) | 2006-04-06 | 2007-10-25 | Sony Corp | 学習装置および学習方法、並びにプログラム |
JP6831030B1 (ja) * | 2020-06-30 | 2021-02-17 | 三菱重工業株式会社 | 予測モデルの学習方法、予測モデルの学習装置、及び、プラント制御システム |
CN112782232B (zh) * | 2020-12-30 | 2022-04-05 | 浙江大学 | 基于人工神经网络的农污设施出水总磷软测量方法及装置 |
-
1993
- 1993-02-18 JP JP05287993A patent/JP3751982B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06243273A (ja) | 1994-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111130839B (zh) | 一种流量需求矩阵预测方法及其系统 | |
Abdella et al. | The use of genetic algorithms and neural networks to approximate missing data in database | |
Aljahdali et al. | Prediction of software reliability: A comparison between regression and neural network non-parametric models | |
Derks et al. | Robustness analysis of radial base function and multi-layered feed-forward neural network models | |
CN111461187B (zh) | 一种建筑物沉降智能检测系统 | |
US5276770A (en) | Training of neural network for multi-source data fusion | |
CN107832789A (zh) | 基于平均影响值数据变换的特征加权k近邻故障诊断方法 | |
JP3751982B2 (ja) | ニューラルネットワークの学習方式 | |
Nagao et al. | Structural evolution of neural networks having arbitrary connections by a genetic method | |
Watts et al. | Simple evolving connectionist systems and experiments on isolated phoneme recognition | |
Gomm et al. | A new model structure selection method for non-linear systems in neural modelling | |
CN109187898B (zh) | 水产养殖环境中水质氨氮含量的软测量方法及装置 | |
JP3214876B2 (ja) | ニューラルネットワークの構成方法およびニューラルネットワーク構築支援システム | |
Thibault | Feedforward neural networks for the identification of dynamic processes | |
Lange et al. | Quantifying a critical training set size for generalization and overfitting using teacher neural networks | |
Alrubaie | Cascade-Forward neural network for volterra integral equation solution | |
EP0567983B1 (en) | Learning type waveform recognizer | |
Chaudhuri et al. | Neural networks for data fusion | |
Rohwer | The time dimension of neural network models | |
EP4195106A1 (en) | Constrained weight inference for online distributed learning | |
Gray et al. | Nonlinear system modelling using output error estimation of a local model network | |
Makarov | The neural network to identify an object by a sequential training mode | |
Morcego et al. | Neural modules: Networks with constrained architectures for nonlinear function identification | |
Ferrada et al. | Application of neural networks for fault diagnosis in plant production | |
Liu et al. | Deep‐NCA: A deep learning methodology for performing noncompartmental analysis of pharmacokinetic data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20021126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051209 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |