JPH04253260A - ニューラルネットワークの学習方法 - Google Patents
ニューラルネットワークの学習方法Info
- Publication number
- JPH04253260A JPH04253260A JP3009073A JP907391A JPH04253260A JP H04253260 A JPH04253260 A JP H04253260A JP 3009073 A JP3009073 A JP 3009073A JP 907391 A JP907391 A JP 907391A JP H04253260 A JPH04253260 A JP H04253260A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- input data
- neural network
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 title claims description 19
- 230000006870 function Effects 0.000 claims abstract description 27
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 230000002950 deficient Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 101000582320 Homo sapiens Neurogenic differentiation factor 6 Proteins 0.000 description 1
- 102100030589 Neurogenic differentiation factor 6 Human genes 0.000 description 1
- 101150064416 csp1 gene Proteins 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【0001】
【産業上の利用分野】本発明はパターン識別、システム
同定などで用いられるニューラルネットワークの学習方
法に関し、さらに詳しくは学習過程で局所最小に陥る確
率を減少させる学習方法に関する。
同定などで用いられるニューラルネットワークの学習方
法に関し、さらに詳しくは学習過程で局所最小に陥る確
率を減少させる学習方法に関する。
【0002】
【従来の技術】計算機の発達に伴い、従来は難しいとさ
れていた非線形システムの同定が可能になってきている
。そこでパラメータによって、適当な非線形関数を構成
することが必要になる。代表的な構成関数として、隠れ
層及び非線形処理素子を持ったフィードフォワード型ニ
ューラルネットワークがある。この関数はいくつかの典
型的な値に対して模範となる答えを持っているとする。 そしてそのような関数を構成するためには、n(・)を
適当なノルムとして
れていた非線形システムの同定が可能になってきている
。そこでパラメータによって、適当な非線形関数を構成
することが必要になる。代表的な構成関数として、隠れ
層及び非線形処理素子を持ったフィードフォワード型ニ
ューラルネットワークがある。この関数はいくつかの典
型的な値に対して模範となる答えを持っているとする。 そしてそのような関数を構成するためには、n(・)を
適当なノルムとして
【0003】
【数1】
【0004】を最小にするようなパラメータの組x=(
x1 ,…,xM )を求めることになる。ここでtp
は教師データというべき所望の値をとるベクトルであ
り、op はデータからパラメータ化されたモデルによ
って得られる出力値のベクトルである。従来法のフロー
を図3に示す。はじめに初期パラメータxと学習停止誤
差εを設定しておく。次いで入力データsp と教師デ
ータtp の組の集合Iを設定する。そして式(1)の
誤差の評価関数E(x)が学習停止誤差εより小さくな
るまで、xを更新しながら学習を行うものである。
x1 ,…,xM )を求めることになる。ここでtp
は教師データというべき所望の値をとるベクトルであ
り、op はデータからパラメータ化されたモデルによ
って得られる出力値のベクトルである。従来法のフロー
を図3に示す。はじめに初期パラメータxと学習停止誤
差εを設定しておく。次いで入力データsp と教師デ
ータtp の組の集合Iを設定する。そして式(1)の
誤差の評価関数E(x)が学習停止誤差εより小さくな
るまで、xを更新しながら学習を行うものである。
【0005】従来技術ではすでに得られたデータのみに
対しての学習であり、またそのデータも学習の間不変で
あるとしている。また別の技術として、学習の過程で教
師データを変更する技術も知られている。(大塚、布木
、小西、門口、第32回自動制御連合講演会要旨集P2
95〜298、1989年)
対しての学習であり、またそのデータも学習の間不変で
あるとしている。また別の技術として、学習の過程で教
師データを変更する技術も知られている。(大塚、布木
、小西、門口、第32回自動制御連合講演会要旨集P2
95〜298、1989年)
【0006】
【発明が解決しようとする課題】ところが従来技術のよ
うに、すでに得られたデータのみを学習の対象としてい
ると、局所最小に陥りやすいという問題点がある。また
学習の過程で教師データを変更する技術も、この問題を
解決するものではない。本発明では、局所最小に陥りや
すいという問題点を除くニューラルネットワークの学習
方法を提供するものである。
うに、すでに得られたデータのみを学習の対象としてい
ると、局所最小に陥りやすいという問題点がある。また
学習の過程で教師データを変更する技術も、この問題を
解決するものではない。本発明では、局所最小に陥りや
すいという問題点を除くニューラルネットワークの学習
方法を提供するものである。
【0007】
【課題を解決するための手段】本発明者は、データの数
が相対的に不足している場合でも、そのデータから適切
な回帰関数を構成し、その回帰関数に従って新しいデー
タを新規に作製し、本来のデータと新しいデータを合わ
せて学習の対象とすることにより、局所最小に陥る場合
が少なくなることを発見した。
が相対的に不足している場合でも、そのデータから適切
な回帰関数を構成し、その回帰関数に従って新しいデー
タを新規に作製し、本来のデータと新しいデータを合わ
せて学習の対象とすることにより、局所最小に陥る場合
が少なくなることを発見した。
【0008】特に、線形分離が不可能な学習用入力デー
タと所望値である教師データの組に対しても、線形項の
組に簡単な非線形項を導入することで分離が可能になる
ことを発見した。たとえば、学習用入力データとなる提
示データが2つの値を取るベクトルであり、そのおのお
のをx,yで表すとき、累乗項であるx2 ,y2 や
交絡項である,xyを導入することによって分離が可能
になることが分った。しかしこのような多項式をもとに
する内挿の式では、入力データを補外した場合に、モデ
ルの出力値が爆発的に増大してしまうという欠点がある
。一方、ニューラルネットワークにおけるデータの補間
は入力データを補外した場合でも出力値が増大すること
はないので、補間及び補外の双方にわたって都合がよい
。
タと所望値である教師データの組に対しても、線形項の
組に簡単な非線形項を導入することで分離が可能になる
ことを発見した。たとえば、学習用入力データとなる提
示データが2つの値を取るベクトルであり、そのおのお
のをx,yで表すとき、累乗項であるx2 ,y2 や
交絡項である,xyを導入することによって分離が可能
になることが分った。しかしこのような多項式をもとに
する内挿の式では、入力データを補外した場合に、モデ
ルの出力値が爆発的に増大してしまうという欠点がある
。一方、ニューラルネットワークにおけるデータの補間
は入力データを補外した場合でも出力値が増大すること
はないので、補間及び補外の双方にわたって都合がよい
。
【0009】従って、学習用入力データと教師データの
組を補間する新たな学習用入力データと教師データの組
の構成にはニューラルネットワークには使用しない関数
を用い、その補間学習用入力データと補間教師データの
組をニューラルネットワークの学習に使うことにより、
学習が滞りなく進み、かつ補間及び補外の双方に都合が
よいニューラルネットワークができることになる。
組を補間する新たな学習用入力データと教師データの組
の構成にはニューラルネットワークには使用しない関数
を用い、その補間学習用入力データと補間教師データの
組をニューラルネットワークの学習に使うことにより、
学習が滞りなく進み、かつ補間及び補外の双方に都合が
よいニューラルネットワークができることになる。
【0010】従って、問題を解決するには、学習用入力
データと教師データの組(原データ)を回帰式で計算す
る手順、その回帰式に基づいて新たな学習用入力データ
と教師データの組(新データ)を構成する手順、原デー
タと新データを用いてニューラルネットのパラメータを
計算し、更新する手順が必要不可欠である。よって本発
明は、入力層、隠れ層及び出力層の結合重みを示す初期
パラメータ及び学習停止誤差を設置しておき、複数の教
師データと複数組の学習用入力データから求められる複
数組の出力データに従って該パラメータを変化させて、
該出力データと該教師データの誤差の評価関数が該学習
停止誤差以下となるように学習を行わせるニューラルネ
ットワークの学習方法に適用されるものであり次の方法
を採った。すなわち、学習を始める前に該学習用入力デ
ータから該入力データに対応する該教師データを近似的
に生成する該評価関数とは別異の回帰関数を求めておき
、該入力データの他に構成した補間入力データを該回帰
関数に作用させて得られた出力データを補間制御データ
として求め、該入力データ、該付加入力及び該教師デー
タ該付加教師データを用いて学習させることをことを特
徴とするニューラルネットワークの学習方法である。
データと教師データの組(原データ)を回帰式で計算す
る手順、その回帰式に基づいて新たな学習用入力データ
と教師データの組(新データ)を構成する手順、原デー
タと新データを用いてニューラルネットのパラメータを
計算し、更新する手順が必要不可欠である。よって本発
明は、入力層、隠れ層及び出力層の結合重みを示す初期
パラメータ及び学習停止誤差を設置しておき、複数の教
師データと複数組の学習用入力データから求められる複
数組の出力データに従って該パラメータを変化させて、
該出力データと該教師データの誤差の評価関数が該学習
停止誤差以下となるように学習を行わせるニューラルネ
ットワークの学習方法に適用されるものであり次の方法
を採った。すなわち、学習を始める前に該学習用入力デ
ータから該入力データに対応する該教師データを近似的
に生成する該評価関数とは別異の回帰関数を求めておき
、該入力データの他に構成した補間入力データを該回帰
関数に作用させて得られた出力データを補間制御データ
として求め、該入力データ、該付加入力及び該教師デー
タ該付加教師データを用いて学習させることをことを特
徴とするニューラルネットワークの学習方法である。
【0011】回帰関数に非線形項が含まれていてもよい
。さらに、非線形項は重複を許す2つ以上の入力データ
間の積で構成してもよい。
。さらに、非線形項は重複を許す2つ以上の入力データ
間の積で構成してもよい。
【0012】
【作用】以下本発明の作用を説明する。図1は本発明の
概要を表すフローである。以下のこの図に従って説明す
る。誤差の評価関数が学習用入力データに対して各学習
用入力データごとの同一のノルムの線形和になっている
場合を考える。ここでノルムとしてはL2 ノルム、す
なわち二乗ノルムを考える。まず誤差の評価関数が出力
データと教師データの二乗和の1/2で表されていると
する。これを式にすると次のようになる。
概要を表すフローである。以下のこの図に従って説明す
る。誤差の評価関数が学習用入力データに対して各学習
用入力データごとの同一のノルムの線形和になっている
場合を考える。ここでノルムとしてはL2 ノルム、す
なわち二乗ノルムを考える。まず誤差の評価関数が出力
データと教師データの二乗和の1/2で表されていると
する。これを式にすると次のようになる。
【0013】
【数2】
【0014】ここでxはパラメータ、tp はp番目の
教師データ、op はp番目の学習用入力データの組s
p を用いたニューラルネットワークモデルの出力値で
ある。 具体的には学習用入力データspに対する出力ユニット
kの出力データをopk(x),そのときの中間ユニッ
トの出力データをhpk(x)とすると、
教師データ、op はp番目の学習用入力データの組s
p を用いたニューラルネットワークモデルの出力値で
ある。 具体的には学習用入力データspに対する出力ユニット
kの出力データをopk(x),そのときの中間ユニッ
トの出力データをhpk(x)とすると、
【0015】
【数3】
【0016】
【数4】
【0017】
【数5】σ(・)=1/(1+exp(−・))
【00
18】
18】
【数6】
x=(v00 v01 … vOI
v10 … vJ−1I w00 … wK
−1J)となる。学習には上述の誤差の評価関数の勾配
ベクトルを用いる。結果のみを記すと、教師ベクトルを
表すパターンの部分集合について
v10 … vJ−1I w00 … wK
−1J)となる。学習には上述の誤差の評価関数の勾配
ベクトルを用いる。結果のみを記すと、教師ベクトルを
表すパターンの部分集合について
【0019】
【数7】
【0020】
【数8】
【0021】が成り立つ、とくにwkjは中間ユニット
jと出力ユニットkの結合重み係数でありvjiは入力
ユニットiと中間ユニットjの結合重み係数である。こ
こまでは従来の図3と同じである。次いで、本発明では
、学習用入力データsp から教師データtp を回帰
する関数fを構成する。この関数fはニューラルネット
ワークには使用しない関数であり、線形回帰によって求
めてもよいし、或は非線形項を含んでいてもよい。これ
らの選択は任意である。次いで入力データsp 以外の
新たな補間用の入力データのsp+を作り、これに対応
する教師データtp+を前述の回帰関数fから求める。
jと出力ユニットkの結合重み係数でありvjiは入力
ユニットiと中間ユニットjの結合重み係数である。こ
こまでは従来の図3と同じである。次いで、本発明では
、学習用入力データsp から教師データtp を回帰
する関数fを構成する。この関数fはニューラルネット
ワークには使用しない関数であり、線形回帰によって求
めてもよいし、或は非線形項を含んでいてもよい。これ
らの選択は任意である。次いで入力データsp 以外の
新たな補間用の入力データのsp+を作り、これに対応
する教師データtp+を前述の回帰関数fから求める。
【0022】このようにして学習用入力データsp と
教師データtp の組の集合Iと、補間
教師データtp の組の集合Iと、補間
【0023】
【外1】
【0024】設定する。以上の準備をした上で、学習を
開始する。具体的な学習は公知のモーメント付バックプ
ロパゲーションといわれる方法であり、手順は以下のと
おりである。ま
開始する。具体的な学習は公知のモーメント付バックプ
ロパゲーションといわれる方法であり、手順は以下のと
おりである。ま
【0025】
【外2】
【0026】回数を表す。つぎに修正ベクトルΔx(τ
)を次の式で求める。
)を次の式で求める。
【0027】
【数9】
【0028】ここでηは学習効率と呼ばれる定数であり
、この値が大きいほど収束に必要な回数も短くなるが、
同時に不安定性も増す。またαはモーメントと呼ばれる
定数であり、この値を大きくすると不安定性が少なくな
る。この修正ベクトルによって新しいパラメータを以下
の式で求める。 x(τ+1)=x(τ)+Δx(τ)
、この値が大きいほど収束に必要な回数も短くなるが、
同時に不安定性も増す。またαはモーメントと呼ばれる
定数であり、この値を大きくすると不安定性が少なくな
る。この修正ベクトルによって新しいパラメータを以下
の式で求める。 x(τ+1)=x(τ)+Δx(τ)
【0029】
【外3】
【0030】小さくなったとき学習を終了する。
【0031】
【実施例】以下に本発明の実施例を説明する。この例は
線形分離が不可能であるXOR(排他的論理和)問題を
ニューラルネットワークによって解くものである。ここ
では入力ユニットが2、隠れユニットが2、出力ユニッ
トが1のニューラルネットワークを考える。ただしこの
ユニット数nは入力データsp にかかわらず絶えず1
を出力するユニットであるsPI(i=I)及びhpJ
(j=J)は含んでいない。ユニット間の結合は入力ユ
ニットから隠れユニットに向かう結合、及び隠れユニッ
トから出力ユニットに向かう結合のみである。入力デー
タと教師データは表1に示す。表1に示した学習用入力
データの集合sp から教師データtp を回帰する式
を導くために、非線形項(交絡項)を導入した。具体的
な式は以下の通りである。
線形分離が不可能であるXOR(排他的論理和)問題を
ニューラルネットワークによって解くものである。ここ
では入力ユニットが2、隠れユニットが2、出力ユニッ
トが1のニューラルネットワークを考える。ただしこの
ユニット数nは入力データsp にかかわらず絶えず1
を出力するユニットであるsPI(i=I)及びhpJ
(j=J)は含んでいない。ユニット間の結合は入力ユ
ニットから隠れユニットに向かう結合、及び隠れユニッ
トから出力ユニットに向かう結合のみである。入力デー
タと教師データは表1に示す。表1に示した学習用入力
データの集合sp から教師データtp を回帰する式
を導くために、非線形項(交絡項)を導入した。具体的
な式は以下の通りである。
【0032】
tpo=aspo+bsposp1+csp1+dsp
2この式にp=1から4までのベクトルsp ,tp
を代入して係数a,b,c,dの値を定め、補間データ
(識別番号2,4,6,8)を構成したところ表2が得
られた。このようにして本方法を適用し、従来方法と比
較した。従来方法では、提示入
2この式にp=1から4までのベクトルsp ,tp
を代入して係数a,b,c,dの値を定め、補間データ
(識別番号2,4,6,8)を構成したところ表2が得
られた。このようにして本方法を適用し、従来方法と比
較した。従来方法では、提示入
【0033】
【外4】
【0034】習を行った。本方法と従来方法を30組の
異なる初期パラメータと異なるモーメントを持つニュー
ラルネットワークの学習に適用し、収束に至るまでの学
習回数を調べた。ただし回数が5000回を超えた場合
は学習を打ち切った。この結果を図2に示した。この図
3から本方法では30組が全て収束しているのに対し、
従来の方法では2000回以上の学習でも収束しないこ
とがわかる。この結果、従来の方法より本方法が優れて
いることは明らかである。
異なる初期パラメータと異なるモーメントを持つニュー
ラルネットワークの学習に適用し、収束に至るまでの学
習回数を調べた。ただし回数が5000回を超えた場合
は学習を打ち切った。この結果を図2に示した。この図
3から本方法では30組が全て収束しているのに対し、
従来の方法では2000回以上の学習でも収束しないこ
とがわかる。この結果、従来の方法より本方法が優れて
いることは明らかである。
【0035】
【表1】
【0036】
【表2】
【0037】
【発明の効果】本発明によれば、ネットワークの構造を
変更することなく局所最小に落ち込む確率を減らすこと
ができるので、複雑なパターン認識や最適化問題などの
解を短時間で得ることができ、その効果は大きい。
変更することなく局所最小に落ち込む確率を減らすこと
ができるので、複雑なパターン認識や最適化問題などの
解を短時間で得ることができ、その効果は大きい。
【図1】本発明のフローを表す模式図である。
【図2】本発明の効果を示すグラフである。
【図3】従来のフローを表す模式図である。
x パラメータ
ε 学習停止誤差
sp 学習用入力データ
tp 教師データ
f 補間(回帰)関数
sp+ 補間学習用入力データ
tp+ 補間教師データ
I sp とtp の組の集合
I+ sp+とtp+の組の集合
【外5】
Claims (3)
- 【請求項1】 入力層、隠れ層及び出力層の結合重み
を示す初期パラメータ及び学習停止誤差を設定しておき
、教師データと学習用入力データから求められる出力デ
ータに従って該パラメータを変化させて、該出力データ
と該教師データの誤差の評価関数が該学習停止誤差以下
となるように学習を行わせるニューラルネットワークの
学習方法において、学習を始める前に、該学習用入力デ
ータから該入力データに対応する該教師データを近似的
に生成する該評価関数とは別異の回帰関数を求めておき
、該入力データの他に構成した補間入力データを該回帰
関数に作用させて得られた出力データを補間教師データ
として求め、該入力データ、該補間入力データ及び該教
師データ、該補間教師データを用いて学習させることを
ことを特徴とするニューラルネットワークの学習方法。 - 【請求項2】 該回帰関数が非線形項を含む請求項1
記載のニューラルネットワークの学習方法。 - 【請求項3】 該非線形項は重複を許す2つ以上の入
力データ間の積である請求項2記載のニューラルネット
ワークの学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3009073A JPH04253260A (ja) | 1991-01-29 | 1991-01-29 | ニューラルネットワークの学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3009073A JPH04253260A (ja) | 1991-01-29 | 1991-01-29 | ニューラルネットワークの学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04253260A true JPH04253260A (ja) | 1992-09-09 |
Family
ID=11710435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3009073A Pending JPH04253260A (ja) | 1991-01-29 | 1991-01-29 | ニューラルネットワークの学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04253260A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006127350A (ja) * | 2004-11-01 | 2006-05-18 | Kddi Corp | 多層ニューラルネットワーク装置とそのソフトウェア |
JP2007200044A (ja) * | 2006-01-26 | 2007-08-09 | Matsushita Electric Works Ltd | 異常検出方法及び異常検出装置 |
JP2020038495A (ja) * | 2018-09-04 | 2020-03-12 | 横浜ゴム株式会社 | 物性データ予測方法及び物性データ予測装置 |
JPWO2020196066A1 (ja) * | 2019-03-28 | 2020-10-01 | ||
JP2021022006A (ja) * | 2019-07-24 | 2021-02-18 | トヨタ紡織株式会社 | 情報処理装置 |
-
1991
- 1991-01-29 JP JP3009073A patent/JPH04253260A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006127350A (ja) * | 2004-11-01 | 2006-05-18 | Kddi Corp | 多層ニューラルネットワーク装置とそのソフトウェア |
JP2007200044A (ja) * | 2006-01-26 | 2007-08-09 | Matsushita Electric Works Ltd | 異常検出方法及び異常検出装置 |
JP4670662B2 (ja) * | 2006-01-26 | 2011-04-13 | パナソニック電工株式会社 | 異常検出装置 |
JP2020038495A (ja) * | 2018-09-04 | 2020-03-12 | 横浜ゴム株式会社 | 物性データ予測方法及び物性データ予測装置 |
JPWO2020196066A1 (ja) * | 2019-03-28 | 2020-10-01 | ||
JP2021022006A (ja) * | 2019-07-24 | 2021-02-18 | トヨタ紡織株式会社 | 情報処理装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991483A (zh) | 高阶邻域混合的网络表示学习方法及装置 | |
CN117335957B (zh) | 一种bam忆阻神经网络修正函数投影同步的保密通信方法 | |
JPH05127706A (ja) | ニユーラルネツト型シミユレータ | |
CA2236426A1 (en) | Method and apparatus for generating a model of an industrial production | |
JPH08227408A (ja) | ニューラルネットワーク | |
JPH04253260A (ja) | ニューラルネットワークの学習方法 | |
CN117154845A (zh) | 一种基于生成式决策模型的电网运行调整方法 | |
Shamsollahi et al. | Direct neural adaptive control applied to synchronous generator | |
Chen et al. | Event-Triggered output feedback adaptive control for nonlinear switched interconnected systems with unknown control coefficients | |
JPH0451384A (ja) | ニューラルネットワークの構築方法 | |
JPH05197701A (ja) | ニューラルネットワークを用いた情報処理装置 | |
CN104749952A (zh) | 一种自适应动态面控制器结构及设计方法 | |
JP2002042107A (ja) | ニューラルネットワークの学習方法 | |
CN103838140B (zh) | 基于直接逆控制算法的弱非线性网络控制方法 | |
CN111796510A (zh) | 一种pid控制器在一级控制系统plc中的应用方法 | |
JP3518813B2 (ja) | 構造化神経回路網構築装置 | |
KR20000051941A (ko) | 실시간 학습형 제어기 | |
JPH05128285A (ja) | ニユーロプロセツサ | |
JPH0511806A (ja) | プロセス動特性学習装置 | |
JPH05151373A (ja) | ニユーラルネツトワークを用いたフアジイ逆診断方法 | |
CN112018802A (zh) | 一种直流输电系统链路延时的等值状态空间模型的构建方法 | |
Stäger et al. | Improved training of neural networks with complex search spaces | |
CN116414034A (zh) | 基于nsga-ii的仿蝠鲼机器人cpg相位切换优化方法 | |
JPH04186402A (ja) | フアジイ推論における学習方式 | |
JP3083172B2 (ja) | 前置補償器および前置補償方法 |