JP3132027B2 - ニューラル・ネットワークの評価方法 - Google Patents
ニューラル・ネットワークの評価方法Info
- Publication number
- JP3132027B2 JP3132027B2 JP03070004A JP7000491A JP3132027B2 JP 3132027 B2 JP3132027 B2 JP 3132027B2 JP 03070004 A JP03070004 A JP 03070004A JP 7000491 A JP7000491 A JP 7000491A JP 3132027 B2 JP3132027 B2 JP 3132027B2
- Authority
- JP
- Japan
- Prior art keywords
- equation
- input
- output
- neural network
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Devices For Executing Special Programs (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
ークの評価方法に係り、特に、階層型ニューラル・ネッ
トワークの入出力信号間の因果関係を明確にし、階層型
ニューラル・ネットワークの評価するに好適なニューラ
ル・ネットワークの評価方法に関する。
ューロンをモデル化したユニットの階層状結合により構
成され、入力信号を非線形変換でき、この非線形変換の
関数形を学習により構築できる特徴がある。このため、
この特徴を利用して、“ニューラル・コンピュータ”
(東京電気大学出版局、昭和63−4)、“ニューラル
・ネットワーク情報処理”(産業図書、昭和63−7)
に記載されているように、種々の分野への応用が試みら
れている。
及びユニットの構成を、それぞれ図1,図2に示す。前
記非線形変換の機能は、ユニットの入出力関数f(x)
の非線形性に依存しており、次式で表わされる関数が一
般的に使用されている。
非線形変換機能については、“ニューラル・ネットワー
クによる連続写像の近似実現について”(電子情報通信
学会技術研究報告,MBE88−9,1988−4),
“ニューラル・ネットワークのcapabilityについて”
(電子情報通信学会技術研究報告、MBE88−52,
1988−7)に記載されているように、数学理論の面
から検討され、階層型ニューラル・ネットワークが連続
写像の実現機構としてある種の万能性を持っていること
が証明されている。
型ニューラル・ネットワークが連続写像の実現機構とし
てある種の万能性を持っていることを証明しているが、
ある連続写像を近似する階層型ニューラル・ネットワー
クの設計について、具体的な方法を提供していない。ま
た、学習により形成されたネットワークから入出力関係
の構造を抽出するための理論的背景も与えられていな
い。このため、従来は、ネットワークは、ブラック・ボ
ックスとして扱われていた。
のユニットの入出力関数を級数展開し、この級数展開さ
れた入出力関数の式を用い、階層型ニューラル・ネット
ワークを非線形回帰式で表し、入出力信号間の因果関係
を明瞭にし、階層型ニューラル・ネットワークを評価す
るニューラル・ネットワークの評価方法を提供すること
にある。
ットワークの評価方法は、ニューロンをモデル化したユ
ニットの階層状結合により構成し、対象システムの入出
力特性を表す階層型ニューラル・ネットワークを評価す
るニューラル・ネットワークの評価方法において、 階層
状に結合された夫々のユニットの入出力関数を級数展開
し、この級数展開された入出力関数の式に基づき階層型
ニューラル・ネットワークの入出力信号間の因果関係を
非線形回帰式で表わし、この非線形回帰式により階層型
ニューラル・ネットワークを評価することを特徴とす
る。
合により構成し、対象システムの入出力特性を表す階層
型ニューラル・ネットワークを評価するニューラル・ネ
ットワークの評価方法において、階層状に結合された夫
々のユニットの入出力関数を級数展開し、この級数展開
された入出力関数の式に基づき階層型ニューラル・ネッ
トワークの入出力信号間の因果関係を非線形回帰式で表
わし、この非線形回帰式により階層型ニューラル・ネッ
トワークを評価することにより、階層状に結合された夫
々のユニットの入出力関数を級数展開し、この級数展開
された入出力関数の式を用い、階層型ニューラル・ネッ
トワークを非線形回帰式で表し、入出力信号間の因果関
係を明瞭にし、階層型ニューラル・ネットワークを評価
するニューラル・ネットワークの評価方法を提供するこ
とができる。
る。本実施例は、対象システム1の入出力特性をニュー
ラル・ネットワークに学習させる学習システム2,学習
後のニューラル・ネットワークにより対象システム1の
入出力特性を推定する推定システム3,学習後のニュー
ラル・ネットワークを評価する評価システム4、から構
成される。
力に対して出力が対応付けられるものであれば、どのよ
うなものでもよい。
ットワークを用いて、対象システム1の入力x(ベクト
ル)に対する出力y(ベクトル)を推定する。この関係
は、次式で表わされる。
に、図2に示すユニットの階層状結合により構成され
る。各層のユニットの入出力関係は、次式で表わされ
る。
トへの入力の総和 vj(k):第k層の第jユニットの出力 wij(k−1,k):第(k−1)層の第iユニットか
ら第k層の第jユニットへの結合の重み係数 f:各ユニットの入出力関数を与える関数(入出力関
数) なお、第1層(入力層)の各ユニットは、ユニットの入
力と同じものを出力する。数2の非線形関数gの特性
は、層の個数,各層のユニットの個数、重み係数w
ij(k−1,k)が変わると変化する。したがって、こ
れらを調整することにより、対象システム1の入出力特
性を表わす非線形関数gが得られる。特に、この重み係
数wij(k−1,k)の調整は、学習により実現でき
る。
力特性を表わす非線形関数gを学習により構築する。次
に、この学習のアルゴリズムについて説明する。
t,yt)が与えられたとき、次式に示す誤差の2乗和を
損失関数rとして定義する。
結合の重み係数をすべてまとめたもの vj(m)(w,xt):入力xt と重みwから総合的に
得られる第n層(出力層)の第jユニットの出力 wの修正量Δwは、損失関数rのwについての勾配(gr
adient)から求められ、次式で表わされる。
に変形できる。
導かれる。
j(k)は、次式により求められる。
次式が得られる。
は、次式で表わされる。
dj(m)は、数5より次式で求められる。
の重み係数wij(k−1,k)の修正が、k=mからk
=2に向って、再帰的に計算できる。すなわち、出力層
での理想出力と実際の出力との誤差が、出力層から入力
層の方向へ、信号の伝播と逆の方向にwil(k,k+
1)で重み付けた和をとりながら伝播していく。これ
が、誤差逆伝播学習アルゴリズムである。
で、数1で与えられる場合、f′は次式で表わされる。
に、数11は次式のように修正することができる。
としてもよい) t:修正の回数(あるいは時刻(離散)) 評価システム4は、学習後のニューラル・ネットワーク
を評価する。すなわち、学習により対象システム1の入
出力特性を表わすニューラル・ネットワークが得られる
が、このニューラル・ネットワークを評価する。このた
めに、ユニットの入出力関数を級数展開し、この展開式
を用いて、ネットワークを非線形回帰式で表わし、この
非線形回帰式を用いて、ネットワークを評価する。以
下、これについて、詳細に説明する。なお、評価システ
ム4は、学習後のニューラル・ネットワークの解析評価
のみならずニューラル・ネットワークの設計にも利用で
きる。
ラー展開があり、これを利用すると、入出力関数f
(x)は、次式により表わされる。
は、次式で表わされ、次数が高くなると急激に式が複雑
になる。
における値を数17に代入すると、f(x)のテイラー
展開式が得られる。
x0 =0における入出力関数f(x)のテイラー展開式、
すなわちマクローリン展開式であり、これについて誤差
評価する。数17にx0 =0を代入すると、次式が得ら
れる。
が導かれる。
入出力関数f(x)の6次までの導関数の値は、次式で
表わされる。
入すると次式が得られる。
5 及び1を代入すると次式が得られる。
て、数22,数23,数24を代入すると、次式が導か
れる。
(x)のx=0でのテイラー展開式は、奇数次の項のみ
により表わされることが予想される。これに対して、数
26,数27より、しきい値θが非零の場合、このテイ
ラー展開式は、奇数次及び偶数次の項により表わされる
ことが分かる。
数f(x)のn次近似式fn(x)数25で求めた近似値
と真値との比較結果を表1及び図4に示す。この表及び
図から、f(x)の値がほぼ0.1〜0.9となるxの範
囲、
くなる程精度が良くなることが分かる。すなわち、1
次,3次,5次近似式で、それぞれ、±12%,±5
%,±2%の誤差内の近似値が得られている。
ついて、入出力関数f(x)の6次近似式f6(x)(数
26及び数27で求めた近似値と真値との比較結果を表
2、図5及び表3,図6に示す。これらの表及び図か
ら、xの範囲が−2≦x≦2において、θ=0.5,1
の場合の誤差が、それぞれ、±50%,±140%とな
り、しきい値θが大きくなる程精度が悪くなることが分
かる。
式の特性について説明する。
(x)のx=0でのテイラー展開式は、奇数次の項のみ
により表わされ、しきい値θが非零の場合は、奇数次及
び偶数次の項により表わされると先に述べたが、先ず、
これについて説明する。
る。
式が得られる。
とを示している。したがって、関数g(x)は、次式で
表わされる。
おいて、θ=0としたときの関数この数33に数32を
代入すると、次式が得られる。
力関数f(x)のx=0でのテイラー展開式が奇数次の
項のみにより表わされることが分かる。
れる。
(x)のx=0でのテイラー展開式が、奇数次及び偶数次
の項により表示されることが分かる。
出力関数f(x)のx=0でのテイラー展開式でxの6次
の項まで使用すると、かなり精度の良い近似値が得られ
るが、しきい値θが非零の場合は、精度が悪いことが分
かった。しかし、この問題は、容易に解決できる。すな
わち、数33と数1から次式が導かれる。
と、f(x)となることを示している。したがって、しき
い値θが非零の場合、入出力関数f(x)のテイラー展開
式で良い精度を得るには、θ=0の場合のf(x)のx=
0でのテイラー展開式をθだけ平行移動し、これを使用
すればよい。
関数f(x)の非線形性について検討できることを示し
た。引続いて、このテイラー展開式を利用して、階層型
ニューラル・ネットワークの非線形変換機能について検
討できることを示す。なお、階層型ネットワークのうち
で基本となるのは、3層型ネットワークであり、これを
対象にして説明する。
な2入力1出力のネットワークについて検討する。図7
にその構成を示す。なお、展開を簡単にするために、入
出力関数f(x)は、全てのユニットで同じ関数を使用す
るものとする。
=1,2)は、ネットワークの定義より次式で与えられ
る。
j(2)(j=1,2,3,…,N)は、次式で与えられ
る。
=1,2,3,…,N)は、数38で用いると次式で表
わされる。
(j=1)は、次式で与えられる。
=1)は、数38を用いると次式で表わされる。
れる。
1(3)をyと表わすと、次式が導かれる。
得られる。
中間層のユニットの個数Nを増加させると、重み係数w
1i(1,2),w2i(1,2),wi1(2,3)(i=1,
2,3,…,N)の個数が増加して調整の自由度が増加
し、より高次で複雑な非線関数を近似できることが分か
る。
f(x)のテイラー展開式を利用して検討できることを示
す。
層型ニューラル・ネットワークの各ユニットの入出力関
数のしきい値をユニット毎に変化させる機能がある。す
なわち、これによりユニット毎に入出力関数の平行移動
量を変化させることができる。このしきい値ユニットを
組込んだ2入力1出力ネットワークについて以下検討す
る。図8にその構成を示す。なお、ここでは、入力層の
しきい値ユニットは、入力の個数から除外している。ま
た、展開を簡単にするために、入出力関数f(x)は、全
てのユニットで同じ関数を使用するものとする。
=0,1,2)は、ネットワークの定義より次式で与え
られる。
j(2)(j=0,1,2,3,…,N)は次式で与えられ
る。
j(2)(j=0,1,2,3,…,N)は、数38を用い
ると次式で表わされる。
(j=1)は、次式で与えられる。
j(3)(j=1)は、数38を用いると次式で表わされ
る。
れる。
1(3)をyと表わすと、次式が導かれる。
開して得られる数47と同形の式が導かれる。この場
合、しきい値ユニットを導入したことにより、数46よ
り数47の方がw01(2,3),w0i(1,2)(i=1,
2,3,…,N)の分だけ重み係数の個数が増加し、入
出力関数のテイラー展開式を平行移動させる自由度が増
加する。これにより高次で複雑な非線形関数の近似に大
きい調整の自由度が生じて、近似精度が向上することが
分かる。
層型ニューラル・ネットワークの非線形変換機能につい
てf(x)のテイラー展開式を利用して検討できることを
示した。引続いて、以下の項目について説明する。
易導出法 (2)ニューラル・ネットワークの他の構成法 (3)ニューラル・ネットワークの構造決定の1方法 先ず、入出力関数f(x)の高次導関数値の簡易導出法に
ついて説明する。先に、入出力関数f(x)の6次までの
導関数を導出し、x=0における導関数の値を求めた。
しかしながら、導関数の次数が高くなると急激に式が複
雑になり、式の導出及び値の計算に非常に時間が掛かる
という問題がある。この問題を解決する方法について、
以下、説明する。
のときの関数h(x)は、先に説明したように数33で表
わされる。この関数h(x)のマクローリン展開式は、次
式で与えられる。
る。
と、次式が導かれる。
と、次式が得られる。
一致するためには、次式が成立つ必要がある。
る。
(x)は、次式で表わされる。
14)を求めると、表4に示すようになり、次数nが大
きくなる程係数cn が急速に小さくなることが分かる。
(x)でθ=0のときの関数h(x)のマクローリン展開式
数57において、n次で打切ったときの近似式、すなわ
ちn次近似式fn(x)の推定値を求めると表5及び図9
に示すようになる。
1〜0.9となるxの範囲、−2≦x≦2において、7
次,9次,11次,13次近似式で、それぞれ、±0.
78%,±0.32%,±0.13%,±0.05%の誤
差内の近似値が得られることが分かる。すなわち、近似
の打切り次数が大きくなる程精度が良くなることが分か
る。ただ、xの範囲が、−3≦x≦3の場合、7次,9
次,11次,13次近似式でも、それぞれ、±22%,
±20%,±18%,±16.7% の誤差内の近似値と
なり、−2≦x≦2の場合と比較して誤差がかなり大き
い。このことから、入出力関数f(x)は、xの範囲が広
がる程非線形度が急激に大きく、非常に高次の近似式で
も誤差は小さくならないことが分かる。
成法について、f(x)のテイラー展開式を利用して検討
できることを説明する。
トワークを対象にして、非線形変換処理機能について検
討できることを説明した。
力層からなり、それぞれの層で、線形,非線形,非線形
の変換を行っている。このため、この構成を線形−非線
形−非線形構成と呼ぶことにする。この構成は、ニュー
ラル・ネットワークの基本構成であるが、他の構成とし
て、(1)線形−非線形−線形構成,(2)線形−線形−非
線形構成も考えられる。f(x)のテイラー展開式を利用
すると、これらの構成についても検討できることを以下
説明する。
るが、図10にこの線形−非線形−線形構成のニューラ
ル・ネットワークを示す。なお、入出力の個数は、2入
力1出力とする。また、展開を簡単にするために、入出
力関数f(x)は、全てのユニットで同じ関数を使用する
ものとする。
2)は、図7に示す線形−非線形−線形構成と同様、数
40で与えられ、また、中間層のユニットの入力の総和
uj(2)(j=1,2,3,…,N)及び出力vj(2)(j
=1,2,3,…,N)も、それぞれ数41及び数42
に与えられる。さらに、出力層のユニットへの火力の総
和uj(3)(j=1)も、同様に数43で表わされる。た
だし出力層のユニットの出力vj(3)(j=1)は、次式
に示すように、入力の総和uj(3)(j=1)をそのまま
出力した値として求められる。
れる。
1(3)をyで表わすと、次式が導かれる。
開した数47と同形の式が得られる。これより、図10
に示す構成の階層型ネットワークも、図7に示す線形−
非線形−非線形構成のネットワークと同様、中間層のユ
ニットの個数を増加させると、重み係数w1i(1,2),
w2i(1,2),wi1(2,3)(i=1,2,3,…,
N)の個数が増加して調整の自由度が増加し、より高次
で複雑な非線形関数を近似できることが分かる。ただ、
数68より数46の方が、非線形変換を2回行う分、よ
り非線形度の高い関数を近似できる。
るが、図11に線形−線形−非線形構成のニューラル・
ネットワークを示す。なお、この場合も、入出力の個数
は、2入力1出力とする。また、展開を簡単にするため
に入出力関数は、全てのユニットで同じ関数を使用する
ものとする。
2)は、図7に示す線形−非線形−非線形構成と同様、
数40で与えられ、中間層のユニットの入力の総和u
j(2)(j=1,2,3,…,N)は、数41で与えられ
る。このとき、中間層のユニットの出力vj(2)(j=
1,2,3,…,N)は、次式に示すように入力の総和
uj(2)(j=1,2,3,…,N)をそのまま出力した
値として求められる。
uj(3)(j=1)は、図7に示す線形−非線形−非線形
構成と同様数43で与えられる。さらに、出力層のユニ
ットの出力vj(3)(j=1)は、同様に数44で表わさ
れる。数69を数44に代入すると、次式が得られる。
1(3)をyと表わすと、次式が導かれる。
展開した数47と同形の式が得られる。しかしながら、
この場合は、数46と違って、中間層のユニットの個数
を増加させても非線形関数の近似の自由度は増加せず、
任意の高次非線形関数の近似は難しい。すなわち、数7
1は、次式のように変形できる。
個であり、中間層のユニットの個数を2個以上にして
も、自由度はユニット1個の場合と同じである。
定の1方法について、f(x)のテイラー展開式を利用し
て検討できることを説明する。
形関数の特性は、層の個数,各層のユニットの個数,重
み係数が変わると変化する。したがって、これらを調整
することにより、目的に適合する特性を持った非線形関
数が得られる。このうち、重み係数の調整は、学習によ
り実現できる。しかしながら、層の個数,各層のユニッ
トの個数の調整は、試行錯誤的に実施している。ここで
は、これらのうち中間層のユニットの個数決定のための
1つの方法を提案する。
形−非線形−線形構成の1入力1出力系を考える。この
とき、入力xと出力yの関係は、数68から導かれ、次
式で表わされる。
模擬する関数として、次式で表わされる関数を考える。
ある。
係数が零(d6=d7=d8=…=0)の場合、数77は、
7個の式から成る連立方程式となる。ただし、この範囲
として、入出力関数f(x)で6次以上の係数の影響が小
さい範囲を考える。この連立方程式は、中間層のユニッ
トの個数により未知数(重み係数)の個数が変化し、そ
れにより解決が求まるかどうかが決まる。
よう、中間層のユニットの個数が3個以下の場合は、未
知数(重み係数)の個数が6個以下となり、式の個数よ
り未知数の個数が小さいので解は求まらない。ところ
が、中間層のユニットの個数が4個以上の場合は、未知
数(重み係数)の個数が8個以上となり、式の個数より
未知の個数が大きくなり解は求まる。ただ、未知数の個
数と式の個数の差だけ自由度があり、この差の個数分の
未知数を任意に指定できる。このことは、誤差逆伝播学
習アルゴリズムにより重み係数を決定する場合、初期値
により重み係数の収束値が異なることと対応している。
々のユニットの入出力関数を級数展開し、この級数展開
された入出力関数の式を用い、階層型ニューラル・ネッ
トワークを非線形回帰式で表し、入出力信号間の因果関
係を明瞭にし、階層型ニューラル・ネットワークを評価
するニューラル・ネットワークの評価方法を提供するこ
とができるという効果を奏する。
構成図である。
一例を示す構成図である。
る。
ある。
ある。
す構成図である。
層型ネットワークの一例を示す構成図である。
る。
を示す構成図である。
を示す構成図である。
示す構成図である。
Claims (2)
- 【請求項1】ニューロンをモデル化したユニットの階層
状結合により構成し、対象システムの入出力特性を表す
階層型ニューラル・ネットワークを評価するニューラル
・ネットワークの評価方法において、 階層状に結合された夫々のユニットの入出力関数を級数
展開し、 この級数展開された入出力関数の式に基づき階層型ニュ
ーラル・ネットワークの入出力信号間の因果関係を非線
形回帰式で表わし、この非線形回帰式により階層型ニュ
ーラル・ネットワークを評価する ことを特徴とするニュ
ーラル・ネットワークの評価方法。 - 【請求項2】 ニューロンをモデル化したユニットの階層
状結合により構成し、対象システムの入出力特性を表す
階層型ニューラル・ネットワークを評価するニューラル
・ネットワークの評価方法において、 階層状に結合された夫々のユニットの入出力関数を級数
展開し、 該夫々のユニットの入出力関数のしきい値をユニット毎
に変化させ、 この級数展開された入出力関数の式に基づき階層型ニュ
ーラル・ネットワークの入出力信号間の因果関係を非線
形回帰式で表わし、この非線形回帰式により階層型ニュ
ーラル・ネットワークを評価することを特徴とするニュ
ーラル・ネットワークの評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03070004A JP3132027B2 (ja) | 1991-04-02 | 1991-04-02 | ニューラル・ネットワークの評価方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03070004A JP3132027B2 (ja) | 1991-04-02 | 1991-04-02 | ニューラル・ネットワークの評価方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04305785A JPH04305785A (ja) | 1992-10-28 |
JP3132027B2 true JP3132027B2 (ja) | 2001-02-05 |
Family
ID=13419030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03070004A Expired - Lifetime JP3132027B2 (ja) | 1991-04-02 | 1991-04-02 | ニューラル・ネットワークの評価方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3132027B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2570433A (en) * | 2017-09-25 | 2019-07-31 | Nissan Motor Mfg Uk Ltd | Machine vision system |
-
1991
- 1991-04-02 JP JP03070004A patent/JP3132027B2/ja not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
電子情報通信学会技術報告 vol.90 no.280 1990年10月26日発行 p7〜14、「汎関数級数表現における非線形システムの同定精度」横田康成 他2名 著 |
Also Published As
Publication number | Publication date |
---|---|
JPH04305785A (ja) | 1992-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tutunji | Parametric system identification using neural networks | |
CN111967679A (zh) | 基于tcn模型的电离层总电子含量预报方法 | |
JP2747104B2 (ja) | ニューラルネットワーク | |
Pei et al. | Analysis and modification of Volterra/Wiener neural networks for the adaptive identification of non-linear hysteretic dynamic systems | |
Nayak et al. | Comparison of modified teaching–learning-based optimization and extreme learning machine for classification of multiple power signal disturbances | |
Asady et al. | Utilizing artificial neural network approach for solving two-dimensional integral equations | |
Löhner et al. | Deep learning or interpolation for inverse modelling of heat and fluid flow problems? | |
Postavaru | An efficient numerical method based on Fibonacci polynomials to solve fractional differential equations | |
JP3374476B2 (ja) | ニューラルネットワーク構築方法 | |
JP3132027B2 (ja) | ニューラル・ネットワークの評価方法 | |
JP2862337B2 (ja) | ニューラルネットワークの構築方法 | |
JPH05197701A (ja) | ニューラルネットワークを用いた情報処理装置 | |
CN115481816A (zh) | 基于互补集成经验模分解的时空卷积短时交通流预测方法 | |
CN113283986B (zh) | 算法交易系统及基于该系统的算法交易模型的训练方法 | |
Wang et al. | A Hammerstein-Wiener recurrent neural network with universal approximation capability | |
JPH07210534A (ja) | ニューラルネットワーク | |
Xia et al. | Echo state networks for multidimensional data: Exploiting noncircularity and widely linear models | |
CN114548400A (zh) | 一种快速灵活全纯嵌入式神经网络广域寻优训练方法 | |
Kanaan et al. | Nonlinear time-domain macromodeling using proper orthogonal decomposition and feedforward neural networks | |
Kuroe et al. | A learning method of nonlinear mappings by neural networks with considering their derivatives | |
Belfore et al. | ANN inverse mapping technique applied to electromagnetic design | |
Adhira et al. | Exponential extended dissipative performance for delayed discrete-time neural networks under memoryless resilient-based observer design | |
Vai | A massively parallel reverse modeling approach for semiconductor devices and circuits | |
CN114492212B (zh) | 低压配电网动态增容方法、装置、终端及存储介质 | |
Krusienski et al. | Comparative analysis of neural network filters and adaptive Volterra filters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071124 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081124 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081124 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091124 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101124 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101124 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111124 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111124 Year of fee payment: 11 |