JPH05197701A - ニューラルネットワークを用いた情報処理装置 - Google Patents

ニューラルネットワークを用いた情報処理装置

Info

Publication number
JPH05197701A
JPH05197701A JP4008746A JP874692A JPH05197701A JP H05197701 A JPH05197701 A JP H05197701A JP 4008746 A JP4008746 A JP 4008746A JP 874692 A JP874692 A JP 874692A JP H05197701 A JPH05197701 A JP H05197701A
Authority
JP
Japan
Prior art keywords
layer
output
function
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4008746A
Other languages
English (en)
Inventor
Akira Kuratsume
亮 倉爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4008746A priority Critical patent/JPH05197701A/ja
Publication of JPH05197701A publication Critical patent/JPH05197701A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】ニューラルネットワーク内でのデータ表現を直
観的に解析でき、同時にニューラルネットワークの学習
に必要な処理時間を短縮できる階層型ニューラルネット
ワークを用いた情報処理装置を提供する。 【構成】入力層1、この入力層1に結合する中間層2、
この中間層2に結合する出力層3とからなり、各層がそ
れぞれ少なくとも1つ以上のユニットを有し、各層間で
各ユニットが相互に結合してなる階層型ニューラルネッ
トワークにおいて、中間層2及び出力層3における各ユ
ニットの入出力特性を表す入出力関数として、微分が可
能な任意の関数を用いるよう構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、入力層、中間層及び出
力層からなる階層型ニューラルネットワークを用いた情
報処理装置に関する。
【0002】
【従来の技術】近年、コンピュータの処理能力が高度化
するにつれて、その情報処理機能を人間の頭脳活動に近
づけたいという要求が高まっている。その有望な手段の
1つとして、脳の情報処理機能を模倣したニューラルネ
ットワークを適用することが注目されている。
【0003】このニューラルネットワークを用いれば、
従来のノイマン型コンピューターでは困難であった柔軟
な情報処理を行えることが知られており、これまでに様
々な形式のニューラルネットワークが提案されている。
このうち特に情報の伝達方向を1方向に限定した階層型
ニューラルネットワークは、入力層,中間層,出力層の
間で相互に結合し、各層のそれぞれに少なくとも1つ以
上のユニットを有している。階層型ニューラルネットワ
ークは、その特徴である学習能力や汎化能力を利用し
て、ロボット制御や知的情報処理など様々な分野への応
用例が報告されている。
【0004】このように、従来提案されていた階層型ニ
ューラルネットワークは、生物の神経細胞を模倣して作
られていたため、各層の各ユニットの入出力特性を表す
入出力関数として図12に示すようなシグモイド関数あ
るいは図示しない階段関数が用いられていた。
【0005】
【発明が解決しようとする課題】しかしながら、各層の
各ユニットの入出力関数としてシグモイド関数や階段関
数を用いたニューラルネットワークにあっては、学習に
多くの時間を要していた。
【0006】また、これまでに提案されている階層型ニ
ューラルネットワークは、与えられた教師データがニュ
ーラルネットワークの内部でどのように表現されている
かがわかりにくいという問題があった。この原因の1つ
には、各層の各ユニットの入出力特性を表す入出力関数
として、すべて同じ特性を持つシグモイド関数が用いら
れているということが挙げられる。
【0007】例えば、出力層の各ユニットでは、中間層
の各ユニットからの入力をたし合わせた後、再度シグモ
イド関数に入力しているため、中間層の各ユニットの出
力の持つ意味が非常にわかりにくくなっていた。
【0008】このため、これらはニューラルネットワー
クを工学の分野で利用する上で大きな問題となってい
た。本発明は、ニューラルネットワーク内でのデータ表
現を直観的に解析でき、同時にニューラルネットワーク
の学習に必要な処理時間を短縮できる階層型ニューラル
ネットワークを用いた情報処理装置を提供することにあ
る。
【0009】
【課題を解決するための手段】本発明は、上記課題を達
成すべく次のような構成とした。図1は本発明の原理図
である。本発明は、入力層1、この入力層1に結合する
中間層2、この中間層2に結合する出力層3とからな
り、各層がそれぞれ少なくとも1つ以上のユニットを有
し、各層間で各ユニットが相互に結合してなる階層型ニ
ューラルネットワークにおいて、中間層2及び出力層3
における各ユニットの入出力特性を表す入出力関数とし
て、微分が可能な任意の関数を用いるよう構成する。
【0010】より好適には、以下のようにするのが望ま
しい。すなわち、ニューラルネットワークに一般化デル
タルールを適用し、入力層1及び出力層3の各ユニット
に与えられる教師データ点列に応じて、各層間の結合の
重み,各ユニットのオフセット値の少なくともいずれか
一方を調節するよう構成する。
【0011】また、中間層2の各ユニットの入出力関数
として三角関数を用い、出力層3の入出力関数として線
形和関数を用いるよう構成する。さらに、入力層1と中
間層2との間の結合の重みを固定し、入力層1及び出力
層3の各ユニットに与えられる教師データに応じて、中
間層2の各ユニットにおける三角関数のオフセット値及
び出力層3の各ユニットにおけるゲイン及びオフセット
値を調節することにより、教師データのフーリエ変換を
行うように構成する。
【0012】さらに、中間層2,出力層3のいずれか少
なくとも一方のユニットにおける入出力関数として、三
角関数を用いるよう構成する。また、中間層2,出力層
3のいずれか少なくとも一方のユニットにおける入出力
関数として、線形和関数を用いるよう構成する。
【0013】さらには、中間層2、出力層3のいずれか
少なくとも一方のユニットにおける入出力関数として、
微分可能な任意のn次関数、微分可能な任意の指数関
数、微分可能な任意の対数関数を用いるよう構成する。
【0014】
【作用】本発明によれば、中間層及び出力層の各ユニッ
トにおいて任意の微分が可能な入出力関数を選ぶことに
より、ニューラルネットワークの内部のデータ表現を直
観的に理解することができる。
【0015】ニューラルネットワークに一般化デルタル
ールを適用し、入力層及び出力層の各ユニットに与えら
れる教師データ点列に応じて、各層間の結合の重み,各
ユニットのオフセット値の少なくともいずれか一方を調
節すれば、教師データ点列をフーリエ変換した場合の周
波数成分とオフセット値及びゲインを求めることと等価
になる。
【0016】また、中間層の各ユニットの入出力関数と
して三角関数を用い、出力層の入出力関数として線形和
関数を用いれば、出力層の出力は周期関数のフーリエ変
換式と同様となり、データ表現が直感的に理解できる。
【0017】さらに、入力層と中間層との間の結合の重
みを固定し、入力層及び出力層の各ユニットに与えられ
る教師データに応じて、中間層の各ユニットにおける三
角関数のオフセット値及び出力層の各ユニットにおける
ゲイン及びオフセット値を調節して、教師データのフー
リエ変換を行うので、フーリエ級数展開した場合の係数
を求めることができる。
【0018】また、ニューラルネットワークの中間層及
び出力層のそれぞれのユニットに、三角関数、線形和関
数、微分可能なn次関数、指数関数、対数関数などを適
当に用いるので、ニューラルネット内部でのデータ表現
を直観的に解析でき、例えば中間層の各ユニットの入出
力関数として三角関数を用いた場合には、ニューラルネ
ットワークの出力は、異なる周波数成分を持つ三角関数
の重ね合わせとして捉えることができる。
【0019】また中間層の出力を見ることにより、与え
られた教師データ点列を表現するのに必要な中間層ユニ
ット数を容易に知ることができ、学習のための計算時間
を短縮することができる。
【0020】
【実施例】次に本発明の具体的な実施例を説明する。図
2は本発明の実施例1の構成図である。図3は中間層の
入出力関数としての正弦関数を示す図、図4は出力層の
入出力関数としての線形和関数を示す図である。
【0021】図2に示すように階層型ニューラルネット
ワークは、入力層1、この入力層1に結合する中間層
2、この中間層2に結合する出力層3からなる。入力層
1は1個のユニットからなり、中間層2は、n個のユニ
ット2−1〜2−nを有しており、各ユニット2−1〜
2−nの入力側が入力層1に接続されている。各ユニッ
ト2−1〜2−nの出力側は1個のユニットからなる出
力層3に接続されている。なお、各層内でのユニット間
での結合はない。
【0022】図3に示すように中間層2の各ユニット2
−1〜2−nの入出力特性を表す入出力関数として正弦
関数を用い、図4に示すように出力層3の入出力関数と
して傾き1の線形和関数を用いた場合について説明す
る。
【0023】図2において、ニューラルネットワークへ
の入力をuとし、中間層2のi番目のユニット2−iの
出力をXi(i=1〜n)とし、ニューラルネットワー
クの出力をoとすると、各層において次式が成り立つ。
【0024】
【数1】
【数2】
【0025】ただし、ω1iは、入力層1と中間層2との
間の結合の重みであり、ω2iは、中間層2と出力層3と
の間の結合の重みである。θHiは、中間層2におけるし
きい値であり、θ0は、出力層3におけるしきい値であ
る。
【0026】ここで式(1)は周期関数のフーリエ変換
【数3】 と同様の形式である。従って、このニューラルネットワ
ークにおいて中間層2の各ユニット2−1〜2−nにお
ける出力は、様々な周波数を持つ正弦波を示しており、
出力層ユニットでそれらを足し合わせることにより与え
られた関数を表現していることが直観的に理解できる。
【0027】次に与えた教師データをotとし、このニ
ューラルネットワークに一般化デルタルールを適用する
と、次のようになる。
【0028】
【数4】
【数5】
【数6】
【数7】
【0029】δoは、デルタ係数であり、ε1,ε2は係
数である。これらを用いて、各層間の結合の重みω1i
ω2iや各ユニットのしきい値θHiを調節することは、与
えられた教師データ点列をフーリエ変換した場合におけ
る周波数成分とオフセット値、及びゲイン(利得)を求
めることと等価である。
【0030】またこのニューラルネットワークにおいて
入力層1と中間層2との間の重みω 1iを固定し、入力層
1と中間層2との間のしきい値θHiや中間層2と出力層
3との間の結合の重みω2iやしきい値θ0を、教師デー
タを用いて学習させる。そうすると、与えられた周期関
数を、フーリエ級数展開した場合の係数を求めることが
できる。
【0031】従って、このニューラルネットワークを、
フーリエ級数展開を自動的に行う処理装置として、取り
扱うこともできる。なお、ニューラルネットワークによ
り結合の重みやしきい値の学習を行なうには、BP(バ
ックプロパゲーション,誤差逆伝播)法を用いる。判断
が入力層から出力層への信号伝播だとしたら、BPによ
る学習は、出力層での誤差を入力層へ向かって伝播させ
ることで達成される。
【0032】ニューラルネットワークでの学習は、ネッ
トワークの重みを変えることである。ある入力データを
与えた時の実際の出力値と、教師データとしての望まし
い出力値の平均2乗誤差をとる。この誤差を学習データ
として入力層1のほうへ伝播させながら、誤差を減らす
ようにネットワーク中のすべての結合の重みを変える。
そして学習は、すべての学習データについて誤差の2乗
平均がある設定値以下となるまで繰り返し行われ、学習
が収束する。
【0033】次に実施例の実験結果を説明する。入出力
関数として、中間層2の各ユニットに正弦関数を用い、
出力層3に線形和関数を用いたニューラルネットワーク
において、ランダムに定められた9つの点を教師データ
点列とし、ニューラルネットワークに学習させる実験を
行った。
【0034】図5は実施例のニューラルネットワークを
用いて学習した実験結果を示す図、図6は従来のニュー
ラルネットを用いて学習した実験結果を示す図である。
なお、それぞれの中間層2のユニット数は13個であ
る。
【0035】図5(a)及び図6(a)は、学習が終了
した時のニューラルネットワークの出力を示しており、
図中の○印は教師データとして与えたデータ点列を示し
ている。図5(b)及び図6(b)は、中間層2の13
個の各ユニットからの出力を示しており、図5(c)及
び図6(c)は、出力誤差の二乗平均値を示している。
図5(d)及び図6(d)は、中間層2の各ユニットか
ら出力層3のユニットへの入力信号を示している。この
入力信号は、中間層2の各ユニットからの出力Xiに、
中間層2と出力層3との間の結合の重みω2iを掛け合わ
せたものである。
【0036】図5(a)及び図6(a)に示すように、
双方のニューラルネットワークともに、教師データとし
て与えられた9つの点列を通る曲線を出力している。ま
た、図6(c)に示すように、学習の様子を見ると、従
来のニューラルネットワークでは、すべての教師データ
の学習には3400回の繰り返し計算が必要である。
【0037】これに対し、図5(c)に示す本実施例で
は、全ての教師データの学習に1200回の繰り返し計
算を行えばよく、従来の約1/3の繰り返し回数で済む
ことがわかった。
【0038】また、図5(b)及び図6(b)の中間層
2の各ユニットの出力を見ると、いくつかのユニットで
は、正弦波の周波数成分である入力層1と中間層2との
間の結合の重みω1iが小さくなり、その出力があまり変
化していないことがわかる。
【0039】そこで、このようなあまり出力の変化して
いない中間層2のユニットが存在しなくなるまで、中間
層2のユニットの個数を減らしていく。これにより、与
えられた教師データを表現するのに必要な中間層2ユニ
ットの最小個数を容易に知ることができる。この方法で
先程と同じ教師データ点列(9つの点)について必要な
中間層ユニットの個数を調べた結果、5個のユニットが
あれば、この教師データを表現できることがわかった。
そのときの実験結果を図7に示す。図7(b)に示すよ
うに中間層2の5個のユニットの出力により、図7
(a)に示す9つの教師データを表現できる。図7
(c)に示す出力誤差の二乗平均値は図5(c)に示す
ものとほぼ同様である。図7(d)は、中間層2の各ユ
ニットから出力層3のユニットへの入力信号を示す。
【0040】これによりすべての中間層2のユニットが
ほぼ均等に使われており、しかも学習回数もそれほど増
えていないことがわかる。また、図8に示す例は、中間
層2の入出力関数に二次関数を用い、出力層3の入出力
関数にシグモイド関数を用いた場合である。
【0041】図9に示す例は、中間層2の入出力関数に
底をeとする指数関数を用い、出力層3の入出力関数に
シグモイド関数を用いた場合である。図10に示す例
は、出力層3の入出力関数に底をeとする対数関数を用
い、出力層3の入出力関数にシグモイド関数を用いた場
合である。
【0042】このように中間層2及び出力層3の各ユニ
ットにおいて三角関数、線形和関数、微分可能な任意の
n次関数、指数関数、対数関数など適切な入出力関数を
選ぶことにより、ニューラルネットワークの内部のデー
タ表現を直観的に理解することができる。
【0043】また、中間層2のユニット数を最適化する
ことにより、従来のネットワークに比べて、計算時間を
大幅に短縮することができる。図11は本発明の実施例
2の構成ブロック図である。実施例2は、複数のユニッ
ト1−1〜1−nからなる入力層1、複数のユニット2
−1〜2−nからなる中間層2,複数のユニット3−1
〜3−nからなる出力層3からなっている。
【0044】中間層2の各ユニット2−1〜2−nは、
入力層1のすべてのユニット1−1〜1−nと結合して
いる。出力層3の各ユニット3−1〜3−nは、中間層
2のすべてのユニット2−1〜2−nと結合している。
なお、各層内でのユニット間での結合はない。
【0045】このように構成された実施例2にあって
も、出力層のあるユニットでは、中間層の各ユニットの
和を求めるから、中間層2に例えば三角関数を用い、出
力層3に線形和関数を用いれば、実施例1と同様の効果
を奏することができる。
【0046】
【発明の効果】本発明によれば、中間層及び出力層の各
ユニットにおいて任意の微分が可能な入出力関数を選ぶ
ことにより、ニューラルネットワークの内部のデータ表
現を直観的に理解することができる。
【0047】また、中間層の各ユニットの入出力関数と
して三角関数を用い、出力層のユニットに線形和関数を
用いた場合には、ニューラルネットワークの出力は、異
なる周波数成分を持つ三角関数の重ね合わせとして捉え
ることができる。
【0048】また中間層の出力を見ることにより、与え
られた教師データ点列を表現するのに必要な中間層ユニ
ット数を容易に知ることができ、さらには計算時間を短
縮することができる。
【図面の簡単な説明】
【図1】本発明の原理図である。
【図2】本発明の実施例1の構成図である。
【図3】正弦関数を示す図である。
【図4】線形和関数を示す図である。
【図5】入出力関数に正弦関数及び線形和関数を用いた
例1を示す図である。
【図6】入出力関数にシグモイド関数を用いた従来例を
示す図である。
【図7】入出力関数に正弦関数及び線形和関数を用いた
例2を示す図である。
【図8】入出力関数に二次関数及びシグモイド関数を用
いた例3を示す図である。
【図9】入出力関数に指数関数及びシグモイド関数を用
いた例4を示す図である。
【図10】入出力関数に対数関数及びシグモイド関数を
用いた例5を示す図である。
【図11】本発明の実施例2の構成ブロック図である。
【図12】入出力関数としてのシグモイド関数を示す図
である。
【符号の説明】
1・・入力層 2・・中間層 3・・出力層

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 入力層(1)と、この入力層(1)に結
    合する中間層(2)と、この中間層(2)に結合する出
    力層(3)とからなり、各層がそれぞれ少なくとも1つ
    以上のユニットを有し、各層間で各ユニットが相互に結
    合してなる階層型ニューラルネットワークにおいて、前
    記中間層(2)及び出力層(3)における各ユニットの
    入出力特性を表す入出力関数として、微分が可能な任意
    の関数を用いたことを特徴とするニューラルネットワー
    クを用いた情報処理装置。
  2. 【請求項2】 前記ニューラルネットワークに一般化デ
    ルタルールを適用し、前記入力層(1)及び出力層
    (3)の各ユニットに与えられる教師データ点列に応じ
    て、前記各層間の結合の重み,各ユニットのオフセット
    値の少なくともいずれか一方を調節することを特徴とす
    る請求項1記載のニューラルネットワークを用いた情報
    処理装置。
  3. 【請求項3】 前記中間層(2)の各ユニットの入出力
    関数として三角関数を用い、出力層(3)の入出力関数
    として線形和関数を用いたことを特徴とする請求項1記
    載のニューラルネットワークを用いた情報処理装置。
  4. 【請求項4】 前記入力層(1)と中間層(2)との間
    の結合の重みを固定し、入力層(1)及び出力層(3)
    の各ユニットに与えられる教師データに応じて、中間層
    (2)の各ユニットにおける三角関数のオフセット値及
    び出力層(3)の各ユニットにおけるゲイン及びオフセ
    ット値を調節することにより、前記教師データのフーリ
    エ変換を行うことを特徴とする請求項3記載のニューラ
    ルネットワークを用いた情報処理装置。
  5. 【請求項5】 前記中間層(2),出力層(3)のいず
    れか少なくとも一方のユニットにおける入出力関数とし
    て、三角関数を用いたことを特徴とする請求項1記載の
    ニューラルネットワークを用いた情報処理装置。
  6. 【請求項6】 中間層(2),出力層(3)のいずれか
    少なくとも一方のユニットにおける入出力関数として、
    線形和関数を用いたことを特徴とする請求項1記載のニ
    ューラルネットワークを用いた情報処理装置。
JP4008746A 1992-01-21 1992-01-21 ニューラルネットワークを用いた情報処理装置 Withdrawn JPH05197701A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4008746A JPH05197701A (ja) 1992-01-21 1992-01-21 ニューラルネットワークを用いた情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4008746A JPH05197701A (ja) 1992-01-21 1992-01-21 ニューラルネットワークを用いた情報処理装置

Publications (1)

Publication Number Publication Date
JPH05197701A true JPH05197701A (ja) 1993-08-06

Family

ID=11701502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4008746A Withdrawn JPH05197701A (ja) 1992-01-21 1992-01-21 ニューラルネットワークを用いた情報処理装置

Country Status (1)

Country Link
JP (1) JPH05197701A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887485A (ja) * 1994-09-19 1996-04-02 Mitsui Eng & Shipbuild Co Ltd パターンマッチング装置
JP2011113125A (ja) * 2009-11-24 2011-06-09 Fuji Xerox Co Ltd 情報処理装置及び情報処理プログラム
EP3767552A1 (en) 2019-07-11 2021-01-20 Fujitsu Limited Machine learning method, program, and machine learning device
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887485A (ja) * 1994-09-19 1996-04-02 Mitsui Eng & Shipbuild Co Ltd パターンマッチング装置
JP2011113125A (ja) * 2009-11-24 2011-06-09 Fuji Xerox Co Ltd 情報処理装置及び情報処理プログラム
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
EP3767552A1 (en) 2019-07-11 2021-01-20 Fujitsu Limited Machine learning method, program, and machine learning device
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
CN110880036B (zh) 神经网络压缩方法、装置、计算机设备及存储介质
US9367797B2 (en) Methods and apparatus for spiking neural computation
Han et al. An improved evolutionary extreme learning machine based on particle swarm optimization
US9111225B2 (en) Methods and apparatus for spiking neural computation
Man et al. A new robust training algorithm for a class of single-hidden layer feedforward neural networks
US20130204814A1 (en) Methods and apparatus for spiking neural computation
Yesil et al. Fuzzy cognitive maps learning using artificial bee colony optimization
CN113489014B (zh) 一种快速灵活全纯嵌入式电力系统最优潮流评估方法
CN110286586A (zh) 一种磁流变阻尼器混合建模方法
CN108153943A (zh) 基于时钟循环神经网络的功率放大器的行为建模方法
JPH05197701A (ja) ニューラルネットワークを用いた情報処理装置
Yang et al. Finite-time synchronization of coupled inertial memristive neural networks with mixed delays via nonlinear feedback control
Hussien The Lagrange interpolation polynomial for neural network learning
CN112884160B (zh) 一种元学习方法及相关装置
JP3168204B2 (ja) ネットワーク構成データ処理装置
Zhong et al. An effective and efficient broad-based ensemble learning model for moderate-large scale image recognition
TWI719337B (zh) 基於深度學習之數位控制器的控制方法
Sanger Optimal hidden units for two-layer nonlinear feedforward neural networks
CN109474258A (zh) 基于核极化策略的随机傅立叶特征核lms的核参数优化方法
CN109190086A (zh) 一种用于时变矩阵求逆的指数增强型变参求解方法
CN112198800B (zh) 一种具有时变时延的多机器人系统一致性控制方法
CN107506778A (zh) 一种基于最小生成树的海量数据聚类处理方法
JP2544489B2 (ja) ニュ―ラルネットワ―クモデルの学習方法
JP2798793B2 (ja) 神経回路網装置
JP3288066B2 (ja) ネットワーク構成データ処理装置の学習処理方法およびシステム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990408