JPH0594554A - ニユ−ラルネツトワ−ク装置 - Google Patents

ニユ−ラルネツトワ−ク装置

Info

Publication number
JPH0594554A
JPH0594554A JP27869591A JP27869591A JPH0594554A JP H0594554 A JPH0594554 A JP H0594554A JP 27869591 A JP27869591 A JP 27869591A JP 27869591 A JP27869591 A JP 27869591A JP H0594554 A JPH0594554 A JP H0594554A
Authority
JP
Japan
Prior art keywords
output
input
data
learning
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27869591A
Other languages
English (en)
Inventor
Kenji Okuma
建司 大熊
Toshiaki Tanaka
俊明 田中
Kouki Yamada
貢己 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27869591A priority Critical patent/JPH0594554A/ja
Publication of JPH0594554A publication Critical patent/JPH0594554A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】本発明は、実用的なニュ−ラルネットワ−ク装
置を得ることを目的とする。 【構成】ニュ−ラルネットワ−ク装置本体11と、学習
用デ−タを備えた学習デ−タ提示部13と、学習用デ−
タとニュ−ラルネットワ−ク装置本体11の出力とか
ら、ニュ−ラルネットワ−ク装置本体11の入力と出力
とが所定の関係になるように、ニュ−ラルネットワ−ク
装置本体11を制御するネットワ−ク修正部15と、補
充学習用入力デ−タを生成すると共に、この補充学習用
入力デ−タに対するニュ−ラルネットワ−ク装置本体1
1の出力として望まれる出力(補充教師デ−タ)を利用
者に要求し、この補充教師デ−タと補充学習用入力デ−
タとを新たな学習用デ−タとして学習デ−タ提示部13
に与える補充デ−タ生成手段17とを備えていることを
特徴とするニュ−ラルネットワ−ク装置。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、組合わせ最適化判断、
パタ−ン認識、画像修復などの分野に応用可能なニュ−
ラルネットワ−ク装置に関する。
【0002】
【従来の技術】近年、ニュ−ラルネット(神経回路網)
を用いた情報処理の有効性が見直され、各所で研究が活
発に行なわれている。ニュ−ラルネットワ−ク装置の応
用分野は、その並列性を生かした組合わせ最適化判断や
学習機能を利用したパタ−ン認識,音声認識,画像修
復,画像圧縮等の幅広い分野にまたがっている。
【0003】図8は従来のニュ−ラルネットワ−ク装置
の概略構成図である。このニュ−ラルネットワ−ク装置
は、大きく分けて、ニュ−ラルネット装置本体51と、
学習デ−タ提示部53と、ネットワ−ク修正部55とで
構成されている。
【0004】ニュ−ラルネット装置本体51は、複数の
ニュ−ラルユニット層、即ち、入力層43,中間層4
5,出力層47とからなり、これらニュ−ラルユニット
層43,45,47により、階層タイプのニュ−ラルネ
ットワ−クが構成されている。入力層43,中間層4
5,出力層47はニュ−ロン素子41からなり、入力層
43と中間層45とを結ぶニュ−ロン素子41及び中間
層45と出力層47とを結ぶニュ−ロン素子41は結合
係数が割り振られたシナプス接合部49を介して接続さ
れている。
【0005】ここで、入力層43の第i番目のニュ−ロ
ン素子41と中間層45の第j番目のニュ−ロン素子4
1との結合係数をSjiとし、中間層45の第j番目のニ
ュ−ロン素子41と出力層47の第k番目のニュ−ロン
素子41との結合係数をTkjとし、入力層43の第i番
目のニュ−ロン素子41の出力信号をxi とし、中間層
45の第j番目のニュ−ロン素子41の出力信号をyj
とし、出力層47の第j番目のニュ−ロン素子41の出
力信号をzk とすると、ニュ−ラルネット装置本体51
の動作方程式は次のようになる。
【0006】
【数1】 なお、Ii は入力層43の第i番目のニュ−ロン素子4
1の入力信号、θj ,φk はしきい値である 学習デ−タ提示部53には、学習用入力デ−タと、この
学習用入力デ−タを入力層43に与えたときに望まれる
出力層47の出力信号、つまり、教師デ−タとが蓄えら
れている。
【0007】ネットワ−ク修正部55には、学習用入力
デ−タと教師デ−タ、並びに学習用入力デ−タに対する
出力層47の出力信号が与えられる。ネットワ−ク修正
部55は、この学習用入力デ−タと出力信号とから、結
合荷重Sji,Tkj及びしきい値θj ,φk が所定の関係
を満たすようにニュ−ラルネット装置本体51を制御す
る。
【0008】即ち、出力信号zk の関数である次式の誤
差関数Eが最小になるように制御する。
【0009】
【数2】 なお、Ok は教師デ−タ(教師信号)である。また、出
力信号zk は、入力信号xi (=Ii )、結合係数
ji,Tkj及びしきい値θj ,φk の関数である。
【0010】このように構成されたニュ−ラルネットワ
−ク装置では次のようにして学習が行われる。
【0011】即ち、ランダムに定めた結合係数Sji,T
kj,しきい値θj ,φk を初期値としたニュ−ラルネッ
ト装置本体51に、学習デ−タ提示部53の最初の学習
用入力デ−タを入力層43に与え、このときの出力層4
7の出力をネットワ−ク修正部55に与える。ネットワ
−ク修正部55は、この出力と教師デ−タとから誤差関
数Eの値を求め、この値がより小さくなるように結合荷
重Sji,Tkj、しきい値θj ,φk を微少量増減させ、
修正を行なう。次いで学習デ−タ提示部53の他の入力
デ−タを順次与え、修正を繰り返すことでニュ−ラルネ
ットワ−ク装置は、しだいに教師デ−タを出力するよう
になる。そして、学習を終了した後は、入力が多少異な
っても正常な出力が得られる。このような学習は一般に
バックプロパゲ−ション学習法と呼ばれている。
【0012】しかしながら、学習デ−タ提示部53に蓄
えられた学習用デ−タのどれとも似ていない入力や大き
く異なる入力が与えられると、その入力に対応した所望
の出力が得られないという問題があった。この種の問題
は、利用者が新たな学習用デ−タ(補充学習用デ−タ)
を作成し、これを用いて追加学習や再学習を行なえば解
決可能であるが、補充デ−タの作成指針が確立されてい
ないため、その実行は困難なものとなり、結果として実
用的なニュ−ラルネットワ−ク装置が得られないという
問題があった。
【0013】
【発明が解決しようとする課題】上述の如く、与えられ
た学習用デ−タだけでは、十分な学習を行なうことがで
きず、利用者が補充デ−タを作成する必要があった。し
かしながら、補充デ−タの作成指針が確立されていなか
ったので、利用者は補充デ−タを作成できず、実用に耐
え得るニュ−ラルネットワ−ク装置が得られないという
問題があった。
【0014】本発明は、上記事情を考慮してなされたも
ので、その目的とするところは、利用者側で容易に追加
学習や再学習を行なえるニュ−ラルネットワ−ク装置を
提供することにある。
【0015】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明のニュ−ラルネットワ−ク装置は、ニュ−
ラルネットワ−ク装置本体と、学習用デ−タを備えた学
習デ−タ提示部と、前記学習用デ−タと前記ニュ−ラル
ネットワ−ク装置本体の出力とから、前記ニュ−ラルネ
ットワ−ク装置本体の入力と出力とが所定の関係になる
ように、前記ニュ−ラルネットワ−ク装置本体を制御す
る制御手段と、前記ニュ−ラルネットワ−ク装置本体の
入力を生成すると共に、この入力に対する前記ニュ−ラ
ルネットワ−ク装置本体の望ましい出力を利用者に要求
し、この出力と前記入力とを新たな学習用デ−タとして
前記学習デ−タ提示部に与える補充デ−タ生成手段とを
備えていることを特徴とする。
【0016】
【作用】本発明のニュ−ラルネットワ−ク装置では、補
充デ−タ生成手段により、新たな学習用デ−タが得られ
る。したがって、この学習用デ−タを用いて追加学習や
再学習を行なうことで、不当な解が出現する可能性が低
くなり、実用的なニュ−ラルネットワ−ク装置を構築で
きるようになる。
【0017】
【実施例】以下、図面を参照しながら実施例を説明す
る。
【0018】図1は本発明の一実施例に係るニュ−ラル
ネットワ−ク装置の概略構成図である。このニュ−ラル
ネットワ−ク装置は、大きく分けて、ニュ−ラルネット
装置本体11と、学習デ−タ提示部13と、ネットワ−
ク修正部15と、補充デ−タ生成部17とからなる。
【0019】ニュ−ラルネット装置本体11は、入力層
3,中間層5,出力層7とからなる階層タイプのニュ−
ラルネットワ−クである。各層3,5,7はそれぞれN
個,L個,M個のニュ−ロン素子1で構成され、入力層
3のニュ−ロン素子1は、中間層5に設けられた結合係
数が割り振られたシナプス接合部9を介して中間層5の
ニュ−ロン素子1と接続し、中間層5のニュ−ロン素子
1は、上述したように入力層3のニュ−ロン素子1と接
続すると共に、出力層7に設けられたシナプス接合部9
を介して出力層7のニュ−ロン素子1と接続している。
【0020】学習デ−タ提示部13には、学習用入力デ
−タとこの学習用入力デ−タに対する教師デ−タとから
なる初期学習用デ−タが蓄えられていると共に、後述す
る補充デ−タ生成部17により生成された補充学習用入
力デ−タと補充教師デ−タとからなる補充学習用デ−タ
が与えられ蓄積される。
【0021】ネットワ−ク修正部15には、上記初期学
習用デ−タと追加学習用デ−タ、並びにこれら学習用デ
−タに対する出力層7の出力が与えられる。ネットワ−
ク修正部15は、入力層3の入力と出力層7の出力とが
所定の関係を満たすように、ニュ−ラルネット装置本体
11を制御する。
【0022】図2は補充デ−タ生成部17の概略構成図
である。補充デ−タ生成部17は、大きく分けて、仮出
力信号生成部19と中間−出力層間逆算部21と入力−
中間層間逆算部23とで構成されている。仮出力信号生
成部19は、出力層19の仮の出力A1を生成する。中
間−出力層間逆算部21は、仮の出力A1から、出力層
19が仮の出力A1を出力するような中間層5の出力A
2を求める。入力−中間層間逆算部21は、出力A2か
ら、入力層3が出力A2を出力するような入力層3の出
力を求める。なお、入力層3は入力をそのまま中間層5
に流すだけなので、上記入力層3の出力は入力層3の入
力そのものである。補充デ−タ生成部17は、仮の出力
A1から逆算して得られた入力層3の入力を利用者に提
示すると共に、その入力信号に対する望ましい出力層7
の出力を利用者に要求し、上記入力を補充学習用入力デ
−タ、上記出力を補充教師デ−タとして学習デ−タ提示
部3に与える。
【0023】次に上記の如く構成されたニュ−ラルネッ
トワ−ク装置の学習について説明する。まず、学習デ−
タ提示部13に予め備わっている初期学習用デ−タを用
いて学習を行なう。この学習について、手書き数字のパ
タ−ン識別を例にあげて更に詳細に説明する。
【0024】図3は手書き数字の2次元パタ−ンの一例
を表している。この2次元パタ−ンを24×24のメッ
シュに区切り、これを1次元的に並び替え、各メッシュ
の値として、予め設定されているしきい値によって
“1”又は“0”のいずれかを割り当てる。例えば、数
字の構成に寄与しているメッシュには“1”を割り当
て、数字の構成に寄与していないメッシュに“0”を割
り当てる。2次元パタ−ンを24×24(=576)の
メッシュに区切ったので、この場合、入力層3のニュ−
ロン素子1の個数Nは576となる。また、識別するべ
き数字は0,1,…,9の10個なので、出力層7のニ
ュ−ロン素子1の個数Mは10となる。なお、本実施例
では、中間層5のニュ−ロン素子1の個数Lを50とし
た。
【0025】ここで、ニュ−ラルネットワ−ク装置本体
11の動作方程式は次式のようになる。
【0026】
【数3】 上式において、Sjiは入力層3の第i番目(1≦i≦5
76)のニュ−ロン素子1と中間層5の第j番目(1≦
j≦50)のニュ−ロン素子1との結合係数を示し、T
kjは中間層5の第j番目のニュ−ロン素子1と出力層7
の第k番目のニュ−ロン素子1との結合係数をTkjを示
し、xi は入力層3の第i番目のニュ−ロン素子1の出
力信号を示し、yj は中間層5の第j番目のニュ−ロン
素子1の出力信号を示し、zkは出力層7の第k番目の
ニュ−ロン素子1の出力信号を示し、Ii は入力層3の
第i番目のニュ−ロン素子1の入力信号を示し、θj
びφk はしきい値を示していている。また、本実施例で
は、出力信号z1 〜z10にそれぞれ1,…,9,0を対
応させている。例えば、入力信号が“5”のパタ−ンの
場合、出力信号zk の望ましい信号はz5 =1,z1
2 =z3 =z4 =z6 =z7 =z8 =z9 =z10=0
となる。
【0027】まず、結合係数Sji,結合係数Tkj,しき
い値θj 及びφk の初期値として、範囲を制限した乱数
を用いる。
【0028】次に学習デ−タ提示部13に予め備わって
いる初期学習用デ−タの最初の学習用入力デ−タを入力
層3のニュ−ロン素子1に与える。ネットワ−ク修正部
15は、この学習用入力デ−タに対する出力層7の出力
信号zk と教師デ−タとから次式の誤差関数E´を評価
する。
【0029】
【数4】 そして最急降下法等を用いて、誤差関数E´が小さくな
るように、即ち、出力信号zk が教師デ−タに近付くよ
うに、結合荷重Sji,Tkj及びしきい値θj ,φk を微
少量増減させ、修正を行なう。なお、出力信号Ok は教
師デ−タ(教師信号)である。また、出力信号zk は、
入力信号xi ,結合係数Sji,Tkj及びしきい値θj
φk の関数である。
【0030】このような修正を残りの学習用入力デ−タ
についても行なうことで、ニュ−ラルネットワ−ク装置
は、しだいに教師デ−タを出力するようになり、初期学
習用デ−タの学習用入力デ−タとあまり異なっていない
入力に対しては、高い解答率が得られる。
【0031】次にニュ−ラルネットワ−ク装置の性能を
向上するために、補充デ−タ生成部17による追加学習
を行なう。
【0032】まず、仮出力生成部19により、出力層7
の仮の出力A1を生成する。ここでは出現することが望
ましくない信号を仮の出力A1の生成指針とする。望ま
しくない信号とは、例えば、出力層7の10個の出力信
号zk のうち、2個が同程度の出力レベルとなるものが
ある。即ち、z5 =z6 =0.7,z1 =z2 =z3
4 =z7 =z8 =z9 =z10=0となるような出力信
号zk である。
【0033】次に入力−中間層間逆算部21により、出
力層7が仮の出力A1を出力するような中間層5の出力
A2を求める。この出力A2の算出方法を図4のフロ−
チャ−トを用いて説明する。まず、仮出力信号A1の各
成分zk (k=1,…10)に非線形関数fの逆関数F
を作用させる(ステップS1)。逆関数Fは次式の通り
である。
【0034】 F(z)=−loge {(1−z)/z)} 次にステップS1により得られた中間層5から出力層7
への信号Tkjj のjについての荷重和から、出力yj
(1≦j≦50)に関する連立1次方程式
【0035】
【数5】 を求める(ステップS2)。次いでこの連立1次方程式
を解き、出力yj を求める(ステップ3)。このように
して得られた出力yj が、出力層7が仮の出力A1を出
力するような中間層5の出力A2である。
【0036】次に上記連立1次方程式の解法(ステップ
S3)の詳細について、図5のフロ−チャ−トを用いて
説明する。
【0037】本実施例では、未知数の数、つまり、中間
層5のニュ−ロン素子1の個数(50個)が、方程式の
数、つまり、出力層7のニュ−ロン素子1の個数(10
個)より多いので、上記方程式は不定となり、解に任意
性が残る。そこで、まず、連立1次方程式の特解を1つ
求める(ステップS3a)。特解は次の手順で求めるこ
とができる。なお、表記を簡単にするため、結合係数T
kjを次のようにベクトル表示する。
【0038】
【数6】 なお、右辺の右肩のTは転置を表している。
【0039】また、基底{T}及びこの基底{T}の張
る部分空間における双対基底{T* }をそれぞれ下記の
ように表す。
【0040】
【数7】
【0041】
【数8】 ただし、
【0042】
【数9】 である。
【0043】このような表記を用いると、内積に関して
次の等式が成り立つ。
【0044】
【数10】 この双対基底を用いると、上記連立一次方程式の特解、
即ち、中間層5の出力の特解yi specificは次式のよう
に表せる。
【0045】
【数11】 次にこの特解yi specificを用いて上記連立一次方程式
の一般解を求める(ステップS3b)。
【0046】即ち、基底{T}が張る部分空間に対する
補空間の正規直交基底{τ}をSchmidtの直交化
法により求め、下記のように表記する。
【0047】
【数12】 ただし、
【0048】
【数13】 この正規直交基底{τ}を用いると、中間層5の出力の
一般解yi は次式のように表せる。
【0049】
【数14】 ここで、λk は任意の実数である。
【0050】次に上記一般解yi の任意性を吸収する
(ステップS3c)。即ち、評価関数を導入し、それに
ついての最適化を行なうことで、一般解yi の任意性を
吸収する。本実施例では、ニュ−ロン素子1の興奮状態
を中間的なものとする次の評価関数C(yj ,λk )を
導入する。
【0051】
【数15】 ただし
【0052】
【数16】 評価関数C(yj ,λk )を最小にするという条件から
λk は、
【0053】
【数17】 となる。ここで、右辺の括弧は内積を意味する。
【0054】なお、評価関数は上記のものに限らず、学
習用入力デ−タとして望まれる性質、例えば、数字の標
準的なドットパタ−ンに近いといった性質が分かってい
る場合には、それに対応した評価関数を用いることで、
そのような性質を評価関数に反映させることができる。
【0055】このようにして得られたλk をステップS
3bでもとめた一般解に代入することにより、一般解の
任意性が吸収され、中間層5の出力A2が求まる。
【0056】以上のようにして、図2の中間−出力層間
逆算部21は、仮の出力A1から、出力層19が仮の出
力A1を出力するような中間層5の出力A2を求める。
【0057】次に入力−中間層間逆算部23は、上記出
力A2から、入力層3が出力A2を出力するような入力
層3の入力A3を求める。図6,図7は入力A3を求め
る手順を示すフロ−チャ−トである。これは上述した出
力A1から出力A2を求める方法と同じである。即ち、
まず、出力A2からxi に関する連立一次方程式を作成
し(ステップS4,S5)、これを解いて入力A3を求
める(ステップS6,S7)。
【0058】以上のようにして、例えば、z5 =z6
0.7,z1 =z2 =z3 =z4 =z7 =z8 =z9
10=0のような望ましくない仮の信号A1を与える入
力A3が求まる。
【0059】したがって、上記の例の場合において、望
ましくない仮の信号A1に対する補充教師デ−タをz5
=1,z1 =z2 =z3 =z4 =z6 =z7 =z8 =z
9 =z10=0として追加学習を行なえば、入力層3の入
力が信号A1であっても、正常な出力、即ち、手書き数
字が5だと判断される。このような追加学習を行なうこ
とで、不当な出力が出現する率が低くなり、信頼性が向
上する。また、以上のようにして得られた補充学習用デ
−タと初期学習用デ−タと一緒に用い、再学習を行なっ
ても識別能力が向上する。
【0060】また、補充学習用デ−タを利用者に明示す
ることにより、ニュ−ラルネット装置本体の状態がどの
ようなものであるか、即ち、どのような入力に対して出
力が正常なるか又は異常になるかが分かり、これにより
装置の有効利用が図れるなど、利用者は大きな利益が得
られる。
【0061】また、評価関数を取り替えることで、様々
な入力状態を得ることができ、補充学習用デ−タの補充
分の性質をコントロ−ルできるので、色々な利用法が可
能となる。
【0062】かくして本実施例によれば、利用者側で新
たな学習デ−タを作成でき、これを用いて追加学習や再
学習を行なうことで、汎化能力が高いニュ−ラルネット
ワ−ク装置を短期間で構築できる。
【0063】なお、上記実施例では手書き数字のパタ−
ン識別の場合について説明したが、本発明は他の情報処
理の場合にも適用できる。その他、本発明の要旨を逸脱
しない範囲で、種々変形して実施できる。
【0064】
【発明の効果】以上詳述したように本発明によれば、利
用者側で追加学習や再学習を行なえるようになるので、
高い汎化能力を有するニュ−ラルネットワ−ク装置を得
ることができる。
【図面の簡単な説明】
【図1】本発明の一実施例に係るニュ−ラルネットワ−
ク装置の概略構成図。
【図2】補充デ−タ生成部の概略構成図。
【図3】手書き数字の2次元パタ−ン。
【図4】仮の出力から中間層の出力を求める方法を示す
フロ−チャ−ト。
【図5】中間層の出力を求めるのに必要な連立一次方程
式の解法を示すフロ−チャ−ト。
【図6】中間層の出力から入力層の入力を求める方法を
示すフロ−チャ−ト。
【図7】入力層の入力を求めるのに必要な連立一次方程
式の解法を示すフロ−チャ−ト。
【図8】従来のニュ−ラルネットワ−ク装置の概略構成
図。
【符号の説明】
1…ニュ−ロン素子、3…入力層、5…中間層、7…出
力層、9…シナプス接合部、11…ニュ−ラルネット装
置本体、13…学習デ−タ提示部、15…ネットワ−ク
修正部、17…補充デ−タ生成部、19…仮出力信号生
成部、21…中間−出力層間逆算部、23…入力−中間
層間逆算部。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】ニュ−ラルネットワ−ク装置本体と、 学習用デ−タを備えた学習デ−タ提示部と、 前記学習用デ−タと前記ニュ−ラルネットワ−ク装置本
    体の出力とから、前記ニュ−ラルネットワ−ク装置本体
    の入力と出力とが所定の関係になるように、前記ニュ−
    ラルネットワ−ク装置本体を制御する制御手段と、 前記ニュ−ラルネットワ−ク装置本体の入力を生成する
    と共に、この入力に対する前記ニュ−ラルネットワ−ク
    装置本体の望ましい出力を利用者に要求し、この出力と
    前記入力とを新たな学習用デ−タとして前記学習デ−タ
    提示部に与える補充デ−タ生成手段とを具備してなるこ
    とを特徴とするニュ−ラルネットワ−ク装置。
JP27869591A 1991-09-30 1991-09-30 ニユ−ラルネツトワ−ク装置 Pending JPH0594554A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27869591A JPH0594554A (ja) 1991-09-30 1991-09-30 ニユ−ラルネツトワ−ク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27869591A JPH0594554A (ja) 1991-09-30 1991-09-30 ニユ−ラルネツトワ−ク装置

Publications (1)

Publication Number Publication Date
JPH0594554A true JPH0594554A (ja) 1993-04-16

Family

ID=17600895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27869591A Pending JPH0594554A (ja) 1991-09-30 1991-09-30 ニユ−ラルネツトワ−ク装置

Country Status (1)

Country Link
JP (1) JPH0594554A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016025A (ja) * 2017-07-04 2019-01-31 株式会社日立製作所 情報処理システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016025A (ja) * 2017-07-04 2019-01-31 株式会社日立製作所 情報処理システム

Similar Documents

Publication Publication Date Title
US20200410090A1 (en) Robust von neumann ensembles for deep learning
Song et al. Identification of sparse neural functional connectivity using penalized likelihood estimation and basis functions
Kang An investigation of the use of feedforward neural networks for forecasting
Skapura Building neural networks
US9367797B2 (en) Methods and apparatus for spiking neural computation
Ratcliff Connectionist models of recognition memory: constraints imposed by learning and forgetting functions.
US9111225B2 (en) Methods and apparatus for spiking neural computation
US20130204814A1 (en) Methods and apparatus for spiking neural computation
Xiao Eigenspace restructuring: a principle of space and frequency in neural networks
Patel et al. Comprehensive modelling of ANN
JPH0594554A (ja) ニユ−ラルネツトワ−ク装置
JP2907486B2 (ja) ニューラルネットワーク装置
De Veaux et al. A brief introduction to neural networks
JP2699447B2 (ja) 信号処理装置
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
EP0577694B1 (en) A neural network and training method
Dumitras et al. Feedforward neural network design with tridiagonal symmetry constraints
Huang et al. A neuronet approach to information fusion
Steib et al. Expert systems for guiding backpropagation training of layered perceptrons
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
Meng et al. Aggregating regressive estimators: gradient-based neural network ensemble
Hooker Adaptation in systems: a review essay
JPH05242062A (ja) ニューラルネット中間層ユニット数の決定方法
JPH06266691A (ja) ニューラルネットの構成方法
JPH0451379A (ja) ニューラルネットを用いた情報処理装置