JPH03257659A - ニューラルネットワーク - Google Patents

ニューラルネットワーク

Info

Publication number
JPH03257659A
JPH03257659A JP2057744A JP5774490A JPH03257659A JP H03257659 A JPH03257659 A JP H03257659A JP 2057744 A JP2057744 A JP 2057744A JP 5774490 A JP5774490 A JP 5774490A JP H03257659 A JPH03257659 A JP H03257659A
Authority
JP
Japan
Prior art keywords
intermediate layer
feedback
neural network
layer
general
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2057744A
Other languages
English (en)
Inventor
Masashi Fujino
藤野 政司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NISSHIN SYST KK
Original Assignee
NISSHIN SYST KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NISSHIN SYST KK filed Critical NISSHIN SYST KK
Priority to JP2057744A priority Critical patent/JPH03257659A/ja
Publication of JPH03257659A publication Critical patent/JPH03257659A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (a)産業上の利用分野 この発明は中間層にフィードバックシナプス結合が含ま
れるニューラルネットワークに関する。
(b)従来の技術 一般のニューラルネットワークは、第4図(A)に示す
ように入力層Sと中間層Aと出力層Rとで構成され、ニ
ューロンユニット素子およびシナプスの構造は同図(B
)に示すようになっている、・、は第mNi番目のユニ
ット素子であることを表し、W″hiは第(m−1)層
り番目からm層i番目へのシナプスの結合度を表してい
る。θ、は、第mNi番目のしきい値を表す。また、0
1、は、第mNi番目のユニット素子の出力をあられす
。なお、同図(A)はパーセブトロン型(階層型)ニュ
ーラルネットワークを示している。このような従来のニ
ューラルネットワークは、3層に人力された信号がA層
を経て最終のR層に伝達し、R層から結果を得る。また
、上記の構成では第4図(B)に示すようにシナプスの
結合は下位(入力側)から上位(出力側)に向けてのも
のだけであるが、上位から下位へのシナプス結合のある
ネットワーク構造も提案されている。このようなフィー
ドバック結合のあるニューラルネットワーク構造では、
ネットワーク内の演算プロセスに時間要素が入るために
単なるパターン認識以上の処理が可能になってくる。
(C)発明が解決しようとする課題 しかし、パターンL2 識など線形処理を行わせように
するときには、−gにはフィードバンク中間層がない方
がよい。フィートバンク中間層があるとニューラルネッ
トワーク内の動作が複雑となり、収束しにくくなる可能
性が高くなるからである一方、入カバターンが時間関数
を含む二次元パターンの場合などにはフィードバック中
間層がなければ対応が不可能である。
この発明の目的は、フィードバック中間層を接続自在に
することによって上記の問題を解決することのできるニ
ューラルネットワークを提供することを目的とする。
(d)課題を解決するための手段 この発明は、ニューロンユニット間のシナプス結合に上
位から下位に情報伝達するフィードバックシナプス結合
が含まれる中間層が存在するニューラルネットワークに
おいて、 前記フィードバックシナプス結合の含まれるフィードバ
ック中間層と一般中間層とを別々に設けるともに、前記
フィードバンク中間層を前記一般中間層の前段または後
段に接続自在にしたことを特徴とするニューラルネット
ワーク。
(e)作用 この発明のニューラルネットワークでは、フィードバッ
ク中間層を一般中間層の前段または後段に接続自在であ
るために、パターン認識や線形処理を行う制御部を構成
する場合にはフィードバック中間層を取り外す。また、
時系列動作を行う制御部などを構成するときには必要に
応して一般中間層の前段または後段に単一または複数の
フィードバック中間層を接続する。このように構成する
ことでパターン認識処理を行うことができるとともに、
時系列動作を行うシュミレータとしても構成することが
できる。
(f)実施例 第1図はこの発明の実施例であるニューラルネットワー
クの構成図を示している。構成において第4図(A)示
す従来のニューラルネットワークと相異する点は、フィ
ードバック中間層Xが一般中間層への前段に接続されて
いる点である。このフィードハ゛・ンク中間層Xはコネ
クタC1,C2によってそれぞれ入力層S、一般中間層
Aに接続されている。コネクク層C1,C2は各端子と
その端子に対向する相手側の全ての端子との間を接続す
る。
第2図は上記フィードバック中間層Xの一部詳細図を示
している。図において、s n I〜sn3がフィード
バックシナプス結合を表し、X I’l 、はフィード
バックの量を示している。またkは時間である。例えば
、シナプスsnlは、時間にのフィードバック量x′ 
 (k)を次の時間に+1にて同じユニット素子の入力
側に戻す。また、シナプスsn2は、時間にのフィード
バック量X″jを次の時間に+1にて第nNi番目のユ
ニットの入力端に返す。このようなユニット素子と各ユ
ニット素子間をフィードバックシナプス結合で接続する
構成は、フィードバック中間層Xの至るところに配置さ
れている。
次に、第1図に示す構成のニューラルネットワークにお
いて実際に学習させる方法について説明する。学習の方
法は公知のエラーバックプロパゲーション法を使用する
。第3図はこの学習方法の一例を示している。なお、図
においてはフィードバックシナプス結合を出力層Rと中
間層Xの入力間に設けたが、これは理解を容易にするた
めである。実際には、上述のようにフィードバックシナ
プス結合はフィードバック中間層Xに存在している。
先ず1=0のときの入力信号に対して教師信号slを出
力層Rに対して与える。続いてt=1の入力信号に対し
て教師信号s2を出力層Rに対して与える。さらにt=
2のときの入力信号に対して教師信号s3を出力層Rに
対して与える。この動作を連続して行うことによって学
習が行われる。そして、同図に示すようにt=lにおい
てはフィードバック中間MXに対してt=0の時の出力
OUTがフィードバックされる。またt=2においては
フィードバック中間層Xに対してt=1の出力のOUT
がフィードバックされる。従って、この動作を繰り返し
ているときに各フィードバックシナプス結合の結合度が
挙動しニューラルネットワーク全体として動的な非線形
モデルを構成できるようになる。
一方、通常のパターン認識などをおこlわせるときには
、第1図においてフィードハック中間層Xを取り外す。
即ち、人力層Sに対して一般中間iAを直接に接続する
(8)発明の効果 この発明によれば、フィードバック中間層を一般中間層
とは別に設け、このフィードバンク中間層を一般中間層
の前段または後段に接続自在にしているため、静的処理
を行わせようとする場合にはフィードバンク中間層を外
し、動的処理を行わせようとする時にはフィードバック
中間層を一般中間層の前段または後段に適当な数接続す
ることができるようになる。従って、静的/動的処理に
応じて最適な構造のニューラルネットワークを得ること
ができる。
【図面の簡単な説明】

Claims (1)

    【特許請求の範囲】
  1. (1)ニューロンユニット間のシナプス結合に上位から
    下位に情報伝達するフィードバックシナプス結合が含ま
    れる中間層が存在するニューラルネットワークにおいて
    、 前記フィードバックシナプス結合の含まれるフィードバ
    ック中間層と一般中間層とを別々に設けるともに、前記
    フィードバック中間層を前記一般中間層の前段または後
    段に接続自在にしたことを特徴とするニューラルネット
    ワーク。
JP2057744A 1990-03-08 1990-03-08 ニューラルネットワーク Pending JPH03257659A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2057744A JPH03257659A (ja) 1990-03-08 1990-03-08 ニューラルネットワーク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2057744A JPH03257659A (ja) 1990-03-08 1990-03-08 ニューラルネットワーク

Publications (1)

Publication Number Publication Date
JPH03257659A true JPH03257659A (ja) 1991-11-18

Family

ID=13064416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2057744A Pending JPH03257659A (ja) 1990-03-08 1990-03-08 ニューラルネットワーク

Country Status (1)

Country Link
JP (1) JPH03257659A (ja)

Similar Documents

Publication Publication Date Title
EP3121767A1 (en) Methods and systems for implementing deep spiking neural networks
Zhao et al. Synchronization of coupled memristive competitive BAM neural networks with different time scales
Li et al. A hardware/software co-design approach for face recognition
JPH03250243A (ja) 神経回路網演算装置
JPH03257659A (ja) ニューラルネットワーク
JPH04237388A (ja) ニューロプロセッサ
JP3205873B2 (ja) カオス回路網
JPH0440581A (ja) ニューロプロセッサ
Matsuoka An associative network with cross inhibitory connections
JPH03257658A (ja) ニューラルネットワークの動的システムモデル化方法
CA2898216C (en) Methods and systems for implementing deep spiking neural networks
JP2544489B2 (ja) ニュ―ラルネットワ―クモデルの学習方法
JP3296609B2 (ja) メンバーシップ関数を出力するニューラルネットワーク
Poon et al. Hebbian learning in parallel and modular memories
JPH0394364A (ja) ニューラルネットワーク
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
JP2654686B2 (ja) ニューラルネットワーク
JPH03265077A (ja) フィードバック神経細胞モデル
JPH0652338A (ja) メンバーシップ関数を発生するニューラルネットワーク
JPH04186402A (ja) フアジイ推論における学習方式
JPH03268074A (ja) パターン認識方式および装置
JPH08249303A (ja) 信号処理装置
JPH06149768A (ja) 信号処理装置
Rehak et al. Neural Computing for Intelligent Structural System s
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION