JPH027154A - 神経ネットワーク回路 - Google Patents

神経ネットワーク回路

Info

Publication number
JPH027154A
JPH027154A JP63158536A JP15853688A JPH027154A JP H027154 A JPH027154 A JP H027154A JP 63158536 A JP63158536 A JP 63158536A JP 15853688 A JP15853688 A JP 15853688A JP H027154 A JPH027154 A JP H027154A
Authority
JP
Japan
Prior art keywords
layer
unit
input
output
neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63158536A
Other languages
English (en)
Other versions
JPH0736181B2 (ja
Inventor
Koji Akiyama
浩二 秋山
Hiroshi Tsutsu
博司 筒
Tetsu Ogawa
小川 鉄
Hiroshi Tsutsui
博司 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP63158536A priority Critical patent/JPH0736181B2/ja
Publication of JPH027154A publication Critical patent/JPH027154A/ja
Publication of JPH0736181B2 publication Critical patent/JPH0736181B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、神経系と類似な入出力動作、例えばパターン
認識、音声認識、連想記憶、並列演算処理などを行う神
経ネットワーク回路に関するものである。
従来の技術 現在使用されている計算機はフォノ・ノイマン型計算機
であり、アルゴリズムに沿って直列的に情報を処理して
いく。つまり、−時に1つの命令しか実行しないのが原
則であるため、効率のよい計算法や解法が分からない問
題では、可能性をしらみつぶしに調べて行くことに成り
かねない。直列的な情報処理では、扱える問題に限界が
あることは明かである。
このような計算機に対し、生物の脳は情報を処理するた
めに神経細胞からなるネットワークを作り、外界からの
多量の情報を処理するに当たって、神経細胞間の相互作
用を用いて並列に処理を行っている。この方法は、大量
の機械計算や高度の論理演算を余り得意としないが、複
雑かつ曖昧な状況に柔軟に対処し、適切な解を素早く出
す点で高い能力を発揮できる。つまり、計算機を使って
パターン認識や音声認識を行うには、処理・時間がかか
りすぎる。融通性が無いなどの問題があり大変困難であ
るが、脳はなんの苦もなく簡単に行うことができる。ま
た、脳は、計算機がプログラムを取り替えることによる
万能性をもつのに対し、学習と自己組織により自己の性
能を改善し環境の情報構造の自己を適合させる特徴を持
つ。
このような脳の持つ特徴を人工的に獲得するためには、
脳と同じような並列情報処理原理を技術的に実現する必
要がある。このような要求の中から、第5図に示すよう
な階層的な構造を持つパーセブトロンが提案されている
第5図のような3層構造のパーセプトロンに対する教師
つき学習法として、逆伝搬学習法が現在のところ最も有
効である。逆伝搬学習法は、入力層50に入カバターン
が与えられるたびに教師が出力層51の細胞の出力を検
査し、もし誤っていたら正しい出力を出せるように中間
層52の細胞との結合係数を修正する学習方法である。
この学習法の有効性については、ジローンズ・ホプキン
ス大学(Johns  napkins)のセノースキ
ー博士(T、J 、Sejnowskl)とプリンスト
ン大学のローゼンベルグ博士(C,R,Rosenbe
rg)が研究した文章の音読を学習するネットワークシ
ステム、ネットトーク(NET  t a l k)で
実証されている。
発明が解決しようとする課題 逆伝搬学習法を使ってパターン認識や音声認識を行わせ
る場合、中間層に含まれる神経細胞の数を幾つにすると
、あるいは中間層の神経細胞のうちどれくらいの割合で
出力細胞と結合させたら、認識できるパターンの数およ
び認識率を低下させることなく最も効率よく学習できる
のかという問題については、まだ明らかにされていなか
った。
本発明は以上のような従来の間・照点を解決するもので
、効率よく学習でき、しかも認識率の高い神経ネットワ
ーク回路を提供するものである。
課題を解決するための手段 本発明の神経ネットワーク回路は、複数の入力を受け取
り、かつ入力の総和に対する出力値が非線形の関係にあ
る単位神経素子を複数個集めた集団を複数個作成して入
力層と少なくとも1つ以上の中間層と出力層とし、入力
層に含まれる単位神経素子の数が100個以上であり、
入力層に含まれる単位神経素子の出力を中間層に属する
単位神経素子の入力に接続し、出力層の入力に中間層に
属する単位神経素子の出力を接続した階層状のネットワ
ークを構成し、かつ各々の中間層に属する単位神経素子
の数(これをxkとする、但しに=1゜2.3.・・・
l nl nは中間層の数)と入力層に属する単位神経
素子の数(これをyとする)と出力層に属する単位神経
素子の数(これを2とする)との関係が y @ 、 
Ir≦Xk≦2yおよび2≦yを満足することを特徴と
するものである。
作用 本発明者らは、入力層、1つ以上の中間層、出力層の階
層的な神経ネットワーク回路において、神経系と類似な
入出力動作の一例としてパターン認識の問題を適用させ
、各層に含まれる単位神経素子の数と学習の効果および
認識率との関連について調べた。その結果、学習アルゴ
リズムとして逆伝搬学習法を用いた場合には、入力層に
含まれる単位神経素子の数を100個以上にした時、中
間層に含まれる単位神経素子の数(X)と入力層に含ま
れる単位神経素子の数(y)及び出力層に含まれる単位
神経素子の数(2)との関係にye・6≦X≦2yおよ
び2≦yを満足させると、学習の際に収束し易く、学習
回数を少なくでき、しかも認識率を余り減少することな
く最もよい状態を得ることができた。また、中間層が複
数個(n)ある場合でも何れの中間層において各層に含
まれる単位神経素子の数Cxk、  k= 1. 2+
  3t  ”’n)について上記の条件を満足させる
と同様の効果を得ることができた。なぜ、上記の条件を
満足するときに最もよい状態を得ることができるかにつ
いて、現在のところ数学的に解析できていないが、以下
のように概ね考えている。
入力層に含まれる単位神経素子数が100個以上である
ような、神経素子数の比較的多いネットワーク回路にお
いて、中間層または出力層の単位神経素子数および結合
数をあまり多くするとネットワーク回路のエネルギーの
極小値の深さの浅いものが増える。・その結果、回路の
状態がこのような浅い極小値に捕られれ、安定な深さの
深い極小値に落ち着き難くなる。従って、学習の際収束
しにくくなり、認識率も余り向上しなくなってしまう。
また、中間層の単位神経素子数および結合数を少なくし
過ぎると認識できるパターンの数を増やすことができな
い。
以上のことから、上記の条件を満足する場合において、
認識率を余り減少させることなく、学習の収束度を高め
、学習回数を減少させることができたものと思われる。
実施例 本発明の実施例について、図面を参照しながら説明する
第1図に本発明の神経ネットワーク回路の一例を示す。
この図に示すように回路は入力層11゜中間層12.出
力層13からなり、各層間で単位神経素子14どうし結
合しており、この結合15は神経細胞のシナプス結合に
相当し、ある結合強度を持っている。また、入力層に含
まれる単位神経素子14は、100個以上に設定されて
いる。
中間層12に含まれる単位神経素子14の数(これをX
とする)は、入力層11に含まれる単位神経素子14の
数(これをyとする)に対して、ye・6≦X≦2yの
関係を満足しており、かつ出力層13に含まれる単位神
経素子14の数(これを2とする)とyに対しては2≦
yを満足している。
また、この例では中間層12は1層であるが、処理を行
う問題の複雑さに合わせて2層以上にしてもよい。ただ
し、各中間層に含まれる単位神経素子の数は常に上記の
条件を満足していなければならない。さらにこの場合、
入力層と結合している中間層に含まれる単位神経素子の
数を他の中間層に属している単位神経素子の数が越えな
いように設定すると学習の最の収束度はより向上する。
また、中間層あるいは出力層に属するある1つの単位神
経素子が受け取る入力の数(これをpとする)の、これ
らの入力を出力している単位神経素子を含む層に属する
単位神経素子の総数(これをqとする)に対する割合(
p/q)の平均値を30%以上85%以下にすることに
より、認識率をあまり低下させることなく学習時の回路
の収束度を高めることができる。このp/qは、言い替
えれば1つの単位神経素子が前段の層に属する全単位神
経素子(q個)のうちいくつの単位神経素子(p個)か
ら入力を受けているかを表わす割合である。またp/q
の平均値は、好適には45%以上80%以下であり、最
適には55%以上80%以下である。
単位神経素子の入出力特性は、実際の神経細胞がそうで
あるように非線形であり、例えば、第2図(a)および
(b)に示すように、入力が無限大に近づくにつれて出
力の微係数が零に収束する正数であるS字状の特性を持
ち、しきい値の値にしたがって曲線は横軸方向に移動す
るものである。
あるいは、第2図(C)および(d)に示すような階段
状の特性があげられる。
以下に、具体的な実施例を述べる。
実施例1 本発明の一実施例として、第3図に示すような神経ネッ
トワーク回路を作製した。第3図(a)。
(b)および(C)は、それぞれ回路全体の構造。
神経素子間の結合部分の平面図およびその断面図である
。増幅器30は第1図の単位神経素子14に相当し、第
2図(a)または(b)の入出力特性を持つ。増幅器3
0の数はそれぞれ、入力層31では256個、中間層3
2では120個、出力層33では80個である。
このネットワーク回路の作製方法を以下に示す。
絶縁性基板34上にアルミニウム、クロムなどでの導電
性配線パターン35を形成し、酸化シリコン、窒化シリ
コンポリイミドなどの絶縁材料からなる絶縁層36を積
層する。シナプス結合を形成する部分だけ絶縁層36を
除去し、この部分に光導電層37として非晶質シリコン
または非晶質シリコンゲルマニウムなどの光導電材料の
薄膜を埋め込む。この部分は、第1図において結合15
に相当する。続いて5nO1ITOまたは金などの導電
性配線パターン38を交差させて形成し、第3図(a)
〜(C)に示すような神経ネットワーク回路Aを作製し
た。但し、入力層31の増幅器30の総数に対する、中
間層32の1つの増幅器30が結合している入力層31
の増幅器30の数の割合の平均値は85%であり、中間
層32の増幅器30の総数に対する、出力層33の1つ
の増幅器30が結合している中間層32の増幅器30の
数の割合の平均値は70%となるように設計した。
また、この神経ネットワーク回・路Aとは別に、中間層
32の数を550個、出力層83の数を320個とし、
他の条件は上記と同一の神経ネットワーク回路Bも作製
した。
これらの神経ネットワーク回路A、  Bを神経系と類
似な入出力動作の一例としてパターン認識に応用した。
認識のための学習方法としては、結合部分の光導電層3
7に照射する光39の強度を変化させて結合強度に相当
する抵抗値を制御する方法を用いた。回路Aの場合、学
習の際の収束の度合は優れており、学習回数はパターン
形状で変化するが平均して4〜5回であった。また、認
識率は95%以上であった。一方、回路Bの場合、学習
の際回路の収束はあまり良くなく、学習回数は平均して
20回以上を要した。また認識率も85%程度であった
実施例2 第4図に示すようように入力140.第1中間層41、
第2中間層42、出力層43の4層からなる神経ネット
ワーク回路を計算機によるシュミレーションで動作確認
した。但し、入力層40の単位神経素子44の数yは1
00〜10000個変化させ、第1中間層41の単位神
経素子44の数X1は30〜20000個変化させ、第
2中間層42の単位神経素子44の数X2は20〜15
000個変化させ1.出力層43の単位神経素子44の
数2は50〜5000個変化させた。また、単位神経素
子44の入出力特性は次式で表わした。
v= (t anh (ku)+1)/2但し、 U:
 入力、 ■= 出力、 k: 定数。
第1中間層41、第2中間層42および出力層43のそ
れぞれに含まれる単位神経素子44の1個と結合してい
る前段の層に含まれる単位神経素子の平均の数は前段の
層に含まれる単位神経素子の総数に対して、30〜85
%ととした。
この回路を使って学習させてみたところ、y l 、 
6≦Xn≦2Y(n=1.2)および2≦yを満足する
とき、収束しやすく、特にX2≦X、を同時に満足させ
ることによりさらに向上することが確認できた。
発明の効果 以上のように本発明による神経ネットワーク回路は、効
率よく学習でき、しかも認識率が高い。
【図面の簡単な説明】
第1図は本発明における神経ネットワーク回路の一実施
例を示す図、第2図(a)、(b)、(c)および(d
)は各々単位神経素子の入出力特性の一例を示す図、第
3図(a)、(b)および(c)は各々本発明における
神経ネットワーク回路の一実施例の全体の構造を示す回
路図、神経素子間の結合部分の平面図およびその断面図
、第4図は本発明の他の実施例における神経ネットワー
ク回路の図、第5図は従来例の神経ネットワーク回路を
示す図である。 11・・・入力層、12・・・中間層、13・・・出力
層、14・・・単位神経素子、15・・・結合、30・
・・増幅器、31・・・入力層、32・・・中間層、3
3・・・出力層、40・・・入力層、41・・・第1中
間層、42・・・第2中間層、43・・・出力層、44
・・・単位神経素子。 代理人の氏名 弁理士 中尾敏男 ほか1名第1図 I  −一 72 −m− 5−−一 ガ鳩 ’27層 1立 神 斯覧 合 累 第2図(五n/) (a) 第 図 (ぞの2) (C) 図(乞n/) 刀−壇 1 魯 31−7カ1 32−  中lvI層 刀 −出 力 場 40−ス 43−・・出力層 μm・−絨位神経卑子 刀−壇 1 己 五、38−・導電v5配罐パターツ 5〇−人力層 51− 出力増 52− 中唱1

Claims (3)

    【特許請求の範囲】
  1. (1)複数の入力を受け取り、かつ前記入力の値の総和
    に対し出力値が非線形の関係にある単位神経素子からな
    る集団を複数個作成して入力層と少なくとも1つ以上の
    中間層と出力層とし、前記入力層に含まれる単位神経素
    子の数が100個以上であり、前記入力層に含まれる単
    位神経素子の出力を前記中間層のうちの1つに属する単
    位神経素子の入力に接続し、前記出力層の入力に前記中
    間層のうちの1つに属する単位神経素子の出力を接続し
    た階層状のネットワークを構成し、かつ各々の前記中間
    層に属する単位神経素子の数(これをx_kとする、た
    だしk=1、2、3、・・・、n、nは中間層の数)と
    前記入力、層に属する単位神経素子の数(これをyとす
    る)と前記出力層に属する単位神経素子の数(これをz
    とする)との関係が、y^3^.^5≦x_k≦2y(
    k=1、2、3、・・・、n)およびz≦yを満足する
    ことを特徴とする神経ネットワーク回路。
  2. (2)複数の中間層を有し、入力層と結合している中間
    層に属する単位神経素子の数に対し、他の中間層に属す
    る単位神経素子の数が多くならないことを特徴とする請
    求項1に記載の神経ネットワーク回路。
  3. (3)中間層または出力層に属する単位神経素子が受け
    取る入力の数(これをpとする)の、前記入力を出力し
    ている単位神経素子を含む層に属する単位神経素子の総
    数(これをqとする)に対する割合(p/q)の平均値
    を30%以上85%以下としたことを特徴とする請求項
    1に記載の神経ネットワーク回路。
JP63158536A 1988-06-27 1988-06-27 神経ネットワーク回路 Expired - Fee Related JPH0736181B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63158536A JPH0736181B2 (ja) 1988-06-27 1988-06-27 神経ネットワーク回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63158536A JPH0736181B2 (ja) 1988-06-27 1988-06-27 神経ネットワーク回路

Publications (2)

Publication Number Publication Date
JPH027154A true JPH027154A (ja) 1990-01-11
JPH0736181B2 JPH0736181B2 (ja) 1995-04-19

Family

ID=15673863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63158536A Expired - Fee Related JPH0736181B2 (ja) 1988-06-27 1988-06-27 神経ネットワーク回路

Country Status (1)

Country Link
JP (1) JPH0736181B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0581227A (ja) * 1990-03-16 1993-04-02 Hughes Aircraft Co 神経系回路網信号処理装置及び信号処理方法
US6031484A (en) * 1996-11-19 2000-02-29 Daimlerchrysler Ag Release device for passenger restraint systems in a motor vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0581227A (ja) * 1990-03-16 1993-04-02 Hughes Aircraft Co 神経系回路網信号処理装置及び信号処理方法
US6031484A (en) * 1996-11-19 2000-02-29 Daimlerchrysler Ag Release device for passenger restraint systems in a motor vehicle

Also Published As

Publication number Publication date
JPH0736181B2 (ja) 1995-04-19

Similar Documents

Publication Publication Date Title
de Jesús Rubio USNFIS: uniform stable neuro fuzzy inference system
Hung et al. A parallel genetic/neural network learning algorithm for MIMD shared memory machines
WO2022134391A1 (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
Dogaru et al. Universal CNN cells
Lin et al. Canonical piecewise-linear networks
Akai-Kasaya et al. Evolving conductive polymer neural networks on wetware
Zilouchian Fundamentals of neural networks
JPH027154A (ja) 神経ネットワーク回路
US11625593B2 (en) Fixed-weighting-code learning device
Wilamowski Neural networks and fuzzy systems for nonlinear applications
Stamova et al. Artificial intelligence in the digital age
JPH05197701A (ja) ニューラルネットワークを用いた情報処理装置
Nazari et al. Novel systematic mathematical computation based on the spiking frequency gate (SFG): Innovative organization of spiking computer
Aarts et al. Computations in massively parallel networks based on the Boltzmann machine: A review
Russo Distributed fuzzy learning using the MULTISOFT machine
JPH04237388A (ja) ニューロプロセッサ
Lee et al. Finding knight's tours on an M/spl times/N chessboard with O (MN) hysteresis McCulloch-Pitts neurons
Wan et al. Introducing cost-sensitive neural networks
Noda et al. A learning method for recurrent networks based on minimization of finite automata
Guo et al. Pulse coding off-chip learning algorithm for memristive artificial neural network
Xiong et al. A functions localized neural network with branch gates
Querlioz et al. Memristive devices for deep learning applications
Bohossian et al. On neural networks with minimal weights
Shi et al. Approach to controlling robot by artificial brain based on parallel evolutionary neural network
El-Kholy et al. Principle Of Adaptive Fuzzy Logic Controllers For Dc Motor Drives-Part 2

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees