JPH03294979A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH03294979A
JPH03294979A JP2096923A JP9692390A JPH03294979A JP H03294979 A JPH03294979 A JP H03294979A JP 2096923 A JP2096923 A JP 2096923A JP 9692390 A JP9692390 A JP 9692390A JP H03294979 A JPH03294979 A JP H03294979A
Authority
JP
Japan
Prior art keywords
circuit
signal
neuron
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2096923A
Other languages
English (en)
Inventor
Hiroo Ueda
上田 博生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2096923A priority Critical patent/JPH03294979A/ja
Publication of JPH03294979A publication Critical patent/JPH03294979A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Design And Manufacture Of Integrated Circuits (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (イ)産業上の利用分野 本発明は、神経細胞回路網を模倣したニューラルコンピ
ュータ等の信号処理装置に関する。
(ロ)従来の技術 生体の情報処理の基本的な単位である神経細胞にューロ
ン)の機能を模倣し、さらに、この「神経細胞模倣素子
」即ち、「神経細胞ユニット」をネットワークに構成す
ることで情報の並行処理を目指したのが、いわゆるニュ
ーラルネットワークである。文字認識や連想記憶、運動
制御等、生体ではいとも簡単に行われていても、従来の
ノイマン型コンピュータではなかなか達成しないものが
多い。生体の神経系、特に生体特有の機能、即ち並列処
理、自己学習等を模倣して、これらの問題を解決しよう
とする試みが盛んに行われている。これらの試みは、計
算機シミュレーションで行われているものが多く、本来
の機能を発揮するためには、並列処理が必要であり、そ
のためにはニューラルネットワークのハードウェア化が
必要である。一部では、既にハードウェア化の試みも行
われているが、ニューラルネットワークの特徴の一つで
ある自己学習機能が実現できず、大きなネックとなって
いる。
まず、従来のニューラルネットワークのモデルについて
説明する。第7図はある1つの神経細胞ユニット1を表
す図であり、第6図はこれをネットワークにしたもので
ある。1つの神経細胞ユニットは多数の他の神経細胞ユ
ニットと結合し信号を受け、それを処理して出力を出す
。第6図の場合、ネットワークは階層型であり、1つ前
の層のユニットより信号を受け、1つ後の層のユニット
へ出力する。
まず、第7図の神経細胞ユニットについて説明する。第
7図の神経細胞ユニット1において、他の神経細胞ユニ
ットと自分のユニットとの結合の度合いを表すのが結合
係数(T)と呼ばれるもので、i番目のユニットとj番
目のユニットの結合係数を、一般にTIJで表す。結合
には、相手のニューロンからの信号が大きいほど自分の
出力が大きくなる興奮性結合と、逆に、相手のニューロ
ンからの信号が大きいほど自分の出力が小さくなる抑制
性結合があり、T 、、> Oが興奮性結合、T I 
J < Oが抑制性結合を表す。いま、自分のユニット
がj番目のユニットであるとすると、i番目のユニット
の出力をy、とするとこれに結合係数T1.を掛けたT
 + J3’ tが、自分のユニット(j番目)への入
力となる。前述したように、1つのユニットは多数のユ
ニットと結合しているので、それらのユニットに対する
T ; = 3’ ;を足し合わせた結果なるΣT 1
jyiが、ネットワーク内における1つのユニットへの
入力となる。これを内部電位といい、uJで表す。
uJ=ΣT ;J3’、 ・・・・・・・・(1)次に
、この入力(内部電位)に対して、非線形処理をするこ
とで、そのユニットの出力とする。
この時の関数を神経細胞応答関数と呼び、非線形関数と
して、(2)式及び第8図に示すようなシグモイド関数
を用いる。
f(x)=1/(1+e−”)  −−・−+、・(2
)第5図に示すようにネットワークにした時には、各結
合係数T8Jを与え、(1)(2)式を次々と計算する
ことにより、最終的な出力が得られるものである。
一方、このようなネットワークを電気回路により実現し
たものの一例として、第14図に示すようなものがある
。これは、特開昭62−295188号公報中に示され
るもので、基本的には、S字形伝達関数を有する複数の
増幅器2と、各増幅器2の出力を他の層の増幅器の入力
に一点鎖線で示すように接続する抵抗性フィードバック
回路網3とが設けられている。各増幅器2の入力側には
接地されたコンデンサと接地された抵抗とによるCR時
定数回路4が個別に接続されている。そして、入力電流
I+、Iz、〜、INが各増幅器2の入力に供給され、
出力はこれらの増幅器2の出力電圧の集合から得られる
ここに、入力や出力の信号の強度を電圧で表し、神経細
胞間の結合の強さは、各細胞間の入出カラインを結ぶ抵
抗5(抵抗性フィードバック回路網3中の格子点)の抵
抗値で表され、神経細胞応答関数は各増幅器2の伝達関
数で表される。また、神経細胞間の結合には、前述のよ
うに興奮性と抑制性とがあり数学的には結合係数の正負
符合により表される。しかし、回路上の定数で正負を実
現するのは困難であるので、ここでは、増幅器2の出力
を2つに分け、一方の出力を反転させることにより、正
負の2つの信号を生成し、これを適当に選択することに
より実現するようにしている。また、第8図に示したシ
グモイド関数に相当するものとしては増幅器が用いられ
ている。
しかしながら、これらの回路には、次のような問題点が
ある。
■ 結合係数T ijが固定であり、予めシミニレ−ジ
ョンなどの他の方法で学習させた値を使うしかなく、自
己学習ができない。
■ 信号の強度を電位や電流などのアナログ値で表し、
内部の演算もアナログ的に行わせる場合、温度特性や電
源投入直後のドリフト等により、その値が変化する。
■゛ネツトワークあるので、素子の数も多く必要とする
が、各々の特性を揃えることは困難である。
■ 1つの素子の精度や安定性が間頚となったとき、そ
れをネットワークにしたとき、新たな問題を生ずる可能
性があり、ネットワーク全体で見たときの動きが予想で
きない。
一方、数値計算で用いられる学習法則としては、パック
プロパゲーションと呼ばれる下記のようなものがある。
まず、各結合係数は最初にランダムに与えておく。この
状態で、入力を与えると、出力結果は必ずしも望ましい
ものではない。例えば、文字認識の場合、手書きの「1
」の文字を与えたとすると、出力結果として「この文字
はIr1Jである」と出るのが望ましい結果であるが、
結合係数がランダムであると必ずしも望ましい結果とは
ならない。そこで、このネットワークに正解(教師信号
)を与えて、再び、同じ入力があったとき正解となる、
即ち望ましい出力結果が得られるように各結合係数を変
化させる。このとき、結合係数を変化させる量を求める
アルゴリズムが、バックプロパゲーションと呼ばれてい
るものである。
まず、最終層のj番目のニューロン出力をy。
とし、そのニューロンに対する教師信号をd、とすると
、 E=Σ(dJ  yJ)”  ・・・・・・・・(3)
で表される。Eが最小となるように、 ΔT、J=aE/aT、J   −−−・・−・(4)
を用いで、結合係数T14を変化させる。さらに具体的
には、まず、出力層と、その1つ前の層は、δ、= (
aJ−yi )x’r’  (uJ)・・・(5)とな
り、それよりさらに前の層(中間層)は、δ1=ΣδJ
T、、x f’  (u、)  ’=・・(61を用い
て、δ(誤差信号)を求め、 Δ丁、=η(δJyJ)+αΔT、J(前回の学習時) T 、、= T tJ+ΔT iJ       ・・
・・・(7)を求めて、T、Jを変化させる。ここに、
nは学習定数、αは安定化定数と呼ばれるものである。
各々論理的には求められないので、経験的に求める。−
船釣には、これらの数値が小さいほど収束が遅く、また
、大きいと振動してしまう傾向にある。オーダ的には1
程度のものである。
このようにして学習をし、その後、再び入力を与えて出
力を計算し、学習をする。この操作を何回も繰返すうち
に、やがて、与えられた入力に対して望ましい結果が得
られるような結合係数T3、が決定される。
さて、このような学習方法を何らかの方法でハードウェ
ア化しようとした場合、学習には、多重の四則演算が必
要であり、実現が困難である。
学習方法そのものもハードウェア化に対しては不向きで
ある。
一方、デジタル回路でニューラルネットを実現したもの
の例を第15図ないし第17図を参照して説明する。第
15図は単一の神経細胞の回路構成を示し、各シナプス
回路6を樹状突起回路7を介して細胞体回路8に接続し
てなる。第16図はその内のシナプス回路6の構成例を
示し、係数回路9を介して入力パルスfに倍率a(フィ
ードバック信号に掛ける倍率で1又は2)を掛けた値が
入力されるレートマルチプライヤ10を設けてなり、レ
ートマルチプライヤ10には重み付けの値Wを記憶した
シナプス荷重レジスタ11が接続されている。また、第
17図は細胞体回路8の構成例を示し、制御回路12、
アップ/ダウンカウンタ13、レートマルチプライヤ1
4及びゲート15を順に接続してなり、さらに、アップ
/ダウンメモリ16が設けられている。
これは、神経細胞ユニットの入出力をパルス列で表し、
そのパルス密度で信号の量を表している。結合係数は2
進数で表し、メモリ16上に保存しておく。入力信号を
レートマルチプライヤ14のクロックへ入力し、結合係
数をレート値へ入力することによって、入力信号のパル
ス密度をレート値に応じて減らしている。これは、パッ
クプロパゲーションモデルの式のTijy+の部分に相
当する。次に、ΣT i、y、のΣの部分は、OR回路
で実現している。結合には興奮性、抑制性があるので、
予めグループ分けしておき、各々のグループ別にORを
とる。この2つの出力をカウンタ13のアップ側、ダウ
ン側に入力しカウントすることで出力が得られる。この
出力は2進数であるので、再びレートマルチプライヤ1
4を用いて、パルス密度に変換する。このユニットをネ
ットワークにすることによって、ニューラルネットワー
クが実現できる。学習については、最終出力を外部のコ
ンピュータに入力して、コンピュータ内部で数値計算を
行い、その結果を結合係数のメモリ16に書込むことに
より実現している。従って、自己学習機能は全くない。
また1回路構成もパルス密度の信号をカウンタを用いて
一旦数値に直し、その後、再びパルス密度に直しており
、複雑なものになっている。
そこで、このような従来の問題に鑑み、自己学習機能を
含めて神経細胞網の機能をハードウェア上で並列的に行
わせ、且つ自己学習機能を備えたデジタル回路構成の信
号処理回路を本出願人は先に提案した(特願平1−34
3891号に詳しい。)。
第9図ないし第13図は上述したデジタル回路構成の信
号処理回路網を示す。ネットワーク全体は第6図の場合
と同様である。第10図は第6図の中の線(結線)に相
当する部分の回路を示し、第11図及び第12図は第6
図中の丸(神経細胞ユニット1)に相当する部分の回路
を示す。また第13図は、最終層の出力と教師信号から
最終層における誤差信号を求める部分の回路を示す。第
9図はこれら第10図ないし第13図の構成を第6図の
如く、ネットワークにした回路例を示す。
第9図に示すネットワーク化された回路において、20
0は第10図の回路例に示す第6図におけるネットワー
クの線(結線)を示すブロック、201は第11図及び
第12図の回路例に示す、第6図における丸(神経細胞
ユニット1)を示すブロックである。38〜3Cはフォ
ワードプロセスにおける入力信号で、神経網における外
部からの刺激入力に相当し、3aはネットワークの前段
から次段への信号線である。3b、3cは夫々神経細胞
ユニット201で入力信号の緩和を求める際に必要な中
間信号に相当し、3bは興奮性、3cは抑制性の信号線
である。
また48〜4dはバックワードプロセス(学習プロセス
)における学習誤差信号であり、4a、4cは興奮性、
4b、4dは抑制性の信号線である。第9図において、
3a〜3c及び4a〜4dの結線は一部図示を省略して
いるが、図中AとA、A’ とAoのように同じ記号で
示す箇所が結線される。
このように結線を施して、ネットワークを構成すること
により、自己学習が可能なデジタル方式のニューラルネ
ットワークを実現することができる。
次に、上述した各部分回路につき、図面に従い説明する
まず、第1O図から説明する。図中55はニューロンへ
の入力信号であり、3aに相当する。結合係数の値はシ
フトレジスタ56に保存しておく。このシフトレジスタ
56は取出し口56aと入口56bとを有するが、通常
のシフトレジスタと同様の機能を持つものであればよ(
、例えば、RAMとアドレスコントローラとの組合せに
よるもの等であってもよい。入力信号55とシフトレジ
スタ56内の結合係数とはANDゲート57を備えて論
理回路58によりANDがとられる。この論理回路58
の出力は結合は興奮性か抑制性かによってグループ分け
しなければならないが、予め興奮性のグループ3bへの
出力59と抑制性のグループ3cへの出力60を用意し
、何れに出力するのかを切換えるようにした方が汎用性
の高いものとなる。このため、本実施例では結合が興奮
性か抑制性かを表すビットをメモリ61に保存しておき
、その情報を用いて切換えゲート回路62により切換え
る。
また、第11図に示すように、各入力が多入力同時に入
力され、この各入力を処理する複数の多入力ORゲート
構成のゲート回路63が設けられている。更に、同図に
示すように、「興奮性グループが1」で、且つ「抑制性
グループがO」のときのみ「1」を出力するANDゲー
トとインバータとによるゲート回路64が設けられてい
る。
次に、誤差信号について説明する。最終層での誤差信号
を生成するのが第13図に示すAND、排他的ORの組
合せによる論理回路65である。即ち、最終層からの出
力3a及び教師信号67により誤差信号4a、4bを作
るものである。
中間層における誤差信号を計算する(20)〜(23)
式は、第10図中に示すANDゲート構成のゲート回路
72により行われ、+、−に応じた出カフ3 (4a)
 、 74 (4b)が得られる。このように結合が興
奮性か抑制性かにより場合分けする必要があるが、この
場合分けはメモリ61に記憶された興奮性か抑制性かの
情報と、誤差信号の+、−信号75(4c) 、 76
 (4d)とに応じて、AND、ORゲート構成のゲー
ト回路77により行われる。
また、誤差信号を集める演算は、第12図中に示す複数
の多入力ORゲート構成のゲート回路68により行われ
る。
さらに、学習レートに相当する演算は、同図中に示す分
周回路79により行われる。最後に、誤差信号より新た
な結合係数を計算する部分は、第10図中に示すAND
、インバータ、ORゲート構成のゲート回路80により
行われる。このゲート回路80も結合の間髪性、抑制性
によって場合分けが必要であるが、ゲート回路77によ
り行われる。
(ハ)発明が解決しようとする課題 上述したデジタル回路構成においては、各神経細胞模倣
素子間では、前段の出力信号と次段の入力部とを個別に
結線する必要があり、その結線数が多(回路的にも複雑
になる。これはフォワードプロセス時の結線であるが、
同様にバックワードプロセスにおいても次段からの出力
信号を前段の入力部に結線する必要があり、やはり複数
な結線が必要となり、回路的にも規模が大きくなるとい
う難点がある。
また、各神経細胞模倣素子をハードウェア化した場合、
各素子の入力信号数は一定となり、入力信号数の上限が
固定になるため、より多く人力信号数を結線する必要の
ある神経網を構成できない、また、逆に入力信号数の結
線数が少なくても良い場合、冗長な神経網回路となるな
どの問題があった。
本発明は上述した問題点に鑑みなされたものにして、神
経細胞模倣素子間の結線の簡略化を図り、回路構成の簡
単な神経細胞回路を提供することをその課題とする。
(ニ)課題を解決するための手段 本発明は、自己学習回路を神経細胞模倣素子に付設して
なる神経細胞回路をデジタル論理回路で構成し、この神
経細胞回路を網状に接続してなる信号処理装置であって
、フォワードプロセス右よび/またはバックワードプロ
セスにおける各神経細胞模倣素子の出力信号線をハイイ
ンピーダンスにする手段を備え、この出力信号線を複数
本結合して、次段の神経細胞模倣素子に入力することを
特徴とする。
更に、複数の出力信号線の結合出力をオア回路の一入力
とし、このオア回路の一入力分のデータ出力を遅延させ
てオア回路の他入力に帰還させると共に、このオア回路
の出力を次段の神経細胞模倣素子の入力にすると良い。
(ホ)作用 フォワードプロセスおよび/またはバックワードプロセ
スにおける出力信号線をハイインピーダンスにする手段
を備えることで、その出力信号線を複数本結合して一本
の結合出力線とすることができ、次段への結線数を大幅
に減少させることができる。従って、神経網回路の集積
度を著しく向上させることができる。
(へ)実施例 以下、本発明の実施例を第1図ないし第5図に基づいて
説明する。
まず、本発明の基本部分、即ちデジタル論理回路を用い
た自己学習機能を備えた神経細胞ユニットとそれを用い
て構成したネットワーク回路について説明する。尚、こ
の部分は基本的には、前述した特願平1−343891
号のものと同一であり、同一部分には同一符合を付す。
本発明はデジタル論理回路を用いたもので、基本的には
、 ■ 入出力、中間信号、結合係数、教師信号などは、全
て「0」 「1」の2値で表されたパルス列で表す。
■ 信号の量は、パルス密度で表す(ある一定時間内の
「1」の数)。
■ 神経細胞ユニット内での計算は、パルス列同士の論
理演算で表す。
■ 結合係数のパルス列はメモリ上に置(。
■ 学習は、このパルス列を書換えることで実現する。
■ 学習については、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数パルス列を
変化させる。このとき、誤差の計算、結合係数の変化分
の計算も、全て、「0」 「1」のパルス列の論理演算
で行う。
ようにしたものである。
以下、この思想を具体化した例に基づき説明する。
まず、フォワードプロセスの信号演算部分の構成を第5
図を参照して説明する。第5図は1つの神経細胞模倣回
路50に相当する部分を示し、ネットワーク構成したも
のは第6図の場合のように階層型とされる。入出力は、
全て、rlJ  rOJに2値化され、且つ、同期化さ
れたものが用いられる。入力jの信号の強度は、パルス
密度で表現し、例えばある一定時間内にある、「1」の
状態数で表す。即ち、 入力信号        =4/6  ・・・(8)同
期信号 L」−L」−上」− の例は、4/6を表す式であり、同期パルス6個中に信
号は「1」が4個、「0」が2個である。
このとき、「1」と「0」の並び方は、後述するように
ランダムであることが望ましい。
一方、結合係HiT、jも同様にパルス密度で表現し、
「0」と「1」とのビット列として予めメモJ上に用意
しておく。
結合係’Ia         =3/6  =19)
同期信号 LLLL[[− の例は、rlololoJ =3/6を表す式である。
この場合も、「1」と「0」の並び方はランダムである
ことが望ましい。具体的にどのように決定するかは後述
する。
そして、このビット列を同期クロックに応じてメモリ上
より順次読出し、第5図に示すように各々ANDゲート
51により入力信号パルス列との論理積をとる(y、n
  Tz)。これを、神経細胞jへの入力とする。上側
の場合で説明すると、入力信号がrl O1101Jと
して入力されたとき、これと同期してメモリ上よりビッ
ト列を呼出し、順次ANDをとることにより、 入力信号         =4/6 結合係数         = 3/6Y+l”l T
tJ= 2 / 6 =llO1に示すようなrlol
oooJが得られ、これは入力y、が結合係数T ij
により変換されパルス密度が2/6となることを示して
いる。
ANDゲート51の出力のパルス密度は、近似的には入
力信号のパルス密度と結合係数とのパルス密度との積と
なり、アナログ方式の結合係数と同様の機能を有する。
これは、信号の列(パルス列)が長いほど、また、「1
」と「0」との並び方がランダムであるほど、積に近い
機能を持つことになる。ランダムでないとは、「1」ま
たは「0」が密集(密接)していることを意味する。
尚、入力パルス列に比べて結合係数のパルス列が短く、
読出すべきデータがなくなってしまった場合には、再び
結合係数のパルス列の先頭に戻って読出しを繰返せばよ
い。
1つの神経細胞ユニットは多入力であるので、前述した
[入力信号と結合係数とのANDJも多数あり、次にO
R回路52によりこれらの論理和をとる。入力は同期化
されているので、例えば1番目のデータがrloloo
oJ、2番目のデータがrolooooJの場合、両者
のORをとると、rl 11000Jとなる。これを多
入力同時に計算し出力とする。即ち、 yIn  T + J  L−一 y、n”r+、  −り一一一一一− U (y+ f”I  TIJ)    、 −一−−
−・・111)のようになる。これは、アナログ計算に
おける和の計算及び非線形関数(シグモイド関数)の部
分に対応している。
一般的なパルスの演算において、パルス密度が低い場合
、そのORをとったもののパルス密度は、各々のパルス
密度の和に近似的に一致する。
パルス密度が高くなるにつれて、OR回路52の出力は
段々飽和してくるので、パルス密度の和とは一致せず、
非線形性が出て(る、ORの場合、パルス密度は1より
も大きくなることがなく、且つ、0より小さ(なること
もなく、更には、単調増加関数であり、シグモイド関数
と近似的に同様となる。
ところで、結合には興奮性と抑制性とがあり、数値計算
の場合には結合係数の符合で表し、アナログ回路の場合
にはTi、が負となる場合(抑制性結合)には増幅器を
用いて出力を反転させてTI。
に相当する抵抗値で他の神経細胞に結合させることにな
る。この点、デジタル方式の本発明にあっては、まず、
TIJの正負により各結合を興奮性結合と抑制性結合と
の2つのグループに分け、次いで、[入力信号と結合係
数のパルス列のANDJ同士のORをこのグループ別に
計算し、その後、興奮性結合グループの出力が「l」で
抑制性結合グループの出力が「0」のときのみ出力を出
すようにする。この機能を実現するためには、(抑制性
結合グループの出力のN0T)と(興菖性結合グループ
の出力)とのANDをとればよい。即ち、 嬰児竺鰺危ヵ  ローー止土− 叩型P鴎ヵ −ローー丁− 出  力         L−一一一一−L−−−−
    ・・・(12)論理式で表現すると、 B=J (y+ n  T、J)(T=興ピ性)・・1
13)b=lJ (y+ n TIJ)(T=抑制性)
−・(14)y、=a  nb           
・・1151で示される。神経細胞ユニットのネットワ
ークは、パックプロパゲーションと同様な階層型(即ち
、第5図)とする。そして、ネットワーク全体を同期さ
せておけば、各層とも上述した機能により計算できる。
次に、学習時の処理、即ちパックプロパゲーションにお
ける信号演算処理について説明する。
a、最終層における誤差信号 最終層第5図の右側の層に属するで各ニューロンにおけ
る誤差信号を計算し、それを元にそのニューロンに関わ
る結合係数を変化させる。そのための、誤差信号の計算
法について述べる。ここに、本発明では、「誤差信号」
を以下のように定義する6誤差を数値で表すと、一般に
は+、−の両方をとり得るが、パルス密度の場合には、
正、負の両方を同時に表現できないので、生成分を表す
信号と、−成分を表す信号との2種類を用いて誤差信号
を表現する。即ち、 出力結果          y   ・・・(16)
教師信号  L−一上一−1−一」−d  ・・・(1
7)誤差信号子 −−L−L−一一 δ+=(y  EXORd) AND  d ・118
1誤差信号−−■−■−一一一 δ−=  (y   EXORd)AND   y  
・・(191で示される。つまり、誤差信号の生成分は
教師信号パルスと出力パルスとの違っている部分(1、
0)又は(0,1)の内、教師信号側に存在するパルス
、他方、−成分は同様に出力側に存在するパルスである
。換言すれば、出力パルスに誤差信号十パルスを付は加
え、誤差信号−パルスを取り除くと、教師パルスとなる
ことになる。このような誤差信号パルスを元に結合係数
を後述するように変化させることになる。
b、中間層における誤差信号 更に、誤差信号を逆伝播させ、最終層とその1つ前の層
との結合係数だけでなく、更にその前の層との結合係数
も変化する。そのため、中間層(第5図の中央の層)に
おける各ニューロンでの誤差信号を計算する必要がある
。中間層のあるニューロンから、更に1つ先の層の各ニ
ューロンへ信号を伝播させたのとは、丁度逆の要領で1
つ先ノ層の各ニューロンにおける誤差信号を集めてきて
、自己の誤差信号とする。このことは、神経細胞ユニッ
ト内での演算式(8)〜(19)と同じような要領で行
うことができる。即ち、まず、結合を興奮性か抑制性か
により2つのグループに分け、乗算の部分はAND、Σ
の部分はORで表現する。ただし、神経細胞ユニット内
での(8)〜(19)式と異なるのは、yは1つの信号
であるのに対して、δ(誤差信号)は正、負を表す信号
として2つの信号を持ち、その両方の信号を考慮する必
要がある。従って、T(結合係数)の正負、δの正負に
応じて4つの場合に分ける必要がある。
まず、間髪性結合の場合を説明する。この場合、1つ先
の層のニューロンでの誤差信号十とそのニューロンと自
己との結合係数のANDをとったもの(δ”、  n 
T、、)を各二ニーロンについて求め、更にこれた同士
のORをとる(=U(δ0.nTIJ))。これを、こ
の層の誤差信号十とする。即ち、 δ 中+   n   TIJ   Q−1−mδ′″
  n  T、、  −土」−一」−m−δ°・   
    LLL止−」」−・・・(20)となる。
また、1つ先の誤差信号−と結合係数とのANDをとり
、更にこれら同士のORをとることにより、同様に、こ
の層の誤差信号−とする。
即ち、 δ−1n  T+  −m−−■[−−5−、l”l 
 T、、 し−一一一−「−δ−m−土」−・・・(2
1) となる。
次に、抑制性結合の場合を説明する。この場合、1つ先
の層のニューロンでの誤差信号−とそのニューロンと自
己との結合係数のANDをとり、更にこれら同士のOR
をとる。これを、この層の誤差信号十とする。即ち。
δ−+  n T+=  LL−」−m−」−一δ・、
     ■m−・・・(22)となる。
また、1つ先の誤差信号十と結合係数とのANDをとり
、さらにこれら同士のORをとることにより、同様に、
この層の誤差信号−とする。
即ち、 δ”、  n  T、、  ■−−−止一一δ−・  
   ■−ユ」」−一−123+となる。
1つのニューロンから別のニューロンへハ興奮性で結合
しているものもあれば、抑制性で結合しているものもあ
るので、(20)式により求めた誤差信号δ°と(22
)式によりもとめた誤差信号δ゛とのORをとり、それ
を自分のニューロンの誤差信号δ゛とする。同様に、(
21)式で求めたδ”、  n  T・・ −LP−−
[−一誤差信号δ−と(23)式で求めた誤差信号δ−
どのORをとり、それを自分のニューロンの誤差信号δ
−とする。
以上をまとめると、 δ”=(U(δ+、1”+ y、))U (U(δ−1
nyl)興奮性の場合    抑制性の場合 δ−=(U(δ−1nyl) U (U(δ+、n y
l)興奮性の場合    抑制性の場合 ・・・・・(24) となる。
更に、学習定数(学習レート)に相当する機能を設けて
もよい。数値計算でレートが1以下のとき、更に学習能
力が高まる。これはパルス列の演算ではパルス列を間引
くことで実現できる。これはカウンタ的な考え方をし、
次の例1)、例2)のようなものとした。例えば、学習
レート(η)=0.5では元の信号のパルス列を1つ置
きに間引く。元の信号のパルスが等間隔でなくても、元
のパルス列に対して1つ置きに間引く方式(く例2)〉
の方式)とした。
例1) 元の信号 η=0.5の場合 (パルスを1つ置きに間引く) η=0.33の場合 (パルスを2つ置きに残す) η= 0.67の場合 (パルスを2つ置きに間引く) 例2) 元の信号 η=0.5の場合 (パルスを1つ置きに間引() η= 0.33の場合 (パルスを2つ置きに残す) η=0.67の場合 (パルスを2つ置きに間引く) ・・(25 このようにして、誤差信号を間引くことにより学習レー
トの機能を持たせる。
C1誤差信号より各結合係数を変化 上述した方法により誤差信号を求め、各結合係数を変化
させるが、その変化のさせ方について説明する。変化さ
せたい結合係数が属しているラインを流れる信号と誤差
信号のANDをとる(δny)。ただし、本実施例では
誤差信号には+、の2つの信号があるので、各々計算す
る。
る。
ついで、今度はこのΔTを元に新しいTを求めるが、本
実施例におけるTは、絶対値成分であるので、元のTが
興奮性か抑制性かにより場合分けする。
まず、興奮性の場合、元のTに対してΔT+の成分を増
やし、ΔT−の成分を減らす。即ち、δ”n  y  
−■−−■−−−−ΔT ”・−(261学習後のTL
LL−土」−・・・(28)となる。抑制性の場合には
、元のTに対して八T+の成分を減らし、Δ丁−の成分
を増やす。
即ち、 δ−f”1.y  −−L−−−り一−ΔT −・−(
27)このようにして得られた2つの信号を6丁とすΔ
 T − 一一一一一■−■− 学習後のT  −L−m−」−土」−・・・(29)と
なる。
以上の学習前に基づいてネットワークの計算をする。
次に、以上のアルゴリズムに基づく実際の回路構成を説
明する。第1図ないし第4図にその回路例を示す。ネッ
トワーク全体は第6図の場合と同様である。第2図は本
発明の特徴であるところの第6図中の線(結線)に相当
する部分の回路を示し、第3図及び第4図は本発明の特
徴であるところの第6図中の丸(神経細胞ユニット1)
に相当する部分の回路を示す。尚、最終層の出力信号と
教師信号から最終層における部分の回路は前述の第13
図と同じ回路を用いているので、ここでは説明を省略す
る。
第1図は本発明のデジタル回路の全体構成を示し、これ
ら第2図ないし第4図の構成を第6図の如くネットワー
クにしたものである。第1図に示す本発明の回路図にお
いて、100は第2図の回路例に示す第6図におけるネ
ットワークの線(結線)を示すブロック、101は第3
図及び第4図の回路例に示す第6図における丸(神経細
胞ユニット1)を示すブロックである。3a、3d、3
eはフォワードプロセスにおける入力信号で、神経網に
おける外部からの刺激入力に相当し、3aはネットワー
クの前段から次段への信号線である。3d、3eは夫々
神経細胞ユニット101で入力信号の総和を求める際に
必要な中間信号である。この信号は、後述するよう、制
御信号により信号を出力したり、信号線をハイインピー
ダンスにして信号出力を遮断したり、制御される。この
信号は、複数の信号線が結合された一本の信号線に、制
御信号により逐次出力される。3dは興奮性、3eは抑
制性の信号であり、3dが前述の3bのトライステート
出力に、3eが30のトライステート出力に変更した信
号に相当する。
また、4e、4fはバックワードプロセスにおける学習
誤差信号であり、上述の中間信号と同様に、4eが4a
のトライステート出力に、4fが4bのトライステート
出力に変更した信号に相当する。
このように、フォワードプロセス及びバックワードプロ
セスにおいて、従来複数の信号線を結線していたのに対
し、本発明は、複数の出力信号線を一本の信号線で結合
し、−本の信号線で結線を行い、各出力信号線に夫々ハ
イインピーダンスにする手段を設けることにより、逐次
その信号を結合した信号線に出力することで、結線数を
第1図に示すように、大幅に減少できる。
以下、本発明の詳細につき、第2図ないし第4図に従い
更に説明する。
まず、第2図から説明する。図中、55はニューロンへ
の入力信号であり、(8)式に相当する。
(9)式の結合係数の値はシフトレジスタ56に保存し
ておく。このシフトレジスタ56は取出し口56aと入
口56bとを有するが、通常のシフトレジスタと同様の
機能を持つものであればよい。シフトレジスタ56内の
結合係数とはANDゲート57を備えて(10)式に相
当する論理回路58によりANDがとられる。この論理
回路58の出力は結合が興奮性か抑制性かによってグル
ープ分けしなければならないが、予め各々のグループへ
の出力を用意し、何れに出力するのかを切換えるように
している。このため、本実施例では結合が興り性か抑制
性かを表すビットをメモリ61に保存しておき、その情
報を用いて切換えゲート回路62により切換える。この
各出力はトライステートバッファ110・・・を介して
出力される。このトライステートバッファ110・・・
は制御信号120により制御され、制御信号120にて
信号111(3dl 、 112(3elを出力したり
、ハイインピーダンスにして信号出力を遮断する。また
、第3図に示すように、各入力を処理する(11)式に
相当する複数の2人力ORゲト113・・・及びシフト
レジスタ114・−・からなるゲート回路115が設け
られている。このORゲート113の一入力として、上
述した信号111(3d)112 (3e)が入力され
、他入力としてシフトレジスタ114を介して帰還接続
されている。このシフトレジスタ114は出力信号の長
さnピッ8分必要である。このシフトレジスタ114に
より、信号の−人力分遅延させてORゲート113に帰
還させることにより、トライステートバッファ110を
介して、逐次出力される信号111 、112が順次加
算されてORゲート113より出力される。このシフト
レジスタ114は、通常のシフトレジスタと同様の機能
を持つものであればよく、例えば、FIFOメモノ等で
あってもよい。更に、同図に示すように(12)式の興
奮性結合グループが「1」で、抑制性結合グループが「
0」のときにのみ出力を出すANDゲートとインバータ
とによるゲート回路64が設けられている。
次に、誤差信号について説明する。最終層での誤差信号
を生成するのが前述した第13図に示すAND、排他的
ORの組合せによる論理回路65であり、(16)〜(
19)式に相当する。即ち、最終層からの出力66及び
教師信号67により誤差信号68、69を作るものであ
る。中間層における誤差信号を計算する(20)〜(2
3)式は、第2図中に示すADNゲート構成のゲート回
路72により行われ、+、−に応じた出カフ3.74が
得られる。このように結合が興奮性か抑制性かにより場
合分けする必要があるが、この場合分けはメモリ61に
記憶された興奮性か抑制性かの情報と、誤差信号の+、
−信号4c、4dとに応じて、AND、ORゲート構成
のゲート回路77により行われる。誤差出カフ3.74
は前述の各グループ出力と同様にトライステートバッフ
ァ110・・・を介して出力される。このトライステー
トバッファ110・・・は、制御信号120により信号
73 (4e)、74 [4flを出力したり、ハイイ
ンピーダンスにして出力を遮断する。
また、誤差信号を集める計算式(24)式は第4図に示
す、複数の2人力ORゲート116・・・及びシフトレ
ジスタ117・・・からなるゲート回路118により行
われる。このシフトレジスタ117は前述と同様に出力
信号の長さnビワ8分必要である。このORゲート11
6の一入力として、誤差信号4e、4fが入力され、他
入力としてシフトレジスタ117により、−信号入力分
遅延された信号が帰還入力される。従って、トライステ
ートバッファ110を介して逐次出力される誤差信号4
e、4fが順次加算されてORゲート113より出力さ
れる。このシフトレジスタ117も前述の114と同様
の機能、を有するものであれば、どのようなものを用い
てもよい。
更に、学習レートに相当する(25)式は同図中に示す
分周回路79により行われる。最後に、誤差信号より新
たな結合係数を計算する部分、即ち、(26)〜(29
)式に相当する部分は、第2図中に示すAND、インバ
ータ、ORゲート構成のゲート回路80により行われる
。このゲート回路80も結合の興奮性、抑制性によって
場合分けが必要であるが、ゲート回路77により行われ
る。
今、前述したネットワークを用いた自己学習式文字認識
装置の場合により、具体例について説明する。まず、手
書き文字をスキャナで読取り、16X 16のメツシュ
に分け、文字部分のあるメツシュをrlJ、ないメツシ
ュをrQJとした。
このデータ(256個)をネットワークに入力し、出力
は5つあるユニットの内で一番大きい出力のものの位置
が、認識結果となるように学習させた。次に、ネットワ
ークの構成は、第1層目が256個、第2層目が20個
、第3層目が5個の神経細胞ユニットからなる。このと
き、接続されない入力部はグランドに接続する。最初、
各結合係数はランダムとしておくと、出力結果は必ずし
も所望のものとはならない。そこで、この回路の自己学
習機能を用いて、各結合係数を新たに求め、これを何回
か繰返すことにより、所望の結果が得られるようにする
。本実施例では、入力が「o」か「1」であるので、入
カバルス列は常にLレベル又はHレベルの単純なもので
ある。また、出力はトランジスタを介してLEDと結び
、Lレベルのときに消灯、Hレベルのときに点灯するよ
うに構成し、同期クロックを1000kHzとすること
により、パルス密度に応じて、人間の目にはLEDの明
るさが変り、従って、一番明るいLED部分が答えにな
る。十分学習させた文字に対しては認識率100%を得
たものである。
さて、神経網において、前段N個の神経細胞模倣素子か
ら次段N個に信号が伝えられるようにネットワークを接
続する場合、第9図で示した従来例と第1図に示した本
発明の実施例では信号線数は、第1表に示すようになる
第1表 上表よりN22において、本発明の方が従来例に比べ信
号線数を少なくすることができる。即ち、n≧2で信号
線数が少なくなり、n≧4で半分以下、N22でl/4
以下となり、Nが大きくなればなるほど、その効果が顕
著となる。
本発明は、信号線3aにも適用可能で、その場合、更に
信号数を減少させることが可能である。
尚、本実施例においては、フォワードプロセス及びバッ
クワードプロセスの両方にハイインピーダンス手段を設
けたが、上述したように、ハイインピーダンス手段によ
り逐次出力される信号をシフトレジスタ等にて遅延させ
ているので、その遅延時間だけ処理速度が遅くなる。従
って、回路構成上、処理速度を重要視する場合などには
、フォワードプロセス、バックワードプロセスの内、処
理速度に影響の少ないどちらか一方のプロセスに本発明
を適用すればよい。
(ト)発明の詳細 な説明したように、本発明はフォワードプロセスおよび
/またはバックワードプロセスにおける出力信号線をハ
イインピーダンスにする手段を備えることで、複数の出
力信号線を一本の信号線に結合することが可能となり、
次段への結線数を大幅に減少させることができ、神経網
回路の集積度を大幅に向上させることができる。
【図面の簡単な説明】
第1図ないし第5図は本発明の一実施例を示すもので、
第1図は全体構成を示す回路図、第2図ないし第4図は
各部の構成例を示す論理回路図、第5図は信号演算部分
の構成例を示す回路図である。 第6図はニューラルネットワークの概念図、第7図はそ
の1つのユニット構成を示す概念図、第8図はシグモイ
ド関数を示すグラフである。 第9図ないし第13図は本発明の前提となる神経細胞模
倣回路をデジタル論理回路構成にした例を示し、第9図
は全体構成を示す回路図、第10図ないし第13図は各
部の構成例を示す論理回路図である。 第14図は従来装置の1つのユニットの具体的回路図、
第15図は従来のデジタル構成例を示すブロック図、第
16図および第17図はその一部の回路図である。 100・・・ネットワークの線を示すブロック、101
・・・神経細胞ユニットを示すブロック、110・・・
トライステートバッファ、120・・・制御信号。 第 7 図 第 図 第14 図 第11 図 第12 図 第15 図 ワ 第16 図

Claims (3)

    【特許請求の範囲】
  1. (1)結合係数可変回路と、この結合係数可変回路の可
    変結合係数値を教師信号に対する誤差信号に基づいて生
    成される結合係数生成回路と、からなる自己学習回路を
    神経細胞模倣素子に付設してなる神経細胞回路をデジタ
    ル論理回路で構成し、この神経細胞回路を網状に接続し
    てなる信号処理装置であって、フォワードプロセスにお
    ける各神経細胞模倣素子の出力信号線をハイインピーダ
    ンスにする手段を備え、この出力信号線を複数本結合し
    て、次段の神経細胞模倣素子に入力することを特徴とす
    る信号処理装置。
  2. (2)結合係数可変回路と、この結合係数可変回路の可
    変結合係数値を教師信号に対する誤差信号に基づいて生
    成される結合係数生成回路と、からなる自己学習回路を
    神経細胞模倣素子に付設してなる神経細胞回路をデジタ
    ル論理回路で構成し、この神経細胞回路を網状に接続し
    てなる信号処理装置であって、バックワードプロセスに
    おける各神経細胞模倣素子の出力信号線をハイインピー
    ダンスにする手段を備え、この出力信号線を複数本結合
    して、次段の神経細胞模倣素子に入力することを特徴と
    する信号処理装置。
  3. (3)前記複数の出力信号線の結合出力をオア回路の一
    入力とし、このオア回路の一入力分のデータ出力を遅延
    させてオア回路の他入力に帰還させると共に、このオア
    回路の出力を次段の神経細胞模倣素子の入力にすること
    を特徴とする請求項第1または第2に記載の信号処理装
    置。
JP2096923A 1990-04-11 1990-04-11 信号処理装置 Pending JPH03294979A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2096923A JPH03294979A (ja) 1990-04-11 1990-04-11 信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2096923A JPH03294979A (ja) 1990-04-11 1990-04-11 信号処理装置

Publications (1)

Publication Number Publication Date
JPH03294979A true JPH03294979A (ja) 1991-12-26

Family

ID=14177877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2096923A Pending JPH03294979A (ja) 1990-04-11 1990-04-11 信号処理装置

Country Status (1)

Country Link
JP (1) JPH03294979A (ja)

Similar Documents

Publication Publication Date Title
JP3582737B2 (ja) 信号処理装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
US5481646A (en) Neuron unit and neuron unit network
JPH03294979A (ja) 信号処理装置
JPH05165987A (ja) 信号処理装置
US5274747A (en) Neuron unit for processing digital information
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH04229361A (ja) ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置
JP3255425B2 (ja) 信号処理方法
US5185851A (en) Neuron unit and neuron unit network
JPH05108594A (ja) 信号処理装置
JPH05216859A (ja) 信号処理装置
JPH03260785A (ja) 信号処理方法及びその回路網
JPH05217010A (ja) 信号処理装置
JPH05120254A (ja) 信号処理装置
JPH03256184A (ja) 信号処理回路
JPH05108598A (ja) 信号処理装置
JPH05307624A (ja) 信号処理装置
JPH04235663A (ja) 信号処理方法及びその装置
JPH04148389A (ja) 神経細胞回路網
JPH05290014A (ja) 信号処理装置
JPH05135001A (ja) 信号処理装置
JPH0573704A (ja) 信号処理回路装置
JPH03268082A (ja) 信号処理方法及び装置