JPH03268080A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH03268080A
JPH03268080A JP2067939A JP6793990A JPH03268080A JP H03268080 A JPH03268080 A JP H03268080A JP 2067939 A JP2067939 A JP 2067939A JP 6793990 A JP6793990 A JP 6793990A JP H03268080 A JPH03268080 A JP H03268080A
Authority
JP
Japan
Prior art keywords
coupling coefficient
signal
neuron
output
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2067939A
Other languages
English (en)
Inventor
Toshiyuki Furuta
俊之 古田
Hirotoshi Eguchi
裕俊 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2067939A priority Critical patent/JPH03268080A/ja
Priority to US07/629,632 priority patent/US5167006A/en
Priority to DE4042139A priority patent/DE4042139C2/de
Publication of JPH03268080A publication Critical patent/JPH03268080A/ja
Priority to US07/889,380 priority patent/US5333241A/en
Priority to US07/989,781 priority patent/US5327522A/en
Priority to US08/128,707 priority patent/US5619617A/en
Priority to US08/206,855 priority patent/US5504838A/en
Priority to US08/441,418 priority patent/US5581662A/en
Pending legal-status Critical Current

Links

Landscapes

  • Logic Circuits (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 技W分災 本発明は、信号処理装置、より詳細には、神経回路網を
模倣したニューラルコンピュータに関し、例えば、文字
や図形認識、ロボットなどの運動制御、連想記憶等に応
用して好適なものである。
k米七!− 生体の情報処理の基本的な単位である神経細胞にューロ
ン)の機能を模倣し、さらに、この「神経細胞模倣素子
」 (神経細胞ユニット)をネットワークに構成するこ
とで情報の並列処理をめざしたものが、いわゆるニュー
ラルネットワークである1文字認識や、連想記憶、運動
制御等、生体ではいとも簡単に行われていても、従来の
ノイマン型コンピュータではなかなか達成できないもの
が多い。生体の神経系、特に生体特有の機能、すなわち
並列処理、自己学習等を模倣して、これらの問題を解決
しようとする試みは、計算機シミュレーションで行われ
ているものが多く、本来の機能を発揮するには、並列処
理が必要であり、そのためにはニューラルネットワーク
のハードウェア化が必要である。一部では、既にハード
ウェア化の試みも行われているが、ニューラルネットワ
ークの特徴の1つである自己学習機能が実現できず、大
きなネックになっている。また、はとんどのものはアナ
ログ囲路で実現されており、動作の点で問題がある。
第6図は、従来のニューラルネットワークのモデルにつ
いて説明するための図で、図中、Aは、1つの神経細胞
ユニットを表し、第7図は、それをネットワークに構成
したもので、A1HA2゜A、は、それぞれ神経細胞ユ
ニットを表わす。1つの神経細胞ユニットは、多数の他
の神経細胞ユニットと結合しており、それらから受けた
信号を処理して出力する。第7図の場合、ネットワーク
は階層型であり、神経細胞ユニットA2は、1つ前の層
の神経細胞ユニットA□より信号を受け、1つ先の層(
図中右側)の神経細胞ユニットA。
へ出力する。
最初に、第6図に示した神経細胞ユニット八について説
明すると、1つの神経細胞ユニットと他の神経細胞ユニ
ットどの結合の度合を表すのが、結合係数(T)と呼ば
れているものであり、i番目の神経細胞ユニットとj番
目の神経細胞ユニッ1〜の結合係数を、一般に、T1.
で表す。結合には、相手のニューロンからの信号が大き
いほど自分の出力が大きくなる興奮性結合と、逆に、相
手の信号が大きいほど、自分の出力が小さくなる抑制性
結合とがあり、Trj>Oが興奮性結合、T t J 
< 0が抑制性結合である。j番目の神経細胞ユニット
への入力は、i番目の神経細胞ユニットの出力をylと
すると、これにTLJをかけた’r、jy、とじて求め
られる。前述のように、1つの神経細胞ユニットは多数
の神経細胞ユニットと結合しているので、それらのユニ
ットに対する’rtjy、を足し合わせたもの、すなわ
ち、ΣTIJyIが、ネットワーク内における1つの神
経細胞ユニットへの入力となる。これを内部電位と言い
、U、で表す。
uj:ΣTtjyt              (1
)次に、この入力を非線形処理することで、その神経細
胞ユニットの出力とする。ここで用いる非線形関数を神
経細胞応答関数と呼び1次に示すような、シグモイド関
数f (x)を用いる。
f  (x)=1/ (1+e−”)        
 (2)第8図は、このシグモイド関数を示す図である
上記神経細胞ユニットを、第7図に示すような、ネット
ワークに構成し、各結合係数を与え、式(1)、(2)
を次々と計算することにより、情報の並列処理が可能と
なり、最終的な出力が得られる。
第9図は、上記ネットワークを電気回路で実現したもの
の一例を示す図で(特開昭62−295188号公報)
、これは、ネットワークへの入力や出力の信号強度を電
圧で表し、上記神経細胞ユニット間の結合係数T1.の
値を抵抗値で実現したものである。すなわち、第9図に
おいて、複数の増幅器33は、反転出力33a及び非反
転出力33bとを有し、かつ、各増幅器33の入力には
入力電流を供給する手段32を有しており、予め選ばれ
た第1の値又は予め選ばれた第2の値であるコンダクタ
ンス(TLJ)で前記増幅器の各々の出力を前記入力に
接続する相互接続マトリックス31を有している。前記
のT1.はj番目の増幅器の出力とj番目の増幅器との
入力との間の相互コンダクタンスを表わし、前記コンダ
クタンス1゛1゜は、回路網が平衡する複数の極小値を
作るように選ばれ、複数の極小値を持ったエネルギー関
数を最小にするようにしている。結合係数TI、場合、
負の抵抗値は実現できないので、増幅器33を用いて出
力を反転させることでこれを実現している。
また、第8図で示したシグモイド関数に相当するものと
して、増幅器33を用いている。
しかしながらこれらの回路には以下のような問題点があ
る。
■信号の強度を電位や電流などのアナログ値で表し、内
部の演算もアナログ的に行わせる場合、温度特性や、電
源投入直後のドリフト等により、その値が変化する。
■ネットワークであるから、素子の数も多く必要である
が、それぞれの特性を揃えることは困難である。
■1つの素子の精度や安定性が問題になったとき、それ
をネットワークにしたとき、新たな問題が起きる可能性
があり、ネットワーク全体でみたときの動きが予想でき
ない。
■T L Jが固定であり、あらかじめシミュレーショ
ンなどの他の方法で学習させた値を使うしかなく、自己
学習ができない。
一方、数値41算で用いられている学習法則としては、
バックプロパゲーションと呼ばれる次のようなものがあ
る。
ます、各結合係数は、最初ランダムに与えておく。この
状態で、人力を与えると、出力結果は、必ずしも望まし
いものではない。例えば、文字認識の場合、手書きの「
1」の字を与えた場合、出力結果として、(i′この文
字は「1」である。Jとでるのが、望ましい結果である
が、結合係数が、ランダムであると、必ずしも望ましい
結果とはならない。そこで、このネットワークに正解(
教師信号)を与えて、再び、同じ入力があったとき正解
になるように、各結合係数を変化させる。このとき、結
合係数を変化させる量を求めるアルゴリズムが、パック
プロパゲーションと呼ばわているものである。
まず、最終層の5番目のニューロンの出力kyjとし、
そのニューロンに対する教師信号をd。
とすると、 E=Σ (d*−yp)”            (
3)で表されるEが最小となるように。
E を用いてT、を変化させる。さらに具体的に説明すると
、まず、出力層と、その]、つ前の層との結合係数を求
める場合には、 δa” (dj−y、+) X f’(u、+)   
    (5)を用いてδ (誤差信号)を求め、それ
よりさらに前の層同士の結合係数を求める場合には、δ
4=Σδ1TIJXf’(ut)        (6
)を用いてδ (誤差信号)を求め、 ΔTLJ=η(δ□yt)十αΔTIJ(前回の学習時
) T、、=T、j+ΔTtJ          (7)
を求めて、TiJを変化させる。ここで、ηは学習定数
、αは安定化定数と呼ばれているものであり、それぞれ
、理論的には求めることができないもので、経験的に求
める。
この学習を何回も繰り返すうちに、やがて、与えられた
入力に対して、望ましい結果が得られるようなT、jが
決定される。
さて、この学習方法を何らかの方法でハードウェア化し
ようとした場合、学習には、多嵐の四則演算が必要であ
り、実現が困%tである。学習方法そのものもハードウ
ェア化に対しては不向きである。
第10図〜第12図は、このようなニューラルネットワ
ークをデジタル回路で実現した例を示す図で、第10図
は、単一神経細胞の回路構成例を示す図で、40はシナ
プス回路、41は樹状突起回路、42は細胞体回路を示
す。第11図は、第10図に示したシナプス回路40の
構成例、第12図は、第10図に示した細胞体回路42
の構成例を示す図で、第11図中のfは入力信号、Wは
重み付けの値、aはフィードバック信号に掛ける倍率(
1または2)である。これは、神経細胞ユニットの入出
力をパルス列で表現し、そのパルス密度で信号の値を表
している。結合係数は2進数で取扱い、メモリ上に保存
している。入力信号をレートマルチプライヤ−のクロッ
クへ入力し、結合係数をレート値へ入力することによっ
て、入力信号のパルス密度をレート値に応じて減らして
いる。これは、パックプロパゲーションモデルの式のT
Ljy、の部分に相当する。また、ΣT、、y。
のΣの部分は、樹状突起回路41によって示されるOR
回路で実現している。結合には興奮性、抑制性があるの
で、あらかじめグループ分けしておき、それぞれのグル
ープ別にORをとる。第10図において、F□は興奮性
、F2は抑制性出力を示す、この2つの出力を、第12
図に示したカウンターのアップ側、ダウン側にそれぞれ
入力してカウントすることで、出力が得られる。この出
力は2進数であるので再びレートマルチプライヤ−を用
いて、パルス密度に変換する。この神経細胞ユニットを
ネットワークにすることによって、ニューラルネットワ
ークが実現できる。学習については、最終出力を外部の
コンピュータに入力して、コンピュータ内部で数値計算
を行い、その結果を結合係数のメモリに書き込むことに
よって実現している。従って、自己学習機能は全くない
6又、回路構成も、パルス密度の信号をカウンターを用
いて一旦数値に直し、その後再びパルス密度に直してお
り、複雑なものになっている。
以上をまとめると、上記従来技術では、■アナログ回路
は動作に確実性がない。
■数値計算による学習方法も計算が複雑であり、ハード
ウェア化に適さない。
■デジタル方式の回路では、回路構成が複雑である。
■ハードウェア上で自己学習ができない。
等の欠点がある。
■−−五 本発明は、上述のごとき実情に鑑みてなされたもので、
特に、動作が確実なデジタル回路を採用し、かつ、ハー
ドウェア化が容易なシンプルな信号処理、学習方法を提
供し、かつ、実際にハードウェア上で自己学習を含めて
実現することを目的としてなされたものである。
構−−ヨ又 本発明は、上記目的を達成するために、結合係数可変手
段と、この結合係数可変手段の可変結合係数値を教師信
号に対する誤差信号に基づいて生成する結合係数生成手
段とにより自己学習手段を構成し、該自己学習手段をデ
ジタル論理回路を用いて神経細胞模倣素子に付設して複
数の神経細胞模倣回路を網状に接続した信号処理回路網
を有する信号処理装置において、(1)−・部の演算を
終えた信号を順次蓄え、同時に読みだす機能を有するこ
と、或いは、(2)個々の神経細胞模倣回路を異なった
速度で動作可能なこと、或いは、(3)同時に入力され
た信号を蓄え、順次読みだす機能を有することを特徴と
したものである。以下、本発明の実施例に基づいて説明
する。
最初に、本発明の基本的な考え方について説明すると、
本発明の基本的な考え方は、 ■入出力信号、中間信号、結合係数、教師信号などは、
すべて、O51の2値で表されたパルス列で表現する。
■信号の量は、パルス密度で表す(ある一定時間内のr
lJの数)。
■神経細胞ユニット内での計算はパルス列同士の論理演
算で行う。
■結合係数のパルス列は、メモリに格納する。
■学習は、このパルス列を書き換えることで実現する。
■学習については、与えられた教師信号パルス列を元に
誤差を計算し、これに基づいて、結合係数パルス列を変
化させる。
このとき、誤差の計算、結合係数の変化分の計算もすべ
て、0.1のパルス列の論理演算で行う。
というものであり、以下、これを具体化した実施例に基
づいて詳細に説明する。
k号遣臭皿分 第1図は、1つの神経細胞に相当する部分で、それをネ
ットワークにしたものは、第8図に示したような、従来
と同じ階層型を用いる。人出力はすべて1.0に2値化
され、さらに同期化されたものを用いる。入力’itの
信号の強度は、パルス密度で表現し、例えば、ある一定
時間内にある、1の状態数で表す。
入力信号yt        =4/6  (8)同期
信号   L」−L」」」− これは4/6を表す信号を示したもので、同期パルス6
個中に入力信号yIは1が4個、0が2個であることを
表わしている。このとき、1とOの並び方は後述するよ
うにランダムであることが望ましい。
一方、結合係数Tijも同様にパルス密度で表現し、0
と1パルス列としてあらしめメモリ」二に用意しておく
結合係数’r、       =3/6  (9)同期
信号   、LLLJ−土」− これは、rlololoJ =3/6を表し、このとき
も0と1の並び方はランダムである方が望ましい。具体
的にどうやって決めるかは後述する。
そして、このビット列を同期クロックに応じてメモリ上
より順次読みだし、第1図のAND回路により入力パル
ス列とのANDをとる(ytnTtJ)。
これを神経細胞Jへの入力とする。今までの例を用いて
説明すると、入力信号がrlollolJと入力された
とき、これと同期してメモリ上よりピッ1〜列を呼び出
し、順次ANDをとることによって・ 入力信号yL 1−J−L−」−−4/6結合係数T・
、          = 3/G(10) に示すようなrlol、ooOJが得られ、これは入力
y、がTljにより変換されパルス密度が2/6となる
ことを示している。AND回路の出力パルス密度は、近
似的には入力信号のパルス密度と結合係数のパルス密度
の積となり、アナログ方式の結合係数と同様の機能を有
する。これは、信号の列が長いほど、また、1とOの並
び方がランダムであるほど、積に近い機能になる。尚、
入力パルス列に較べて、結合係数のパルス列が短く、読
み出すべきデータがなくなってしまったら、再びデータ
の先頭に戻って、読み出しを繰り返せばよい。
1つの神経細胞ユニットは多入力であるので、先に説明
した[入力信号と結合係数とのANDJも多数あり、次
に、これらのORをとる9人力は同期化されているので
、1番目のデータが[101000J、2番目のデータ
がro 10000Jの場合、両者のORはrlllo
ooJとなる。
これを多入力同時に計算し出力とする。入力数をQ個と
すると、 ylnT、J [−[−m−− ッ* n T # J  −[−一−−−U(y tn
TlJ)            (11)となる。こ
の部分はアナログ計算における和の計算及び非線形関数
(シグモイド関数)の部分に対応している。パルス密度
が低い場合、そのORをとったもののパルス密度は、そ
れぞれのパルス密度の和に近似的に一致する。パルス密
度が高くなるにつれて、ORの出力はだんだん飽和して
くるので、パルス密度の和とは結果が一致せず、非線形
性がでてくる。ORの場合、パルス密度は1より大きく
なることがなく、Oより小さくなることもなく、また単
調増加関数であり、シグモイド関数と近似的に同様とな
る。
さて、結合には興奮性と抑制性があり、数値計算の場合
には、結合係数の符号で表す。アナログ回路では、TL
jが負となる場合(抑制性結合)、増幅器を用いて出力
を反転させ、’i’、、に相当する抵抗値で他の神経細
胞へ結合させている。一方、本発明では、まず、TLj
の正負により各結合を興奮性結合と抑制性結合の2つの
グループに分け。
ツイテ、「入力信号と結合係数のパルス列のAND」同
士のORをこのグループ別に計算する。そして、興奮性
グループの出方が1のとき出方を出し、抑制性グループ
の出刃が1のとき出方を出さないようにする。例えば、
興奮性グループの出方が1で抑制性グループの出方が0
のときのみ出方を出す。あるいは、興奮性グループの出
方が0で抑制性グループの出方が1のとき以外出方を出
す。
この機能を実現するためには、前者の場合、興奮性グル
ープの出力と「抑制性グループの出方のN0TJとのA
NDをとればよく(式(12)〜(15))、後者の場
合「抑制性グループの出力のN0TJと興奮性グループ
の出力とのORをとればよい(式(16)〜(19))
。これは、第1図の&の部分に相当する。
出力 ニーニー6.2゜ となり、これを論理式で表現すると、 yj=anb と表される。また、後者の場合 (15) となり、これを論理式で表現すると、 y4=aUb                 (1
9)となる。
神経細胞ユニットのネットワークは、第8図に示したよ
うな階層型とする。ネットワーク全体を同期させておけ
ば、各層ともいままで述べてきた機能で計算することが
可能である。
笠翌肱 ■最終層における誤差信号 まず、最終層の各ニューロンにおける誤差信号を計算す
る0本発明では誤差信号を以下のように定義する。誤差
を数値で表すと、一般には十−の両方を取りうるが、パ
ルス密度では、正、負の両方を同時に表現できないので
、十戒分を表す信号と、−成分を表す信号の2つを使っ
て誤差信号を表現する。
つまり誤差信号゛δ゛、は、教師信号d、と出力信号y
、の追っている部分(l、0又は011)の内、教師信
号d、側に存在する信号であり、誤差信号−δ−4は同
様に出力yJ側に存在する信号である。つまり、出力信
号y、に誤差信号゛δ゛、を付は加え、誤差信号゛δ)
を取り除くと、教師信号d。
になるようになっている。この誤差信号δ°1、δ、か
ら新しい結合係数T1Jを求める方法については後述す
る。
■中間層における誤差信号 さらに誤差信号を逆伝播させ、最終層とその1つ前の層
との結合係数だけでなく、更にその前の層の結合係数も
変化させる。そのため、中間層における各ニューロンで
の誤差信号を計算する必要がある。中間層のあるニュー
ロンから、さらに1つ先の層の各ニューロンへ信号を伝
播させたのとはちょうど逆の要領で、1つ先の層の各ニ
ューロンにおける誤差信号を朶めてきて自分の誤差信号
とする。このことは、神経細胞ユニット内での演算の式
(8)〜(19)と同じ様な要領で行うことができる。
すなわち、まず、結合を興奮性か抑制性かによって、2
つのグループに分け、かけ算の部分はANDで、Σの部
分はORで表現する。
但し、神経細胞ユニット内での式(8)〜(19)では
、yJは常に正の値であるので1つの信号であるのに対
して、δ、は正5負を表す信号として2つの信号を持ち
、その両方の信号を考慮する必要がある。したがって、
 TL、の正負、δ、の正負の4つに場合分けする必要
がある。
まず、興奮性粘合の場合を説明すると、1つ先の層のに
番目のニューロンでの誤差信号゛(δ+k)とそのニュ
ーロンと自分との結合係数(’rJh)のANDを取っ
たもの(δ” h n T Jk)を各ニューロンにつ
いて求め、さらにこれら同士のORをとる(LJ (δ
+knTJk)、そしてこれを、この層の誤差信号°δ
゛jとする。1つ先の層のニューロンをn個とすると、 δ” 1rIT、□        HE” 、。
δ” 、nTJ、        :E” 、。
δ−2n T J 、ユニー上−−[=E°50、n 
T、。−土L−」−二E・4゜ δ 又、1つ先の誤差信号 δ 、と結合係数T j kの
ANDをとり、さらにこれら同士のORをとることによ
って、同様に、この層の誤差信号゛δ 、とする。
δ−0nT、、−L−ミL ’ J t&−、l”IT
、、         =E“、。
又、1つ先の誤差信号1δ゛、と結合係数T、にのAN
Dを取り、さらにこれら同士のORをとる。
そしてこれをこの層の誤差信号−δ 、とする。
δ”、nT、□−−−上1−  =E’、、δ”、nT
、。        = E ’ J a次に、抑制性
結合の場合を説明すると、1つ先の誤差信号゛δ 1と
結合係数1′、のANDをとり。
さらにこれら同士のORをとり、この層の誤差信号1 
δlJとする。
1つのニューロンから別のニューロンへは興奮性で結合
しているものもあれば、抑制性で結合しているものもあ
るので、式(24)で求めたδ゛。
と式(26)で求めたδ1.のORをとり、このニュー
ロンの64.とする。同様に、式(25)で求めたδ 
、と式(27)で求めたδ 、のORをとり、このニュ
ーロンのδ 、とする。以上をまとめると、δ’j=(
U(δ゛in ’r、+h))u (u (δ−kn 
T、k))kE興奮性     kE抑制性 δ’a=(u(δ−,nTjk))u(u(δ”mnT
jk))kE@奮性     kE抑制性 (28) あるいは、 δ’、=UE’j。
δ−a= U E−Ji            (2
8’)ただし、E’Jk= s ” hnT、+m (
TJ、=MH1−)=δ−*n Tjk(T、+h”抑
制性)EJk=δ−mnTjk(TJk=興奮性)=δ
+y n T s h (T s b =抑制性)とな
る。さらに、学習のレートに相当する機能を設けてもよ
い。数値計算に於いてレートが1以下のとき、さらに学
習能力が高まる。これは、パルス列の演算では、パルス
列を間引くことで実現できる。これは、カウンター的な
考え方をし、次のようなものにした。次の(例1)は、
元の信号のパルス列が等間隔の場合、(例2)は、等間
隔でない場合の例を示すもので、共に、η=0.5の場
合は、パルスを1つおきに間引くもの、η=0.33の
場合は、パルスを2つおきに残すもの、η=O,G7の
場合は、パルスを2つおきに1回引くものである。
(例1) −L 元の信号 η=0.5の場合 η=0.33の場合 η=0.67の場合 (例2) 元の信号 η=0.5の場合 η=0.33の場合 η=0.67の場合 (29) このようにして、誤差信号を間引くことによって、学習
レートの機能をもたせる。
■誤差信号より各結合係数を変化 いままで述べてきた方法により誤差信号を求め、各結合
係数を変化させるのであるが、それについて次に述べる
まず、変化させたい結合係数が属しているラインを流れ
る信号と誤差信号のANDをとる(δJl”1yp)。
但し、本発明では誤差信号は十と−の2つの信号がある
ので、それぞれ計算する。
し、あらたなTLJを求める。
興奮性の場合 元のTtjに対して、ΔT’ 、、の成分を増やし。
ΔT′1.の成分を減らす。
学習後のTtj 抑制性の場合 元のTL、に対して、ΔT′、の成分を減らし、ΔT−
□、の成分を増やす。
この様にして得られた2つの信号をΔTt、とする。本
発明に於けるTtjは、絶対値成分であるので、元のT
、Jが興奮性か、抑制性かで場合分けを学習後のTtJ 以上の学習側にもとづいて、ネットワークの計算をする
画一」酢 第2図乃至第4図は、以上のアルゴリズムをもとに、こ
れを実際の回路にしたものの例を示す図で、ネットワー
ク全体の回路は第7図と同様で、第7図の線に相当する
部分の回路を第2図に、また第6図の丸に相当する部分
を第3図に、又、最終層の出力と教師信号から最終層に
おける誤差信号を求める部分を第4図に示す。これらの
3つの図を第7図のようにネットワークにすることによ
って、自己学習が可能なデジタル方式のニューラルネッ
トワークが実現できる。
まず、第2図から説明すると、1は、二ニーロンへの入
力信号で式(8)に相当する0式(9)の結合係数は、
シフトレジスタ8に保存しておく。
8Aが取り出し口で、8Bが入口である。シフトレジス
タと同様の機能を持つものであれば、そのほかのもの例
えば、RAM+アドレスコントローラ等でもよい、また
、シフ1−レジスタあるいはアドレスコントローラ等に
は、図示しないが式(9)の同期信号が与えられている
。第2図の9は式(10)に相当する回路で、入力18
号と結合係数とのANDを取っている。この出力は結合
が興奮性か抑制性かによってグループ分けしなければい
けないが、あらかじめそれぞれのグループへの出力6.
7を用意し、どちらに出すのかを切り替えるようにした
方が汎用性が高い。このため、結合が興奮性か抑制性か
を表すピッ1−をメモリ14に保存しておき、回路13
で切り替える。各入力を処理する式(11)に相当する
OR回路が第3図の回路16である。さらに式(12)
の興奮性グループが1で、抑制性グループがOの時のみ
出力を出す回路が第3図の回路12である。また、式(
16)の場合に於いても同様に論理回路で容易に実現で
きる。
次に、誤差信号について説明する。第4図は最終層での
誤差信号を作るもので、これは式(20)〜(23)に
相当する。最終層からの出力1及び教師信号20より誤
差信号6.7を作る。中間層における誤差信号を計算す
る式(28’)のうちE+4、E−を求める部分を回路
にしたのが、第2図の10である。結合が興奮性か抑制
性かで場合分けをするので、それを行うのが回路12で
ある。
あらかじめ回路14にセットされたビットにより切り替
える。又式28′の残りの部分を回路にしたのが、第3
図の】8である。又、学習レートに相当する式(29)
の部分が第3図の19の分周回路である。これはフリッ
プフロップ等を用いることにより、容易に実現できる。
最後に誤差信号より新たな結合係数を計算する部分につ
いて説明する。式では(30)〜(33)で表されるが
、この部分は第2図の11の回路である。これも同様結
合の興奮性、抑制性によって、場合分けしなければなら
ないので、第2図の12の回路でこれを実現している。
さて、今までの説明は全て並列処理を行うものであった
。一方、文字認識などの場合、入力数が多いのでネット
ワークの配線が大変になる。そこで、一部のデータをシ
リアルに処理することにより、配線数を大幅に減らすこ
とが可能になる。また、CCDの様に、データをライン
毎にシリアルに読み出す装置もある。そこで、一部でシ
リアル処理を行った方が便利なときもあり、その機能に
ついて、説明をする。まず、式(13)、(14)はそ
れぞオし分割が可能なので区切って演算することも可能
である。式(13)(14)式をたとえば256人力分
計算するのに、まず、64人力分の81算のaとbを求
め、順次64人力分ずつのaとbを求める計算を各々4
回行い、4つのa同士。
4つのb同士でORをとることによって最終的なaとb
が求まる。この原理を応用して、シリアル処理が可能と
なる。まず、最初の処理で得られたa、!−bを第3図
のメモリ15上に保存しておく。
次のクロック処理で得られたaとbも保存しておき、次
々と保存した後、最後にパラレルにこれらのaとbを呼
び出しこれら同士のORを(第3図の回路16)によっ
てとり、その後、式(15)を演算すればシリアル処理
が可能となる。このとき用いるメモリはシフトレジスタ
が良いが、同様の機能を持つものであれば何でも良い、
したがって基準タロツク4個で初めて演算が終了する。
この出力信号のパルスを次の層へ入力するが、基準タロ
ツクが複数個で初めて入力信号のパルスが入力されるの
で、次の層では、遅く動作させる必要がある。これはク
ロック発生器であらかじめ基準クロックを分周したもの
を用意し、ニューロン側でスイッチ等で切り替えても良
いし、ニューロン内に分周手段を設け、基準クロックを
分周して用いても良い。いずれの場合も、どのタロツク
を用いるかは切り替えが可能としておく方がより汎用性
が高くなる。さて、誤差信号のパルスは、4回のシリア
ル処理が終わってはじめて逆伝播されてきて入力される
。ところが学習や誤差逆伝播の演算には、フォワードプ
ロセスのときに用いた入力信号のパルス、結合係数のパ
ルス、及び結合係数の符号のパルスが必要である。シリ
アル処理を行っていると、誤差信号のパルスが演算され
たときには最初の3回分のパルスは既に読み出された後
である。したがって、これらのデータを再び読みだす必
要がある。そこで、4回のシリアル処理でフォワードプ
ロセスを演算した後、再び最初の1〜64のパルスを入
力、あるいはメモリより読みだして、誤差逆伝播、学習
の演算をする。その後、次の65〜128のパルス演算
を行う。これを合計4回繰り返して、はじめて256人
力分の演算が終了する。このように、学習時に、フォワ
ードプロセス時に用いたデータを再び用いるので、その
ための方法について説明する。これは、フォワードプロ
セス時に用いたデータを別のメモリに保存しておいて、
学習時に再びよみだして用いても良いし、学習時にフォ
ワードプロセス時と同じデータが入力されるように、外
部からの入力信号に関しては、ホールド回路、結合係数
などのメモリに保存しであるものに関してはアドレスデ
コーダが同じアドレスを出力するようにしておいても良
い。また、シリアル処理を行う場合と行わない場合とを
スイッチ等を用いて切り替えが可能にしておくとより汎
用性が高くなる(第3図の21)。
さらに、このようにシリアル処理を行うネットワークへ
パラレルデータを入力するためには、ネットワークの入
口にパラレル−シリアル変換回路を設ければ良い、この
機能も、シフトレジスタ等を用いることで容易に実現で
きる。
なお、上記の回路は、これに限定されるものでなく、ま
た、一部をコンピュータなどの計算装置を用いて代用さ
せてもよいことはいうまでもない。
大差11 さきに説明したネットワークを用いた自己学習式文字認
識装置について説明する。まず、手書き文字をスキャナ
ーで読み取り、これを第5図に示すように、16X16
のメツシュにわけ、文字部分のあるメツシュを1、ない
メツシュを0とした。
このデータ(256個)をネットワークに入力し、出力
は5つあるユニットのうちで一番大きい出力のものの位
置が、認識結果となるようにした。そのため、「1」〜
「5」までの数字を入力したときその数字に対応する番
号の出力が一番大きくなるように学習させた。
欣に、ネットワークの構成は、第1層目が256個、第
2層目が20個、第3層目が5個の神経細胞ユニットか
らなる構成とした。このうち、第1層目は何もしないの
で不要である。第2層目は256人力であるが配線数が
多くなるので32人力×8回のシリアル処理を行わせた
。最初、各結合係数はランダムとしておくと、出力結果
は必ずしも所望のものではない。この゛回路の自己学習
機能を用いて、各結合係数を新たに求め、これを何回か
繰り返すことによって、所望の出力が得られるようにす
る。この実施例では、入力はOか1であるので、入力パ
ルス列は常にLOWレベル、又はHI G I−Iレベ
ルの単純なものである。又出力はトランジスタを介して
、LEDと結び、LOWレベルのとき消灯、HI G 
Hレベルのとき点灯とした。同期クロックを1000 
k I(zとしたので、パルス密度に応じて、人間の目
にはLEDの明るさが変わり、したがって、1番明るい
LEDの部分が答えになる。十分学習させた文字に対し
ては認識率100%を得た。
羞−一米 以上の説明から明らかなように、請求項第1項に記載の
発明によると、一部シリアル処理が可能なニューラルネ
ットについて、入力部をシリアル処理を行うことができ
る。また、請求項第2項に記載の発明では、ネットワー
ク全体よりも遅いクロックで動作可能なので、シリアル
処理を行った次の層での動作が可能である。また、一部
シリアル処理を行うネットワークにパラレル入力を行う
ときパラ−シリ変換部をもつことで、動作が可能になる
。また、請求項第3項に記載の発明では、出力部をシリ
アル処理することができる。
いずれも一部シリアル処理を行うことにより内部の配線
数を減らすことができる。
【図面の簡単な説明】
第1図は、神経回路ユニットの1つを示す図、第2図乃
至第4図は、各部の回路構成例を示す図。 第5図は、一実施例を説明するための図、第6図乃至第
8図は、神経回路ユニットの動作原理を説明するための
図、第9図乃至第12図は、従来の回路構成例を示す図
である。 1・・・入力信号、2.3,6.7・・・誤差信号、4
・・興奮性信号、5・・・抑制性信号、8、・・・シフ
トレジスタ、20・・・教師信号。 第 1 図 第 図 第 図 第 区 \−−−−−−− 7 篤 図 第 図 第 ア 図 第 図 5.0 第 9 図 第 0 図 出力 篤 1 第 2 図 図 0

Claims (1)

  1. 【特許請求の範囲】 1、結合係数可変手段と、この結合係数可変手段の可変
    結合係数値を教師信号に対する誤差信号に基づいて生成
    する結合係数生成手段とにより自己学習手段を構成し、
    該自己学習手段をデジタル論理手段を用いて神経細胞模
    倣素子に付設して複数の神経細胞模倣回路を網状に接続
    した信号処理回路網を有する信号処理装置において、一
    部の演算を終えた信号を順次蓄え、同時に読みだす機能
    を有することを特徴とする信号処理装置。 2、結合係数可変手段と、この結合係数可変手段の可変
    結合係数値を教師信号に対する誤差信号に基づいて生成
    する結合係数生成手段とにより自己学習手段を構成し、
    該自己学習手段をデジタル論理回路を用いて神経細胞模
    倣素子に付設して複数の神経細胞模倣回路を網状に接続
    した信号処理回路網を有する信号処理装置において、個
    々の神経細胞模倣回路を異なった速度で動作可能とした
    ことを特徴とする信号処理装置。 3、結合係数可変手段と、この結合係数可変手段の可変
    結合係数値を教師信号に対する誤差信号に基づいて生成
    する結合係数生成手段とにより自己学習手段を構成し、
    該自己学習手段をデジタル論理回路を用いて神経細胞模
    倣素子に付設して複数の神経細胞模倣回路を網状に接続
    した信号処理回路網を有する信号処理装置において、同
    時に入力された信号を蓄え、順次読みだす機能を有する
    ことを特徴とする信号処理装置。
JP2067939A 1989-12-29 1990-03-16 信号処理装置 Pending JPH03268080A (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2067939A JPH03268080A (ja) 1990-03-16 1990-03-16 信号処理装置
US07/629,632 US5167006A (en) 1989-12-29 1990-12-18 Neuron unit, neural network and signal processing method
DE4042139A DE4042139C2 (de) 1989-12-29 1990-12-28 Neuron-Einheit
US07/889,380 US5333241A (en) 1989-12-29 1992-05-28 Neuron unit, neural network and signal processing method
US07/989,781 US5327522A (en) 1989-12-29 1992-12-11 Neuron unit
US08/128,707 US5619617A (en) 1989-12-29 1993-09-30 Neuron unit, neural network and signal processing method
US08/206,855 US5504838A (en) 1989-12-29 1994-03-07 Neuron unit with error signal having components representing pulse densities
US08/441,418 US5581662A (en) 1989-12-29 1995-05-15 Signal processing apparatus including plural aggregates

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2067939A JPH03268080A (ja) 1990-03-16 1990-03-16 信号処理装置

Publications (1)

Publication Number Publication Date
JPH03268080A true JPH03268080A (ja) 1991-11-28

Family

ID=13359405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2067939A Pending JPH03268080A (ja) 1989-12-29 1990-03-16 信号処理装置

Country Status (1)

Country Link
JP (1) JPH03268080A (ja)

Similar Documents

Publication Publication Date Title
JP3582737B2 (ja) 信号処理装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
US5274747A (en) Neuron unit for processing digital information
JPH03268080A (ja) 信号処理装置
JPH05165987A (ja) 信号処理装置
JP3256553B2 (ja) 信号処理装置の学習方法
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JPH03260785A (ja) 信号処理方法及びその回路網
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH05290014A (ja) 信号処理装置
JPH03268079A (ja) 信号処理装置
JP3255425B2 (ja) 信号処理方法
JP3463890B2 (ja) 神経回路模倣素子
JPH05135001A (ja) 信号処理装置
JP3338713B2 (ja) 信号処理装置
JPH04229361A (ja) ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置
JPH05217010A (ja) 信号処理装置
JPH04148389A (ja) 神経細胞回路網
JP3130913B2 (ja) 信号処理装置
JPH03268082A (ja) 信号処理方法及び装置
JPH05307624A (ja) 信号処理装置
JPH056351A (ja) 信号処理装置
JPH05210650A (ja) 信号処理装置
JPH05314290A (ja) 信号処理装置
JPH0418661A (ja) 信号処理装置