JPH03268079A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH03268079A
JPH03268079A JP2067938A JP6793890A JPH03268079A JP H03268079 A JPH03268079 A JP H03268079A JP 2067938 A JP2067938 A JP 2067938A JP 6793890 A JP6793890 A JP 6793890A JP H03268079 A JPH03268079 A JP H03268079A
Authority
JP
Japan
Prior art keywords
neuron
output
signal
network
coupling coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2067938A
Other languages
English (en)
Inventor
Toshiyuki Furuta
俊之 古田
Hirotoshi Eguchi
裕俊 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2067938A priority Critical patent/JPH03268079A/ja
Priority to US07/629,632 priority patent/US5167006A/en
Priority to DE4042139A priority patent/DE4042139C2/de
Publication of JPH03268079A publication Critical patent/JPH03268079A/ja
Priority to US07/889,380 priority patent/US5333241A/en
Priority to US07/989,781 priority patent/US5327522A/en
Priority to US08/128,707 priority patent/US5619617A/en
Priority to US08/206,855 priority patent/US5504838A/en
Priority to US08/441,418 priority patent/US5581662A/en
Pending legal-status Critical Current

Links

Landscapes

  • Test And Diagnosis Of Digital Computers (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 妓1L分野− 本発明は、信号処理装置、より詳細には、神経回路網を
模倣したニューラルコンピュータに関し、例えば1文字
や図形認識、ロボットなどの運動制御、連想記憶等に応
用して好適なものである。
従−來−技薯 生体の情報処理の基本的な単位である神経細胞にューロ
ン)の機能を模倣し、さらに、この「神経細胞模倣素子
」をネットワークに構成して、情報の並列処理をめざし
たものが、いわゆるニューラルネットワークである。文
字認識や、連想記憶、運動制御等、生体ではいとも簡単
に行われていても、従来のノイマン型コンピュータでは
なかなか達成できないものが多い。生体の神経系、特に
生体特有の機能、すなオ)ち並列処理、自己学習等を模
倣して、これらの問題を解決しようとする試みが盛んに
行オ)れている。しかしながら5これらの試みは、計算
機シミュレーションで行われているものが多く、本来の
機能を発揮するには、並列処理が必要であり、そのため
にけニューラルネットワークのハードウェア化が必要で
ある。一部では、既にハードウェア化の試みも行われて
いるが、ニューラルネットワークの特徴の1つである自
己学習機能が実現できず、大きなネックになっている。
また、はとんどのものはアナログ回路で実現されており
、動作の点で問題がある。
第7図は、従来のニューラルネットワークのモデルにつ
いて説明するための図で、図中、Aは、1つの神経細胞
ユニットを表し、第8図は、それをネットワークに構成
したもので、A、、A2゜A3は、それぞれ神経細胞ユ
ニットを表わす、1つの神経細胞ユニットは、多数の他
の神経細胞ユニットと結合しており、それらから受けた
信号を処理して出力する。第8図の場合、ネットワーク
は階層型であり、神経細胞ユニットA2は、1つ前の層
の神経細胞ユニットA8より信号を受け、1つ先の層(
図中右側)の神経細胞ユニットA。
へ出力する。
最初に、第7図に示した神経細胞ユニットAについて説
明すると、1つの神経細胞ユニットと他の神経細胞ユニ
ットとの結合の度合を表すのが、結合係数(T)と呼ば
れているものであり、i番目の神経細胞ユニットとj番
目の神経細胞ユニットの結合係数を、一般に、TLJで
表す。結合には、相手のニューロンからの信号が大きい
ほど自分の出力が大きくなる興奮性結合と、逆に、相手
の信号が大きいほど自分の出力が小さくなる抑制性結合
があり、Tlj>Oが興奮性結合、TtJく0が抑制性
結合である。自分がj番目のユニットの時、i番目のユ
ニットからの入力をylとすると、これにTlJをかけ
たTIjylが自分のユニットへの入力となる。前述の
ように、1つの神経細胞ユニットは多数の神経細胞ユニ
ットと結合しているので、それらのユニットに対する’
r、jy、を足し合わせたもの、すなわち、ΣTLJy
1が、自分のユニットへの入力となる。これを内部電位
と言い、U、で表す。
uj=ΣTtjyt              (1
)次に、この入力に対して非線形な処理をして出力する
。その時に関数を神経細胞応答関数と呼び、非線形関数
として次に示すような、シグモイド関数f(x)を用い
る。
f  (x)=1/ (1+e−”)        
 (2)第9図は、このシグモイド関数を示す図である
上記神経細胞ユニットを、第8図に示すような、ネット
ワークに構成し、各結合係数を与え1式(1)、(2)
を次々と計算することにより、最終的な出力が得られる
第10図は、上記ネットワークを電気回路で実現したも
のの一例を示す図で(特開昭62−295188号公報
)、これは、ネットワークへの入力や出力の信号の強度
を電圧で表し、結合係数を抵抗値で実現している。すな
わち、第10図において、複数の増幅器33は、反転出
力33a及び非反転出力33bを有し、かつ、各増幅器
33の入力には入力電流を供給する手段32を有してお
り、予め選ばれた第1の値又は予め選ばれた第2の値で
あるコンダクタンス(TIJ)で前記増幅器の各々の出
力を前記入力に接続する相互接続マトリックス31を有
している。前記のTLJはi番目の増幅器の出力とj番
目の増幅器との入力との間の相互コンダクタンスを表わ
し、前記コンダクタンスTL、は、回路網が平衡する複
数の極小値を作るように選ばれ、複数の極小値を持った
エネルギー関数を最小にするようにしている。結合係数
T1Jが負の場合、負の抵抗値は実現できないので、増
幅器33を用いて出力を反転させることでこれを実現し
ている。また、第9図で示したシグモイド関数に相当す
るものとして、増幅器33を用いている。
しかしながらこれらの回路には以下のような問題点があ
る。
■信号の強度を電位や電流などのアナログ値で表し、内
部の演算もアナログ的に行わせる場合、温度特性や、電
源投入直後のドリフト等により、その値が変化する。
■ネットワークであるから、素子の数も多く必要である
が、それぞれの特性を揃えることは困難である。
■1つの素子の精度や安定性が問題になったとき、それ
をネットワークにしたとき、新たな問題が起きる可能性
があり、ネットワーク全体でみたときの動きが予想でき
ない。
■TLjが固定であり、あらかじめシミュレーションな
どの他の方法で学習させた値を使うしかなく。
自己学習ができない。
一方、数値削算で用いられている学習法則としては、パ
ックプロパゲーションと呼ばれる次のようなものがある
まず、各結合係数は、最初ランダムに与えておく。この
状態で、入力を与えると、出力結果は、必ずしも望まし
いものではない、例えば、文字認識の場合、手書きの「
]−Jの字を与えた場合、出力結果として、0′この文
字は「1」である。」とでるのが、望ましい結果である
が、結合係数が。
ランダムであると、必ずしも望ましい結果とはならない
。そこで、このネットワークに正解(教師信号)を与え
て、再び、同じ人力があったとき正解になるように、各
結合係数を変化させる。このとき、結合係数を変化させ
る量を求めるアルゴリズムが、パックプロパゲーション
と呼ばれているものである。
まず、最終層の5番1〕のニューロンの出力をy、とし
、そのニューロンに対する教師信号をd。
とすると、 E=Σ(dj−yJ) 2          (3)
で表されるEが最小となるように、 を用いて、T、を変化させる。さらに具体的に説明する
と、まず、出力層と、その1つ前の層との結合係数を求
める場合には、 δ、: (dj−y、)Xf’cuJ)      (
5)を用いてδ (誤差信号)を求め、それよりさらに
前の暦同士の結合係数を求める場合には、δ、=ΣδL
 T t s X f ’ (u t )      
   (6)を用いて、δ (誤差信号)を求め、 Δ1゛□、=η(δ1y□)→−αΔ’I’ t J(
前回の学習時) T、、=T、J+ΔTIJ          (7)
を求めて、T1を変化させる。ここで、ηは学習定数、
αは安定化定数と呼ばれているものである。
それぞれ、理論的には求めることができないものであり
、経験的に求める。
この学習を何回も繰り返すうちに、やがて、与えられた
人力に対して、望ましい結果が得られるようなTIJが
決定される。
さて、この学習方法を何らかの方法でハードウェア化し
ようとした場合、学習には、多量の四則演算が必要であ
り、実現が困難である5学習方法そのものもハードウェ
ア化に対しては不向きである。
第11図乃至第13図は、このようなニューラルネット
ワークをデジタル回路で実現した例を示す図で、第11
図は、単一の神経細胞回路構成例を示し、40はシナプ
ス回路541は樹状突起回路、42は細胞体回路である
。第12図は、第11図に示したシナプス回路40の構
成例、第13図は、第11図に示した細胞体回路42の
構成例を示す図で、第12中のfは入力信号、Wは重み
付けの値、aはフィードバック(8号に掛ける倍率(1
または2)である。これは、神経細胞ユニットの人出力
信号をパルス列で表現し、信号の値をパルス密度で表し
ている9結合係数は2進数で取扱い、メモリヒに保存し
ている。信号演算処理は次のように行う。まず、入力信
号をレートマルチプライヤ−〇クロックへ入力し、結合
係数をレート値へ入力することによって5 人力信号の
パルス密度をレート値に応して減らしている。これは、
前述のパックプロパゲーションモデルの弐TIJyIの
部分に相当する。次にΣTt、+3’+のΣの部分は、
樹状突起回路41によって示されるOr<回路で実現し
ている。結合には興奮性、抑制性があるので、あらかし
めグループ分けしておき、それぞれのグループ別にOR
をとる。第11図において、F□は興奮性、ド、は抑制
性出力を示す。この2つの出力を、第13図に示したカ
ウンターのアップ側、ダウン側にそれぞれ人力してカウ
ントすることで、出力が得られる。この出力は2進数で
あるので再びレートマルチプライヤ−を用いて、パルス
密度に変換する。このユニットをネットワークにするこ
とによって、ニューラルネットワークが実現できる。学
習については、最終出方を外部のコンピュータに入力し
て、コンピュータ内部で数値計算を行い、その結果を結
合係数のメモリに書き込むことによって実現している。
従って自己学習機能は全くない。又、回路構成も、パル
ス密度の信号をカウンターを用いて一旦数値に直し、そ
の後再びパルス密度に直しており、複雑なものになって
いる。
以上をまとめると、従来技術では次のような欠点を有し
ている。
■ネットワーク内部の演算を行うアナログ回路は、動作
に確実性がない。
■数値計算による学習方法も計算が複雑であり、ハード
ウェア化に適さない。
■従来のデジタル方式の回路では、回路構成が複雑であ
る。
■ハードウェア上で自己学習ができない。
■−−カ 本発明は、上述のごとき実情に鑑みてなされたもので、
特に、動作が確実なデジタル回路を採用し、かつ、ハー
ドウェア化が容易なシンプルな信号処理、学習方法を提
供し、かつ、実際にハードウェア上で自己学習を含めて
実現することを目的としてなされたものである。
隻−一双 本発明は、上記目的を達成するために、結合係数可変手
段と、この結合係数可変手段の可変結合係数値を教師信
号に対する誤差信号に基づいて生成する結合係数生成手
段とにより自己学習手段を構成し、該自己学習手段をデ
ジタル論理回路を用いて神経細胞模倣素子に付設して複
数の神経細胞模倣回路を網上に接続した信号処理回路網
を有し、該信号処理回路網を少なくとも2以上もって構
成されることを特徴としたものである。以下、本発明の
実施例に基づいて説明する。
最初に5本発明の基本的な考え方につ6sで説明すると
、本発明の基本的な考え方は、 ■入出力信号、中間信号、結合係数、教師信号などは、
すべて、0.1の2値で表されたパルス列で表現する。
■信号の景は、パルス密度で表す(信号中の「1」の数
)。
■神経細胞ユニット内での計算はパルス列同士の論理演
算で行う。
■結合係数のパルス列は2メモリに格納する。
■学習は、このパルス列を書き換えることで実現する。
■学習については、与えられた教師信号ノ(ルス列を元
に誤差を計算し、これに基づいて、結合係数パルス列を
変化させる。
このとき、¥A差の計算、結合係数の変化分の計算もす
べて、0.1のパルス列の論理演算で行う。
というものであり、以下、これを具体化した実施に基づ
いて詳細に説明する。
信号−遺尊皇女一 第1図は、1つの神経細胞に相当する部分で、それをネ
ットワークにしたものは、第8図に示したように、従来
と同じ階層型を用いる。このネットワー°りを複数用意
し、各ネットワークに信号を入力する。入出力はすべて
1、Oに2値化されたものを用い、入力y、の信号の強
度は、各ネットワークへ入力した信号のうち1の数で表
わす。
入力信号 yt        =4/6  (8)こ
れは4/6を表す信号を示したもので、信号6個中に1
が4個、0が2個であることを表わしている。このとき
、1と0の並び方は後述するようにランダムであること
が望ましい。この信号に、第2図に示すように、1〜6
の番号をっけ、それぞれ同じ番号のネットワークへ入力
する。このとき入力は同時に行った方が処理速度は速く
なる。
一方、結合係数1゛1Jも同様にパルス密度で表現し、
0と1のビット列としてあらかじめ各ネットワーク上の
メモリに用意しておく。
これは、rlololoJ =3/6を表し、このとき
も0と1の並び方はランダムである方が望ましい。具体
的にどうやって決めるかは後述する。
そして、このビット列を同期クロックに応じてメモリ上
より)@次読みだし、第1図のAND回路により入力パ
ルス列とのANDをとる(ytnTtj)−これを神経
細胞jへの入力とする。今までの例を用いて説明すると
、入力信号がrl O1101Jと入力されたとき、こ
れと各ネットワーク]二のメモリよりビット列を呼び出
し、ANDをとることによって。
入力信号y +          ” 4 / 6結
合係数’r、          =3/6に示すよう
なrloloooJが得られ、これは入力y□がTtJ
により変換されパルス密度が2/6となることを示して
いる。AND回路の出力パルス密度は、近似的には入力
信号のパルス密度と結合係数のパルス密度の積となり、
アナログ方式の結合係数と同様の機能を有する。これは
、信号の列が長いほど、また、]と0の並び方がランダ
ムであるほど、積に近い機能になる。
1つの神経細胞ユニットは多入力であるので、先に説明
した「入力信号と結合係数とのANDJも多数あり、次
に、これらのo Rをとる。人力は同期化されているの
で、1番目のデータが[1010004,2番目のデー
タがrolooooJの場合、両者のORはrlllo
ooJとなる。
これを多入力同時に計算し出力とする。入力数をQ個と
すると。
y、n To、  ニー」−一一− y a n T *、−」−□−−− U(y、nT1.)」」」−一一−−−−−−(11)
となる。この部分はアナログ創立における和の計算及び
非線形関数(シグモイド関数)の部分に対応している。
パルス密度が低い場合、そのORをとったもののパルス
密度は、そ才りぞれのパルス密度の和に近似的に一致す
る。パルス密度が高くなるにつれて、ORの出力はだん
だん飽和してくるので、パルス密度の和とは結果が一致
せず、非線形性がでてくる。ORの場合、パルス密度は
1より大きくなることがなく、Oより小さくなることも
なく、また単調増加関数であり、シグモイド関数と近似
的に同様となる。
さて、結合には興奮性と抑制性があり、数値計算の場合
には、結合係数の符号で表す。アナログ回路では、′r
1.が負となる場合(抑制性結合)、増幅器を用いて出
力を反転させ、’r、に相当する抵抗値で他の神経細胞
へ結合させている。一方、本発明では、まずT4.の正
負により各結合を興奮性結合と抑制性結合の2つのグル
ープに分け、ついで、「入力信号と結合係数のパルス列
のA N I) J同士のORをこのグループ別に計算
する。そして、興奮性グループの出力が1のとき出力を
出し、抑制性グループの出力が1のとき出力を出さなし
Xようにする。例えば、興奮性グループの出力が1で抑
制性グループの出力がOのときのみ出力を出す。
あるいは、興奮性グループの出力がOで抑制性り”ルー
プの出力が1のとき以外出力を出す。この機能を実現す
るためには、前者の場合、興奮性グループの出力と「抑
制性グループの出力のN OT JとのANDをとれば
よく式((12)〜(15))。
後者の場合「抑制性グループの出力のN OT” Jと
興奮性グループの出力とのORをとればよい(式(16
)〜(19))。これは、第1図のgの部分に相当する
興奮性グループの出力 し」−−−1−1−抑制性グル
ープの出力 」−1−−1−出力 m 、−−−〜−」−−一一一(12)となり、これを
論理式で表現すると。
yj=allb と表される。また、後者の場合 (]、 Fi ) 興奮性クループの出力 ・L」−一〜−11.−抑制性
グループの出力 −L」−」− となり、これを論理式で表現すると、 a=U(ytnTta)  (T=興奮性)(17) iC興奮性 y t = a U b              
 (19)となる。
神経細胞ユニットのネットワークは、第8図に示したよ
うな階層型とする。ネットワーク全体を同期させておけ
ば、各層ともいままで述べてきた機能で計算することが
可能である。
笠■称 ■最終層における誤差信号 まf、81層の各ニューロンにおける誤差信号を計算す
る。本発明では誤差信号を以下のように定義する。誤差
を数値で表すと、一般には+−の両方を取りうるが、パ
ルス密度では、正、負の両方を同時に表現できないので
、十戒分を表す信号と、−成分を表す信号の2つを使っ
て誤差信号を表現する。
出力結果y、        ’     (20)教
師信号d、            (21)つまり誤
差信号1δ1.は、教師信号d、と出力信号y、の追っ
ている部分(1,0又は0.1)の内、教師信号d、側
に存在する信号であり、誤差信号δ−4は同様に出力y
4側に存在する信号である。つまり、出力信号y、に誤
差信号゛δ1.を付は加え、誤差信号−δ′4を取り除
くと、教師信号d。
になるようになっている。この誤差信号δ11、δ゛、
から新しい結合係数Ttjを求める方法については後述
する。
■中間層における誤差信号 さらに誤差信号を逆伝播させ、最終層とその1つ前の層
との結合係数だけでなく、更にその前の層の結合係数も
変化させる。そのため、中間層における各ニューロンで
の誤差信号を計算する必要がある。中間層のあるニュー
ロンから、さらに1つ先の層の各ニューロンへ信号を伝
播させたのとはちょうど逆の要領で、1つ先の層の各ニ
ューロンにおける誤差信号を集めてきて自分の誤差信号
とする。このことは、神経細胞ユニット内での演算の式
(8)〜(19)と同じ様な要領で行うことができる。
すなわち、まず、結合を興奮性か抑制性かによって、2
つのグループに分け、かけ算の部分はANDで、Σの部
分はORで表現する。
但し、神経細胞ユニット内での式(8)〜(19)では
、Ytは常に正の値であるので、1つの信号であるのに
対して、δ、は正、負を表す信号として2つの信号を持
ち、その両方の信号を考慮する必要がある。したがって
、TlJの正負、δ、の正負の4つに場合分けする必要
がある。
まず、興奮性結合の場合を説明すると、1つ先の層のに
番目のニューロンでの誤差信号′(δ1.)とそのニュ
ーロンと自分との結合係数(’r J k)のANDを
取ったも(7) (5” in Tji)を各ニューロ
ンについて求め、さらにこれら同士のORをとる(U 
(δ“hn’rJ、) 、そしてこれを、この層の誤差
信号1δ1.とする。1つ先の層のニューロンをn個と
すると、 δ” 1 nTJI         = E ” J
lδ□nTJ、uk−±−三E+1 又、1つ先の誤差信号゛δ 、と結合係数TJkのAN
Dをとり、さらにこれら同士のORをとることによって
、同様に、この層の誤差信号−δ 、とする。
δ−xnTxz  −m−LL−−ミE−Jlδ−0′
吋、。L−−ユーヨ。、、9 次に、抑制性結合の場合を説明すると、1つ先の誤差信
号−δ−3と結合係数TJkのANDをとり、さらにこ
れら同士のORをとり、この層の誤差信号1δ1.とす
る。
5−0n’r、、       EE・4゜δ−0nT
・。JJ −−1−=E’・・又、1つ先の誤差信号゛
δ□と結合係数′r4.のANDを取り、さらにこれら
同士のORをとる。
そしてこれをこの層の誤差信号−δ“、とする。
、・xnTsx−一ユニー−1 δ・。nTa。       :EE 1一つのニューロンから別のニューロンへ11興奮性で
結合しているものもあれば、抑ル11性で結合している
ものもあるので、式(24)で求めたδ3゜と5式(2
6)で求めたδ0.のORをとり、このニューロンのδ
0.とする。同様【こ、式(25)で求めたδ゛此、式
(27)で求めたδ 、の○■くをとり、このニューロ
ンのδ′、とする。以上をまとめると、 δ’*=(tJ(δ” hnTjk))U(U(δ−、
n”rai))kE興舐性     kC抑制性 δ 、=(U(δ−,nTjm))u(u(δ”hnT
jm))kC興奮性     kE抑制性 (28) あるいは、 δ□= U E ’ jk δ J” U E)h            (28
’)ただし、E′、=δ+kn T J k(T J 
−=興奮性)=δ−* nT J h (T J k=
抑制性)E j、=δ−*nTjm (TJm==n奮
性)=δ” *n TJh (Tai=抑制性)となる
さらに、学習のレートに相当する機能を設けてもよい、
数値計算に於いてレー1〜が1以下のとき、さらに学習
能力が高まる。これは、パルス列の演算では、パルス列
を間引くことで実現できる。これは、カウンター的な考
え方をし、次のようなものにした。例えば、学習レー1
へ(η)=0.5では1元の信号のパルス列配1つおき
に間引けばよい。これは各ネットワークを順番にスキャ
ンしていって1つおきに間引いても良いし、各ネットワ
ーク毎に、出力が1の時は確率1/2で出力を出しても
良い。次の(例1)において、η=0.5の場合は、パ
ルスを1つおきに間引くもの、η=0.33の場合は、
パルスを2つおきに残すもの、rt=0.67の場合は
、パルスを2つおきに1回引くものである。
(例1) 元の信号 η=0.5の場合 り一一一一一一一一」−□ η=0.33の場合LL−
−−」−1−−η=0.67の場合(29) このようにして、誤差信号を間引くことによって、学習
レートの機能をもたせる。
■誤差信号より各結合係数を変化 いままで述べてきた方法により誤差信号を求め、各結合
係数を変化させるのであるが、それについて次に述べる
まず、変化させたい結合係数が属しているラインを流れ
る信号と誤差信号のANDをとる(δan、V+)。但
し、本発明では誤差信号は十と−の2つの信号があるの
で、それぞれ計算する。
δ”anyt             :l:Δ<1
−+、j(30) δ−J n yt−上−−,1−=ΔT−1゜(31) この様にして得られた2つの信号をΔTljとする。本
発明に於けるT r 4は、絶対値成分であるので5元
のTIJが興奮性か、抑制性かで場合分けをし、あらた
なToを求める。
興奮性の場合 元のTi、に対して、ΔT ’ i Jの成分を増やし
、ΔT′4.の成分を減らす。
抑制性の場合 元のTLJに対して、ΔT’ ljの成分を減らし、Δ
T ’ L jの成分を増やす。
以上の学習側にもとづいて、ネットワークの計算をする
皿−椿 第3図乃至第5図は、以上のアルゴリズムをもとに、こ
れを実際の回路にしたものの例を示す図で、ネットワー
ク全体の図は第8図と同様で、第8図の線に相当する部
分の回路を第3図に、また第8図の丸に相当する部分を
第4図に、又、最終層の出力と教師信号から最終層にお
ける誤差信号を求める部分を第5図に示す。これらの3
つの回路を第8図のようにネットワークにし、さらに同
し構成のネットワークを複数個用意することによって、
自己学習が可能なデジタル方式のニューラルネットワー
クが実現できる。
まず、第3図から説明すると、1はニューロンへの入力
信号で式(8)のylに相当する。式(9)の結合係数
TLJは、シフトレジスタ8に保存しておく、8Aが取
り出し口で、8Bが入口である。シフトレジスタと同様
の機能を持つものであれば、そのほかのもの、例えば、
RAM+アドレスコントローラ等でもよい。第3図の9
は式(10)に相当する回路で、入力信号と結合係数と
のA N D (y zn Tij)を取っている。こ
の出力は結合が興奮性か抑制性かによってグループ分け
しなければいけないが、あらかじめそれぞれのグループ
への出力4にyFい興奮性)、5(yIい抑制性)を用
意し、どちらに出すのかを切り替えるようにした方が汎
用性が高い。このため、結合が興奮性か抑制性かを表す
ビットをメモリ14に保存しておき、回路13で切り替
える。
各入力を処理する式(11)に相当するOR回路が第4
図の回路16である。さらに式(12)の興奮性グルー
プが1で、抑制性グループがOの時のみ出力を出す回路
が第4図の回路17である。
また、式(16)の場合に於いても同様に論理回路で容
易に実現できる。
次に、誤差信号について説明する。最終層での誤差信号
を作るのが第5図である。これは式(20)〜(23)
に相当する。最終層からの出力1及び教師信号20より
誤差信号6,7を作る。
中間層における誤差信号を計算する式(28’)のうち
E’J、 E’、を求める部分を回路にしたのが、第3
図の回路10である。結合が興奮性か抑制性かで場合分
けをするので、それを行うのが回路12であり、あらか
じめ回路14にセットされたビットにより切り替える。
又、式(28’)の残りの部分が、第4図の回路18で
ある。又、学習レートに相当する式(29)の部分が第
4図の回路19である。これは入力が1の時確率が1/
2で1を出力するものである。これは、乱数の発生源と
してトランジスタの熱台を用い、これとある電圧値とを
コンパレータによって比較することにより容易に実現で
きる。そのほかの手段として、カウンター等を用いた疑
似乱数発生回路を利用しても良い。
n貫 さきに説明したネットワークを用いた自己学習式文字認
識装置について説明する。まず、手書き文字をスキャナ
ーで読み取り、これを第6図に示すように、16X16
のメツシュにわけ、文字部分のあるメツシュを1.ない
メツシュをOとした。
このデータ(256個)をネットワークに入力し、出力
は5つあるユニットのうちで一番大きい出力のものの位
置が、認識結果となるようにした。そのため、「1」〜
「5」までの数字を入力したときその数字に対応する番
号の出力が一番大きくなるように学習させた。ネットワ
ークの構成は、第1層目が256個5第2層目が20個
、第3層目が5個の神経細胞ユニットからなる。このう
ち、第1層目は何もしないので不要である。
また、各信号はデータを128ビツトとしたので同し構
成のネットワークを128組用意した。
最初、各結合係数はランダムとしておくと、出力結果は
必ずしも所望のものではない。
この回路の自己学習機能を用いて、各結合係数を新たに
求め、これを何回か繰り返すことによって、所望の出力
が得られるようにする。この実施例では、入力はO力弓
であるので、入力パルス列は常にr、 o wレベル、
又はI−I I G Hレベルの単純なものである。又
出力はトランジスタを介して、LEDと結び、LOWレ
ベルのとき消灯、HI GI−ルベルのとき点灯とした
。5回の出力毎に1−28個のネットワークのL E 
Dを束ねておいたので、パルス密度に応じて、遠目には
LEDの明るさが変わって見え、したがって、1番明る
いLED束が答えになる。十分学習させた文字に対して
は認識率100%を得た。
劾−−−一朱 今までのニューラルネットワークはほとんどコンピュー
タシミュレーションに頼っている。一部でこのネットワ
ークを回路化する試みも行われているが、それでも尚、
学習機能についてはコンピュータシミュレーションによ
るシリアル処理が行わ才している。而して、本発明によ
ると、学習機能も含めて、ニューラルネットワークの機
能をハードウェア上で並列的に行うことができ、従って
、従来のコンピュータシミュレーションのシリアル処理
に比べて、処理速度が著しく向上する。
さらに、パルス密度で表わされるデータを並列的に処理
することにより、処理速度が飛躍的に向上する、等の利
点がある。
【図面の簡単な説明】
第1図は、神経回路ユニッ1への1つを示す図、第2図
は、入力信号と各ネットワークとの関係を説明するため
の図、第3図乃至第5図は、各部の回路構成例を示す図
、第6図は、一実施例を説明するための図、第7図乃至
第9図は、神経回路ユニットの動作原理を説明するため
の図、第】0図乃至第13図は、従来の回路構成例を示
す図である。 J・・入力信号、2.3.6.7・・・誤差信号、4・
・興奮性信号、5・・・抑制性信号、8、・・シフ1−
レジスタ、20・・・教師信号。 第1図 第3図 し−−==−−−−−−−−−−−’n第 2 図 ネットワーク1 第 図 第 図 第 図 第 ア 図 第 図 第 図 第 10 図 第 1 区 1 第 第 2 図 3 図 0

Claims (1)

    【特許請求の範囲】
  1. 1、結合係数可変手段と、この結合係数可変手段の可変
    結合係数値を教師信号に対する誤差信号に基づいて生成
    する結合係数生成手段とにより自己学習手段を構成し、
    該自己学習手段をデジタル論理回路を用いて神経細胞模
    倣素子に付設して複数の神経細胞模倣回路を網上に接続
    した信号処理回路網を有し、該信号処理回路網を少なく
    とも2以上もって構成されることを特徴とする信号処理
    装置。
JP2067938A 1989-12-29 1990-03-16 信号処理装置 Pending JPH03268079A (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2067938A JPH03268079A (ja) 1990-03-16 1990-03-16 信号処理装置
US07/629,632 US5167006A (en) 1989-12-29 1990-12-18 Neuron unit, neural network and signal processing method
DE4042139A DE4042139C2 (de) 1989-12-29 1990-12-28 Neuron-Einheit
US07/889,380 US5333241A (en) 1989-12-29 1992-05-28 Neuron unit, neural network and signal processing method
US07/989,781 US5327522A (en) 1989-12-29 1992-12-11 Neuron unit
US08/128,707 US5619617A (en) 1989-12-29 1993-09-30 Neuron unit, neural network and signal processing method
US08/206,855 US5504838A (en) 1989-12-29 1994-03-07 Neuron unit with error signal having components representing pulse densities
US08/441,418 US5581662A (en) 1989-12-29 1995-05-15 Signal processing apparatus including plural aggregates

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2067938A JPH03268079A (ja) 1990-03-16 1990-03-16 信号処理装置

Publications (1)

Publication Number Publication Date
JPH03268079A true JPH03268079A (ja) 1991-11-28

Family

ID=13359373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2067938A Pending JPH03268079A (ja) 1989-12-29 1990-03-16 信号処理装置

Country Status (1)

Country Link
JP (1) JPH03268079A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111221311A (zh) * 2020-02-26 2020-06-02 江南大学 基于参数变分法的复杂网络分布式脉冲同步方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111221311A (zh) * 2020-02-26 2020-06-02 江南大学 基于参数变分法的复杂网络分布式脉冲同步方法及系统
CN111221311B (zh) * 2020-02-26 2023-02-21 江南大学 基于参数变分法的复杂网络分布式脉冲同步方法及系统

Similar Documents

Publication Publication Date Title
US5131073A (en) Neuron unit and neuron unit network
JP3582737B2 (ja) 信号処理装置
JPH03268079A (ja) 信号処理装置
US5519813A (en) Neuron unit for processing digital information
JPH05165987A (ja) 信号処理装置
JP3256553B2 (ja) 信号処理装置の学習方法
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JP3253613B2 (ja) 信号処理装置
JPH03268080A (ja) 信号処理装置
JP3276367B2 (ja) 神経細胞回路網
JPH03260785A (ja) 信号処理方法及びその回路網
Pavan et al. Reusable Spiking Neural Network Architecture
JPH05217010A (ja) 信号処理装置
JPH03268082A (ja) 信号処理方法及び装置
JPH05290014A (ja) 信号処理装置
JPH05314290A (ja) 信号処理装置
JP3338713B2 (ja) 信号処理装置
JP3130913B2 (ja) 信号処理装置
JPH056351A (ja) 信号処理装置
JP3255425B2 (ja) 信号処理方法
JPH03260759A (ja) 信号処理方法及び装置
JP3463890B2 (ja) 神経回路模倣素子
JPH05135001A (ja) 信号処理装置
JPH05108594A (ja) 信号処理装置
JPH04229361A (ja) ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置