JPH0573704A - 信号処理回路装置 - Google Patents

信号処理回路装置

Info

Publication number
JPH0573704A
JPH0573704A JP26706591A JP26706591A JPH0573704A JP H0573704 A JPH0573704 A JP H0573704A JP 26706591 A JP26706591 A JP 26706591A JP 26706591 A JP26706591 A JP 26706591A JP H0573704 A JPH0573704 A JP H0573704A
Authority
JP
Japan
Prior art keywords
signal
circuit
coupling coefficient
tag
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26706591A
Other languages
English (en)
Inventor
Hide Okubo
秀 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP26706591A priority Critical patent/JPH0573704A/ja
Publication of JPH0573704A publication Critical patent/JPH0573704A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 この発明は、「忘却」を模倣できるニューラ
ルネットワークにおける信号処理回路を提供することを
目的とする。 【構成】 この発明の信号処理回路装置は、可変結合
係数を記憶する係数記憶メモリ回路1に、少なくとも1
ビットのタグセル10を設ける。係数記憶メモリ回路1
が選択されるとタグセル10は第1の値を記憶し、非選
択の場合は、制御信号に第1の値とは異なる第2の値を
記憶することにより、忘却を模倣する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、文字や図形認識、ロ
ボットなどの運動制御、連想記憶などに応用される神経
細胞回路網を模倣したニューラルコンピュータ等の信号
処理回路装置に関する。
【0002】
【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この
「神経細胞模倣素子」(神経細胞ユニット)をネットワ
ークに構成することで情報の並列処理を目指したのが、
いわゆるニューラルネットワークである。文字認識や連
想記憶、運動制御等、生体ではいとも簡単に行われてい
ても、従来のノイマン型コンピュータではなかなか達成
できないものが多い。
【0003】生体の神経系、特に生体特有の機能、すな
わち並列処理や自己学習等を模倣して、これらの問題を
解決しよとする試みが、計算機シミュレーションを中心
として、盛んに行われている。
【0004】図6は、ニューラルネットワークのモデル
について説明するための図であり、図中、Aは、1つの
神経細胞ユニットを表している。図7は、図6の神経細
胞ユニットをネットワークに構成したもので、A1 、A
2、A3 は、それぞれ神経細胞ユニットを表している。
【0005】1つの神経細胞ユニットは、多数の他の神
経細胞ユニットと結合しており、それらから受けた信号
を処理して出力する。図7の場合、ネットワークは階層
型であり、神経細胞ユニットA2 は、1つ前の層の神経
細胞ユニットA1 より信号を受け、1つ先の層の神経細
胞ユニットA3へ信号を出力する。
【0006】最初に、図6に示した神経細胞ユニットA
について説明すると、他の神経細胞ユニットと自分の神
経細胞ユニットとの結合の度合いを表すのが、結合係数
Tと呼ばれているものであり、i番目の神経細胞ユニッ
トとj番目の神経細胞ユニットとの結合係数を、一般
に、Tijで表す。結合には、相手のニューロン(自分に
信号を送ってくるニューロン)からの信号が大きいほど
自分の出力が大きくなる興奮性結合と、逆に相手のニュ
ーロンからの信号が大きいほど自分の出力が小さくなる
抑制性結合とがあり、Tij>0が興奮性結合、Tij<0
が抑制性結合である。いま、自分のユニットがj番目の
神経細胞ユニットであるとし、i番目の神経細胞ユニッ
トの出力をyi とすると、これに結合係数Tijを掛けた
ijiが自分のユニットへの入力となる。
【0007】前述のように、各神経細胞ユニットは多数
の神経細胞ユニットと結合しているので、それらのユニ
ットに対するTiji を足し合わせたもの、すなわち、
ΣTiji が、自分のユニットへの入力となる。これを
内部電位uj といい、次の数式1で表される。
【0008】
【数1】uj =ΣTiji
【0009】次に、この入力に対して非線形処理をし
て、その神経細胞ユニットの出力とする。ここで用いる
非線形関数を神経細胞応答関数と呼び、例えば次の数式
2に示すようなシグモイド関数f(x)を用いる。
【0010】
【数2】f(x)=1/(1+e-x)
【0011】図6は、このシグモンド関数を示す図であ
る。
【0012】上記神経細胞ユニットを、図7に示すよう
なネットワークに構成し、各結合係数Tijを与え、上記
数式1、2を次々と計算することにより、最終的な出力
が得られる。
【0013】図13は、上記ネットワークを電気回路で
実現したものの一例を示す図で(特開昭62−2951
88号公報参照)、基本的には、S字形の伝達関数を有
する複数の増幅器53と、各増幅器53の出力を他の層
の増幅器の入力に接続する抵抗性フィードバック回路網
51とが設けられている。各増幅器53の入力側には接
地されたコンデンサCと接地された抵抗RとによるCR
時定数回路52が個別に接続されている。そして、入力
電流I1 、I2 〜IN が各増幅器53の入力に供給さ
れ、出力はこれらの増幅器53の出力電圧の集合から得
られる。
【0014】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞の結合の強さは、各細胞間の入出力ライ
ンを結ぶ抵抗50(抵抗性フィードバック回路網51中
の格子点)の抵抗値で表され、神経細胞応答係数は各増
幅器53の伝達関数で表される。また、神経細胞間の結
合には前述のように興奮性と抑制性とがあり、数学的に
は結合係数の正負符号により表される。しかし、回路上
の定数で正負を実現するのは困難であるので、ここで
は、増幅器53の出力を2つに分け、一方の出力を反転
させることにより、正負の2つの信号53a、53bを
生成し、これを適当に選択することにより実現するよう
にしている。また、図8に示したシグモイド関数に相当
するものとしては増幅器が用いられている。
【0015】次に、ネットワーク学習機能について説明
する。数値計算で用いられている学習法則としては、バ
ックプロパゲーションと呼ばれる次のようなものがあ
る。まず、各神経細胞ユニット間の結合係数は最初にラ
ンダムな値に設定しておき、この状態でネットワークに
入力を与えると、その出力結果は必ずしも望ましいもの
ではない。例えば、文字認識の場合、手書きの「1」の
文字を与えたとすると、出力結果として「この文字は
『1』である」と出るのが望ましい結果であるが、結合
係数がランダムであると必ずしも望ましい結果とはなら
ない。
【0016】そこで、このネットワークに正解(教師信
号)を与えて、再び同じ入力があった時出力結果が正解
となる(望ましい出力結果が得られる)ように、各結合
係数を変化させる。この時、結合係数を変化させる量を
求めるアルゴリズムが、バックプロパゲーションと呼ば
れているものである。例えば、図7に示したような階層
型のネットワークにおいて、最終層(図の右の層A3)
のj番目の神経細胞ユニットの出力をyj とし、その神
経細胞ユニットに対する教師信号をdj とすると、次の
数式3で表されるEが最小となるように、次の数式4を
用いて結合係数Tijを変化させる。
【0017】
【数3】E=Σ(dj −yj 2
【0018】
【数4】ΔTij=∂E/∂Tij
【0019】具体的には、まず、出力層と、その1つ前
の層における誤差信号δj を、次の数式5により求め
る。
【0020】
【数5】δj =(dj −yj )×f’(uj
【0021】それよりさらに前の層(中間層)における
誤差信号δj を、数式6によりもとめる。
【0022】
【数6】δj =Σδj ij×f’(uj
【0023】但し、f’はfの一階微分である。
【0024】これを用いて、δ(誤差信号)を求め、次
の数式7により、Tijを求めて、Tijを変化させる。
【0025】
【数7】ΔTij=η(δj j )+αΔTij’ Tij=Tij’+ΔTij
【0026】但し、ΔTij’、Tij’はそれぞれ前回の
学習時での値である。また、ηは学習定数、αは安定化
定数と呼ばれているものであり、各々、理論的には求め
られないので経験的に求める。一般的には、これらの数
値が小さいほど収束が遅く、また、大きいと振動してし
まう傾向にある。オーダ的には1程度のものである。
【0027】このようにして学習をし、その後、再び入
力を与えて出力を計算し、学習をする。この操作を何回
も繰り返すうちに、やがて、与えられた入力に対して望
ましい結果が得られるような結合係数Tijが決定され
る。
【0028】さて、このような学習方法を何らかの方法
でハードウエア化しようとした場合、学習には、多量の
四則演算が必要であり、実現が困難である。学習方法そ
のものもハードウェア化に対しては不向きである。
【0029】図14〜図16は、このようなニューラル
ネットワークをデジタル回路で実現した例を示す図であ
る。図14は単一神経細胞の回路構成例を示す図であ
り、60はシナプス回路、61は樹状突起回路、62は
細胞体回路を示す。図15は、図14に示したシナプス
回路60の構成例を示す図であり、係数回路60aを介
して入力パルスfに倍率a(フィードバック信号に掛け
る倍率で1または2)を掛けた値が入力されるレートマ
ルチプライヤ60bを設けてなり、レートマルチプライ
ヤ60bには重み付けの値wを記憶したシナプス荷重レ
ジスタ60cが接続されている。また、図16は細胞体
回路62の構成例を示す図であり、制御回路63、アッ
プ/ダウンカウンタ64、レートマルチプライヤ65及
びゲート66を順に接続してなり、さらに、アップ/ダ
ウンメモリ67が設けられている。
【0030】ここでは、神経細胞ユニットの入出力をパ
ルス列で表現し、そのパルス密度で信号の量を表してい
る。結合係数は2進数で取り扱い、シナプス荷重レジス
タ60cに保存している。信号演算処理は次のように行
われる。
【0031】まず、入力信号をレートマルチプライヤ6
0bへ入力し、結合係数をレート値へ入力することによ
って、入力信号のパルス密度をレート値に応じて減らし
ている。これは、前述のバックプロパゲーションモデル
の数式1のTiji の部分に相当する。またΣTiji
のΣの部分は、樹状突起回路61によって示されるOR
回路で実現している。結合には興奮性、抑制性があるの
で、あらかじめグループ分けしておき、それぞれのグル
ープ別に論理和をとる。図14において、F1 は興奮
性、F2 は抑制性出力を示す。
【0032】この2つの出力を、図16に示したカウン
タ64のアップ側、ダウン側にそれぞれ入力してカウン
トすることで出力が得られる。この出力は2進数である
ので、再びレートマルチプライヤ65を用いて、パルス
密度に変換する。この神経細胞ユニットを複数個用いて
ネットワークを構成することによって、ニューラルネッ
トワークが実現できる。
【0033】学習機能は、ネットワークの最終出力を外
部のコンピュータに入力して、コンピュータ内部で数値
計算を行い、その結果を結合係数を保存するシナプス荷
重レジスタ60cに書き込むことによって実現してい
る。
【0034】本出願人は、神経細胞模倣素子より構成さ
れた神経細胞回路網による信号処理回路装置を既に開発
し、特許出願している(特願平1−343891号)。
この発明では、その信号処理回路装置を一実施例の例題
として取り扱っている。以下、本出願人が既に開発した
信号処理回路装置について述べる。
【0035】この信号処理回路装置においては、神経回
路網の一例として、ディジタル論理回路を用いた神経細
胞ユニットとこれを用いて構成したネットワーク回路に
よる信号処理について提案している。
【0036】ここで基本的な考え方は、 神経細胞ユニットに関する入出力信号、中間信号、結
合係数、教師信号などは、すべて、「0」、「1」の2
値で表されたパルス列で表現する。 ネットワーク内部での信号の値は、パルス密度で表す
(ある一定時間内の「1」の数)。 神経細胞ユニット内での計算は、パルス列同士の論理
演算で行う。 結合係数のパルス列は、神経細胞ユニット内のメモリ
に格納する。 学習は、このパルス列を書き換えることで実現する。 学習については、与えられた教師信号パルス列を元に
誤差を計算し、これに基づいて、結合係数を変化され
る。この時、誤差の計算、結合係数の変化分の計算もす
べて、「0」、「1」のパルス列の論理演算で行う。と
いうものであり、以下詳細に説明する。
【0037】図9は、信号演算部分、すなわち、1つの
神経細胞模倣回路(ユニット)に相当する部分を示す図
で、ネットワークの構成は、図7に示したような従来と
同じ階層型を用いる。神経細胞ユニットの入出力は、す
べて、「0」、「1」に2値化され、さらに、同期化さ
れたものを用いる。
【0038】入力yi の信号の値(=強度)は、パルス
密度で表現し、例えば次の数式8に示すパルス列のよう
に、ある一定時間内にある、「1」の状態の数で表す。
【0039】
【数8】
【0040】数式8は、4/6を表す信号を示してお
り、同期パルス6個中に入力信号は「1」が4個、
「0」が2個であることを表している。この時、「1」
と「0」の並び方は、後述するようにランダムであるこ
とが望ましい。
【0041】一方、結合係数Tijも、次の数式9で示す
ように、同様にパルス密度で表現し、「0」と「1」と
のパルス列としてあらかじめメモリに用意しておく。
【0042】
【数9】
【0043】数式9は、結合係数の値が「10101
0」=3/6であることを表し、この時も、前記と同
様、「0」と「1」の並び方はランダムであることが望
ましい。そして、この結合係数のビット列を同期クロッ
クに応じてメモリより順次読み出し、図9に示すように
各々AND回路18により入力パルス列との論理積をと
る(yi ∩Tij)。これを、神経細胞ユニットへの入力
とする。上記の例を用いて説明すると、信号「1011
01」が入力された場合、これと同期してメモリ上より
結合係数のビット列を呼び出し、順次ANDをとること
によって、次の数式10で示すようなパルス列(ビット
列)「101000」が得られる。
【0044】
【数10】
【0045】数式10は、入力信号のパルス列yi が、
結合係数のパルス列Tijにより変換され、その結果、神
経細胞ユニットへの入力パルス密度が2/6となること
を示している。
【0046】このAND回路18の出力のパルス密度
は、近似的には「入力信号のパルス密度」と「結合係数
のパルス密度」の積となり、アナログ方式における場合
の結合係数と同様の機能を有する。これは、信号の列
(パルス列)が長いほど、また、「1」と「0」との並
び方がランダムであるほど、数値の積に近い機能を持つ
ことになる。ランダムでないとは、1(または0)が密
集(密接)していたり、1と0の並びに規則性があるこ
とを意味する。
【0047】なお、入力パルス列と比較して結合係数の
パルス列の長さが短く、読み出すべきデータがなくなっ
てしまった場合には、再びデータの先頭に戻って、読み
出しを繰り返すことで対処できる。
【0048】1つの神経細胞ユニットは多くの入力をも
つので、先に説明した「入力信号と結合係数との論理
積」も多数ある。次に、これらのOR操作によりこれら
の論理和をとる。入力は同期化されているので、1番目
のデータが「101000」、2番目のデータが「01
0000」の場合、両者の論理和は、「111000」
となる。これを多入力同時に計算し出力とすると次の数
式11のようになる。
【0049】
【数11】
【0050】この部分はアナログ計算における場合の、
信号の和を求める計算及び非線形関数(例えばシグモイ
ド関数)の部分に対応している。
【0051】一般的なパルス演算において、パルス密度
が低い場合、その論理和をとったもののパルス密度は、
各々のパルス密度の和に近似的に一致する。パルス密度
が高くなるにつれて、OR回路の出力は徐々に飽和して
くるので、パルス密度の和とは結果が一致せず、非線形
性が出てくる。論理和の場合、パルス密度は1よりも大
きくなることはなく、かつ、0より小さくなることもな
く、さらには、単調増加関数であるので、シグモイド関
数と近似的に同様となる。
【0052】さて、結合には興奮性と抑制性があり、数
値計算の場合には、結合係数の符号で表し、アナログ回
路の場合には、前述したように結合係数Tijが負となる
場合(抑制性結合)には増幅器を用いて出力を反転さ
せ、Tijに相当する抵抗値で他の神経細胞ユニットへ結
合させている。この点、ディジタル方式の場合において
は、まず、Tijの正負により各結合を興奮性結合と抑制
性結合との2つのグループに分け、次いで、「入力信号
と結合係数のパルス列の論理積」同士の論理和をこのグ
ループ別に演算する。その結果、興奮性グループの出力
が「1」で、かつ、抑制性グループの出力が「0」の時
のみ「1」を出力する。この機能を実現するためには、
次の数式12で示すように、抑制性グループの出力の反
転信号と興奮性グループの出力との論の積をとればよ
い。
【0053】
【数12】
【0054】論理式で表現すると、次の数式13〜15
で表される。
【0055】
【数13】a=∪(yi ∩Tij)(T=興奮性)
【0056】
【数14】b=∪(yi ∩Tij)(T=抑制性)
【0057】
【数15】yi =a∩*b
【0058】この神経細胞ユニットを用いたネットワー
クの構成は、図7に示したような、階層型とする。ネッ
トワーク全体を同期させておけば、各層とも上述の通り
の機能で並列的に演算することが可能である。
【0059】次に、学習時の処理について説明する。
【0060】以下のまたはにより誤差信号を求め、
ついでで述べる方法により結合係数の値を変化させる
ことにより、学習を行う。
【0061】出力層における誤差信号 最初に、出力層(図7の右側の層A3)で各ニューロン
における誤差信号を計算し、それを元にそのニューロン
に関わる結合係数を変化させる。そのための誤差信号の
計算法について、次の数式16〜19を用いて説明す
る。ここで、「誤差信号」を以下のように定義する。す
なわち、誤差を数値で表すと、一般には正負両方の値を
とり得るが、パルス密度ではそのような表現はできない
ので、+成分を表す信号と−成分を表す信号の2つを使
って誤差信号を表現する。
【0062】
【数16】
【0063】
【数17】
【0064】
【数18】
【0065】
【数19】
【0066】つまり、誤差信号の+成分は、出力結果
が”0”で、教師信号が”1”の時”1”となり、それ
以外は”0”となる。
【0067】他方、誤差信号の−成分は、出力結果が”
1”で、教師信号が”0”のとき”1”となり、それ以
外は”0”となる。このような誤差信号パルスを元に、
結合係数を後述するように変化させることになる。
【0068】中間層における誤差信号 前述ので求めた出力層における誤差信号を逆伝播さ
せ、出力層とその1つ前の層との結合係数だけでなく、
さらにその前の層の結合係数も変化する。そのため、中
間層(図7の中央層A2)における各ニューロンでの誤
差信号を計算する必要がある。中間層にあるニューロン
から、さらに1つの先の層の各ニューロンへ信号を伝播
させたのとは、丁度逆の要領で1つの先の層の各ニュー
ロンにおける誤差信号を集めてきて、自己の誤差信号と
する。このことは、神経細胞ユニット内での上記数式8
〜11と同じような要領で行うことができる。すなわ
ち、まず、結合を興奮性か抑制性かにより2つのグルー
プに分け、乗算の部分は論理積、Σの部分は論理和で表
現する。
【0069】但し、神経細胞ユニット内での上記数式8
〜11と異なるのは、yは1つの信号であるのに対し
て、δは正、負を表す信号として2つの信号を持ち、そ
の両方の信号を考慮する必要がある。従って、T(結合
係数)の正負、δ(誤差信号)の正負の4つの場合に場
合分けする必要がある。
【0070】まず、興奮性結合の場合を説明する。中間
層のある神経細胞ユニットについて、1つの先の層(図
7における出力層A3)の神経細胞ユニットでの誤差信
号+と、その神経細胞ユニットと自分(図7における中
間層のある神経細胞ユニット)との結合係数の論理積を
とったもの(δ+ i ∩Tij)を1つ先の層の各神経細胞
ユニットについて求め、さらにこれらの同士の論理和を
とる{=∪(δ+ i ∩Tij)}。その結果をこの層の誤
差信号+ とする。すなわち次の数式20のように表され
る。
【0071】
【数20】
【0072】同様に、次の数式21で示すように、1つ
先の層の神経細胞ユニットでの誤差信号- と結合係数と
のANDをとり、さらにこれら同士のORをとることに
より、この層の誤差信号- を求めることができる。
【0073】
【数21】
【0074】次に、抑制性結合の場合を説明する。次の
数式22で示すように、1つ先の層の神経細胞ユニット
での誤差信号- と、その神経細胞ユニットと自分との結
合係数のANDをとり、さらにこれらの同士のORをと
った結果を、この層の誤差信号+ とする。
【0075】
【数22】
【0076】同様に、次の数式23で示すように、1つ
先の層の神経細胞ユニットでの誤差信号+ と結合係数と
のANDをとり、さらにこれらの同士のORをとること
により、この層の誤差信号- を求めることができる。
【0077】
【数23】
【0078】1つの神経細胞ユニット(ニューロン)か
ら別の神経細胞ユニット(ニューロン)への結合は、興
奮性の場合と抑制性の場合の2つがあるので、上記数式
20で求めた誤差信号δ+ と上記数式22で求めた誤差
信号δ+ の論理和をとり、それを自分の神経細胞ユニッ
ト(ニューロン)の誤差信号δ+ とする。同様に、上記
数式21で求めた誤差信号δ- と上記数式23で求めた
誤差信号δ- の論理和をとり、それを自分の神経細胞ユ
ニット(ニューロン)の誤差信号δ- とする。
【0079】以上をまとめると、次の数式24のように
なる。
【0080】
【数24】
【0081】誤差信号より各結合係数を変化 学習のレートに相当する機能の実現方法について説明す
る。数値計算においてレートは1以下の時、さらに学習
能力が高まる。これは、パルス列の演算ではパルス列を
間引くことで実現できる。これはカウンタ的な考え方を
し、次の数式25で示すような例1、例2のようなもの
とした。例えば、η=0.5では元の信号のパルス列を
1つ置きに間引く。元の信号のパルスが等間隔でなくて
も、もとのパルス列に対して1つ置きに間引く方式(<
例2>の方式)とした。
【0082】
【数25】(例1) (例2)
【0083】このように誤差信号を間引くことにより学
習レートの機能を持たせる。さて、上記またはより
求めた誤差信号を用いて、各結合係数を変化させる方法
について説明する。
【0084】次の数式26、27で示すように、変化さ
せたい結合係数が属している線(図2参照)を伝播する
信号(=神経細胞ユニットに対する入力信号)と誤差信
号の論理積をとる(δ∩y)。但し、ここでは誤差信号
は+と−の2つの信号があるので、それぞれを演算して
求める。
【0085】
【数26】
【0086】
【数27】
【0087】このようにして得られた2つの信号をΔT
+ 、ΔT- とする。
【0088】これらを元にして新しい結合係数Tを求め
るのであるが、ここでTの値は、絶対値成分なので、元
のTが興奮性か抑制性かにより場合分けをする。
【0089】まず、興奮性の場合には、次の数式28で
示すように、元のTに対してΔT+の成分を増やし、Δ
- の成分を減らす。
【0090】
【数28】
【0091】次に抑制性の場合には、次の数式29で示
すように、元のTに対して、ΔT+の成分を減らし、Δ
- の成分を増やす。
【0092】
【数29】
【0093】以上の学習則に基づいてネットワーク全体
の計算を行う。
【0094】次に図10〜図12を参照して、以上のア
ルゴリズムに基づく実際の回路構成を説明する。ニュー
ラルネットワークの構成は図7と同様である。図10
は、図7の線(結線)に相当する部分の回路を示す図
で、図11は、図7の丸(神経細胞ユニットA)に相当
する部分の回路を示す図である。また、図12は、出力
層の出力と教師信号から出力層における誤差信号を求め
る部分の回路を示す図である。これらの3つの回路を図
7のようにネットワークにすることによって、自己学習
が可能なディジタル式のニューラルネットワーク回路が
実現できる。
【0095】まず、図10について説明する。20は神
経細胞ユニットへの入力信号で上記数式8に相当する。
上記数式9の結合係数はシフトレジスタ27に保存して
おく。端子27Aがデータの取り出し口で、端子27B
がデータの入り口である。これはシフトレジスタと同様
の機能をもつものであれば、その他のもの、例えば、R
AMとアドレスコントローラとからなるもの等を用いて
もよい。
【0096】回路28は上記数式10の演算を行うため
の回路で、入力信号と結合係数との論理積をとってい
る。この出力は結合が興奮性か抑制性かによってグルー
プ分けしなければならないが、あらかじめ各々のグルー
プへの出力23、24を用意し、どちらのグループに出
すのかを切り換えるようにした方が汎用性が高い。この
ため、結合が興奮性か抑制性かを表すビットをメモリ3
3に保存しておき、その情報を用いて切り換えゲート回
路32により信号を切り換える。
【0097】また、図11に示したように各入力を処理
する上記数式11の演算を行うための複数のORゲート
構成のゲート回路34が設けられている。さらに同図に
示すように上記数式12で示した、興奮性グループが
「1」で、かつ、抑制性グループが「0」の時のみ出力
を出すANDゲートとインバータとによるゲート回路3
5が設けられている。
【0098】次に、誤差信号について説明する。図12
は、出力層での誤差信号を生成する回路を示す図で、A
NDゲート、インバータの組み合わせによる論理回路で
あり、上記数式16〜19の演算を行う。すなわち、最
終層からの出力38及び教師信号39より誤差信号4
0、41を生成する。また、中間層における誤差信号を
求める上記数式20〜23の演算は、図10中に示すA
NDゲート構成のゲート回路29より行われ、+、−に
応じた出力21、22が得られる。
【0099】このように結合が興奮性か抑制性かで用い
る誤差信号が異なるので、その場合分けを行う必要があ
るが、この場合分けはメモリ33に記憶された興奮性か
抑制性かの情報と、誤差信号+ 、- 信号25、26とに
応じて、AND、ORゲート構成のゲート回路31によ
り行われる。また、誤差信号を集める上記数式24の演
算は、図11に示すORゲート構成のゲート回路36で
行われる。また学習レートに相当する上記数式25の演
算は、図11に示す1/2分周回路37により行われ
る。
【0100】最後に、誤差信号より新たな結合係数を計
算する部分について説明する。これは上記数式26〜2
9で表され、これらの演算は図10に示すANDゲー
ト、インバータ、ORゲート構成のゲート回路30によ
り行われる。このゲート回路30も結合の興奮性・抑制
性によって場合分けしなければならないが、これは図1
0に示すゲート回路31により行われる。
【0101】前述の階層型神経回路網は、図7に示すよ
うなネットワークを形成する。ここで、入力層に入力信
号を与えて、出力層より、出力信号を得るフォワードプ
ロセス、及び入力層に入力信号を与えた状態で、出力層
に教師信号を与え、出力層と中間層との結合係数を変更
し、さらに中間層と入力層との結合係数を変更する学習
プロセスを考える。
【0102】まず、フォーワードプロセスであるが、最
初に入力層に入力信号を与えると、この入力信号が中間
層に伝播していき、中間層の信号処理として、上記数式
1、2の演算を行い、その結果を出力層に伝播させる。
出力層では、これらの伝播してきた信号に対して、同様
に上記数式1、2の演算を実行し、これらの結果とし
て、出力信号を得ることになる。
【0103】学習プロセスでは、以上のフォワードプロ
セスを行った後、さらに出力層に教師信号を与える。出
力層では、上記数式5によって、出力層における誤差を
求め、この誤差を中間層に伝播させるとともに、出力層
の神経細胞ユニットと中間層の神経細胞ユニットとの間
の結線の強度、すなわち結合係数を上記数式7により変
更する。
【0104】次に、中間層における処理として、上記数
式6によって、中間層における誤差を求め、この誤差に
より、中間層の神経細胞ユニットと入力層の神経細胞ユ
ニットとの間の結線の強度(結合係数)を上記数式7に
より変更し、学習プロセスを完了する。
【0105】
【発明が解決しようとする課題】上述したように、上記
学習機能を有したニューラルネットワークにおける信号
処理回路装置においては、「覚える」という要素を模倣
することは可能である。
【0106】しかしながら、他の要素である「忘却」の
ことは模倣することができないという問題があった。
【0107】この発明は上述した従来の問題点を解消し
「忘却」を模倣できるニューラルネットワークにおける
信号回路を提供することを目的とする。
【0108】
【課題を解決するための手段】この発明の信号処理回路
装置は、可変結合係数を記憶する係数記憶メモリ回路を
備えた結合係数可変回路と、この結合係数可変回路の可
変結合係数値を教師信号に対する誤差信号に基づき生成
する結合係数生成回路とよりなる自己学習回路を神経細
胞模倣素子に付設した複数の神経細胞模倣回路を網状に
接続してなる信号処理回路装置において、上記可変結合
係数を記憶する係数記憶メモリ回路に、少なくとも1ビ
ットのタグセルを設け、上記タグの状態によって忘却を
模倣することを特徴とする。
【0109】上記タグセルは、係数記憶メモリ回路が選
択されると第1の値を記憶し、非選択の場合は、制御信
号に第1の値とは異なる第2の値を記憶するように構成
される。
【0110】また、上記タグセルにおいて、記憶情報を
ワイヤードOR接続する機能を付加すると良い。
【0111】更に、上記タグセルの個数又は、制御信号
の周波数で忘却までの時間を模倣できるように構成する
と良い。
【0112】また、上記忘却までの時間を、プログラム
可能に構成すれば良い。
【0113】
【作用】この発明によれば、結合係数を記憶するメモリ
に少なくとも1ビットのタグセルを設けることにより、
メモリがアクセスされたか否かでこのタグセルの値を変
更させる。
【0114】タグセルの状態により、アクセスがされな
いメモリ領域は「忘却」するように制御することで、
「忘却」を模倣することができる。
【0115】また、「忘却」の時間をタグセルの個数ま
たは、周波数を制御することで、容易に設定できる。
【0116】
【実施例】以下、前述のディジタル回路でニューラルネ
ットワークを実現したものに対して、この発明を適用し
た実施例について説明する。
【0117】前述の図10に示すディジタル回路の構成
において、可変結合係数はレジスタ27に記憶されてい
るが、この発明においては、可変結合係数はSRAM,
DRAMなどの半導体メモリにて構成される係数記憶メ
モリ1に記憶される。
【0118】そして、この係数記憶メモリ1の各ワード
ライン毎に少なくとも1ビットのタグセルを付加する。
このタグセルの状態によって忘却を模倣するものであ
る。
【0119】図1は、この発明の一実施例を示すブロッ
ク図である。
【0120】この実施例においては、係数記憶メモリ1
の4つのワードラインWL0〜WL3に夫々4ビットの
タグセル10−3〜10−0が付加されている。そし
て、このタグセル10−3〜10−0のデータラインT
L0〜TL3には、制御回路2からの信号がインバータ
17−0〜17−3を介して与えられる。
【0121】また、タグセル10内の忘却制御ライン*
RMBにはクロックCKがMOSFETを介して与えら
れ、そして、各*RMB出力は、ナンド回路3を介して
信号FGTとして係数記憶メモリ1のYゲートセンスア
ンプ書込回路5に与えられる。
【0122】図2は、この実施例におけるタグセル10
と係数記憶メモリ1との要部を示す回路用である。この
図2に従いこの発明つき更に説明する。
【0123】この発明においては、係数記憶メモリ1の
ワードラインWLmにタグセル10が接続される。係数
記憶メモリ1のワードラインWLmに、タグセル10の
フリップフロップを構成するインバータ11、12がM
OSFET13、14を介して接続されることにより、
タグセル10が係数記憶メモリ1に付加される。このイ
ンバータ12の出力側は、MOSFET15のゲート出
力に、またMOSFET15のソース側は忘却データラ
イン*RMBnに夫々接続されている。尚、MOSFE
T15のドレイン側は接地される。
【0124】一方、MOSFET13には制御回路2よ
りの記憶情報に基づく出力がインバータ17を介して与
えられる。また、忘却データライン*RMBnにはMO
SFET16を介してクロック信号CKが与えられる。
【0125】図4はタグセルの具体的回路例を示す。こ
の実施例では、インバータをCMOSで構成している。
【0126】図2に示したタグセルを構成するメモリセ
ルの動作を図4を用いて説明する。
【0127】ここで、R1〜R8は各MOSFETのオ
ン抵抗とする。即ち、インバータ11のpチャネルMO
SFETのオン抵抗をR1、インバータ11のnチャネ
ルMOSFETのオン抵抗をR2、インバータ12のp
チャネルMOSFETのオン抵抗をR3、インバータ1
2のnチャネルMOSFETのオン抵抗をR4、MOS
FET14のオン抵抗をR5、MOSFET13のオン
抵抗をR6、インバータ17のpチャネルMOSFET
のオン抵抗をR7、インバータ17のnチャネルMOS
FETのオン抵抗をR8とする。
【0128】また、記憶データ”1”とはノードN1
が”L”、ノードN2が”H”、記憶データ”0”とは
ノードN1が”H”、ノードN2が”L”と定義する。
【0129】このメモリセルは、係数記憶メモリ1のワ
ード線を選択時”0”、非選択時”1”を記憶する様
に、例えば、次の様に設計すればよい。
【0130】上記各MOSFETのオン抵抗を、R1=
R2=R3=R4=4R、R5=R6=R8=R、R7
=R5とする。ここで、Rは任意の値である。
【0131】説明を簡単にするために、インバータ1
1、12共にスレッシュホールド電圧を2.5Vとし、
電源電圧を5Vとすると、選択時並びに非選択時は次に
示すようになる。
【0132】(1)選択時(選択前:1)の時 R1−R5より、ノードN2は1Vとなり、インバータ
12のスレッシュホールド電圧以下なので、フリップフ
ロップが反転し、”0”を記憶する。
【0133】(2)非選択時(選択前:”1”、インバ
ータ17へのA入力:”L”)の時 R7−R6−R4より、ノードN1は2Vとなり、イン
バータ11のスレッシュホールド電圧以下なので、フリ
ップフロップは反転せず”1”を保持する。
【0134】(3)非選択時(選択前:”0”、インバ
ータ17へのA入力:”H”)の時 R3−R6−R8より、ノードN1は1.7Vとなり、
インバータ11のスレッシュホールド電圧以下なので、
フリップフロップは反転し”1”を記憶する。
【0135】インバータのスレッシュホールド電圧、各
MOSFETのオン抵抗等、上記(1)〜(3)の条件
を満たす範囲内で自由に設定できる。
【0136】図3はタグセル10と係数記憶メモリ1と
の他の実施例における要部を示す回路用である。図3に
示す実施例においては、制御回路2より与えられる記憶
情報がワーヤードORにより、タグセル10のフリップ
フロップ与えられるように構成される。即ち、制御回路
2より与えられる記憶情報に基づく出力がインバータ1
7をMOSFET18、19からフリップフロップに与
えられる。
【0137】この図3に示す回路であれば、上記(2)
の条件がなくなり自由度あるいは回路の安定度が増す。
【0138】次に、図3を参照して忘却タグセルとして
の動作を説明する。
【0139】選択線(ワードライン:WLm)は係数記
憶メモリ1のワードラインWLmと共通にしている。係
数記憶メモリ1内にある番地をアクセスする度に、上述
(1)の通りタグの内容がリセットされ”0”となる。
この時クロック信号CKによりプリチャージされていた
忘却線*RMBはMOSFET15の動きにより”L”
となる。忘却線*RMBが”L”の時は、覚えているこ
とを示す。逆に非選択のワードラインWLmに継るタグ
セルは上述(3)の通りタグの内容がセットされ”1”
となる。このとき忘却線*RMBは”H”を維持してい
る。忘却線*RMBが”H”の時は、忘却とする。
【0140】上記の例では、係数記憶メモリ1をアクセ
スする度に選択番地はリセットその他のもの全てはセッ
トされ、「忘却」が瞬時に行われることになる。「忘
却」までの時間を模倣するには以下の様にする。
【0141】前述のタグセルを各ワードライン毎に複数
個並置する。図1の例では、4ワードの係数記憶メモリ
1に4ビットのタグセル10を付加したとする。
【0142】例えば、アドレスは”00”→”01”
→”10”→”00”→”11”と変化し、データライ
ンTLは各サイクル毎に0→1→2→3→0とシフトを
繰返すとする。
【0143】簡単な為、サイクル0の前全タグセルの各
ビットの内容が”1”だったと仮定すれば、タグセルの
ビットの情報は、次の表1に示すようになる。図5はこ
の動作を示すタイムチャートである。
【0143】
【表1】
【0144】上記表1に示すように、タグセルのビット
の情報は変化する。従ってサイクル3にて忘却線*RM
B3が”L”となり、信号FGTは”H”となり忘却す
る。
【0145】この実施例では、4回中1回もアクセスさ
れなければ忘却ということになる。
【0146】この考えを拡張すれば、忘却までの時間設
定は種々の手法がある。例えば、タグメモリの数を増減
するまたはデータラインTLの信号発生頻度を調整する
等可能である。
【0147】又、実施例ではメモリをアクセスする信号
と同期して、タグのセット/リセットを行っているが、
システムロックと同期しても良い。この場合、忘却まで
の時間を絶対時間で設定できる。
【0148】又、忘却時間を制御回路2よりのデータラ
インTLの信号発生頻度をプログラムすることにより、
忘却時間をプログラムすることも制御回路で論理的に設
定できるので容易である。
【0149】
【発明の効果】この発明によれば、結合係数を記憶する
メモリに少なくとも1ビットのタグセルを設けることに
より、メモリがアクセスされたか否かでこのタグセルの
値を変更させ、タグセルの状態により、アクセスがされ
ないメモリ領域は「忘却」するように制御することで、
「忘却」を模倣することができる。また、「忘却」の時
間をタグセルの個数または、周波数を制御することで、
容易に設定できる。
【図面の簡単な説明】
【図1】この発明の実施例である信号処理回路装置を示
すブロック図である。
【図2】この発明の実施例における係数記憶メモリとタ
グセルとの要部を示す回路図である。
【図3】この発明の他の実施例における係数記憶メモリ
とタグセルとの要部を示す回路図である。
【図4】この発明に適用されるタグセルの一例を示す回
路図である。
【図5】図1の信号処理回路装置による各処理のタイミ
ングを示すタイミングチャートである。
【図6】ニュートラルネットワークのモデルについて説
明するための模式図である。
【図7】図7の神経細胞ユニットをネットワークに構成
した模式図である。
【図8】シグモンド関数を示すグラフである。
【図9】神経細胞模倣回路を示す回路図である。
【図10】図7の線(結線)に相当する回路を示す回路
図である。
【図11】図7の丸(神経細胞ユニット)に相当する回
路を示す回路図である。
【図12】出力層の出力と教師信号から出力層における
誤差信号を求める回路を示す回路図である。
【図13】ニュートラルネットワークを電気回路で実現
した例を示す回路図である。
【図14】単一神経細胞の回路構成を示すブロック図で
ある。
【図15】シナプス回路を示すブロック図でである。
【図16】細胞体回路を示すブロック図である。
【符号の説明】
1 係数記憶メモリ 2 制御回路 10 タグセル

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 可変結合係数を記憶する係数記憶メモリ
    回路を備えた結合係数可変回路と、この結合係数可変回
    路の可変結合係数値を教師信号に対する誤差信号に基づ
    き生成する結合係数生成回路とよりなる自己学習回路を
    神経細胞模倣素子に付設した複数の神経細胞模倣回路を
    網状に接続してなる信号処理回路装置において、上記可
    変結合係数を記憶する係数記憶メモリ回路に、少なくと
    も1ビットのタグセルを設け、上記タグセルの状態によ
    って忘却を模倣することを特徴とする信号処理回路装
    置。
  2. 【請求項2】 上記タグセルは、係数記憶メモリ回路が
    選択されると第1の値を記憶し、非選択の場合は、制御
    信号に第1の値とは異なる第2の値を記憶することを特
    徴とする請求項1に記載の信号処理回路装置。
  3. 【請求項3】 上記タグセルにおいて、記憶情報をワイ
    ヤードOR接続する機能を付加したことを特徴とする請
    求項2に記載の信号処理回路装置。
  4. 【請求項4】 上記タグセルの個数又は制御信号の周波
    数で忘却までの時間を設定することを特徴とする請求項
    3に記載の信号処理回路装置。
  5. 【請求項5】 上記忘却までの時間をプログラム可能に
    構成したことを特徴とする請求項4に記載の信号処理回
    路装置。
JP26706591A 1991-09-17 1991-09-17 信号処理回路装置 Pending JPH0573704A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26706591A JPH0573704A (ja) 1991-09-17 1991-09-17 信号処理回路装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26706591A JPH0573704A (ja) 1991-09-17 1991-09-17 信号処理回路装置

Publications (1)

Publication Number Publication Date
JPH0573704A true JPH0573704A (ja) 1993-03-26

Family

ID=17439549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26706591A Pending JPH0573704A (ja) 1991-09-17 1991-09-17 信号処理回路装置

Country Status (1)

Country Link
JP (1) JPH0573704A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174418B2 (en) 2003-04-30 2007-02-06 Hynix Semiconductor Inc. Semiconductor memory device for enhancing refresh operation in high speed data access
US7363460B2 (en) 2003-04-30 2008-04-22 Hynix Semiconductor Inc. Semiconductor memory device having tag block for reducing initialization time

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174418B2 (en) 2003-04-30 2007-02-06 Hynix Semiconductor Inc. Semiconductor memory device for enhancing refresh operation in high speed data access
US7363460B2 (en) 2003-04-30 2008-04-22 Hynix Semiconductor Inc. Semiconductor memory device having tag block for reducing initialization time

Similar Documents

Publication Publication Date Title
JP3582737B2 (ja) 信号処理装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH0573704A (ja) 信号処理回路装置
JPH05165987A (ja) 信号処理装置
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH04229361A (ja) ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置
JPH05217010A (ja) 信号処理装置
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JP3255425B2 (ja) 信号処理方法
JPH04148389A (ja) 神経細胞回路網
JPH05290014A (ja) 信号処理装置
JPH056356A (ja) 信号処理方法及びその装置
JP3130913B2 (ja) 信号処理装置
JP3338713B2 (ja) 信号処理装置
JPH0567066A (ja) ニユーラルネツトワークの学習方法及び信号処理装置
JPH05108594A (ja) 信号処理装置
JPH03256184A (ja) 信号処理回路
JPH05135001A (ja) 信号処理装置
JPH05165989A (ja) 信号処理装置
JPH04245389A (ja) 信号処理方法及びその装置
JPH03260785A (ja) 信号処理方法及びその回路網
JPH04235663A (ja) 信号処理方法及びその装置
JPH03268080A (ja) 信号処理装置
JPH05314290A (ja) 信号処理装置
JPH0581229A (ja) 信号処理回路網