JPH04148389A - 神経細胞回路網 - Google Patents

神経細胞回路網

Info

Publication number
JPH04148389A
JPH04148389A JP2272998A JP27299890A JPH04148389A JP H04148389 A JPH04148389 A JP H04148389A JP 2272998 A JP2272998 A JP 2272998A JP 27299890 A JP27299890 A JP 27299890A JP H04148389 A JPH04148389 A JP H04148389A
Authority
JP
Japan
Prior art keywords
signal
coupling coefficient
learning
pulse train
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2272998A
Other languages
English (en)
Other versions
JP3276367B2 (ja
Inventor
Hirotoshi Eguchi
裕俊 江口
Toshiyuki Furuta
俊之 古田
Takashi Kitaguchi
貴史 北口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP27299890A priority Critical patent/JP3276367B2/ja
Publication of JPH04148389A publication Critical patent/JPH04148389A/ja
Application granted granted Critical
Publication of JP3276367B2 publication Critical patent/JP3276367B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
投権分災 本発明は、信号処理方法及びその装置、より詳細には、
神経回路網を模倣したニューラルコンピュータに関し、
例えば、文字や図形認識、ロボットなどの運動制御、連
想記憶等に応用して好適なものである。 盗】む
【擢 生体の情報処理の基本的な単位である神経細胞にニュー
ロン)の機能を模倣し、さらに、この「神経細胞模倣素
子」 (神経細胞ユニット)をネットワークに構成する
ことで情報の並列処理をめざしたものが、いわゆるニュ
ーラルネットワークである0文字認識や、連想記憶、運
動制御等、生体ではいとも簡単に行われていても、従来
のノイマン型コンピュータではなかなか達成できないも
のが多い。生体の神経系、特に生体特有の機能、すなわ
ち並列処理、自己学習等を模倣して、これらの問題を解
決しようとする試みが、計算機シミュレーションを中心
として、盛んに行われている。 第6図は、従来のニューラルネットワークのモデルにつ
いて説明するための図で、図中、Aは、1つの神経細胞
ユニットを表し、第7図は、それをネットワークに構成
したもので、A工、A2゜A、は、それぞれ神経細胞ユ
ニットを表わす。1つの神経細胞ユニットは、多数の他
の神経細胞ユニットと結合しており、それらから受けた
信号を処理して出力する。第7図の場合、ネットワーク
は階層型であり、神経細胞ユニットは、1つ前の層(図
中左側)の神経細胞ユニットより信号を受け、1つ先の
層(図中右側)の神経細胞ユニットへ出力する。 最初に、第6図に示した神経細胞ユニットAについて説
明すると、1つの神経細胞ユニットと他の神経細胞ユニ
ットとの結合の度合を表すのが、結合係数(T)と呼ば
れているものであり、i番目の神経細胞ユニットとj番
目の神経細胞ユニットの結合係数を、一般に、TiJで
表す。結合には、相手のニューロンからの信号が大きい
ほど自分の出力が大きくなる興奮性結合と、逆に、相手
の信号が大きいほど自分の出力が小さくなる抑制性結合
があり、T t s > Oが興奮性結合、T t j
< Oが抑制性結合であることをそれぞれ表す。j番目
の神経細胞ユニットへの入力は、i番目の神経細胞ユニ
ットからの出力をyLとすると、このylにT。 をかけたTijyLとして求められる。前述のように、
1つの神経細胞ユニットは多数の神経細胞ユニットと結
合しているので、全ての神経細胞ユニットに対するTi
jytを足し合わせたもの、すなわち、ΣTtJy、が
、ネットワーク内における1つの神経細胞ユニットへの
入力となる。これを内部電位と言い、uJで表す。 uj:ΣTIJy1            (1)次
に、この入力(=内部電位)を非線形処理することで、
その神経細胞ユニットの出力とする。 ここで用いる非線形関数を神経細胞応答関数と呼び、次
に示すような、シグモイド関数f (x)を用いる。 f  (x)”1/ (1+e−”)        
 (2)第8図は、このシグモイド関数を示す図である
。 上記神経細胞ユニットを、第7図に示すような。 ネットワークに構成し、各結合係数を与え、式(1)、
(2)を並列的に次々と計算することにより、情報の並
列処理が可能となり、最終的な出力が得られる。 第9図は、上記ネットワークを電気回路で実現したもの
の一例を示す図で(特開昭62−295188号公報)
、これは、ネットワークへの入力や出力の信号強度を電
圧で表し、上記神経細胞ユニット間の結合係数の値を抵
抗値で実現したものである。すなわち、第9図において
、複数の増幅器33は、反転出力33a及び非反転出力
33bとを有し、かつ、各増幅器33の入力には入力電
流を供給する手段32を有しており、予め選ばれた第1
の値又は予め選ばれた第2の値であるコンダクタンス(
TLj)で前記増幅器の各々の出力を前記入力に接続す
る相互接続マトリックス31を有している。前記のTL
Jはi番目の増幅器の出力とj番目の増幅器との入力と
の間の相互コンダクタンスを表わし、前記コンダクタン
スT、は。 回路網が平衡する複数の極小値を作るように選ばれ、複
数の極小値を持ったエネルギー関数を最小にするように
している。結合係数TLjが負の場合、負の抵抗値は実
現できないので、増@@33を用いて出力を反転させる
ことでこれを実現している。 また、第8図で示したシグモイド関数に相当するものと
して、増幅器33を用いている。 次に、ネットワークの学習機能について説明する。 数値計算で用いられている学習法則としては。 バックプロパゲーションと呼ばれる次のようなものがあ
る。 まず、各神経細胞ユニット間の結合係数は、最初ランダ
ムに与えておく。この状態で、ネットワークに入力を与
えると5その出力結果は、必ずしも望ましいものではな
い、そこで、このネットワークに正解(=教師信号)を
与えて、再び、同じ入力があったとき正解になる(=望
ましい出力結果が得られる)ように、各結合係数を変化
させる。 例えば、第7図に示すような階層型のネットワークにお
いて、最終層(図の右の層)のj番目の神経細胞ユニッ
トの出力をy、とし、その神経細胞ユニットに対する教
師信号をd、とすると。 E=Σ(d4−yr)”           (3)
で表されるEが最小となるように、 E ΔT1= aT*r  、           (4)を用いて
、TLJを変化させる。さらに具体的に説明すると、ま
ず、次のようにδ(誤差信号)を求める。 δs=  (dJ−y*)Xf’(uJ)〔出力層の場
合〕            (5)δ4;ΣδtTt
JXf’(ut) 〔前記より前の層(中間層)の場合〕   (6)ただ
し、f′はfの1階微分である。これを用いて、 ΔTLJ=η (δ1y、)+αΔTLjT、、=TL
J’  +Δ’rtJ          (7)とす
ることで、TLjを変化させる。ただし。 ΔTcJ’ 、 T、、’はそれぞれ前回の学習時での
値である。ここで、ηは学習定数、αは安定化定数と呼
ばれているものである。各々、理論的には求められない
ので経験的に求める。このような方法で結合係数を変化
させる量を求めるアルゴリズムを、パックプロパゲーシ
ョンと呼んでいる。 上記の過程、すなわち学習を繰り返すことで。 やがて、与えられた入力に対して望ましい結果が得られ
るようなTLjが決定される。このことにより、ネット
ワークの学習機能が実現できる。 第10図乃至第12図は、このようなニューラルネット
ワークをデジタル回路で実現した例を示す図で、第10
図は、単一の神経細胞回路構成例を示し、図中、35は
シナプス回路、36は樹状突起回路、37は細胞体回路
を示す、第11図は、第10図に示したシナプス回路3
5の構成例、第12図は、第10図に示した細胞体回路
37の構成例を示す図で、第11図中のfは入力信号、
Wは重み付けの値、aはフィードバック信号に掛ける倍
率(lまたは2)である、これは、神経細胞ユニットの
入出力信号をパルス列で表現し、信号の値をパルス密度
で表している。結合係数は2進数で取扱い、メモリ上に
保存している。信号の演算は次のように行う。まず、入
力信号をレートマルチプライヤ−のクロックへ入力し、
結合係数をレート値へ入力することで、入力信号のパル
ス密度をレート値に応じて減らす、これは、前述のバッ
クプロパゲーションモデルにおける式TtJytの部分
に相当する0次にΣT、、;ytのΣの部分は、樹状突
起回路36によって示されるOR回路で実現している。 結合には興奮性、抑制性があるので、あらかじめグルー
プ分けしておき、それぞれのグループ別にORをとる。 第10図において、F□は興奮性、F2は抑制性出力を
示す、この2つの出力を、第12図に示したカウンター
のアップ側。 ダウン側にそれぞれ入力してカウントすることで、出力
が得られる。この出力は2進数であるので再びレートマ
ルチプライヤ−を用いて、パルス密度に変換する。この
神経細胞ユニットを複数個用いてネットワークを構成す
ることによって、ニューラルネットワークが実現できる
。学習機能は、ネットワークの最終出力を外部のコンピ
ュータに入力し、コンピュータ内部で数値計算を行し1
、その結果を結合係数のメモリに書き込むことによって
実現している。 しかしながら、ニューラルネットワークの試みは、計算
機シミュレーションで行われているものが多く、本来の
機能を発揮するには、並列処理が必要であり、ネットワ
ークのハードウェア化は欠くことのできないものである
。 神経細胞ユニットのハードウェア化の試みは、はとんど
の場合アナログ回路で行われており、これらの回路には
以下のような問題点がある。 ■ネットワーク内部での信号の強度を電圧や電流などの
アナログ値で表し、内部の演算もアナログ的に行うため
、温度特性や、電源投入直後のドリフト等により、その
値が変化する。 ■ネットワークの構成するために多くの素子を必要とす
るが、それぞれの特性を揃えることは困難である。 ■1つの素子の精度や安定性が問題になると、それをネ
ットワークにした場合に新たな問題が起きる可能性があ
り、ネットワーク全体における動作が予想できない。 ■結合係数の値が固定であり、あらかじめシミュレーシ
ョンなど他の方法で学習させた値を使わざるを得す、自
己学習ができない。 一方、バックプロパゲーションを用いた学習力ffiヲ
何らかの手段でハードウェア化しようとした場合、学習
には多量の四則演算が必要であり、実現が困難である。 また学習方法そのものもノ)−ドウエア化に対しては不
向きである。 従来のデジタル回路を用いたネットワークも、学習は外
部のコンピュータで行っており、従って自己学習機能を
持っていない。そのうえ、パルス密度の信号をカウンタ
ーを用いて一旦数値(2進数)に変換し、その後再びパ
ルス密度に変換するため1回路の構成が複雑なものにな
っている。 以上をまとめると、従来技術では次の欠点を有する。 ■ネットワーク内部の演算を行うアナログ回路は、動作
に確実性がない。 ■数値計算による学習方法も計算が複雑であり。 ハードウェア化に適さない。 ■従来のデジタル方式回路では、回路構成が複雑である
。 ■ハードウェア上で自己学習ができない。 そこで、本出願人は、先に、ネットワーク内部の演算に
は、動作が確実なデジタル回路を採用し、かつ、ハード
ウェア化が容易でシンプルな信号処理、学習方法を提供
し、さらに、実際にハードウェア自己学習を実現するこ
とが可能な信号処理回路について提案した。 l−一カ 本発明は、上述のごとき実情に鑑みてなされたもので、
特に、本出願人が先に提案した信号処理回路を更に改良
して、入力信号パルス列や教師信号パルス列が1つのパ
ターンに固定されることなく、より学習能力の高いネッ
トワークを実現し、より汎用性の高い信号処理回路を実
現することを目的としてなされたものである。 碧−一」叉 本発明は、上記目的を達成するために、結合係数可変手
段と、該結合係数可変手段の可変結合係数値を教師信号
に対する誤差信号に基づいて生成する結合係数生成手段
とよりなる自己学習手段を付設した、デジタル論理を用
いた神経細胞模倣素子により構成された信号処理手段に
おいて、前記信号処理手段に入力する入力信号データ又
は教師信号データのパルス列パターンが、前記信号処理
手段が学習を行うたび毎に、異なるパルス列パターンで
あること、或いは、結合係数可変手段と、この結合係数
可変手段の可変結合係数値を教師信号に対する誤差信号
に基づいて生成する結合係数生成回路とよりなる自己学
習回路を付設した。デジタル論理回路を用いた神経細胞
模倣素子により構成された神経細胞回路網において、前
記神経細胞回路網に入力する入力信号データ又は教師信
号データのパルス列パターンが、前記神経細胞回路網が
学習を行うたび毎に、異なるパルス列パターンであるこ
とを特徴としたものである。以下、本発明の実施例に基
いて説明する。 最初に、本発明の基本的な考え方について説明すると、
本発明の基本的な考え方は。 ■神経細胞ユニットに関する入出力信号・中間信号・結
合係数・教師信号などは、すべて0.1の2値で表され
たパルス列で表現する。 ■ネットワーク内部での信号の値は、パルス密度で表す
(ある一定時間内の「1」の数)。 ■神経細胞ユニット内での計算は、パルス列同士の論理
演算で行う。 ■結合係数のパルス列は、神経細胞ユニット内のメモリ
に格納する。 ■学習は、このパルス列を書き換えることで実現する。 ■与えられた教師信号を元に誤差を計算し、これに基づ
いて、結合係数を変化させる。この場合において、誤差
の計算及び結合係数の変化分の計算もすべて、0.1の
パルス列の論理演算で行う。 ■上記で示した神経細胞ユニットにより構成したネット
ワーク回路を用いて、これに教師付き学習を行わせる場
合において、入力信号及び教師信号のパルス列を、1つ
のパターンに限定せず、同じパルス密度を有する他のパ
ルス列を随時用いることで、ネットワークの学習能力を
高める。 というものであり、以下、これを具体化した実施例に基
づいて詳細に説明する。 説明は、まず、デジタル論理回路を用いた神経細胞ユニ
ットと、それを用いて構成したネットワーク回路による
信号処理について行い、次に、上記の処理を行う回路の
例について行う。 ■、デジタル    による 【フォワードプロセスにおける信号演算】第1図は、1
つの神経細胞ユニットに相当する部分であり、それを第
7図に示したようにネットワークに構成して、従来と同
じ階層型として用いる。神経細胞ユニットの入出力はす
べて(11に2値化され、さらに同期化されたものを用
いる。 入力jの信号の値(=強度)は、パルス密度で表現し1
例えば、次に示すパルス列のように、ある一定時間内に
ある、1の状態数で表す。 入力信号   ユーユユーユ=4/6  (8)同期信
号   ユユユ111 これは476を表す信号を示したもので、同期パルス6
個中に入力信号は1が4個、Oが2個であることを表わ
している。このとき、1とOの並び方は後述するように
ランダムであることが望ましい。 一方、結合係数TLJも同様にパルス密度で表現し、0
と1のビット列として、あらしめメモリに用意しておく
。 結合係数   −=3/6  (9) 同期信号   −Ll−L」−11− これは、結合係数の値が3/6であることを表し。 このときも、0と1の並び方はランダムである方が望ま
しい、具体的にどうやって決めるかは後述する。そして
、この結合係数パルス列を同期クロックに応じてメモリ
より順次読みだし、第1図のAND回路によって、入力
パルス列とのANDをとる(y tn T1+) 、こ
れを神経細胞ユニットjへの入力とする。上記の例を用
いて説明すると、信号rlo1101Jと入力された場
合、これと同期してメモリから結合係数のパルス列を呼
び出し、順次ANDをとることによって、 入力信号   ユーユユーユ  エ4/6結合係数  
 ニーニーニー  =376y、nT4. −L−L−
=−=276に示すようなパルス列(ビット列)rlo
looo」が得られる。これは入力信号のパル・ス列y
。 が結合係数のパルス列TLJにより変換され、その結果
、神経細胞ユニットへの入力パルス密度が2/6となる
ことを示している。AND回路の出力のパルス密度は、
近似的には[入力信号のパルス密度」と「結合係数のパ
ルス密度」の積となり。 アナログ方式における場合の信号の積と同様の機能を有
する。これは、信号の列(パルス列)が長いほど、また
、1と0の並び方がランダムであるほど、数値の積に近
い機能になる。ランダムで4いとは、1(または0)が
密集して(密接)していることを意味する。入力パルス
列と比較して、結合係数のパルス列の長さが短く、読み
出すべきデータがなくなってしまった場合には、再び結
合係数のパルス列の先頭に戻って、読み出しを繰り返す
ことで対処できる。 1つの神経細胞ユニットは多くの入力を持つので、先に
説明した「入力信号と結合係数とのANDJも多数ある
0次に、これらのORをとる入力は同期化されているの
で、1番目のデータがrloloooJ、2番目のデー
タがrolooooJの場合5両者のORはrlllo
oOJとなる。これを多入力同時に計算し出力とする。 V x n T I J  ニー土−−−VtnTtj
 −止−−−− となる。この部分は、アナログ方式における場合の、信
号の和を求める計算及び非線形関数(シグモイド関数)
の部分に対応している。一般的なパルスの演算において
、パルス密度が低い場合、そのORをとったもののパル
ス密度は、それぞれのパルス密度の和に近似的に一致す
る。パルス密度が高くなるにつれて、ORの出力は徐々
に飽和してくるので、パルス密度の和と結果は一致せず
、非線形性がでてくる。ORの場合、パルス密度は1よ
り大きくなることがなく、0より小さくなることもなく
、また単調増加関数であるので、シグモイド関数と近似
的に同等となる。 さて、結合には興奮性と抑制性があり、数値計算の場合
には、結合係数の符号で表し、アナログ回路の場合、前
述したように、Toが負となる場合(抑制性結合)には
増幅器を用いて出力を反転させ、T1.に相当する抵抗
値で他の神経細胞ユニットへ結合させている6一方、本
発明では、各結合を、TL、の正負により興奮性結合と
抑制性結合の2つのグループに分け、次いで、「入力信
号と結合係数のパルス列のANDJ同士のORをこのグ
ループ別に演算する。その結果、r興奮性グループの出
力が1」で、かつ「抑制性グループの出力が0」のとき
のみ1を出力する。この機能を実現するためには、「抑
制性グループの出力のN。 T」と「興奮性グループの出力JとのANDをとればよ
い。すなわち、 神経細胞ユニットの出力−(12) となり、これを論理式で表現すると、 a=LJ(ytnTtj)  (7=興奮性>   (
13)b=u(ytn”rtj)  (’r=抑制性>
   (14))’ j=  a  n  b    
                      (15
)と表される。 この神経細胞ユニットを用いたネットワークの構成は、
パックプロパゲーションと同様な階層型(第7図)とす
る。ネットワーク全体を同期させておけば、各層とも上
述の通りの機能で、並列的に演算することが可能である
【学習(バックプロパゲーション)におけ信号演算】以
下の■または■により誤差信号を求め5次いで■で述べ
る方法を用いて結合係数の値を変化させることにより、
学習を行う。 ■最終層における誤差信号 最終層(第7図の右側の層)に属する各神経細胞ユニッ
トについての誤差信号を求める方法について説明する。 本発明では、誤差信号を以下のように定義する。 すなわち、誤差を数値で表すと、一般には正負両方の値
を取りうるが、パルス密度ではそのような表現はできな
いので、十戒分を表す信号と、−成分を表す信号の2つ
を使って誤差信号を表現する。 つまり、教師信号パルスと出方信号パルスの違っている
部分のうち、教師信号側に存在するバルスを誤差信号7
パルスとし、逆に、出力信号側に存在するパルスを誤差
信号“パルスとする。換言すれば、出力信号パルスに誤
差信号1パルスを付は加え、誤差信号゛パルスを取り除
くと、教師信号パルスになる。 以上のようにして得られた誤差信号に、学習定数を用い
た処理を行うが、これは次項■にて詳細に説明する。 ■中間層における誤差信号 中間層(第7図の中央の層)に属する各神経細胞ユニッ
トについての誤差信号δは、次のように求める。すなわ
ち、その神経細胞ユニットに接続している1つ先の層(
第7図における最終層)の各神経細胞ユニットにおける
誤差信号を集め、それを誤差信号とする。このことは、
神経細胞ユニット内での演算式(8)〜(19)と同様
な要領で行うことができる。ただし1式(8)〜(19
)と異なり、yは1つの信号であるのに対して、δは正
、負を表すために2つの信号を持ち、その両方の信号を
考慮しなければならない。従って、T(結合係数)の正
負、δ (誤差信号)の正負の4つに場合分けする必要
がある。 まず、興奮性結合の場合を説明する。中間層のある神経
細胞ユニットについて、1つ先の層(第7図における最
終層)の神経細胞ユニットでの誤差信号4と、その神経
細胞ユニットと自分(前記中間層のある神経細胞ユニッ
ト)との結合係数のANDをとったもの(=δ+nTc
J))を、1つ先の層の各神経細胞ユニットについて求
め、さらにこれら同士のORをとる(=U(δ+LnT
ij)。 その結果を、この層の誤差信号1とする。すなわち1次
のように表される。 δ+、nT、、−ローニー」− 同様に、1つ先の層の神経細胞ユニットでの誤差信号−
を用いることで、この層の誤差信号−を次のようにして
求めることができる。 δ−xnTip 次に、抑制性結合の場合を説明する。1つ先の層の神経
細胞ユニットでの誤差信号−と、その神経細胞ユニット
と自分との結合係数のANDをとり、さらにこれら同士
のORをとった結果を、この層の誤差信号4とする。す
なわち。 5−1nT、、−LL−L−」− 同様に、1つ先の層の神経細胞ユニットでの誤差信号“
を用いることで、抑制性結合についてのこの層の誤差信
号°を求めることができる。 δ4□nT、、 −一土工−− δ−−りm−LL− 1つの神経細胞ユニットから別の神経細胞ユニットへf
f1Q、9ノよ、−興奮性の場合と抑制性の場合の2つ
があるので5式(2o)で求めたδ4と式(22)で求
めたδ4のORをとり、この神経細胞ユニットの61と
する。同様に1式(21)で求めたδ”と式(23)で
求めたδ−のORをとり、この神経細胞ユニットのδ−
とする。 以上をまとめると、 となる。 ここで、学習定数を用いた処理を行う、これは。 数値計算などでは、誤差信号に学習定数(学習レート)
を掛けることで実現している。この学習レートの値が1
.0以下の場合には、ネットワークの持つ学習能力がさ
らに高まる。このことは1本発明におけるパルス列の演
算では、パルス密度を低くすることに相当するので、パ
ルス列を「間引く」ことにより実現できる。例えば、例
1では元の信号のパルス列が等間隔の場合、例2では元
の信号のパルス列が等間隔でない場合を示すが、共に学
習レート(η)=0.5では、元の信号のパルス列を1
つおきに消去(除去)する、また、y=0.33ではパ
ルスを2つおきに残し、y=0.67ではパルスを2つ
おきに消去する。 例1) η=0.33 η=0.67 例2) η=0.33 このような誤差信号の「間引き」は、通常市販されてい
るカウンタの出力を論理演算することや、フリップフロ
ップを用いることによって、容易に実現できる。特に、
カウンタを用いた場合、ηの値を任意に、かつ容易に設
定できるので、ネットワーク回路の特性を制御すること
が可能となる。 ■誤差信号により各結合係数を変化 上記■または■により求めた誤差信号を用いて、各結合
係数を変化させる方法を説明する。 変化させたい結合係数が属している線(第7図参照)を
流れる信号(=神経細胞ユニットに対する入力信号)と
誤差信号のANDをとる(δny)。ただし、本実施例
では誤差信号は十と−の2つの信号があるので、それぞ
れを演算して求める。 δ4(1y                →ΔTゝ
このようにして得られた2つの信号をそれぞれΔTl、
ΔT−とする。 これらを元にして新しい結合係数Tを求めるのであるが
、本実施例におけるTの値は絶対値なので、Tが興奮性
か、抑制性かで場合分けをする。 ・興奮性の場合 元のTに対して、Δ7+の成分を増やし、ΔT−の成分
を減らす。 ・抑制性の場合 元のTに対して、Δτ÷の成分を減らし、ΔT。 の成分を増やす。 以上の学習側に基づいて。 ネットワーク全体の 計算を行う。 【ネットワークの学習操作] 第7図のような神経細胞回路網を学習させるには、前述
した通り、入力層(第7図の左側の層)に入力する入力
信号の組と、それらに対応して出力層(第7図の右側の
層)から出力されるべき望ましい出力結果(=教師信号
)の組が必要である6しかも、それらに用いるデータは
、値を密度で表したパルス列である。前述した通り、パ
ルス列中の1になっているビットの位置は、ランダムで
ある方が、神経細胞ユニットの動作に望ましい。 これは、毎学習時に、値は同一であるが、パターンの異
なるパルス列信号を与える必要があることを意味する。 そこで、本発明では、前記のネットワーク回路の、入力
信号データと教師信号データのパルス列を生成するシス
テムにおいて、毎学習時における各種データのパルス列
パターンを異なったものにし、ネットワークの学習能力
を高めるものである。 以下、その構成・動作について説明する。 ネットワーク回路をある目的に学習させるのに即した5
適当な入力信号データの組、及び、この入力データに対
する教師信号データの組を用意する。もしくは、教師信
号データは、入力信号データに対応したものを適宜与え
ても良い。学習専用の場合は、これらの組は、ネットワ
ークの外部メモリに格納しておいてもよい。これらは、
神経細胞ユニットの入力に合致するように、パルス列に
変換しておく、あるいは、数値として格納しておき、必
要に応じてパルス列に変換してもよい。入力信号データ
の組は、教師信号データの組と対になっており、読み出
すときは、その対ごとに読み出すようにしておく。 以上を準備した後、ネットワークの学習を開始する。今
、パルス列を生成するシステムが、特願平2−6794
2号で示されたように、自然界に存在する雑音(トラン
ジスタの熱雑音など)を用いれば、ネットワークの学習
に用いられるパルス列は、完全なランダム性を有するこ
とになるので、パルス列のパターンは、毎学習時に異な
ることになる。しかしながら、本出願人が別途提出した
特許出願の明細書に記載したような、乱数発生器を用い
た場合、乱数とはいえども疑似乱数のため、発生するビ
ットは、ある周期を持って循環することになる。従って
、データのパルス列長と乱数の周期が一致した場合、同
一の値に対しては、常に同一のパルス列パターンが生成
されることになる。 そこで、乱数の発生周期を変化させ、乱数の位相を変化
させる。それは、乱数を発生させるための基本クロック
を、適宜必要な数より多く乱数発生器に入力することで
実現できる。その結果、毎学習時に異なったパルス列パ
ターンを得ることができ、ネットワークは、効果の高い
学習が可能となる。 10m匠 第2図乃至第6図は、以上のアルゴリズムを基に構成し
た回路例を示す図で、ニューラルネットワークの構成は
第7図と同様である。第7図の「線」に相当する部分の
回路を第2図に、第7図の「丸」 (神経細胞ユニット
)に相当する部分の回路を第3図にそれぞれ示す。また
、最終層の出力と教師信号から最終層における誤差信号
を求める部分の回路を第4図に示す、これら3つの図に
示した回路を第7図のようにネットワークに構成するこ
とによって、自己学習が可能なデジタル方式のニューラ
ルネットワークが実現できる。 まず、第2図を説明する。信号1は神経細胞ユニットへ
の入力信号で式(8)に相当する。式(9)の結合係数
はシフトレジスタ8に保存しておく、端子8Aがデータ
の取出し口で、端子8Bがデータの入口である。これは
シフトレジスタと同様の機能を持つものであれば、その
ほかのもの、例えば、RAM+アドレスコントローラ等
を用いてもよい0回路9は式(10)に相当する回路で
、入力信号と結合係数とのANDをとっている。この出
力は、結合が興奮性が抑制性かによってグループ分けし
なければならないが、あらがしめそれぞれのグループへ
の出力4,5を用意し、どちらのグループに出すのかを
切り替えるようにした方が汎用性が高い、このため、結
合が興奮性が抑制性かを表すビットをメモリ14に保存
しておき、回路13で信号を切り替える。各入力を処理
する式(11)に相当するOR回路が第3図の回路16
である。さらに式(12)で示した、「興奮性グループ
が1」で、かつ、「抑制性グループが○」のときのみ「
1」を出力する回路が、第3図の回路17である。 次に、誤差信号について説明する。最終層での誤差信号
を作る回路を第4図に示す、これは式(16)〜(19
)に相当する。最終層からの出力1及び教師信号20よ
り誤差信号6,7を生成する。また、中間層における誤
差信号番求める式(20)〜(23)を実現する回路を
、第7図の回路1oに示す、結合が興奮性が抑制性がで
用いる誤差信号が異なるので、その場合分けを行うのが
第2図の回路12である。この回路には、あらかじめメ
モリ14にセットしたビットを用いる。 また、誤差信号を集める演算(式(24))は、第3図
の回路18で行われる。また学習レートに相当する式(
25)は、第3図の分周回路19で実現する6 次に、誤差信号を用いて、新たな結合係数を計算する部
分について説明する。これは式(26)〜(29)で表
され、第2図の回路11により行われる。しかし、結合
の興奮性・抑制性によって場合分けしなければならない
ので、第2図の回路12でこれを実現している。 最後に、上記のネットワーク回路を用いたシステムを学
習させる場合について説明する。 学習に限らず、ネットワークにデータを入力するには、
データの値を密度で表したパルス列を生成する必要があ
る。その生成回路の例を第5図に(本出願人が別途提呂
した特許出願の第111!lに相当)示すが、これは、
第5図の入力21に乱数に変換したいデータの値を入力
し、出力22からランダムパルス列を得るものである。 乱数発生器23は、周期Tの乱数発生器である。ネット
ワークの基準クロックを第5図の基本クロックとして用
いている。今、連続的にランダムパルス列を発生させて
いた場合、発生するパルス列の位相は。 毎回一致したものとなり、ネットワークに入力するパル
ス列は、値が同じものに対しては、常に同じパルスパタ
ーンとなってしまう、そこで、第5図の基本クロックと
ネットワークの基準クロックを直接には接続せずに、1
回の周期Tが終了してから次の周期が開始する前までの
期間に、乱数列発生用空打ちクロック回路24から、基
本クロックに1以上のクロックを与える。すると、前回
の周期による乱数列と今回の乱数列の位相が少なくとも
1ずれることになり、毎学習時にこれを繰り返すことで
、毎回異なった乱数列=ランダムパルスを、ネットワー
クに入力することができる。このシステムを、ネットワ
ークの入力部及び/または教師信号入力部に備えること
で、ネットワーク全体の学習を行う。 なお、上記の回路は、上記実施例に限定されるものでな
く、また、一部をコンピュータなどの計算装置を用いて
代用させてもよいことはいうまでもない。 來−一二」 以上の説明から明らかなように、本発明によると、結合
係数の固定化を避け、学習能力を高めることができる。
【図面の簡単な説明】
第1図は、神経回路ユニットの1つを示す図、第2図乃
至第4図は、神経回路ユニットの各部の回路構成例を示
す図、第5図は、パルス列生成回路の一例を示す図、第
6図乃至第8図は、神経回路ユニットの動作原理を説明
するための図、第9図乃至第12図は、従来の回路構成
例を示す図である。 1・入力信号、2,3,6.7・・・誤差信号、4・・
・興奮性信号、5・・・抑制性信号、8・・・シフトレ
ジスタ、20・・・教師信号、21・・・入力、22・
・・出力、23・・・乱数発生器、24・・・乱数列発
生用空打ちクロック回路。 特許出願人  株式会社 リ コ

Claims (1)

  1. 【特許請求の範囲】 1、結合係数可変手段と、該結合係数可変手段の可変結
    合係数値を教師信号に対する誤差信号に基づいて生成す
    る結合係数生成手段とよりなる自己学習手段を付設した
    、デジタル論理を用いた神経細胞模倣素子により構成さ
    れた信号処理手段において、前記信号処理手段に入力す
    る入力信号データのパルス列パターンが、前記信号処理
    手段が学習を行うたび毎に、異なるパルス列パターンで
    あることを特徴とする信号処理方法。 2、結合係数可変手段と、この結合係数可変手段の可変
    結合係数値を教師信号に対する誤差信号に基づいて生成
    する結合係数生成回路とよりなる自己学習回路を付設し
    た、デジタル論理回路を用いた神経細胞模倣素子により
    構成された信号処理手段において、前記信号処理手段に
    入力する教師信号データのパルス列パターンが、前記信
    号処理手段が学習を行うたび毎に、異なるパルス列パタ
    ーンであることを特徴とする信号処理方法。 3、結合係数可変手段と、該結合係数可変手段の可変結
    合係数値を教師信号に対する誤差信号に基づいて生成す
    る結合係数生成手段とよりなる自己学習手段を付設した
    、デジタル論理を用いた神経細胞模倣素子により構成さ
    れた神経細胞回路網において、前記神経細胞回路網に入
    力する入力信号データのパルス列パターンが、前記神経
    細胞回路網が学習を行うたび毎に、異なるパルス列パタ
    ーンであることを特徴とする信号処理装置。 4、結合係数可変手段と、この結合係数可変手段の可変
    結合係数値を教師信号に対する誤差信号に基づいて生成
    する結合係数生成回路とよりなる自己学習回路を付設し
    た、デジタル論理回路を用いた神経細胞模倣素子により
    構成された神経細胞回路網において、前記神経細胞回路
    網に入力する教師信号データのパルス列パターンが、前
    記信号処理手段が学習を行うたび毎に、異なるパルス列
    パターンであることを特徴とする信号処理装置。
JP27299890A 1990-10-11 1990-10-11 神経細胞回路網 Expired - Fee Related JP3276367B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27299890A JP3276367B2 (ja) 1990-10-11 1990-10-11 神経細胞回路網

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27299890A JP3276367B2 (ja) 1990-10-11 1990-10-11 神経細胞回路網

Publications (2)

Publication Number Publication Date
JPH04148389A true JPH04148389A (ja) 1992-05-21
JP3276367B2 JP3276367B2 (ja) 2002-04-22

Family

ID=17521727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27299890A Expired - Fee Related JP3276367B2 (ja) 1990-10-11 1990-10-11 神経細胞回路網

Country Status (1)

Country Link
JP (1) JP3276367B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8762131B1 (en) 2009-06-17 2014-06-24 Softwin Srl Romania Systems and methods for managing a complex lexicon comprising multiword expressions and multiword inflection templates

Also Published As

Publication number Publication date
JP3276367B2 (ja) 2002-04-22

Similar Documents

Publication Publication Date Title
US5131073A (en) Neuron unit and neuron unit network
US5588090A (en) Signal processing apparatus
US5481646A (en) Neuron unit and neuron unit network
JPH04148389A (ja) 神経細胞回路網
JPH05165987A (ja) 信号処理装置
US5274747A (en) Neuron unit for processing digital information
US5185851A (en) Neuron unit and neuron unit network
JPH05217010A (ja) 信号処理装置
JPH03260759A (ja) 信号処理方法及び装置
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JPH05290014A (ja) 信号処理装置
JP3338713B2 (ja) 信号処理装置
JPH03260785A (ja) 信号処理方法及びその回路網
JPH0418661A (ja) 信号処理装置
JP3255425B2 (ja) 信号処理方法
JPH05135001A (ja) 信号処理装置
JPH04549A (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH05307624A (ja) 信号処理装置
JP3463890B2 (ja) 神経回路模倣素子
JPH03268080A (ja) 信号処理装置
JPH03256184A (ja) 信号処理回路
JPH05108594A (ja) 信号処理装置
JPH03268079A (ja) 信号処理装置
JPH03268081A (ja) 信号処理方法及び装置
JPH04250557A (ja) 信号処理装置の学習方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees