JPH04336656A - ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置 - Google Patents

ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置

Info

Publication number
JPH04336656A
JPH04336656A JP3109074A JP10907491A JPH04336656A JP H04336656 A JPH04336656 A JP H04336656A JP 3109074 A JP3109074 A JP 3109074A JP 10907491 A JP10907491 A JP 10907491A JP H04336656 A JPH04336656 A JP H04336656A
Authority
JP
Japan
Prior art keywords
neuron
signal
bit string
error
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3109074A
Other languages
English (en)
Inventor
Shuji Motomura
本村 修二
Hirotoshi Eguchi
裕俊 江口
Toshiyuki Furuta
俊之 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP3109074A priority Critical patent/JPH04336656A/ja
Publication of JPH04336656A publication Critical patent/JPH04336656A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Advance Control (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、神経細胞回路網の情報
処理機能を人工的に実現することを目指した並列分散型
情報処理装置なるニューロコンピュータ用のニューラル
ネットワークの学習方法及びこの方法を用いた信号処理
装置に関する。
【0002】
【従来の技術】生物の神経回路網を模倣して開発された
情報処理装置がニューラルネットワークである。このよ
うなニューラルネットワークはニューロンと呼ばれる構
成単位を、これらのニューロン同士の間に信号を伝達す
る手段を設けることにより、ニューロン同士が互いに信
号を授受できるように結合したものである。ここに、ニ
ューロンは生物の神経回路網における神経細胞に相当す
る。ここに、ニューラルネットワーク内の幾つかのニュ
ーロンは入力層に位置してニューラルネットワーク外部
からの信号を受取る。また、ニューラルネットワーク内
の幾つかのニューロンは出力層に位置してニューラルネ
ットワーク外部へ信号を出力する。即ち、ニューラルネ
ットワークは外部から信号を受取り、その信号をネット
ワーク内部で変換して外部に信号を出力する情報処理装
置として機能する。ある種のニューラルネットワークで
は、ネットワークに信号を入力してネットワークから出
力させる都度、出力信号のあるべき値をネットワークに
与えてやることにより、何回かこの操作を繰返していく
うちに、出力信号の値をあるべき値に近付けさせること
ができるようにしたものがある。これを、ニューラルネ
ットワークの「学習」と呼んでいる。この時、ネットワ
ークに出力信号のあるべき値を与える信号を「教師信号
」と呼ぶ。このような学習能力があるため、既存のコン
ピュータで必要なプログラムが不要となり、プログラム
の費用がかからない上に、使用環境に応じてプログラム
に調整を加える必要もなくなる。
【0003】このようなニューラルネットワークの入出
力処理機能について説明する。ニューラルネットワーク
内の各ニューロンはネットワーク内の他の幾つかのニュ
ーロン又はネットワーク外から信号を受取り、ネットワ
ーク内の他の幾つかのニューロン又はネットワーク外へ
信号を出力する。ニューロンはそのニューロンに結合し
ているニューロンから信号を受取る時、結合毎に異なる
受容効率を持って信号を受取る。例えば、あるニューロ
ン1から結合1を通して信号を受取り、他のニューロン
2から結合2を通して信号を受取るニューロンにおいて
、結合1の受容効率が0.8で結合2の受容効率が0.
5の場合、結合1と結合2に各々1.0の強さの入力信
号が入ってきたとき、ニューロンが結合1を通してニュ
ーロン1から受取る入力信号の値は0.8であり、結合
2を通してニューロン2から受取る入力信号の値は0.
5である。こうして受取った入力信号に基づいてニュー
ロンは信号を出力する。以後、このような結合の受容効
率を「結合係数」と呼ぶ。ニューロンが入力信号に基づ
いて信号を出力する方式には、幾つかの方式があるが、
ここでは最も一般的なものを例示する。
【0004】まず、k個のニューロンから信号を受取る
ニューロンjを考える。k個の内のi番目のニューロン
から入ってくる入力信号をOi として表す。また、i
番目のニューロンとニューロンjとの間の結合係数をT
ji  として表す。最初に、ニューロンjに結合係数
Tjiで重み付けられて入ってくる入力信号Oi (i
=1,2,…,k)の総和をとる。その総和をnetj
 という記号で表すと(1)式のようになる。
【0005】   netj = ΣTjiOi          
          ……………………(1)   ついで、この総和netj を単調増加飽和関数f
により変換してニューロンjの出力Oj とすると、(
2)式に示すようになる。
【0006】   Oj = f(netj )          
         ……………………(2)   ここに、関数fとしてはロジスティック関数又はシ
グモイド関数と呼ばれる(3)式及び図5に示されるよ
うな関数がよく用いられる。
【0007】
【数1】
【0008】このような機能をなすニューラルネットワ
ークを作る方法には種々のものがある。最も簡単には、
通常のコンピュータで動くソフトウエアとして作ること
ができる。この場合、種々の構成のニューラルネットワ
ークを条件をいろいろ変えて動かすことが比較的容易に
できる。しかし、動作速度が遅く、かつ、小さくできな
いため、他の機器に組込んで使うことが難しい欠点があ
る。よって、ニューラルネットワークの研究用には適し
ているが、実用には適さない場合が多い。
【0009】このようなコンピュータ上のソフトウエア
としてのニューラルネットワークの欠点を克服するもの
として、ニューラルネットワークをチップ化する方法が
ある。これには、アナログ回路で作る方法とデジタル回
路で作る方法とがある。アナログ回路で作る場合、結合
係数を可変抵抗で、ニューロンをアンプで作ることが多
い。しかし、アナログ回路の場合、温度等の使用環境に
よって特性が変化し、ノイズに弱く、また、素子毎に特
性がばらつくという欠点がある。また、可変以降をLS
I化するのが難しい。
【0010】一方、デジタル回路で作る場合、アナログ
回路で作るよりも回路が複雑化するものの、アナログ回
路方式の欠点は克服できる。デジタル回路方式の内、回
路が簡単でアナログ回路の場合に迫る集積度が得られる
ものとして、下記のようなパルス密度型ニューラルネッ
トワークがある。これは、例えば特願平2−17878
4号や、特願平2−412448号として本出願人によ
り提案されているものである。また、別方式のパルス密
度型ニューラルネットワークとしては、米国特許第48
93255号明細書や、「SPIKE TRANSMI
SSION FOR NEURALL NETWORK
S」(Max S.Tomlinson,Jr)や、「
ディジタル神経回路モデル」(電子情報通信学会技術研
究報告,論文番号  MBE87−157,pp.41
5−422,1988年3月、鎌田,平井)がある。
【0011】このようなパルス密度型ニューラルネット
ワークについて、まず、入出力処理機能について説明す
る。図6はパルス密度型ニューラルネットワーク内の一
つのニューロン(神経細胞模倣素子)に相当する部分を
示し、この図によりニューロンにおける入力信号の処理
方法を説明する。入力信号及び出力信号は全て同期化さ
れたビット列よりなり、ビツト列中の各ビットは「1」
又は「0」の何れかをとる。ここに、信号の量はビット
列のパルス密度で表現し、例えばある一定時間内にある
「1」の状態数で表す。i番目の入力信号をOi とす
ると、図7は4/6なる信号を示し、同期パルス6個中
に入力信号Oiは「1」が4個、「0」が2個である。 このとき、「1」と「0」との並び方はランダムである
ことが望ましい。
【0012】一方、ニューロン間の結合の度合を示す結
合係数Tjiも同様に「1」と「0」とのビット列表現
のパルス密度で表現し、予めメモリ上に用意しておく。 図8は「101010」=3/6の例を示す。この場合
も、「1」と「0」との並び方はランダムであることが
望ましい。
【0013】しかして、各ニューロンでは、結合係数T
ji  のビット列を同期クロックに応じてメモリ上よ
り順次読出し、ANDゲート1により入力信号のビット
列との論理積をとる(Oi ∩Tji )。これを、ニ
ューロンjへの入力とする。上例の場合で説明すると、
入力信号が「101101」として入力された時、これ
と同期してメモリ上よりビット列を呼出し、順次論理積
をとることにより、図9に示すような「101000」
なるビット列が得られる。これは、入力信号Oi が結
合係数Tji  により重み付けられてパルス密度が2
/6になったことを示している。
【0014】ANDゲート1の出力のパルス密度は、近
似的には、入力信号のパルス密度と結合係数のパルス密
度との積になり、アナログ方式の結合係数と同様の機能
を有する。これは、信号の列が長いほど、また、「1」
と「0」との並び方がランダムであるほど、数値の積に
近い機能を持つことになる。ランダムであるとは、ビッ
トが「1」であるか「0」であるかが、そのビットの直
前のビットと無関係に決まることを意味する。なお、入
力ビット列に比べて結合係数のビット列が短くて、読出
すべきデータがなくなってしまったら、再びデータの先
頭に戻って読出しを繰返せばよい。
【0015】ここに、一つのニューロンは多入力である
ので、前述した「入力信号と結合係数とのAND」も多
数あるので、次に、ORゲート2によりこれらの論理和
をとる。入力は同期化されているので、例えば、1番目
のデータが「101000」、2番目のデータが「01
0000」の場合、両者の論理和をとると、「1110
00」となる。これをm個分の多入力について同時に計
算し出力とすると、例えば図10に示すようになる。こ
れは、アナログ計算における和の計算及び非線形関数(
シグモイド関数)の部分に対応する。
【0016】パルス密度が低い場合、その論理和をとっ
たもののパルス密度は、各々のパルス密度の和に近似的
に一致する。また、論理和をとったもののパルス密度は
パルス密度の和の単調増加関数である。パルス密度は1
より大きくなることがないので、パルス密度が高くなる
につれて、ORゲート2の出力はパルス密度の和とは一
致せずにだんだん飽和してくる。従って、このORゲー
ト2により論理和をとる操作は、前述した入力信号の総
和を単調増加飽和関数fで変換する操作に対応している
【0017】ところで、上述した説明は、結合係数Tj
i  が正である場合を想定したものであるが、ニュー
ラルネットワークの機能を実用的なものにするためには
、結合係数を、正値のみでなく負値もとれるようにして
、負の入力により出力を抑制できるようにすることが望
ましい。ここに、結合係数が正である結合を「興奮性結
合」、結合係数が負である結合を「抑制性結合」と呼ぶ
ものとする。アナログ回路では、抑制性結合の場合、ア
ンプを用いて出力を反転させ、結合係数に相当する抵抗
値で他のニューロンへ結合させればよい。この点、パル
ス密度は常に正であるので負表現はできないが、下記の
a,b,cの何れかの方法により、ニューロンの出力信
号を生成するようにすれば、結合係数の値をパルス密度
で表現している場合であっても、結合の興奮性及び抑制
性への対応が可能である。
【0018】まず、第1の方法aについて図11を参照
して説明する。各結合に対して興奮性結合か抑制性結合
かを予め設定しておき、興奮性結合のグループ3aと抑
制性結合のグループ3bとで別々に、上述した入力信号
とメモリ4a,4bに各々格納された結合係数との論理
積をANDゲート5a,5b(図6中のANDゲート1
に相当)によりとり、その結果をORゲート6a,6b
(図6中のORゲート2に相当)によりとる。又は、各
入力に対して予め興奮性か抑制性かを設定しておき、興
奮性の入力のグループ3aと抑制性の入力のグループ3
bとで別々に上述の論理和をとるようにしてもよい。次
に、抑制性結合のグループ3bのORゲート6bの出力
の否定をNOTゲート7によりとり、この否定結果と興
奮性結合のグループ3aのORゲート6aの出力との論
理積をANDゲート8によりとり、このゲート回路9に
よる結果をニューロン出力とする方法である。
【0019】ついで、第2の方法bについて図12を参
照して説明する。この方法では、結合毎にその結合が興
奮性であるか抑制性であるかを表すメモリ10を有し、
その内容によって、ゲート回路11により結合の興奮性
、抑制性を任意に設定できるようにしたものである。 そこで、このメモリ9の内容によって決まる興奮性の結
合のグループと抑制性の結合のグループとでORゲート
6a,6bにより別々に論理和をとる。後は、ゲート回
路9により第1の方法aの場合と同じ処理をしてニュー
ロンからの出力とする方法である。
【0020】また、第3の方法cについて図13を参照
して説明する。この方法では、結合毎に興奮性の結合係
数T(+)ij と抑制性の結合係数T(−)ij と
の両方を持たせて各々メモリ12,13に格納しておく
。これは、結合係数を正の量と負の量との和の形に分解
して表したことに相当する。そして、入力信号と興奮性
の結合係数T(+)ij との論理積をANDゲート1
4aによりとり、これらのANDゲート14aによる結
果の論理和をORゲート6aによりとる。同様に、入力
信号と抑制性の結合係数T(−)ij との論理積をA
NDゲート14bによりとり、これらのANDゲート1
4bによる結果の論理和をORゲート6bによりとる。 後は、ゲート回路9により第1の方法aの場合と同じ処
理をしてニューロンからの出力とする方法である。
【0021】これらの3つの方法では、入力信号の値が
「0」のとき、出力信号の値が「0」になってしまうと
か、及び、興奮性結合グループからの入力信号よりも抑
制性結合グループからの入力信号のほうが出力信号に強
い影響を持つといった特徴を持つ。
【0022】一方、これらの方式に対して、出力レベル
を調整できるようにすることにより、ニューロンの能力
を高めるようにしたものが、特願平2−316505号
として本出願人により提案されている。この方法にも3
種類あり、前述した方法a,b,cに各々対応させて方
法d,e,fがある。
【0023】まず、方法dについて図14を参照して説
明する。この方法では、方法aで示したゲート回路9に
代えて、ゲート回路15をORゲート6a,6bの出力
側に設けて出力信号生成手段となる出力信号生成回路1
6を形成したものである。ここに、興奮性、抑制性のO
Rゲート6a,6bの出力の一致/不一致を排他的OR
ゲート17により検出し、不一致であれば、興奮性結合
グループのORゲート6aの結果をANDゲート18、
ORゲート19を通してニューロン出力とする。即ち、
興奮性結合グループの論理和が「0」で抑制性結合グル
ープの論理和が「1」であれば、「0」を出力し、興奮
性結合グループの論理和が「1」で抑制性結合グループ
の論理和が「0」であれば、「1」を出力する。一方、
興奮性、抑制性のORゲート6a,6bの出力が一致す
るときには、別に用意した入力信号をNOTゲート20
、ANDゲート21、ORゲート19を通してそのまま
ニューロン出力とするようにしたものである。
【0024】方法eにあっては、図15に示すように、
方法bに対して上記のゲート回路15を設けて出力信号
生成回路16を形成したもので、方法fにあっては、図
16に示すように、方法cに対して上記のゲート回路1
5を設けて出力信号生成回路16を形成したものである
【0025】これらの方法d,e,fにおいて、興奮性
結合グループのORゲート6aによる論理和結果と抑制
性結合グループのORゲート6bによる論理和結果とが
一致したときに出力する別の入力信号の値が常に「0」
である場合、即ち、別入力の信号のパルス密度が0であ
る場合は、方法dにおけるニューロン出力は方法aにお
けるニューロン出力、方法eにおけるニューロン出力は
方法bにおけるニューロン出力、方法fにおけるニュー
ロン出力は方法cにおけるニューロン出力に各々等しく
なる。
【0026】しかるに、方法d,e,fにおいて、別入
力の信号の値が「1」をとる確率が0.5(従って、「
0」をとる確率も0.5)の場合、即ち、別入力の信号
のパルス密度が0.5である場合には、興奮性結合グル
ープからの入力信号と、抑制性結合グループからの入力
信号との、出力信号に対する影響度が等しくなり、ニュ
ーロンの出力関数が興奮性と抑制性とでバランスのとれ
たものとなり、かつ、出力関数の形が、通常の階層型ニ
ューラルネットワークで広く使われている出力関数であ
るシグモイド関数の形に近くなるため、特に好ましいも
のとなる。
【0027】上述したように入出力機能を持つニューロ
ンを組合せてネットワーク構成したものが、パルス密度
型ニューラルネットワークであり、特に、図17や図1
8に示すように複数層に構成したものがパルス密度型階
層ニューラルネットワークである。3層構造を示す図1
7において、A1 は入力層に属するニューロン、A2
は中間層に属するニューロン、A3 は出力層に属する
ニューロンを示す。入力層のニューロンA1 ではニュ
ーラルネットワークの外部から入力信号を結合係数で重
み付けされることなくそのまま受取り、受取った入力信
号と同じ強さの出力信号を、中間層で自分に結合されて
いる何個かのニューロンA2 に送る。中間層に属する
ニューロンA2 は前述したような入出力機能により、
入力層で自分と結合されている何個かのニューロンA1
 から入力信号を受取り、出力層で自分と結合されてい
る何個かのニューロンA3 へ出力信号を送る。出力層
に属するニューロンA3 では前述したような入出力機
能により、中間層で自分と結合されている何個かのニュ
ーロンA2 から入力信号を受取り、ニューラルネット
ワークの外部に出力信号を送る。
【0028】中間層の数は一つに限らず、例えば図18
に示すように、中間層を2層とし、全体で4層構造とし
てもよい。図18においては、A1 は入力層に属する
ニューロン、A2 ,A3 は中間層に属するニューロ
ン、A4 は出力層に属するニューロンを示す。もちろ
ん、中間層を3層以上としてもよい。
【0029】このようなニューラルネットワーク構成に
おいて、ネットワーク全体を同期させておけば、各層と
も、上述したような機能で並列的に演算することが可能
となる。
【0030】ついで、このような階層型ニューラルネッ
トワークの学習アルゴリズムについて説明する。ここに
、この学習アルゴリズムとしては、バックプロパゲーシ
ョン学習則が最も広く使われており、このバックプロパ
ゲーション学習則について説明する。
【0031】まず、各ニューロン間の結合係数をランダ
ムな値に設定しておく。この状態でニューラルネットワ
ークに入力信号を与えると、ニューラルネットワークか
らの出力信号の値は、必ずしも望ましいものとはならな
い。そこで、このニューラルネットワークに望ましい出
力信号を教師信号として与えて、次に再び同じ入力信号
が与えられたとき、出力信号が望ましい出力信号に近づ
くように、メモリ上の各結合係数の値を変化させる。例
えば、出力層のn番目のニューロンの出力信号の強さを
On とし、そのニューロンに対する教師信号の強さを
Kn とすると、(4)式で定義される誤差
【0032
【数2】
【0033】が減少するように、(5)式で示されるΔ
Tji ∝ −∂E/∂Tji    …………………
…(5)変化量ΔTji  分だけ結合係数Tjiの値
を変える。この操作をニューラルネットワークに入力信
号を与える度に繰返していくことにより、ニューラルネ
ットワークは遂には、入力信号を与えると望ましい出力
信号を出力するようになる。
【0034】ここに、結合係数の変化量ΔTji  を
求めるには、下記のようにする。ただし、ニューロンの
入出力処理については前述した(2)式及び(1)式で
示したものとする。まず、誤差Eを結合係数Tji  
で偏微分すると、(6)式に示すように   ∂E/∂Tji =(∂E/∂netj )(∂n
etj /∂Tji )  ………(6) となる。ここに、(1)式より ∂netj /∂Tji =Oi      …………
…………(7)であるので、(6)式は(8)式に示す
ように∂E/∂Tji =(∂E/∂netj )・O
i ……(8)となる。
【0035】さらに、次の(9)式 δj = −∂E/∂netj      ……………
………(9)で定義される誤差信号δj を導入すると
、(8)式は(10)式 ∂E/∂Tji =−δj ・Oi    ……………
………(10)に示すようになる。
【0036】従って、(5)式より結合係数の変化量Δ
Tjiは(11)式 ΔTji = η・δj ・Oi       ………
……………(11)として求められる。ここに、ηは学
習率と称される定数であり、通常、0.5以下の小さい
値をとる。
【0037】なお、誤差信号δj は(12)〜(14
)式により求められる。まず、   δj =−∂E/∂netj        =−(∂E/∂Oj )(∂Oj /∂n
etj )  …………(12) であり、また、(2)式より   ∂Oj /∂netj =f′(netj )  
    …………………(13) であるので、   δj =−(∂E/∂Oj )・f′(netj 
)   ………………(14) となる。
【0038】特に、ニューロンjが出力層のニューロン
の場合、(4)式より   ∂E/∂Oj =−(Kj −Oj )     
     …………………(15) であるので、誤差信号δj は   δj =(Kj −Oj )f′(netj ) 
     …………………(16) となる。
【0039】また、ニューロンjが中間層のニューロン
の場合、
【0040】
【数3】
【0041】となる。ただし、kについてのΣはニュー
ロンjの出力信号を入力信号として受取るニューロンに
ついての和をとることを意味する。ここで、(1)式よ
り、   ∂netk /∂Oj =Tkj        
……………………………(18) であるので、(17)式は
【0042】
【数4】
【0043】となり、(16)式は
【0044】
【数5】
【0045】となる。
【0046】即ち、中間層のニューロンjの誤差信号δ
j はニューロンjの出力信号を入力信号として受取る
ニューロンの誤差信号δk を用いて算出することがで
きる。
【0047】以上より、結合係数の変更は、下記の手順
に従って行えばよいことになる。
【0048】■  まず、出力層のニューロンについて
(16)式により誤差信号を求める。
【0049】■  次に、今求めた出力層のニューロン
の誤差信号を使って(20)式により出力層より1つ前
の層のニューロンについて誤差信号を求める。
【0050】■  ついで、今求めた層のニューロンの
誤差信号を使って(20)式によりさらに1つ前の層の
ニューロンについて誤差信号を求める。
【0051】■  以下、この手順を繰返して、出力層
側から入力層側に向かって、各層のニューロンの誤差信
号を入力層を除く全ての層について求める。
【0052】■  次に、全ての結合係数について(1
1)式により結合係数の変更量を求めて、結合係数を変
更する。
【0053】つづいて、前出した既提案例等に示される
パルス密度型階層ニューラルネットワークにおける学習
アルゴリズムについて説明する。この場合の学習の手順
は、基本的には、上記のバックプロパゲーション学習則
と同様である。
【0054】この学習は、まず、各ニューロンに対する
誤差信号を求め、ついで、その誤差信号を用いて結合係
数の値を変更する、という手順に従って実行される。そ
の際、まず、出力層のニューロンについて誤差信号を求
め、ついで、その誤差信号を用いて出力層よりも1つ前
の層のニューロンについて誤差信号を求め、次に、今求
めた層の誤差信号を用いてさらに1つ前の層のニューロ
ンについて誤差信号を求める、という具合に、出力層か
ら前の方に層を順に遡って各ニューロンの誤差信号を求
めていく。出力層の誤差信号は、教師信号を用いて算出
する。教師信号はネットワークの出力がとるべき値をニ
ューラルネットワークに与えるための信号であり、この
教師信号も入出力信号と同じくビット列よりなり、その
値をビット列のパルス密度で表現するものとする。
【0055】また、誤差は正の値だけでなく、負の値も
とり得るが、パルス密度型階層ニューラルネットワーク
の場合、信号のとる値をパルス密度で表現しているため
、信号のとる値は常に正であり、一つの信号で正負両方
の値をとり得る量を表現することはできない。そこで、
このようなパルス密度型階層ニューラルネットワークに
おいては、誤差の正成分を表す誤差信号(以下、「誤差
正信号」という)と、誤差の負成分を表す誤差信号(以
下、「誤差負信号」という)との2種類の誤差信号を用
いて、(21)式に示すように誤差を表現するものとす
る。ただし、δ(+)jは誤差正信号の値(パルス密度
)を示し、δ(−)j  は誤差正信号の値(パルス密
度)を示し、1≧δ(+)j ≧0,1≧δ(−)j 
≧0とする。
【0056】   δj =δ(+)j −δ(−)j       
  ……………………………(21)   このように表現するものとすれば、誤差信号δj 
の負の値はδ(+)j <δ(−)jとすることで表現
し得るものとなる。
【0057】このような前提において、まず、出力層で
は、教師信号のNOT(論理否定)をとったビット列と
出力信号とのAND(論理積)をとってできたビット列
を誤差正信号とし、出力信号のNOTをとったビット列
と教師信号とのANDをとってできたビット列を誤差負
信号とする。式で示すと、出力層におけるj番目のニュ
ーロンの誤差正信号、誤差負信号、出力信号及び教師信
号を各々Δ(+)j ,Δ(−)j ,Oj ,Kj 
 と表すものとすると、各々(22)(23)式に示す
ようになる。
【0058】   Δ(+)j =(Oj  AND  (NOT  
Kj ))     ……………(22)  Δ(−)
j =(Kj  AND  (NOT  Oj )) 
    ……………(23)   或いは、(24)(25)式に示すようにしても同
じである。 ただし、XORは排他的論理和を意味する。
【0059】   Δ(+)j =(Oj  AND  (Oj  X
OR  Kj ))    ………(24)  Δ(−
)j =(Kj  AND  (Oj  XOR  K
j ))    ………(25)   このような出力層における誤差正信号Δ(+)j 
と誤差負信号Δ(−)j とは、図19に示すような出
力層誤差信号生成手段となる誤差信号生成回路22によ
り生成できる。即ち、ニューロンからの出力信号Oj 
と教師信号Kj とを排他的ORゲート23に入力させ
るとともに、この排他的ORゲート23出力を各々の信
号とともにANDゲート24,25に入力させることに
より、誤差正信号Δ(+)j  及び誤差負信号Δ(−
)j  を生成するようにしたものである。これは、(
24)(25)式方式を示す。
【0060】ついで、このような出力層の誤差正信号と
誤差負信号とから、出力層より1つ前の中間層における
ニューロンの誤差正信号と誤差負信号とを生成する方法
について説明する。このための方法としても、幾つかの
方法が提案されているが、その一つの方法を図20を参
照して説明する。ここに、中間層において、注目してい
るあるニューロンjとそのニューロンjが属している層
(第L層)の1つ出力層寄りの層(第L+1層)におけ
るi番目のニューロンとの間の結合係数をTijと表す
ものとする。
【0061】まず、第L+1層にあってニューロンjと
興奮性結合をしている全ニューロンについて、それらの
ニューロンの誤差正信号Δ(+)i  とそれらのニュ
ーロンとニューロンjとの間の結合係数Tij  との
論理積をゲート回路26中のANDゲート27によりと
り、さらに、その結果同士の論理和をORゲート28に
よりとる。ここで、この結果を、例えばΔ(1+)j 
と表すものとすると、(26)式に示すようになる。
【0062】 Δ(1+)j =((T1j AND Δ(+)1 )
 OR (T2j AND Δ(+)2 ) OR 〜
)  ……(26)   また、第L+1層にあってニューロンjと抑制性結
合をしている全ニューロンについて、それらのニューロ
ンの誤差負信号Δ(−)i  とそれらのニューロンと
ニューロンjとの間の結合係数Tij  との論理積を
ゲート回路26中のANDゲート27によりとり、さら
に、その結果同士の論理和をORゲート28によりとる
。ここで、この結果を、例えばΔ(2+)j と表すも
のとすると、(27)式に示すようになる。
【0063】 Δ(2+)j =((T1j AND Δ(−)1 )
 OR (T2j AND Δ(−)2 ) OR 〜
)  ……(27)   このΔ(2+)j と先程求めたΔ(1+)j と
の論理和をORゲート28によりとり、これをニューロ
ンjの誤差正信号Δ(+)j  とする。即ち、(28
)式に示すようになる。
【0064】 Δ(+)j =(Δ(1+)j  OR  Δ(2+)
j )    …………………………………(28)   同様に、第L+1層にあってニューロンjと興奮性
結合をしている全ニューロンについて、それらのニュー
ロンの誤差負信号Δ(−)i  とそれらのニューロン
とニューロンjとの間の結合係数Tij  との論理積
をゲート回路26中のANDゲート29によりとり、さ
らに、その結果同士の論理和をORゲート30によりと
る。ここで、この結果を、例えばΔ(1−)j と表す
ものとすると、(29)式に示すようになる。
【0065】 Δ(1−)j =((T1j AND Δ(−)1 )
 OR (T2j AND Δ(−)2 ) OR 〜
)  ……(29)   また、第L+1層にあってニューロンjと抑制性結
合をしている全ニューロンについて、それらのニューロ
ンの誤差正信号Δ(+)i  とそれらのニューロンと
ニューロンjとの間の結合係数Tij  との論理積を
ゲート回路26中のANDゲート29によりとり、さら
に、その結果同士の論理和をORゲート30によりとる
。ここで、この結果を、例えばΔ(2−)j と表すも
のとすると、(30)式に示すようになる。
【0066】 Δ(2−)j =((T1j AND Δ(+)1 )
 OR (T2j AND Δ(+)2 ) OR 〜
)  ……(30)   このΔ(2−)j と先程求めたΔ(1−)j と
の論理和をORゲート30によりとり、これをニューロ
ンjの誤差負信号Δ(−)j  とする。即ち、(31
)式に示すようになる。
【0067】 Δ(−)j =(Δ(1−)j  OR  Δ(2−)
j )    …………………………………(31)   なお、図20に示した回路の場合、結合が興奮性か
抑制性かの区別を示す1ビットのフラグ31を用いて、
ゲート回路32により、上述した興奮性結合の場合と抑
制性結合の場合との処理の切換えを行うようにしている
【0068】ついで、このように算出された誤差正信号
と誤差負信号とを用いて、結合係数の大きさを変更する
方法について、図21に示す結合係数可変手段なる結合
係数可変回路35を参照して説明する。まず、興奮性結
合の場合、着目しているニューロンjより1つ入力層側
の層のk番目のニューロンからこのニューロンjへの入
力信号Ok と誤差正信号Δ(+)j  との論理積を
ANDゲート36によりとった結果をNOTゲート37
で論理否定し、この結果とメモリ38(メモリ4等に相
当)に記憶された結合係数との論理積をANDゲート3
9によりとる。一方、入力信号Ok と誤差負信号Δ(
−)j  との論理積をANDゲート40によりとる。 これらのANDゲート39,40の結果同士の論理和を
ORゲート41によりとり、この結果を新しい結合係数
Tjk  とし、メモリ38の内容を書換える。
【0069】 新Tjk =(((NOT (Ok AND Δ(+)
j )) AND 旧Tjk ) OR (Ok AN
D Δ(−)j ))               
                         
…………………………………(32)   次に、抑制性結合の場合、着目しているニューロン
jより1つ入力層側の層のk番目のニューロンからこの
ニューロンjへの入力信号Ok と誤差負信号Δ(−)
jとの論理積をANDゲート36によりとった結果をN
OTゲート37で論理否定し、この結果とメモリ38(
メモリ4等に相当)に記憶された結合係数との論理積を
ANDゲート39によりとる。一方、入力信号Ok と
誤差正信号Δ(+)j  との論理積をANDゲート4
0によりとる。これらのANDゲート39,40の結果
同士の論理和をORゲート41によりとり、この結果を
新しい結合係数Tjkとし、メモリ38の内容を書換え
る。
【0070】 新Tjk =(((NOT (Ok AND Δ(−)
j )) AND 旧Tjk ) OR (Ok AN
D Δ(+)j ))               
                         
…………………………………(33)   この図21に示す回路においても、図20の場合と
同様に、結合が興奮性か抑制性かの区別を示す1ビット
のフラグ42を用いて、ゲート回路43により、上述し
た興奮性結合の場合と抑制性結合の場合との処理の切換
えを行うようにしている。
【0071】
【発明が解決しようとする課題】前述したような誤差信
号Δ(+)j やΔ(−)j の算出方法は、誤差信号
Δ(+)i  やΔ(−)i と結合係数Tij との
論理積をとったもの同士の論理和をとったものとなって
いる。
【0072】ここに、あるビット列Aとあるビット列B
との論理積は、それらのビット列内のビット配置によっ
て結果が異なるが、平均としては、ビット列Aのパルス
密度とビット列Bのパルス密度との積のパルス密度を持
ったビット列となる。また、あるビット列Aとあるビッ
ト列Bとの論理和は、ビット列Aのパルス密度とビット
列Bのパルス密度とが小さいときには、平均としては、
ビット列Aのパルス密度とビット列Bのパルス密度との
和のパルス密度を持ったビット列となる。従って、誤差
信号或いは結合係数が小さいときには、前述したような
誤差信号Δ(+)j,Δ(−)j  の算出方法は、通
常のバックプロパゲーション学習則における誤差信号δ
j の算出式である(20)式において、ニューロン出
力関数の微分f′を1と置いたものに相当する。
【0073】しかし、パルス密度型ニューラルネットワ
ーク内のニューロンの出力の生成法によっては、f′を
1と置くことが必ずしも適切ではない場合もある。よっ
て、f′を1とするのが不適切となるような形の出力を
生成するニューロンからなるパルス密度型ニューラルネ
ットワーク、具体的には、方法d,e,fに示したよう
に、興奮性結合グループの論理和結果と抑制性結合グル
ープの論理和結果とが一致する場合には別入力信号を出
力する方式であって、この別入力信号のパルス密度を0
.5としたようなものでは、前述したような誤差信号Δ
(+)j ,Δ(−)jの算出方法をそのまま適用した
のでは、十分な学習能力が得られなくなってしまう。
【0074】
【課題を解決するための手段】請求項1記載の発明では
、ビット列表現の入力信号を受取りビット列表現の出力
信号を出力する多入力1出力のニューロンを複数個設け
て、ネットワーク外部から信号を受取るニューロンを含
む入力層とネットワーク外部へ信号を出力するニューロ
ンを含む出力層とネットワーク内のニューロンから信号
を受取りネットワーク内のニューロンへ信号を出力する
ニューロンを含む1層以上の中間層とを階層型に連結す
るとともに、各ニューロン間の結合状態を興奮性結合と
抑制性結合とで表し各々の結合に付随させてビット列表
現の興奮性結合係数と抑制性結合係数とをメモリに格納
しておき、あるニューロンの出力信号をそのニューロン
に興奮性結合を通して入力された入力信号より生成され
るビット列のパルス密度とそのニューロンに抑制性結合
を通して入力された入力信号より生成されるビット列の
パルス密度との差の半分のパルス密度に任意の定数を加
算した値のパルス密度を持つビット列として生成するニ
ューラルネットワークを形成し、出力層のニューロンに
対してはその出力信号と教師信号とに基づき誤差正信号
と誤差負信号とを算出し、中間層の注目ニューロンに対
してはこの注目ニューロンと興奮性結合で結合された一
つ出力層寄りの相手ニューロンの各々について、各結合
係数と相手ニューロンの誤差正信号との論理積をとって
これらの論理積結果のビット列同士の論理和をとり第1
のビット列を得るとともに、前記注目ニューロンと抑制
性結合で結合された一つ出力層寄りの相手ニューロンの
各々について、各結合係数と相手ニューロンの誤差負信
号との論理積をとってこれらの論理積結果のビット列同
士の論理和をとり第2のビット列を得、パルス密度半減
処理を伴うこれらの第1のビット列と第2のビット列と
の論理和処理により得られたビット列を注目ニューロン
の誤差正信号とし、前記注目ニューロンと興奮性結合で
結合された一つ出力層寄りの相手ニューロンの各々につ
いて、各結合係数と相手ニューロンの誤差負信号との論
理積をとってこれらの論理積結果のビット列同士の論理
和をとり第3のビット列を得るとともに、前記注目ニュ
ーロンと抑制性結合で結合された一つ出力層寄りの相手
ニューロンの各々について、各結合係数と相手ニューロ
ンの誤差正信号との論理積をとってこれらの論理積結果
のビット列同士の論理和をとり第4のビット列を得、パ
ルス密度半減処理を伴うこれらの第3のビット列と第4
のビット列との論理和処理により得られたビット列を注
目ニューロンの誤差負信号とし、出力層側から入力層側
に遡って順次各ニューロンの誤差正信号と誤差負信号と
を算出し、算出された誤差正信号と誤差負信号とに基づ
き各ニューロンのメモリに格納された結合係数を可変さ
せて学習するようにした。
【0075】この際、パルス密度半減処理を伴う論理和
処理を、請求項2記載の発明では、一方のビット列のパ
ルス密度と他方のビット列のパルス密度との和の半分の
パルス密度を持つビット列を得る処理とし、請求項3記
載の発明では、一方のビット列と他方のビット列との論
理和をとって得られたビット列のパルス密度を半分にし
たビット列を得る処理とした。
【0076】また、このような学習方法を用いた信号処
理装置として、請求項4記載の発明では、ビット列表現
の入力信号を受取りビット列表現の出力信号を出力する
多入力1出力のニューロンを複数個設けて、ネットワー
ク外部から信号を受取るニューロンを含む入力層とネッ
トワーク外部へ信号を出力するニューロンを含む出力層
とネットワーク内のニューロンから信号を受取りネット
ワーク内のニューロンへ信号を出力するニューロンを含
む1層以上の中間層とを階層型に連結してニューラルネ
ットワークを形成し、各ニューロン間の結合状態を興奮
性結合と抑制性結合とで表し各々の結合に付随させてビ
ット列表現の興奮性結合係数と抑制性結合係数とを格納
したメモリを設け、あるニューロンの出力信号をそのニ
ューロンに興奮性結合を通して入力された入力信号より
生成されるビット列のパルス密度とそのニューロンに抑
制性結合を通して入力された入力信号より生成されるビ
ット列のパルス密度との差の半分のパルス密度に任意の
定数を加算した値のパルス密度を持つビット列として生
成する出力信号生成手段を設け、出力層のニューロンに
対してその出力信号と教師信号とに基づき誤差正信号と
誤差負信号とを算出する出力層誤差信号生成手段を設け
、中間層の注目ニューロンに対してこの注目ニューロン
と興奮性結合で結合された一つ出力層寄りの相手ニュー
ロンの各々について、各結合係数と相手ニューロンの誤
差正信号との論理積をとってこれらの論理積結果のビッ
ト列同士の論理和をとり第1のビット列を得る第1の論
理和回路と、前記注目ニューロンと抑制性結合で結合さ
れた一つ出力層寄りの相手ニューロンの各々について、
各結合係数と相手ニューロンの誤差負信号との論理積を
とってこれらの論理積結果のビット列同士の論理和をと
り第2のビット列を得る第2の論理和回路と、これらの
第1のビット列と第2のビット列とをパルス密度半減処
理を伴って論理和処理する論理和回路とを有して注目ニ
ューロンの誤差正信号を出力する中間層誤差正信号生成
手段を設け、中間層の注目ニューロンに対してこの注目
ニューロンと興奮性結合で結合された一つ出力層寄りの
相手ニューロンの各々について、各結合係数と相手ニュ
ーロンの誤差負信号との論理積をとってこれらの論理積
結果のビット列同士の論理和をとり第3のビット列を得
る第3の論理和回路と、前記注目ニューロンと抑制性結
合で結合された一つ出力層寄りの相手ニューロンの各々
について、各結合係数と相手ニューロンの誤差正信号と
の論理積をとってこれらの論理積結果のビット列同士の
論理和をとり第4のビット列を得る第4の論理和回路と
、これらの第3のビット列と第4のビット列とをパルス
密度半減処理を伴って論理和処理する論理和回路とを有
して注目ニューロンの誤差負信号を出力する中間層誤差
負信号生成手段を設け、算出された誤差正信号と誤差負
信号とに基づき各ニューロンの前記メモリに格納された
結合係数を可変させる結合係数可変手段を設けた。
【0077】
【作用】請求項1記載の発明において、中間層のニュー
ロンで誤差正信号と誤差負信号とを算出する処理として
、論理和結果なる2組のビット列についてパルス密度半
減処理を伴う論理和処理を行うことは、ニューロンの出
力関数の微分、即ち、結合係数や入力信号の変化が、ニ
ューロンの出力信号の変化に及ぼす影響の大きさを考慮
したものとなり、パルス密度論理演算型のニューラルネ
ットワークの学習アルゴリズムの学習能力が大幅に向上
することになる。
【0078】この場合のパルス密度半減処理を伴う論理
和処理は、請求項2記載の発明の方法又は請求項3記載
の発明の方法により、容易に実現できる。
【0079】また、そのための装置としても請求項4記
載の発明によれば、装置の主要部を論理演算回路のみで
構成でき、LSI上で高集積化できるものとなる。
【0080】
【実施例】本発明の一実施例を図1ないし図4に基づい
て説明する。本実施例は、図14ないし図16に示した
方法d,e,fにより出力信号を生成する入出力機能を
持つニューロンによるニューラルネットワークを前提と
するものであり、まず、この出力について再検討する。 ここで、興奮性結合グループの論理和結果(ORゲート
6a出力)として得られるビット列をXj と表し、抑
制性結合グループの論理和結果(ORゲート6b出力)
として得られるビット列をYj と表し、別入力として
ゲート回路15に与えられる信号をEj と表すものと
すると、ニューロンjからの出力信号Oj は、Oj 
=((Xj AND (NOT Yj )) OR (
Xj AND Yj AND Ej )       
         OR ((NOT Xj ) AN
D (NOT Yj ) AND Ej )) ………
…(34) となる。これより、別入力信号Ej のパルス密度が0
.5の場合、出力信号Oj のパルス密度は、簡単な計
算により、(35)式 (Oj のパルス密度)=0.5(1+Xj のパルス
密度−Yj のパルス密度)            
                         
                   …………(3
5) となることが判る。
【0081】ところで、結合係数Tji  が小さいと
きには、 Xj のパルス密度≒Σ(Tji のパルス密度)×(
Oi のパルス密度)……(36)Yj のパルス密度
≒Σ(Tji のパルス密度)×(Oi のパルス密度
)……(37) として表せるので、 netj =Σ(Tji のパルス密度)×(Oi の
パルス密度)              −Σ(Tj
i のパルス密度)×(Oi のパルス密度)  ……
(38) を用いれば、出力信号Oj のパルス密度は(35)式
より、(Oj のパルス密度)=0.5(1+netj
 )         …………………(39) として表すことができる。このOj  のパルス密度が
f(netj )に相当しているので、 f(netj )=0.5(1+netj )    
           …………………(40) であり、従って、その微分関数は f′(netj )=0.5            
                 …………………(
41) となる。
【0082】故に、f′=1に相当していた提案例方式
のパルス密度型ニューラルネットワークの学習方法を、
このようにf′=0.5に相当するように変更すること
により、学習能力の高い学習方法となる。
【0083】ここに、f′が関係しているのは、(16
)式で表される出力層の誤差信号を生成する部分と、(
20)式で表される中間層の誤差信号を生成する部分で
ある。この内、出力層の誤差信号を生成する際のf′は
、(11)式中に現れる学習率ηの中に組込んでしまえ
るので、考慮する必要はない。即ち、δj /f′(n
etj )を改めてδj と表し、δk /f′(ne
tk )を改めてδk と表すものとすると、いま、f
′(netk )=0.5であり、kに依存しないので
、(20)式は、δj =Σf′(netk )δk 
Tkj =f′Σδk Tkj となって形が変わらず
、(16)式は δj =Kj −Oj  となってf′がなくなる。また、(11)式はΔTji
 =ηf′(netj )δj Oj =0.5ηδj
 Oj  となるので、0.5ηを改めてηと表すものとすれば、
(11)式は変わらないものとなる。
【0084】従って、パルス密度型階層ニューラルネッ
トワークにおける学習方法で、f′=0.5に相当する
ように変えるには、(20)式でf′=1と置いた式に
相当しているパルス密度型階層ニューラルネットワーク
の学習方法中の(28)式と(31)式とを、f′=0
.5に対応する式に変更するだけでよい、即ち、(28
)(31)式の右辺により生成されるビット列のパルス
密度を半分に減らす半減処理を行うようにすればよい。 この半減処理方法として、次の方法■■の2通りがある
【0085】まず、方法■について説明する。(28)
式は(26)式により得られるΔ(1+)j と(27
)式により得られるΔ(2+)j との足算を論理和を
とる操作に置き換えたものであり、(31)式は(29
)式により得られるΔ(1−)j と(30)式により
得られるΔ(2−)jとの足算を論理和をとる操作に置
き換えたものである。ここに、パルス密度が0.5とさ
れたビット列Eを用いれば、(42)式に示すように、
あるビット列Aのパルス密度とあるビット列Bのパルス
密度の和の半分となるパルス密度を持つビット列Cを生
成できる。
【0086】 C=((A  AND  B)OR(A  AND  
E)OR(B  AND  E))    ………(4
2)   従って、(28)式を(43)式のように置き換え
、(31)式を(44)式のように置き換えればよい。
【0087】 Δ(+)j =((Δ(1+)j  AND  Δ(2
+)j )OR(Δ(1+)j  AND  E ) 
                         
OR(Δ(2+)j  AND  E ))     
……………(43)Δ(−)j =((Δ(1−)j 
 AND  Δ(2−)j )OR(Δ(1−)j  
AND  E )                 
         OR(Δ(2−)j  AND  
E ))     ……………(44)   また、方法■としては、(28)式の右辺によりビ
ット列を生成した後、そのビット列のパルス密度を例え
ば分周回路等により半分に減らして、このビット列をΔ
(+)j  とし、同様に、(31)式の右辺によりビ
ット列を生成した後、そのビット列のパルス密度を例え
ば分周回路等により半分に減らして、このビット列をΔ
(−)j  とするものである。
【0088】このような変更に伴う、本実施例の学習ア
ルゴリズムを方法■■各々について説明する。なお、(
28)(31)式以外は、前述した提案例中の学習アル
ゴリズムで説明した手順と同じであり、必要な部分のみ
重複して説明するものとする。
【0089】まず、方法■による学習アルゴリズムにつ
いて説明する。この場合も、学習は、前述したように各
ニューロンに対する誤差信号を求め、求められた誤差信
号を用いて結合係数を変更するという手順に従って、出
力層側より入力層側へ1層ずつ遡る方式により行われる
。出力層における処理は、図19の回路により(22)
〜(25)式によって算出される。
【0090】ついで、中間層における誤差正信号Δ(+
)j 及び誤差負信号Δ(−)j の生成について図1
を参照して説明する。ここでも、注目ニューロンをj、
この注目ニューロンjが属している層を第L層、1つ出
力層寄りの層第L+1層におけるi番目のニユーロンと
の結合係数をTij  と表すものとする。
【0091】まず、第L+1層にあってニューロンjと
興奮性結合をしている全ニューロンについて、それらの
ニューロンの誤差正信号Δ(+)i  とそれらのニュ
ーロンとニューロンjとの間の結合係数Tij  (メ
モリ51に格納)との論理積をANDゲート52により
とり、さらに、その結果同士の論理和をORゲート53
によりとる。ここで、この結果を、例えば第1のビット
列Δ(1+)j と表すものとすると、前述した(26
)式に示すようになる。また、第L+1層にあってニュ
ーロンjと抑制性結合をしている全ニューロンについて
、それらのニューロンの誤差負信号Δ(−)i  とそ
れらのニューロンとニューロンjとの間の結合係数Ti
j  (メモリ54に格納)との論理積をANDゲート
55によりとり、さらに、その結果同士の論理和をOR
ゲート56によりとる。ここで、この結果を、例えば第
2のビット列Δ(2+)j と表すものとすると、前述
した(27)式に示すようになる。即ち、ORゲート5
3群が第1の論理和回路57を形成し、ORゲート56
群が第2の論理和回路58を形成している。
【0092】このように求められた第1,2のビット列
Δ(1+)j ,Δ(2+)j に対して0.5なるパ
ルス密度のビット列Eを論理和回路59により組合せて
前述した(43)式の処理を行うことにより、このニュ
ーロンjの誤差正信号Δ(+)i  を得る。論理和回
路59は3つのANDゲート60,61,62とこれら
の出力を入力とするORゲート63とにより形成されて
いる。これらの論理和回路57,58,59により中間
層誤差正信号生成手段64が構成されている。
【0093】同様に、第L+1層にあってニューロンj
と興奮性結合をしている全ニューロンについて、それら
のニューロンの誤差負信号Δ(−)i  とそれらのニ
ューロンとニューロンjとの間の結合係数Tij  (
メモリ51に格納)との論理積をANDゲート65によ
りとり、さらに、その結果同士の論理和をORゲート6
6によりとる。ここで、この結果を、例えば第3のビッ
ト列Δ(1−)j と表すものとすると、前述した(2
9)式に示すようになる。また、第L+1層にあってニ
ューロンjと抑制性結合をしている全ニューロンについ
て、それらのニューロンの誤差正信号Δ(+)i  と
それらのニューロンとニューロンjとの間の結合係数T
ij  (メモリ54に格納)との論理積をANDゲー
ト67によりとり、さらに、その結果同士の論理和をO
Rゲート68によりとる。ここで、この結果を、例えば
第4のビット列Δ(2−)j と表すものとすると、前
述した(30)式に示すようになる。即ち、ORゲート
66群が第3の論理和回路69を形成し、ORゲート6
8群が第4の論理和回路70を形成している。
【0094】このように求められた第3,4のビット列
Δ(1−)j ,Δ(2−)j に対して0.5なるパ
ルス密度のビット列Eを論理和回路71により組合せて
前述した(44)式の処理を行うことにより、このニュ
ーロンjの誤差負信号Δ(−)i  を得る。論理和回
路71は3つのANDゲート72,73,74とこれら
の出力を入力とするORゲート75とにより形成されて
いる。これらの論理和回路69,70,71により中間
層誤差負信号生成手段76が構成されている。
【0095】ついで、このように算出された誤差正信号
と誤差負信号とを用いて、結合係数の大きさを変更する
方法について説明する。第1の方法としては、図21に
示した結合係数可変回路35により前述したように行え
ばよい。第2の方法としては、図2に示すように興奮性
結合用と抑制性結合用とで別個の回路構成により処理す
るようにしてもよい。まず、興奮性結合の場合、図2(
a)に示すように、注目しているニューロンjより1つ
入力層側の層のk番目のニューロンからこのニューロン
jへの入力信号Ok と誤差正信号Δ(+)j  との
論理積をANDゲート81によりとった結果をNOTゲ
ート82で論理否定し、この結果とメモリ51に記憶さ
れた結合係数との論理積をANDゲート83によりとる
。一方、入力信号Ok と誤差負信号Δ(−)j  と
の論理積をANDゲート84によりとる。これらのAN
Dゲート83,84の結果同士の論理和をORゲート8
5によりとり、(32)式に示したように、この結果を
新しい結合係数Tjk  とし、メモリ51の内容を書
換える。
【0096】次に、抑制性結合の場合、図2(b)に示
すように、着目しているニューロンjより1つ入力層側
の層のk番目のニューロンからこのニューロンjへの入
力信号Ok と誤差負信号Δ(−)jとの論理積をAN
Dゲート86によりとった結果をNOTゲート87で論
理否定し、この結果とメモリ54に記憶された結合係数
との論理積をANDゲート88によりとる。一方、入力
信号Ok と誤差正信号Δ(+)jとの論理積をAND
ゲート89によりとる。これらのANDゲート88,8
9の結果同士の論理和をORゲート90によりとり、(
33)式に示したように、この結果を新しい結合係数T
jk  とし、メモリ54の内容を書換える。
【0097】ついで、方法■による学習アルゴリズムに
ついて説明する。この場合も、出力層における処理は、
図19の回路により(22)〜(25)式によって算出
される。 ついで、中間層での誤差信号の生成について図3を参照
して説明する。図1に示した方法■用の構成と異なるの
は、論理和回路59,71に代えて、各々ORゲート9
1,92と分周回路93,94とよりなる論理和回路9
5,96を設けたものである。まず、第1,2のビット
列Δ(1+)j ,Δ(2+)j 同士の論理和をOR
ゲート91によりとり、このORゲート91から出力さ
れるビット列のパルス密度を分周回路93により半分に
減らして、そのニューロンjの誤差正信号Δ(+)j 
 とする。また、第3,4のビット列Δ(1−)j ,
Δ(2−)j 同士の論理和をORゲート92によりと
り、このORゲート92から出力されるビット列のパル
ス密度を分周回路94により半分に減らして、そのニュ
ーロンjの誤差負信号Δ(−)j  とするものである
。これらの誤差信号に基づく結合係数の変更は方法■の
場合と同様に行えばよい。
【0098】なお、上例は、結合が興奮性であるか抑制
性であるかが予め決まっている場合であるが、興奮性か
抑制性かの区別を示す1ビットのフラグ95により興奮
性結合の場合と抑制性結合の場合とで処理の切換えを行
う場合であれば、図4に示すように構成すればよい。即
ち、図20に示した回路に対して分周回路93,94を
付加したものである。この場合、図20により説明した
ように、ORゲート28群が第1,2の論理和回路を兼
用し、ORゲート群28と分周回路93とが論理和回路
を構成し、同様に、ORゲート30群が第3,4の論理
和回路を兼用し、ORゲート群30と分周回路94とが
論理和回路を構成するものとなる。
【0099】
【発明の効果】本発明は、上述したように構成したので
、請求項1記載の発明によれば、中間層のニューロンで
誤差正信号と誤差負信号とを算出する処理として、論理
和結果なる2組のビット列についてパルス密度半減処理
を伴う論理和処理を行うことにより、結合係数や入力信
号の変化がニューロンの出力信号の変化に及ぼす影響の
大きさを考慮した誤差信号の算出となり、パルス密度論
理演算型のニューラルネットワークの学習アルゴリズム
の学習能力を大幅に向上させることができ、この場合の
学習アルゴリズムをビット列の論理演算のみで表現でき
、ハードウエア化も容易となり、このようなパルス密度
半減処理を伴う論理和処理も、請求項2記載の発明又は
請求項3記載の発明の論理処理により、容易に実現でき
、また、そのための装置としても請求項4記載の発明に
よれば、装置の主要部を論理演算回路のみで構成でき、
LSI上で高集積化できるものとなる。
【図面の簡単な説明】
【図1】本発明の一実施例を示す請求項2記載の発明対
応の誤差信号生成用の回路図である。
【図2】結合係数可変回路を示す回路図である。
【図3】請求項3記載の発明対応の誤差信号生成用の回
路図である。
【図4】請求項3記載の発明対応の誤差信号生成用の変
形例を示す回路図である。
【図5】シグモイド関数を示す特性図である。
【図6】ニューロンにおける信号処理の基本を模式的に
示す回路図である。
【図7】パルス密度信号処理例を示すタイミングチャー
トである。
【図8】パルス密度信号処理例を示すタイミングチャー
トである。
【図9】パルス密度信号処理例を示すタイミングチャー
トである。
【図10】パルス密度信号処理例を示すタイミングチャ
ートである。
【図11】方法aの出力信号生成用の回路図である。
【図12】方法bの出力信号生成用の回路図である。
【図13】方法cの出力信号生成用の回路図である。
【図14】方法dの出力信号生成用の回路図である。
【図15】方法eの出力信号生成用の回路図である。
【図16】方法fの出力信号生成用の回路図である。
【図17】ニューラルネットワーク構成例を示す結線図
である。
【図18】ニューラルネットワーク構成例を示す結線図
である。
【図19】出力層の誤差信号生成用の回路図である。
【図20】中間層の誤差信号生成用の回路図である。
【図21】結合係数可変回路を示す回路図である。
【符号の説明】
16    出力信号生成手段 22    出力層誤差信号生成手段 35    結合係数可変手段 51,54    メモリ 57    第1の論理和回路 58    第2の論理和回路 59    論理和回路 64    誤差正信号生成手段 69    第3の論理和回路 70    第4の論理和回路 71    論理和回路 76    誤差負信号生成手段 95,96    論理和回路

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】  ビット列表現の入力信号を受取りビッ
    ト列表現の出力信号を出力する多入力1出力のニューロ
    ンを複数個設けて、ネットワーク外部から信号を受取る
    ニューロンを含む入力層とネットワーク外部へ信号を出
    力するニューロンを含む出力層とネットワーク内のニュ
    ーロンから信号を受取りネットワーク内のニューロンへ
    信号を出力するニューロンを含む1層以上の中間層とを
    階層型に連結するとともに、各ニューロン間の結合状態
    を興奮性結合と抑制性結合とで表し各々の結合に付随さ
    せてビット列表現の興奮性結合係数と抑制性結合係数と
    をメモリに格納しておき、あるニューロンの出力信号を
    そのニューロンに興奮性結合を通して入力された入力信
    号より生成されるビット列のパルス密度とそのニューロ
    ンに抑制性結合を通して入力された入力信号より生成さ
    れるビット列のパルス密度との差の半分のパルス密度に
    任意の定数を加算した値のパルス密度を持つビット列と
    して生成するニューラルネットワークを形成し、出力層
    のニューロンに対してはその出力信号と教師信号とに基
    づき誤差正信号と誤差負信号とを算出し、中間層の注目
    ニューロンに対してはこの注目ニューロンと興奮性結合
    で結合された一つ出力層寄りの相手ニューロンの各々に
    ついて、各結合係数と相手ニューロンの誤差正信号との
    論理積をとってこれらの論理積結果のビット列同士の論
    理和をとり第1のビット列を得るとともに、前記注目ニ
    ューロンと抑制性結合で結合された一つ出力層寄りの相
    手ニューロンの各々について、各結合係数と相手ニュー
    ロンの誤差負信号との論理積をとってこれらの論理積結
    果のビット列同士の論理和をとり第2のビット列を得、
    パルス密度半減処理を伴うこれらの第1のビット列と第
    2のビット列との論理和処理により得られたビット列を
    注目ニューロンの誤差正信号とし、前記注目ニューロン
    と興奮性結合で結合された一つ出力層寄りの相手ニュー
    ロンの各々について、各結合係数と相手ニューロンの誤
    差負信号との論理積をとってこれらの論理積結果のビッ
    ト列同士の論理和をとり第3のビット列を得るとともに
    、前記注目ニューロンと抑制性結合で結合された一つ出
    力層寄りの相手ニューロンの各々について、各結合係数
    と相手ニューロンの誤差正信号との論理積をとってこれ
    らの論理積結果のビット列同士の論理和をとり第4のビ
    ット列を得、パルス密度半減処理を伴うこれらの第3の
    ビット列と第4のビット列との論理和処理により得られ
    たビット列を注目ニューロンの誤差負信号とし、出力層
    側から入力層側に遡って順次各ニューロンの誤差正信号
    と誤差負信号とを算出し、算出された誤差正信号と誤差
    負信号とに基づき各ニューロンのメモリに格納された結
    合係数を可変させるようにしたことを特徴とするニュー
    ラルネットワークの学習方法。
  2. 【請求項2】  パルス密度半減処理を伴う論理和処理
    を、一方のビット列のパルス密度と他方のビット列のパ
    ルス密度との和の半分のパルス密度を持つビット列を得
    る処理としたことを特徴とする請求項1記載のニューラ
    ルネットワークの学習方法。
  3. 【請求項3】  パルス密度半減処理を伴う論理和処理
    を、一方のビット列と他方のビット列との論理和をとっ
    て得られたビット列のパルス密度を半分にしたビット列
    を得る処理としたことを特徴とする請求項1記載のニュ
    ーラルネットワークの学習方法。
  4. 【請求項4】  ビット列表現の入力信号を受取りビッ
    ト列表現の出力信号を出力する多入力1出力のニューロ
    ンを複数個設けて、ネットワーク外部から信号を受取る
    ニューロンを含む入力層とネットワーク外部へ信号を出
    力するニューロンを含む出力層とネットワーク内のニュ
    ーロンから信号を受取りネットワーク内のニューロンへ
    信号を出力するニューロンを含む1層以上の中間層とを
    階層型に連結してニューラルネットワークを形成し、各
    ニューロン間の結合状態を興奮性結合と抑制性結合とで
    表し各々の結合に付随させてビット列表現の興奮性結合
    係数と抑制性結合係数とを格納したメモリを設け、ある
    ニューロンの出力信号をそのニューロンに興奮性結合を
    通して入力された入力信号より生成されるビット列のパ
    ルス密度とそのニューロンに抑制性結合を通して入力さ
    れた入力信号より生成されるビット列のパルス密度との
    差の半分のパルス密度に任意の定数を加算した値のパル
    ス密度を持つビット列として生成する出力信号生成手段
    を設け、出力層のニューロンに対してその出力信号と教
    師信号とに基づき誤差正信号と誤差負信号とを算出する
    出力層誤差信号生成手段を設け、中間層の注目ニューロ
    ンに対してこの注目ニューロンと興奮性結合で結合され
    た一つ出力層寄りの相手ニューロンの各々について、各
    結合係数と相手ニューロンの誤差正信号との論理積をと
    ってこれらの論理積結果のビット列同士の論理和をとり
    第1のビット列を得る第1の論理和回路と、前記注目ニ
    ューロンと抑制性結合で結合された一つ出力層寄りの相
    手ニューロンの各々について、各結合係数と相手ニュー
    ロンの誤差負信号との論理積をとってこれらの論理積結
    果のビット列同士の論理和をとり第2のビット列を得る
    第2の論理和回路と、これらの第1のビット列と第2の
    ビット列とをパルス密度半減処理を伴って論理和処理す
    る論理和回路とを有して注目ニューロンの誤差正信号を
    出力する中間層誤差正信号生成手段を設け、中間層の注
    目ニューロンに対してこの注目ニューロンと興奮性結合
    で結合された一つ出力層寄りの相手ニューロンの各々に
    ついて、各結合係数と相手ニューロンの誤差負信号との
    論理積をとってこれらの論理積結果のビット列同士の論
    理和をとり第3のビット列を得る第3の論理和回路と、
    前記注目ニューロンと抑制性結合で結合された一つ出力
    層寄りの相手ニューロンの各々について、各結合係数と
    相手ニューロンの誤差正信号との論理積をとってこれら
    の論理積結果のビット列同士の論理和をとり第4のビッ
    ト列を得る第4の論理和回路と、これらの第3のビット
    列と第4のビット列とをパルス密度半減処理を伴って論
    理和処理する論理和回路とを有して注目ニューロンの誤
    差負信号を出力する中間層誤差負信号生成手段を設け、
    算出された誤差正信号と誤差負信号とに基づき各ニュー
    ロンの前記メモリに格納された結合係数を可変させる結
    合係数可変手段を設けたことを特徴とする信号処理装置
JP3109074A 1991-05-14 1991-05-14 ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置 Pending JPH04336656A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3109074A JPH04336656A (ja) 1991-05-14 1991-05-14 ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3109074A JPH04336656A (ja) 1991-05-14 1991-05-14 ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置

Publications (1)

Publication Number Publication Date
JPH04336656A true JPH04336656A (ja) 1992-11-24

Family

ID=14500949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3109074A Pending JPH04336656A (ja) 1991-05-14 1991-05-14 ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置

Country Status (1)

Country Link
JP (1) JPH04336656A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320495A (zh) * 2014-07-22 2016-02-10 英特尔公司 用于卷积神经网络的权重移位机制

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320495A (zh) * 2014-07-22 2016-02-10 英特尔公司 用于卷积神经网络的权重移位机制

Similar Documents

Publication Publication Date Title
US8977578B1 (en) Synaptic time multiplexing neuromorphic network that forms subsets of connections during different time slots
JP3102918B2 (ja) ニューラルネットワーク学習方法およびこの学習方法を用いた信号処理装置
Ikuta et al. Chaos glial network connected to multi-layer perceptron for solving two-spiral problem
JP2023547069A (ja) 分散型マルチコンポーネントシナプス計算構造
JPH0264787A (ja) 階層構造ニューラルネット
Zamani et al. A bidirectional associative memory based on cortical spiking neurons using temporal coding
JPH04336656A (ja) ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置
Klöppel Neural networks as a new method for EEG analysis: a basic introduction
US9916530B2 (en) Neuromorphic circuit model simulation that facilitates information routing and processing
Henderson Jr A Memristor-Based Liquid State Machine for Auditory Signal Recognition
RU2514931C1 (ru) Способ интеллектуальной обработки информации в нейронной сети
JP3126762B2 (ja) ニューラルネットワーク
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
Beiu et al. Optimal mapping of neural networks onto FPGAs: A new constructive algorithm
Lisovskaya et al. Processing of Neural System Information with the Use of Artificial Spiking Neural Networks
JP3256553B2 (ja) 信号処理装置の学習方法
Fletcher Adaptive internal activation functions and their effect on learning in feed forward networks
JPH056356A (ja) 信号処理方法及びその装置
JP3338713B2 (ja) 信号処理装置
Tsutsumi et al. Hierarchically Modular Dynamical Neural Network Relaxing in a Warped Space: Basic Model and its Characteristics
JPH03294979A (ja) 信号処理装置
JPH02292689A (ja) 学習型神経回路
JP3130913B2 (ja) 信号処理装置
JPH03100858A (ja) ニューラルネットワーク
JPH06301666A (ja) 信号処理装置