JPH07111090A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH07111090A
JPH07111090A JP6073135A JP7313594A JPH07111090A JP H07111090 A JPH07111090 A JP H07111090A JP 6073135 A JP6073135 A JP 6073135A JP 7313594 A JP7313594 A JP 7313594A JP H07111090 A JPH07111090 A JP H07111090A
Authority
JP
Japan
Prior art keywords
signal
pulse train
coupling coefficient
output
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6073135A
Other languages
English (en)
Other versions
JP3582737B2 (ja
Inventor
Toshiyuki Furuta
俊之 古田
Shuji Motomura
修二 本村
Takahiro Watanabe
孝宏 渡邊
Jii Sutooku Debitsudo
ジイ ストーク デビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP07313594A priority Critical patent/JP3582737B2/ja
Priority to US08/246,342 priority patent/US5588090A/en
Publication of JPH07111090A publication Critical patent/JPH07111090A/ja
Application granted granted Critical
Publication of JP3582737B2 publication Critical patent/JP3582737B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 学習能力をより向上させること。 【構成】 結合係数可変手段と、この結合係数可変手段
の可変結合係数値を教師信号に対する正の誤差信号と負
の誤差信号とに基づいて生成する結合係数生成手段とを
有する自己学習手段を付設した複数の神経細胞模倣ユニ
ットを網状に接続して回路網を形成した信号処理装置に
おいて、正、負の誤差信号δj(+),δj(-)の生成のため
に神経細胞模倣ユニットからの出力信号に基づき2種類
の神経細胞応答関数の微係数fj(+)′,fj(-)′を算出
する微係数算出手段51を設けた。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、文字や図形認識、或い
はロボットなどの運動制御、さらには、連想記憶などに
適用可能な、神経回路網を模倣したニューラルコンピュ
ータ等の信号処理装置に関する。
【0002】
【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この
「神経細胞模倣素子」をネットワークにし、情報の並列
処理を目指したのが、いわゆるニューラルネットワーク
である。文字認識や、連想記憶、運動制御等、生体では
いとも簡単に行われていても、従来のノイマン型コンピ
ュータではなかなか達成しないものが多い。そこで、生
体の神経系、特に生体特有の機能、即ち、並列処理、自
己学習等を模倣して、これらの問題を解決しようとする
試みが盛んに行われている。しかしながら、これらの試
みは計算機シミュレーションで行われているものが多
く、本来の機能を発揮させるためには、並列処理が必要
であり、そのためにはニューラルネットワークのハード
ウエア化が必要である。一部では、既にハードウエア化
の試みもなされているが、ニューラルネットワークの特
徴の一つである自己学習機能が実現できず、大きなネッ
クとなっている。また、殆どのものはアナログ回路で実
現されており、動作の点で問題がある。
【0003】これらの点について、さらに詳細に検討す
る。まず、従来のニューラルネットワークのモデルにつ
いて説明する。図44はある1つの神経細胞ユニット
(神経細胞模倣素子)1を表すもので、図45はこれを
ネットワークにしたものである。即ち、1つの神経細胞
ユニット1は多数の他の神経細胞ユニット1と結合し信
号を受け、それを処理して出力を出す。図45の場合、
ネットワークは階層型であり、1つ前(左側)の層のユ
ニットより信号を受け、1つ先(右側)の層のユニット
へ出力する。
【0004】ここで、図44の神経細胞ユニット1にお
いて、他の神経細胞ユニットと自分の神経細胞ユニット
との結合の度合いを表すのが結合係数と呼ばれるもの
で、i番目のユニットとj番目のユニットとの結合係数
を、一般にTijで表す。結合には、相手のユニットから
の信号が大きいほど自分の出力が大きくなる興奮性結合
と、逆に、相手のユニットの信号が大きいほど自分の出
力が小さくなる抑制性結合とがあるが、Tij>0が興奮
性結合、Tij<0が抑制性結合を表す。自分がj番目の
ユニットの時、i番目のユニットからの入力をyi とす
ると、これに結合係数Tijを掛けたTiji が自分のユ
ニットへの入力となる。前述したように、各ユニットは
多数のユニットと結合しているので、それらのユニット
に対するTiji を足し合わせた結果なるΣTij
i が、自分のユニットへの入力となる。これを内部電位
といい、(1)式のようにujj =ΣTiji ……………………(1) で表す。
【0005】次に、この入力に対して、非線形な処理を
して出力とする。この時の関数を神経細胞応答関数と呼
び、非線形関数として、(2)式及び図46に示すような
シグモイド関数を用いる。
【0006】
【数1】
【0007】図45に示すようにネットワークにした時
には、各結合係数Tijを与え、(1)(2)式を次々と計算
することにより、最終的な出力が得られるものである。
【0008】一方、このようなネットワークを電気回路
で実現したものの一例として、図47に示すようなもの
がある。これは、特開昭62−295188号公報中に
示されるもので、基本的には、S字形伝達関数を有する
複数の増幅器2と、各増幅器2の出力を他の層の増幅器
の入力に一点鎖線で示すように接続する抵抗性フィード
バック回路網3とを設けたものである。各増幅器2の入
力側には接地されたコンデンサと接地された抵抗とによ
るCR時定数回路4が個別に接続されている。そして、
入力電流I1,I2,〜,IN が各増幅器2の入力に供給
され、出力はこれらの増幅器2の出力電圧の集合から得
られる。
【0009】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞間の結合の強さは、各細胞間の入出力ラ
インを結ぶ抵抗5(抵抗性フィードバック回路網3中の
格子点)の抵抗値で表され、神経細胞応答関数は各増幅
器2の伝達関数で表される。また、神経細胞間の結合に
は、前述のように興奮性結合と抑制性結合とがあり数学
的には結合係数の正負符号により表される。しかし、回
路上の定数で正負を実現するのは困難であるので、ここ
では、増幅器2の出力を2つに分け、一方の出力を反転
させることにより、正負の2つの信号を生成し、これを
適当に選択することにより実現するようにしている。ま
た、図46に示したシグモイド関数に相当するものとし
ては増幅器が用いられている。
【0010】しかし、これらの回路には、 ネットワーク内部での信号の強度を電位や電流など
のアナログ値で表し、内部の演算もアナログ的に行わせ
るため、温度特性や電源投入直後のドリフト等により、
その値が変化してしまう。 ネットワークであるので、素子の数も多く必要とす
るが、各々の特性を揃えることは困難である。 1つの素子の精度や安定性が問題となったとき、そ
れをネットワークにした場合、新たな問題を生ずる可能
性があり、ネットワーク全体で見たときの動きが予想で
きない。 結合係数Tijの値が固定であり、予めシミュレーシ
ョンなどの他の方法で学習させた値を使うしかなく、自
己学習ができない。 といった問題点がある。
【0011】一方、数値計算で用いられている学習法則
としては、バックプロパゲーションと呼ばれる下記のよ
うなものがある。
【0012】まず、各結合係数は最初にランダムに与え
ておく。この状態で、入力を与えると、出力結果は必ず
しも望ましいものとはならない。例えば、文字認識の場
合、手書きの「1」の文字を与えたとすると、出力結果
として「この文字は『1』である」と出るのが望ましい
結果であるが、結合係数がランダムであると必ずしも望
ましい結果とはならない。そこで、このネットワークに
正解(教師信号)を与えて、再び、同じ入力があったと
き正解となるように各結合係数を変化させる。このと
き、結合係数を変化させる量を求めるアルゴリズムが、
バックプロパゲーションと呼ばれているものである。
【0013】例えば、図45に示した階層型のネットワ
ークにおいて、最終層のj番目の神経細胞ユニットの出
力をyjとし、その神経細胞ユニットに対する教師信号
をdjとすると、(3)式で表されるE E=Σ(dj −yj )2 ……………………(3) が最小となるように、(4)式を用い、 ΔTij =∂E/∂Tij ……………………(4) 結合係数Tijを変化させる。
【0014】さらに具体的には、まず、出力層と、その
1つ前の層との結合係数を求める場合には、(5)式を用
いて誤差信号δを求め、 δj = ( dj − yj )× f′(uj ) ……(5) それよりさらに前の層同士の結合係数を求める場合に
は、(6)式を用いて誤差信号δを求め、 δj = Σδiij × f′(uj ) ………(6) (7)式を求め、 ΔTij = η(δji)+ αΔTij′ Tij = Tij′+ ΔTij ……………(7) Tijを変化させる。ここに、ηは学習定数、αは安定化
定数と呼ばれるものである。各々論理的には求められな
いので、経験的に求める。また、f′はシグモイド関数
fの1階微分関数、ΔTij′,Tij′は前回学習時の値
である。
【0015】このようにして学習をし、その後、再び入
力を与えて出力を計算し、学習をする。この操作を何回
も繰返す内に、やがて、与えられた入力に対して望まし
い結果が得られるような結合係数Tijが決定される。
【0016】ところが、このような学習方法を何らかの
方法でハードウエア化しようとした場合、学習には、多
量の四則演算が必要であり、実現が困難である。学習方
法そのものもハードウエア化に対しては不向きである。
【0017】一方、デジタル回路でニューラルネットワ
ークを実現したものの例を図48ないし図50を参照し
て説明する。図48は単一の神経細胞の回路構成を示
し、各シナプス回路6を樹状突起回路7を介して細胞体
回路8に接続してなる。図49はその内のシナプス回路
6の構成例を示し、係数回路9を介して入力パルスfに
倍率a(フィードバック信号に掛ける倍率で、1又は
2)を掛けた値が入力されるレートマルチプライヤ10
を設けてなり、レートマルチプライヤ10には重み付け
の値wを記憶したシナプス荷重レジスタ11が接続され
ている。また、図50は細胞体回路8の構成例を示し、
制御回路12、アップ/ダウンカウンタ13、レートマ
ルチプライヤ14及びゲート15を順に接続してなり、
さらに、アップ/ダウンメモリ16が設けられている。
【0018】これは、神経細胞ユニットの入出力をパル
ス列で表し、そのパルス密度で信号の量を表している。
結合係数は2進数で表し、メモリ16上に保存してお
く。入力信号をレートマルチプライヤ14のクロックへ
入力し、結合係数をレート値へ入力することによって、
入力信号のパルス密度をレート値に応じて減らしてい
る。これは、バックプロパゲーションモデルの式のTij
i の部分に相当する。次に、ΣTiji のΣの部分
は、樹状突起回路7によって示されるOR回路で実現し
ている。結合には興奮性、抑制性があるので、予めグル
ープ分けしておき、各々のグループ別にORをとる。こ
の2つの出力をカウンタ13のアップ側、ダウン側に入
力しカウントすることで出力が得られる。この出力は2
進数であるので、再びレートマルチプライヤ14を用い
て、パルス密度に変換する。このユニットをネットワー
クにすることによって、ニューラルネットワークが実現
できる。学習については、最終出力を外部のコンピュー
タに入力してコンピュータ内部で数値計算を行い、その
結果を結合係数のメモリ16に書込むことにより実現し
ている。従って、自己学習機能は全くない。また、回路
構成もパルス密度の信号をカウンタを用いて一旦数値
(2進数)に変換し、その後、再びパルス密度に変換し
ており、複雑なものとなっている。
【0019】このように従来技術による場合、アナログ
回路方式では動作に確実性がなく、数値計算による学習
方法も計算が複雑であり、ハードウエア化に適さず、動
作が確実なデジタル方式のものは回路構成が複雑であ
る。また、ハードウエア上で自己学習ができないという
欠点もある。
【0020】このような欠点を解消するため、パルス密
度型の学習機能付きニューロンモデルが特開平4−54
9号公報(フォワードプロセスの基本)、特開平4−1
11185号公報(学習プロセスの基本)等として本出
願人により提案されている。
【0021】
【発明が解決しようとする課題】ところで、このような
ニューラルネットワークにおける学習時において、誤差
信号の演算には、ニューロンからの出力信号を内部電位
で微分した微係数が用いられるが、上述した基本的な提
案例では、この微係数が一定値として扱われている。こ
の結果、学習能力が必ずしも高いものとはなっておら
ず、改善の余地がある。
【0022】
【課題を解決するための手段】請求項1記載の発明で
は、結合係数可変手段と、この結合係数可変手段の可変
結合係数値を教師信号に対する正の誤差信号と負の誤差
信号とに基づいて生成する結合係数生成手段とを有する
自己学習手段を付設した複数の神経細胞模倣ユニットを
網状に接続して回路網を形成した信号処理装置におい
て、前記正、負の誤差信号の生成のために神経細胞模倣
ユニットからの出力信号に基づき2種類の神経細胞応答
関数の微係数を算出する微係数算出手段を設けた。
【0023】この際、請求項2記載の発明では、神経細
胞模倣ユニットからの出力信号をパルス列で表現するも
のとし、この神経細胞模倣ユニットからの出力信号を所
定時間遅延させた遅延信号と前記出力信号の否定信号と
の論理積を一方の神経細胞応答関数の微係数とし、前記
神経細胞模倣ユニットからの出力信号の否定信号を所定
時間遅延させた遅延信号と前記出力信号との論理積を他
方の神経細胞応答関数の微係数とする微係数算出手段を
設けた。
【0024】加えて、請求項3記載の発明では、結合係
数の値をパルス列表現で保存するメモリと、このメモリ
上の結合係数のパルス列のパルス並びを一定時間毎に変
更するパルス並び変更手段とを有するものとした。即
ち、神経細胞模倣ユニットからの出力信号をパルス列で
表現するものとし、かつ、結合係数の値をパルス列表現
で保存するメモリと、このメモリ上の結合係数のパルス
列のパルス並びを一定時間毎に変更するパルス並び変更
手段とを有するものとした上で、前記神経細胞模倣ユニ
ットからの出力信号を所定時間遅延させた遅延信号と前
記出力信号の否定信号との論理積を一方の神経細胞応答
関数の微係数とし、前記神経細胞模倣ユニットからの出
力信号の否定信号を所定時間遅延させた遅延信号と前記
出力信号との論理積を他方の神経細胞応答関数の微係数
として算出する微係数算出手段を設けた。さらに、請求
項4記載の発明では、結合係数の値をパルス列表現に変
換する変換手段を有するものとした。
【0025】一方、請求項5記載の発明では、請求項1
記載の発明に加えて、微係数算出手段により算出される
2種類の微係数がともに0とならないように規制する微
係数規制手段を設けた。即ち、正、負の誤差信号の生成
のために神経細胞模倣ユニットからの出力信号に基づき
2種類の神経細胞応答関数の微係数を算出する微係数算
出手段を設けるとともに、この微係数算出手段により算
出される2種類の微係数がともに0とならないように規
制する微係数規制手段を設けた。
【0026】同様に、請求項6記載の発明では、請求項
2,3又は4記載の発明に加えて、微係数算出手段によ
り算出される2種類の微係数のパルス密度がともに0と
ならないように規制する微係数規制手段を設けた。
【0027】即ち、神経細胞模倣ユニットからの出力信
号をパルス列で表現するものとし、この神経細胞模倣ユ
ニットからの出力信号を所定時間遅延させた遅延信号と
前記出力信号の否定信号との論理積を一方の神経細胞応
答関数の微係数とし、前記神経細胞模倣ユニットからの
出力信号の否定信号を所定時間遅延させた遅延信号と前
記出力信号との論理積を他方の神経細胞応答関数の微係
数として算出する微係数算出手段を設けるとともに、こ
の微係数算出手段により算出される2種類の微係数のパ
ルス密度がともに0とならないように規制する微係数規
制手段を設けた。
【0028】或いは、神経細胞模倣ユニットからの出力
信号をパルス列で表現するものとし、かつ、結合係数の
値をパルス列表現で保存するメモリと、このメモリ上の
結合係数のパルス列のパルス並びを一定時間毎に変更す
るパルス並び変更手段とを有するものとした上で、前記
神経細胞模倣ユニットからの出力信号を所定時間遅延さ
せた遅延信号と前記出力信号の否定信号との論理積を一
方の神経細胞応答関数の微係数とし、前記神経細胞模倣
ユニットからの出力信号の否定信号を所定時間遅延させ
た遅延信号と前記出力信号との論理積を他方の神経細胞
応答関数の微係数として算出する微係数算出手段を設け
るとともに、この微係数算出手段により算出される2種
類の微係数のパルス密度がともに0とならないように規
制する微係数規制手段を設けた。
【0029】また、請求項7記載の発明では、請求項6
記載の発明における微係数規制手段を、予め設定された
パルス密度のパルス列を生成するパルス列生成手段と、
このパルス列生成手段により生成されたパルス列と神経
細胞模倣素子の出力パルス列との論理和を演算する演算
手段とにより構成した。ここに、請求項8記載の発明で
は、この請求項7記載の発明におけるパルス列生成手段
を、乱数生成装置と、この乱数生成装置から出力される
乱数と所定の閾値とを比較してパルス列を出力する比較
器とにより構成した。さらに、請求項9記載の発明で
は、請求項8記載の発明における乱数生成装置をリニア
フィードバックシフトレジスタとした。
【0030】請求項10記載の発明では、請求項1又は
2記載の発明において、結合係数の値を2進数で保存す
るメモリと、リニアフィードバックシフトレジスタより
なる乱数生成装置及び前記メモリに保存された結合係数
の値を前記乱数生成装置により生成された乱数と比較し
てパルス列表現の結合係数を出力する比較器を備えた数
値・パルス列変換装置とを有するものとした。
【0031】即ち、結合係数可変手段と、この結合係数
可変手段の可変結合係数値を教師信号に対する正の誤差
信号と負の誤差信号とに基づいて生成する結合係数生成
手段とを有する自己学習手段を付設した複数の神経細胞
模倣ユニットを網状に接続して回路網を形成した信号処
理装置において、前記正、負の誤差信号の生成のために
神経細胞模倣ユニットからの出力信号に基づき2種類の
神経細胞応答関数の微係数を算出する微係数算出手段を
設けるとともに、結合係数の値を2進数で保存するメモ
リと、リニアフィードバックシフトレジスタよりなる乱
数生成装置及び前記メモリに保存された結合係数の値を
前記乱数生成装置により生成された乱数と比較してパル
ス列表現の結合係数を出力する比較器を備えた数値・パ
ルス列変換装置とを設けた。
【0032】又は、結合係数可変手段と、この結合係数
可変手段の可変結合係数値を教師信号に対する正の誤差
信号と負の誤差信号とに基づいて生成する結合係数生成
手段とを有する自己学習手段を付設した複数の神経細胞
模倣ユニットを網状に接続して回路網を形成した信号処
理装置において、神経細胞模倣ユニットからの出力信号
をパルス列で表現するものとした上で、この神経細胞模
倣ユニットからの出力信号を所定時間遅延させた遅延信
号と前記出力信号の否定信号との論理積を一方の神経細
胞応答関数の微係数とし、前記神経細胞模倣ユニットか
らの出力信号の否定信号を所定時間遅延させた遅延信号
と前記出力信号との論理積を他方の神経細胞応答関数の
微係数として前記正、負の誤差信号の生成のために神経
細胞模倣ユニットからの出力信号に基づき2種類の神経
細胞応答関数の微係数を算出する微係数算出手段を設け
るとともに、結合係数の値を2進数で保存するメモリ
と、リニアフィードバックシフトレジスタよりなる乱数
生成装置及び前記メモリに保存された結合係数の値を前
記乱数生成装置により生成された乱数と比較してパルス
列表現の結合係数を出力する比較器を備えた数値・パル
ス列変換装置とを設けた。
【0033】
【作用】学習時の誤差信号の演算には、神経細胞模倣ユ
ニットからの出力信号を内部電位で微分してなる神経細
胞応答関数の微係数が必要となるが、請求項1ないし4
記載の発明においては、正、負の誤差信号に対応させて
微係数算出手段により2種類の微係数を算出して用いる
ようにしたので、適正な誤差信号が得られ、より高い学
習能力を持つものとなる。
【0034】また、数値演算における神経細胞模倣ユニ
ットの出力関数にはシグモイド関数を用いており、その
微係数は限りなく0に近づくものの、完全に0にはなら
ない。このような点に着目し、請求項5又は6記載の発
明においては、微係数規制手段により微係数算出手段に
よる微係数又はそのパルス密度が0とはならないように
したので、学習が途中で止まってしまうようなことがな
くなり、十分に学習機能を発揮させることができる。
【0035】このような作用をなす微係数規制手段も、
請求項7ないし9記載の発明のように構成することで容
易に実現できる。
【0036】また、請求項10記載の発明においては、
結合係数の値を2進数の形態でメモリに保存し、数値・
パルス列変換装置でパルス列に変換して出力するので、
結合係数の保存が容易であるとともに、処理する段階で
はパルス列で扱うので結合係数の処理も容易であり、よ
り実際の装置に近い形の具体的なものとなる。
【0037】
【実施例】請求項1ないし4記載の発明の一実施例を図
1ないし図32に基づいて説明する。本発明における学
習機能付きのニューロン(神経細胞模倣ユニット)の基
本構成としては、前述したような既提案例による構成・
作用を持つものが好適であるので、本発明の要旨を含め
つつ、図1ないし図30によりその構成・作用から説明
する。既提案例による自己学習機能を持つデジタル論理
回路を用いたニューロン素子構成のニューラルネットワ
ークは、結合係数可変回路とこの結合係数可変回路の可
変結合係数値を教師信号に対する正,負の誤差信号に基
づいて生成する結合係数生成回路とを有する自己学習回
路を付設したデジタル論理回路による複数のニューロン
よりなる信号処理手段を網状に接続して構成される。
【0038】まず、既提案例におけるニューラルネット
ワークはデジタル構成によりハードウエア化したもので
あるが、基本的な考え方としては、 ニューロンに関する入・出力信号、中間信号、結合
係数、教師信号などは全て、「0」「1」の2値で表さ
れたパルス列で表す。 ネットワーク内部での信号の量は、パルス密度で表
す(ある一定時間内の「1」の数)。 ニューロン内での計算は、パルス列同士の論理演算
で表す。 結合係数のパルス列はメモリ上に置く。 学習は、このパルス列を書換えることで実現する。 学習については、与えられた教師信号パルス列を基
に誤差を計算し、これに基づいて、結合係数パルス列を
変化させる。このとき、誤差の計算、結合係数の変化分
の計算も、全て、「0」「1」のパルス列の論理演算で
行う。 ようにしたものである。
【0039】以下、この思想について説明する。最初
に、デジタル論理回路による信号処理に関し、フォワー
ドプロセスにおける信号処理を説明する。図2は1つの
ニューロン20に相当する部分を示し、ニューラルネッ
トワーク全体としては例えば図45に示した場合と同様
に階層型とされる。入出力は、全て、「1」「0」に2
値化され、かつ、同期化されたものが用いられる。入力
信号yi の強度はパルス密度で表現し、例えば図3に示
すパルス列のようにある一定時間内にある「1」の状態
数で表す。即ち、図3の例は、4/6を表し、同期パル
ス6個中に信号は「1」が4個、「0」が2個である。
つまり、同期パルスの立上り時又は立下り時に入力信号
が「0」か「1」かを判断する。このとき、「1」と
「0」の並び方は、ランダムであることが望ましい。
【0040】一方、各ニューロン20間の結合の度合を
示す結合係数Tijも同様にパルス密度で表現し、「0」
と「1」とのビット列とする。図4の例は、「1010
10」=3/6を表す式である。この場合も、同期パル
スの立上り時又は立下り時に入力信号が「0」か「1」
かを判断するものであり、また、「1」と「0」の並び
方はランダムであることが望ましい。
【0041】そして、このビット列を同期クロックに応
じてメモリ上より順次読出し、図2に示すように各々A
NDゲート21により入力信号パルス列との論理積をと
る(yi ∩ Tij)。これを、神経細胞jへの入力とす
る。上例の場合で説明すると、入力信号が「10110
1」として入力されたとき、これと同期してメモリ上よ
りパルス列を呼出し、順次ANDをとることにより、図
5に示すような「101000」が得られ、これは入力
i が結合係数Tijにより変換されパルス密度が2/6
となることを示している。
【0042】ANDゲート21の出力のパルス密度は、
近似的には入力信号のパルス密度と結合係数のパルス密
度との積となり、アナログ方式の結合係数と同様の機能
を有する。これは、信号の列が長いほど、また、「1」
と「0」との並び方がランダムであるほど、数値の積に
近い機能を持つことになる。なお、入力パルス列に比べ
て結合係数のパルス列が短く、読出すべきデータがなく
なったら、再びデータの先頭に戻って読出しを繰返えせ
ばよい。
【0043】1つのニューロン20は多入力であるの
で、前述した「入力信号と結合係数とのAND」も多数
あり、次にOR回路22によりこれらの論理和をとる。
入力は同期化されているので、例えば1番目のデータが
「101000」、2番目のデータが「010000」
の場合、両者のORをとると、「111000」とな
る。これをm個分について多入力同時に計算し出力とす
ると、例えば図6に示すようになる。これは、アナログ
計算における和の計算及び非線形関数(シグモイド関
数)の部分に対応している。
【0044】パルス密度が低い場合、そのORをとった
もののパルス密度は、各々のパルス密度の和に近似的に
一致する。パルス密度が高くなるにつれ、OR回路22
の出力は段々飽和してくるので、パルス密度の和とは一
致せず、非線形性が出てくる。ORの場合、パルス密度
は1よりも大きくなることがなく、かつ、0より小さく
なることもなく、さらには、単調増加関数であり、シグ
モイド関数と近似的に同等となる。
【0045】ところで、結合には興奮性と抑制性があ
り、数値計算の場合には、結合係数の符号で表し、アナ
ログ回路の場合はTijが負となる場合(抑制性結合)は
増幅器を用いて出力を反転させてTijに相当する抵抗値
で他のニューロンに結合させている。この点、デジタル
方式の既提案例にあっては、まず、Tijの正負により各
結合を興奮性結合と抑制性結合との2つのグループに分
け、次いで、「入力信号と結合係数のパルス列のAN
D」同士のORをこのグループ別に計算する。このよう
にして得られた興奮性グループの結果をFj とし、抑制
性グループの結果をIj とする。
【0046】或いは、1つの入力yiに対して興奮性を
表す結合係数Tij(+)と抑制性を表す結合係数Tij(-)
との両方を用意し、各々ANDをとる(yi
ij(+)、yi∩Tij(-))。さらに、これら同士のOR
を各々とり(∪( yi ∩Tij(+) )、∪( yi ∩T
ij(-) )、興奮性グループの結果をFjとし、抑制性グ
ループの結果をIjとする。
【0047】これらをまとめると、 1つの入力に対して、結合係数を興奮性、抑制性の
どちらか一方のみを持つ場合には、(8)(9)式のように
なる。
【0048】
【数2】
【0049】 1つの入力に対して、結合係数を興奮
性、抑制性の両方を持つ場合には、(10)(11)式、或い
は、(12)(13)式に示すようになる。
【0050】
【数3】
【0051】
【数4】
【0052】ただし、(12)(13)式において、1つの入力
に対して結合係数を興奮性、抑制性のどちらか一方のみ
持つ場合には、yFij,yIijは(14)(15)式で示され、 yFij = yi ∩ Tij (T∈興奮性) = 0 (T∈抑制性) …………(14) yIij = yi ∩ Tij (T∈抑制性) = 0 (T∈興奮性) …………(15) 1つの入力に対して結合係数を興奮性、抑制性の両方を
持つ場合には、yFij,yIijは(16)(17)式 yFij = yi ∩ Tij(+) …………………………(16) yIij = yi ∩ Tij(-) …………………………(17) で示される。
【0053】このようにして得られた興奮性グループの
結果Fjと抑制性グループの結果Ijが、不一致であれば
興奮性グループの結果を出力する。即ち、興奮性グルー
プの結果Fj が「0」で抑制性グループの結果Ij
「1」であれば、「0」を出力し、興奮性グループの結
果Fj が「1」で抑制性グループの結果Ij が「0」で
あれば、「1」を出力する。興奮性グループの結果Fj
と抑制性グループの結果Ij が一致したときには、
「0」を出力しても「1」を出力してもよく、或いは、
別個に用意された第2の入力信号Ej を出力させてもよ
く、又は、このような第2の入力信号Ej とこの第2の
入力信号Ej に対して設けたメモリの内容との論理積を
演算したものを出力させるようにしてもよい。このメモ
リも入力信号に対する結合係数と同様、全て読出してし
まったら再び先頭から読出せばよい。
【0054】この機能を実現するため、まず、「0」を
出力させる例の場合であれば、興奮性グループの出力と
抑制性グループの出力の否定とのANDをとればよい。
図7はこの例を示すもので、数式で示すと、(18)式のよ
うになる。
【0055】
【数5】
【0056】また、「1」を出力させる例の場合であれ
ば、興奮性グループの出力と抑制性グループの出力の否
定とのORをとればよい。図8はこの例を示すもので、
数式で示すと、(19)式のようになる。
【0057】
【数6】
【0058】第2の入力信号を出力させる例の場合であ
れば、図9に示すようになり、数式で示すと、(20)式の
ようになる。
【0059】
【数7】
【0060】さらに、第4の方式の例であれば、第2の
入力信号Ej に対して設けられたメモリの内容(係数)
をT′j とすると、図10に示すようになり、数式で示
すと、(21)式のようになる。
【0061】
【数8】
【0062】ニューロン20のネットワークは、バック
プロパゲーションと同様な階層型(即ち、図45)とす
る。そして、ネットワーク全体を同期させておけば、各
層とも上述した機能により計算できる。
【0063】ところで、ここに前述した(1)式の内部電
位に相当する内部電位uj として、(22)式 uj =Σ(yFijのパルス密度)−Σ(yIijのパルス密度) ………(22) を定義し、学習(バックプロパゲーション)における信
号演算処理について説明する。基本的には、以下のaに
より出力信号の微係数を求めた後、以下のb又はcによ
り誤差信号を求め、次いで、dの方法により結合係数の
値を変化させるようにすればよい。
【0064】a.出力信号の微係数 学習時における誤差信号の演算には、出力信号を内部電
位で微分した微係数(神経細胞応答関数の微係数)が一
般に必要となる。即ち、一例として2入力時の出力信号
((18)式参照)と、内部電位((22)式参照)との関係を
示すと、図11のような応答関数となる。この関係は一
意的には定まらないが、図では平均を示している。この
ような応答関数を微分したものは、図12中に示す特性
Aとなる。一方、この関数の微係数は、近似的には、出
力信号のパルス密度をOj 、その微係数をOj′ とする
と、 Oj′ =Oj(1−Oj ) ……………………………(23) で表される。つまり、図12中に実線で示す特性Bとな
り、(23)式は良好なる近似式であことが分かる。これ
は、出力信号が(18)式でなく、(19)(20)(21)式で表され
る場合も同様である。
【0065】ところで、(23)式をパルス列同士の論理演
算で表すためには、以下のようにすればよい。まず、O
j をyj 、(1−Oj )をyj の否定で表し、積の部分
はANDなる論理演算で表すようにすればよい。即ち、
微係数を表す信号をfj とすると、(24)式のようにな
る。
【0066】
【数9】
【0067】もっとも、このままでは、(24)式は常に
“0”となってしまうので、“yj ”又は“yj の否
定”の何れかに対して遅延処理を施し、常には“0”と
はならないようにする必要がある。即ち、遅延された信
号を“dly'd” で表した場合、(25)式又は(26)式を使い
分ければよい。
【0068】
【数10】
【0069】なお、これらの2式の使い分けについては
後述するものとする。また、遅延処理はレジスタを用い
ることにより容易に実現できる。さらに、その遅延量と
しても、同期クロックの1個分でも複数個分でもよい。
【0070】b.最終層における誤差信号 最終層で各ニューロンにおける誤差信号を計算し、それ
を基にそのニューロンに関わる結合係数を変化させる。
そのための、誤差信号の計算法について述べる。ここ
に、「誤差信号」を以下のように定義する。誤差を数値
で表すと、一般には+,−の両方をとり得るが、パルス
密度の場合には、正、負の両方を同時に表現できないの
で、+成分を表す信号と、−成分を表す信号との2種類
を用いて誤差信号を表現する。即ち、j番目のニューロ
ンの誤差信号は、図13のように示される。つまり、誤
差信号の+成分は教師信号パルスと出力信号パルスとの
違っている部分(1,0)又は(0,1)の内、教師信
号側に存在するパルスと微係数とのANDをとったパル
スであり、−成分は同様に出力信号側に存在するパルス
と微係数とのANDをとったパルスである。即ち、これ
らの正負の誤差信号δj(+),δj(-)を論理式で表現する
と、各々(27)(28)式のようになる。これらの式の微係数
には、各々(25)(26)式を用いている。
【0071】
【数11】
【0072】ここで、この組合せが仮に逆であると(即
ち、(27)式に微係数として(26)式を適用し、(28)式に微
係数として(25)式を適用すると)、(27)(28)式の結果が
常に0となってしまい、機能しないので、(25)(26)式で
示される2種類の微係数の使い分けが必要となるもので
ある。
【0073】このような誤差信号パルスを基に結合係数
を後述するように変化させることになる。
【0074】c.中間層における誤差信号 まず、上記の誤差信号を逆伝播させ、最終層とその1つ
前の層との結合係数だけでなく、さらにその前の層の結
合係数も変化する。そのため、中間層における各ニュー
ロンでの誤差信号を計算する必要がある。中間層のある
ニューロンから、さらに1つ先の層の各ニューロンへ信
号を伝播させたのとは、丁度逆の要領で1つ先の層の各
ニューロンにおける誤差信号を集めてきて、自己の誤差
信号とする。このことは、ニューロン内での前述した演
算式(8)〜(10)や図3〜図8に示した場合と同じような
要領で行うことができる。即ち、結合係数が1入力に対
して興奮性か抑制性かの何れの一方の場合は、まず、結
合を興奮性か抑制性かによって、2つのグループに分
け、掛け算の部分はANDで、Σの部分はORで表現す
る。ただし、ニューロン内での前述した処理と異なるの
は、yj が常に正なる1つの信号であるのに対して、δ
j は正、負を表す信号として2つの信号を持ち、その両
方の信号を考慮する必要があることである。従って、結
合係数Tijの正負、誤差信号δj の正負に応じて4つの
場合に分ける必要がある。
【0075】まず、興奮性結合の場合を説明する。この
場合、中間層のあるニューロンについて、1つ先の層の
k番目のニューロンでの誤差信号δk(+)と、そのニュー
ロンと自己との結合係数TjkのANDをとったもの(δ
k(+) ∩ Tjk)を各ニューロンについて求め、さらに、
これら同士のORをとる(∪(δk(+) ∩ Tjk))。こ
れをこのニューロンの誤差信号δj(+)とする。即ち、1
つ先の層のニューロンをn個とすると、図14に示すよ
うになる。これらを数式で示すと、(29)式のようにな
る。
【0076】
【数12】
【0077】同様に、1つ先の層のニューロンでの誤差
信号δk(-)と結合係数TjkとのANDをとり、さらにこ
れら同士のORをとることにより、このニューロンの誤
差信号δj(-)とする。即ち、図15に示すようになり、
これらを数式で示すと、(30)式のようになる。
【0078】
【数13】
【0079】次に、抑制性結合の場合を説明する。この
場合、1つ先の層のニューロンでの誤差信号δk(−)
とそのニューロンと自己との結合係数TjkのANDをと
り、さらにこれら同士のORをとる。これを、このニュ
ーロンの誤差信号δj(+)とする。即ち、図16に示すよ
うになり、これらを順に数式で示すと、(31)式のように
なる。
【0080】
【数14】
【0081】また、1つ先の誤差信号δk(+)と結合係数
jkとのANDをとり、さらにこれら同士のORをとる
ことにより、同様に、このニューロンの誤差信号δj(-)
とする。即ち、図17に示すようになり、これらを順に
数式で示すと、(32)式のようになる。
【0082】
【数15】
【0083】1つのニューロンから別のニューロンへは
興奮性で結合しているものもあれば、抑制性で結合して
いるものもあるので、図14のように求めた誤差信号δ
j(+)と図16のように求めた誤差信号δj(+)とのORを
とり、最後にこの信号と微係数とのANDをとることに
よって、それを自分のニューロンの誤差信号δj(+)とす
る。同様に、図15のように求めた誤差信号δj(-)と図
17のように求めた誤差信号δj(-)とのORをとり、最
後にこの信号と微係数とのANDをとることによって、
それを自分のニューロンの誤差信号δj(-)とする。
【0084】以上をまとめると、(33)式、或いは、(34)
式に示すようになる。
【0085】
【数16】
【0086】
【数17】
【0087】次に、1つの入力に対して興奮性と抑制性
との両方の結合係数を持つ場合、数式のみを示すと、(3
5)式、或いは、(36)式に示すようになる。
【0088】
【数18】
【0089】
【数19】
【0090】さらに、学習のレート(学習定数)に相当
する機能を設けてもよい。数値計算でレートが1以下の
とき、さらに学習能力が高まる。これはパルス列の演算
ではパルス列を間引くことによって実現できる。ここで
は、カウンタ的な考え方をし、図18、図19に示すよ
うなものとした。例えば、学習レートη=0.5では元
の信号のパルス列を1つ置きに間引くが、元の信号のパ
ルスが等間隔でなくても、元のパルス列に対して間引く
ことができる。図18,図19中、η=0.5の場合は
パルスを1つ置きに間引き、η=0.33の場合はパル
スを2つ置きに残し、η=0.67の場合はパルスを2
つ置きに1回間引くことを示す。
【0091】d.結合係数を変化させる方法 変化させたい結合係数が属しているライン(図45参
照)を流れる信号と誤差信号のANDをとる(δj
i)。ただし、ここでは誤差信号には+,−の2つの
信号があるので、各々演算して図20,図21に示すよ
うに求める。即ち、δj(+)∩yi 、δj(-)∩yi を各々
正,負の結合係数変化信号としている。
【0092】このようにして得られた2つの信号を各々
ΔTij(+),ΔTij(-)とする。ついで、今度はこのΔT
ijを基に新しいTijを求めるが、このTijは絶対値成分
であるので、元のTijが興奮性か抑制性かで場合分けす
る。興奮性の場合、元のTijに対してΔTij(+)の成分
を増やし、ΔTij(-)の成分を減らす。即ち、図22に
示すようになる。逆に、抑制性の場合は元のTijに対し
ΔTij(+) の成分を減らし、ΔTij(-) の成分を増や
す。即ち、図23に示すようになる。これらの図22,
図23の内容を数式で示すと、(37)(38)式のようにな
る。
【0093】
【数20】
【0094】以上の学習則に基づいてネットワークの計
算をする。
【0095】次に、以上のアルゴリズムに基づく既提案
例方式を含む実際の回路構成を説明する。図1、図24
ないし図28にその回路構成例を示すが、ネットワーク
全体の構成は図45と同様である。図24ないし図27
は図45のような階層型ネットワーク中のライン(結線
=シナプス)に相当する部分の回路を示し、図1は図4
5中の丸(提案例では、各ニューロン20)に相当する
部分の回路を示す。また、図28は最終層の出力と教師
信号から最終層における誤差信号を求める部分の回路を
示す。これらの図24、図25ないし図28構成の3つ
の回路を図45の場合のようにネットワークにすること
により、自己学習機能を持つデジタル式のニューラルネ
ットワークが実現できる。
【0096】まず、図24から説明する。図中、25は
図3に示したようなニューロンへの入力信号である。図
5に示したような結合係数の値はシフトレジスタ(メモ
リ)26に保存しておく。このシフトレジスタ26は取
出し口26aと入口26とを有するが、通常のシフトレ
ジスタと同様の機能を持つものであればよく、例えば、
RAMとアドレスコントローラとの組合せによるもの等
であってもよい。入力信号25とシフトレジスタ26内
の結合係数とはANDゲート27を備えて図6に示した
処理を行う論理回路28によりANDがとられる。この
論理回路28の出力は結合が興奮性か抑制性かによって
グループ分けしなければならないが、予め各々のグルー
プへの出力29,30を用意し、何れに出力するのかを
切換えるようにした方が汎用性の高いものとなる。この
ため、既提案例では結合が興奮性か抑制性かを表すビッ
トをグループ分け用メモリ31に保存しておき、その情
報を用いて切換えゲート回路32により切換える。切換
えゲート回路32は2つのANDゲート32a,32b
と一方の入力に介在されたインバータ32cとよりな
る。
【0097】切換える必要のない場合には、各々固定し
ても構わない。例えば、興奮性の場合を図25、抑制性
の場合を図26に示す。これは、図24においてグルー
プ分け用メモリ31を各々「0」「1」に固定したもの
と等価な回路とである。また、1つの入力に対して、興
奮性を表すシフトレジスタと、抑制性を表すシフトレジ
スタとの両方を用意してもよい。図27はこの例を示
す。図中、26Aが興奮性を表す結合係数に対するシフ
トレジスタ、26Bが抑制性を表す結合係数に対するシ
フトレジスタである。
【0098】また、図1に示すように各入力処理(図6
に相当)をする複数のORゲート構成のゲート回路33
a,33bが設けられている。さらに、同図に示すよう
に図7に示した興奮性結合グループが「1」で、抑制性
結合グループが「0」のときにのみ出力「1」を出すA
NDゲート34aとインバータ34bとによるゲート回
路34が設けられている。図6ないし図10に例示した
ような処理結果とする場合にも同様に論理回路で容易に
実現できる。
【0099】もっとも、ゲート回路34としては、図6
方式の場合であれば図29(a)に示すようにインバータ
34bとORゲート34cとの組合せとし、図9方式の
場合であれば図29(b)に示すように排他的ORゲート
34dとインバータ34eと2つのANDゲート34
f,34gとORゲート34hとにより構成してAND
ゲート34gに第2入力Ej を入力させるものとし、図
10方式の場合であれば図29(c)に示すように同図
(b)に第2入力Ej に対する係数T′を数値表現形態で
記憶したメモリ34iと、ANDゲート34jとを追加
した構成とすればよい。
【0100】次に、誤差信号について説明する。最終層
での誤差信号を生成するのが図28に示すANDゲー
ト,排他的ORゲートの組合せによる論理回路35であ
り、(6)(7)式に相当する。即ち、最終層からの出力3
6及び教師信号37により誤差信号38,39を作るも
のである。
【0101】中間層における誤差信号を計算する(34)式
の内、Ej(+),Ej(-)を求める処理は、図24中に示す
ANDゲート構成のゲート回路42により行われ、+,
−に応じた出力43,44が得られる。ここでは、結合
係数として学習後のものを用いたが、学習前のものであ
ってもよく、学習前の場合も容易に回路化し得る。ま
た、このように結合が興奮性か抑制性かにより場合分け
する必要があるが、この場合分けはメモリ31に記憶さ
れた興奮性か抑制性かの情報と、誤差信号の+,−信号
45,46とに応じて、AND,ORゲート構成のゲー
ト回路47により行われる。なお、結合の興奮性、抑制
性の区別を固定した図25、図26方式のものでは、前
記メモリ31の内容を各々「0」,「1」に固定したも
のと等価な回路となる。一方、1つの入力に対して興奮
性結合を表すシフトレジスタ26Aと抑制性結合を表す
シフトレジスタ26Bとの両方を用いる図27方式のも
のでは、(36)式に相当する回路が、図27においてゲー
ト回路35として示されている。
【0102】また、誤差信号を集める計算式(8)、即
ち、(34)式の残りの部分は図1に示すORゲート構成の
ゲート回路48a,48bにより行われる。さらに、学
習レートに相当する図18,19の処理は図26中に示
す分周回路49により行われる。これは、フリップフロ
ップ等を用いることにより容易に実現できる。もっと
も、分周回路49は不必要であれば特に設けなくてよ
く、設ける場合であっても図25中に示した例に限ら
ず、図24〜図27中に符号49を付して示すような適
宜位置に設けるようにしてもよい。
【0103】このような誤差信号を集める処理におい
て、本実施例では、ゲート回路34を通して得られる自
己のニューロン20の出力信号に基づき微係数算出手段
51により2種類の微係数fj(+)′,fj(-)′を算出
し、各ゲート回路48a,48bで集められた誤差信号
j(+),Ej(-)との論理積がANDゲート構成のゲート
回路52でとられるように構成されている。この論理積
処理は、分周回路49による分周後でも、分周前であっ
てもよい(このため、図1中において分周回路は49a
として示す位置に設けてもよい)。
【0104】ここに、微係数算出手段51は微係数f
j(+)′用の処理回路53と、fj(-)′用の処理回路54
とに分けて構成されている。処理回路53は(25)式を実
行するもので、出力信号yj を遅延させて遅延信号y
dly'djを得るシフトレジスタ53aと出力信号yj の否
定信号を得るインバータ53bとこれらの論理積をとる
ANDゲート53cとにより構成されている。一方、処
理回路54は(26)式を実行するもので、出力信号yj
遅延させて遅延信号ydly'djを得るシフトレジスタ54
aとこの遅延信号の否定信号を得るインバータ54bと
この出力と出力信号yj との論理積をとるANDゲート
54cとにより構成されている。なお、信号を同期クロ
ックに同期させて遅延させるシフトレジスタ53a,5
4aに関して、同期クロックを幾つ分遅延させるかは固
定してもよく、或いは、外部から可変的に与えるように
してもよい。
【0105】最後に、誤差信号より新たな結合係数を計
算する部分、即ち、図21〜図23の処理に相当する部
分は、図24中に示すAND、インバータ、ORゲート
構成のゲート回路50により行なわれ、シフトレジスタ
26の内容、即ち、結合係数Tijの値が書換えられる。
このゲート回路50も結合の興奮性、抑制性により場合
分けが必要であるが、ゲート回路47により行なわれ
る。図25、図26の場合には、興奮性、抑制性が固定
であるので、ゲート回路47に相当する回路は不要であ
る。図27方式の場合は、1つの入力に対して興奮性、
抑制性の両方を持つので、ゲート回路50Aが興奮性、
ゲート回路50Bが抑制性の場合に相当する。
【0106】ところで、結合係数の値はシフトレジスタ
26内にパルス列の形で保存されているが、このような
パルス列に関して、そのパルス密度は同じに保ちつつ
(結合係数の値は変更せずに)、そのパルス並びを時々
変更したほうが学習能力が上がることがある。そこで、
結合係数に関して、図30(a)〜(c)の何れかに示すよ
うな処理を施すようにすれば、効果的である。
【0107】まず、図30(a)は、結合係数の値をパル
ス列の形で保存するシフトレジスタ26に対して、パル
ス並び変更手段55を付加したものである。このパルス
並び変更手段55はシフトレジスタ26から読出したパ
ルス列を計数することでパルス数を得るカウンタ55a
と、一様乱数を発生させる乱数発生器55bと、これら
のパルス数と一様乱数とを比較しその大小に応じて
「1」又は「0」を出力する比較器55cと、比較器5
5cの比較出力に応じてシフトレジスタ26に書込み動
作を行う切換器55dとにより構成されている。ここ
に、前記乱数発生器55bはシフトレジスタ26から読
出すビット数(即ち、同期クロック数)を最大値とし、
0からこの最大値までの間で一様乱数を生成出力するも
のである。また、比較器55cはパルス数のほうが一様
乱数値よりも大きければ「1」、パルス数のほうが一様
乱数値よりも小さい場合には「0」を出力するように設
定されている。これにより、適宜、結合係数のパルス列
のパルス並びが変更されることになる。なお、このよう
な並び変更処理中は、切換器55dが比較器55c側に
切換えられているので、ニューラルネットワーク本来の
動作は行えない。
【0108】図30(b)は、結合係数の値を演算毎にパ
ルス列表現に変換する変換手段56を設けたものであ
る。即ち、この例にあっては、結合係数を表すパルス列
のパルス密度を数値(例えば、2進数や電圧値)の形で
メモリ56aに記憶させておき、演算の度に乱数発生器
56bにより生成した乱数と比較器56cで比較し、パ
ルス列に変換させるものである。ここに、学習済みの結
合係数を表すパルス列をカウンタ56dを用いて計数し
て数値に変換し、ある一定時間毎にメモリ56aの内容
を更新するように構成されている。なお、カウンタ56
dに代えて、積分器を用いて学習済みの結合係数を表す
パルス列を電圧値に変換するようにしてもい。また、乱
数発生器56bは乱数発生器55bの場合と同じく、生
成する乱数の最大値はメモリ56aの内容を更新する同
期クロック数に設定されている。
【0109】図30(c)も、結合係数の値を演算毎にパ
ルス列表現に変換する変換手段57を設けたものであ
る。即ち、この例にあっては、結合係数を表すパルス列
のパルス密度を数値(例えば、2進数)の形でアップ/
ダウンカウンタ57aに記憶させておき、演算の度に乱
数発生器57bにより生成した乱数と比較器57cで比
較し、パルス列に変換させるものである。ここに、比較
器57cを通して実際に出力された結合係数のパルス列
はカウンタ57aのダウンD側に帰還入力され、学習済
みの結合係数のパルス列はカウンタ57aのアップU側
に入力され、保存される結合係数値が適宜更新されるよ
うに構成されている。
【0110】図30(a)〜(c)に示す各例において、乱
数発生器55b,56b,57b及び比較器55c,5
6c,57cとしてデジタル構成のものを用いればよい
が、カウンタ56dに代えて積分器を用いた場合には、
乱数発生器56b及び比較器56cとしてアナログ構成
のものを用いればよい。これらは、何れも公知の技術で
容易に実現できる。例えば、デジタル構成の乱数発生器
としてはM系列の疑似乱数発生器を用い、アナログ構成
の乱数発生器としてはトランジスタの熱雑音を用いれば
よい。
【0111】以上、説明したように信号をパルス密度で
表現する手法は、実際の回路のみならず、計算機上でシ
ミュレートする場合にも有用である。計算機上では、演
算は直列的に行われるが、アナログ値を用いて計算させ
るのに比べて、「0」「1」の2値の論理演算のみであ
るので、計算速度が著しく向上する。一般に、実数値の
四則演算は、1回の計算に多くのマシンサイクルを必要
とするが、論理演算では少なくて済む。また、論理演算
のみであると、高速処理向けの低水準言語が使用しやす
いといった特徴も持つ。また、上述した方式を実施する
に当り、その全部を回路化する必要はなく、一部又は全
部をソフトウエアで行わせるようにしてもよい。また、
回路構成自体も例示したものに限らず、論理が等価な別
の回路で置き換えるようにしてもよく、さらには、負論
理に置き換えるようにしてもよい。これらの点は、以下
の実施例でも同様である。
【0112】ところで、具体例を説明する。図45のよ
うに3層構造にネットワーク構成し、第1層は256
個、第2層は20個、第3層は5個の回路ユニット構成
とした。ここに、第1,2層間、第2,3層間は回路ユ
ニット同士が全て結合されている。このようなネットワ
ークに対して手書き文字を入力し、文字認識を行わせ
た。まず、手書き文字をスキャナで読取り、図31に示
すように16×16のメッシュに分け、文字部分のある
メッシュを「1」、ないメッシュを「0」とした。この
256個のデータをネットワーク(第1層)に入力させ
た。出力層の5個の各ニューロン20を「1」〜「5」
までに対応させ、その数字が入力した時に対応するニュ
ーロンの出力が「1」でその他のニューロンの出力が
「0」になるように学習させた。最初、各結合係数をラ
ンダムに設定しておくと、出力結果は必ずしも所望の値
とはならない。そこで、本実施例の自己学習機能を用い
て、各結合係数を新たに求め、これを何回か繰返すこと
によって所望の出力が得られるようにする。ここに、入
力は、「1」か「0」であるので、入力パルス列は常に
Lレベル又はHレベルなる単調なものである。また、最
終出力はトランジスタを介してLEDと結び、Lレベル
の時には消灯、Hレベルの時には点灯するようにした。
同期クロックを1000kHzとしたので、パルス密度
に応じて、人間の目にはLEDの明るさが変って見え、
従って、一番明るいLED部分が答えとなる。十分学習
させた文字に対しては100%の認識率が得られたもの
である。
【0113】さらに、3層構造にネットワーク構成し、
第1層は2個、第2層は2個、第3層は4個の回路ユニ
ット構成とし、XOR(排他的論理和)問題を解かせた
ところ、学習回数と残差との関係は図32に示すように
なったものである。図示結果からも分かるように数学的
に難しい問題に対しても十分学習効果を発揮し得るもの
となる。
【0114】つづいて、請求項5ないし9記載の発明の
一実施例を図33ないし図38により説明する。前記実
施例で示した部分と同一部分は同一符号を用いて示す
(以下の実施例でも同様とする)。本実施例は、前述し
た実施例をさらに改良したものであり、まず、前述した
実施例について再度検討する。
【0115】まず、前述した実施例のニューロン20で
は学習時に用いる出力信号を内部電圧で微分した微係数
に相当する信号として前述した(25)(26)式を用いている
(下記に再度示す)。
【0116】
【数21】
【0117】一方、学習時にはこのような微係数信号f
j(+)′,fj(-)′を用いて誤差信号を算出する。出力層
の場合は、前述した(27)(28)式で表され、中間層の場合
は前述した(33)式で表される(下記に再度示す)。
【0118】
【数22】
【0119】
【数23】
【0120】ところが、前記実施例構成の場合、微係数
信号fj(+)′,fj(-)′のパルス密度が0になってしま
うことがある。これらの微係数信号fj(+)′又は
j(-)′が0になると、誤差信号δj(+),δj(-)のパル
ス密度も0となってしまう。よって、このような事態が
学習途中でたまたま発生すると、学習はそこで止まって
しまい、学習機能が充分に発揮されないものとなる。
【0121】一方、数値演算におけるニューロンでは出
力関数にシグモイド関数を用いており、その微係数は限
りなく0に近づくものの、完全に0になることはない。
このような点に着目し、本実施例では、出力関数の微係
数が完全に0とはならないようにする微係数規制手段を
設けることを基本として構成したものである。
【0122】まず、本実施例中、請求項5ないし7記載
の発明に相当する実施例を図33及び図34により説明
する。まず、前述した実施例中の微係数算出手段51を
構成する処理回路53(又は、54)が設けられてい
る。この処理回路53の出力部分に本実施例の要旨とす
る微係数規制手段61が付加されている。この微係数規
制手段61は前記処理回路53から出力される微係数の
出力パルス列に適宜加工処理を施して最終的な微係数の
出力パルス列のパルス密度が0とはならないようにする
もので、ここでは、パルス列生成装置(パルス列生成手
段)62と、このパルス列生成装置62の出力と前記処
理回路53の出力とを入力とするORゲート(演算手
段)63とにより構成されている。前記パルス列生成装
置62は、予め設定されたパルス密度(ただし、完全に
は0ではない密度)のパルス列を生成出力するもので、
例えば、図34に示すように、クロック信号を入力とし
て計数するカウンタ64と、このカウンタ64の計数値
が所定の周期値に達する毎に一定周期の1パルスを出力
する比較器65とにより構成される。
【0123】このような構成によれば、仮に処理回路5
3の微係数の出力パルス列のパルス密度が0となるよう
なことがあっても、パルス列生成装置62で生成された
パルス列との論理和がORゲート63によりとられて、
最終的な微係数の出力パルス列が得られるので、この微
係数の出力パルス列のパルス密度が0になるようなこと
はない。よって、学習途中であっても、微係数のパルス
列のパルス密度が0となり学習が止まってしまうような
ことはない。ここに、パルス列生成装置62で生成出力
するパルス列のパルス密度は処理回路53からの微係数
の出力パルス列に極力影響を及ぼさないようになるべく
0に近いほうがよい。
【0124】また、本実施例中、請求項8記載の発明に
相当する実施例を図35に示す。これは、パルス列生成
装置62の構成を変えたもので、アナログ構成の乱数生
成装置66と比較器67との組合せ構成としたものであ
る。ここに、乱数生成装置66には例えばトランジスタ
の熱雑音等による電圧値が利用され、比較器67におい
て予め設定された一定電圧値と比較され、一定電圧値よ
りも乱数生成装置66の電圧値の方が大きい時には1
を、小さい時には0を出力させることにより、所望のパ
ルス列が得られるものとなる。この時のパルス列のパル
ス密度は乱数生成装置66から得られる電圧値の分布と
比較用に与える一定電圧値とにより自由に設定できる。
【0125】さらに、本実施例中、請求項9記載の発明
に相当する実施例を図36及び図37に示す。これも、
パルス列生成装置62の構成を変えたもので、デジタル
構成の乱数生成装置68とデジタル構成の比較器69と
の組合せ構成としたものである。ここに、乱数生成装置
68には例えば図37に示すような7ビットシフトレジ
スタ70と、その最上位及び最下位ビットのデータを入
力として最下位ビットを順次更新する排他的ORゲート
71とによるリニアフィードバックシフトレジスタ(L
FSR)72が用いられている。これにより、乱数生成
装置68からは7ビット構成で1〜127の範囲で一様
乱数が得られる。比較器69ではこの乱数値と予め設定
された7ビット構成の一定値(例えば、1や2といった
値)とを比較し、乱数値の方が一定値よりも大きければ
1を出力し、小さければ0を出力する。これにより、例
えば1/127とか2/127といったパルス密度を持
つパルス列が得られることになる。よって、ORゲート
63からの最終的な微係数の出力パルス列としては少な
くとも1/127や2/127といったパルス密度のパ
ルス列が出力されることになる。
【0126】なお、前記LFSR72には予め0以外の
値をセットしておく必要がある。このためには、例えば
図38に示すように、排他的ORゲート71と7ビット
シフトレジスタ70との間に切換えスイッチ73を介在
させ、外部からLFSR72の初期値を設定し得るよう
にすればよい。
【0127】なお、本実施例では、例えば処理回路53
に微係数規制手段61を付加した構成として説明した
が、実際には、前記実施例で説明したように、微係数と
してはfj(+)′,fj(-)′の2種類を必要とするので、
何れの微係数も0とはならないように、処理回路54側
についても同様に微係数規制手段61が付加して構成さ
れる。この時、処理回路53,54に対して乱数生成装
置66,68を用意する場合は、各々別の乱数を発生さ
せるものとするのがよい。さらに、ニューラルネットワ
ーク全体で考えた場合には多数の乱数生成装置を用意す
ることになるが、その場合には各々別の乱数を発生させ
るように構成するのがよい。
【0128】本実施例に関する具体的構成例について説
明すると、16個分のニューロン20を1つのチップ上
に通常のLSIプロセスで作製した。これらの各ニュー
ロン20のシナプス数は16とした。また、図33中の
パルス列生成装置62としては、図36及び図37に示
したように、LFSR72とデジタル構成の比較器69
との組合せ構成とし、パルス密度が1/127のパルス
列を生成させるものとした。この結果、微係数の最終的
な出力パルス列のパルス密度が最低でも1/127とな
るパルス列となり、学習が途中で止まってしまうような
ことがなかったものである。
【0129】また、請求項10記載の発明の一実施例を
図39ないし図43により説明する。前述した実施例で
は、ニューロン20からの出力信号をパルス列で表現す
ることを基本とし、結合係数の値もパルス列で保存する
ようにしたが、本実施例では、結合係数の値を2進数な
る数値表現形態で保存するようにしたものである。即
ち、図30(b)に示した構成に準じたものであり、本
実施例ではその構成をより明確化したものである。
【0130】まず、本実施例の構成として、図24に対
応するシナプス部分の構成を図39に示し、図27に対
応するシナプス部分の構成を図40に示す。また、図1
に対応するニューロン20部分の構成の一部を図41に
示す。
【0131】図39に示すシナプス部分の構成では、シ
フトレジスタ26に代えて、結合係数Tijの値を2進数
なる数値(絶対値)で保存するメモリ74が設けられて
いる。このメモリ74の入力側(ゲート回路50の出力
側)にはパルス列→数値変換回路75が接続され、出力
側(ANDゲート27等の入力側)には数値→パルス列
変換回路(数値・パルス列変換装置)76が接続されて
いる。ここに、メモリ74と数値→パルス列変換回路7
6との間は、数値を表すのに必要な本数(ビット幅)n
で結ばれている。さらに、図では省略してあるが、前記
メモリ74に対しては、アウトプットイネーブル信号や
ライトイネーブル信号などの読み書きに必要な信号が与
えられている。パルス列→数値変換回路75は図30
(b)で説明した場合と同様に、カウンタ等を用いるこ
とにより容易に実現できる。この他は、図24の場合と
同様である。
【0132】図40は、1つの入力に対して、興奮性を
表す結合係数と抑制性を表す結合係数との両方を用意し
た例を示し、興奮性を表す結合係数の値(+成分)を2
進数なる数値で保存するメモリ74Aと、抑制性を表す
結合係数の値(−成分)を2進数なる数値で保存するメ
モリ74Bとが設けられ、各々のメモリ74A,74B
毎にパルス列→数値変換回路75A,75B、数値→パ
ルス列変換回路76A,76Bが設けられている。この
他は、図27の場合と同様である。
【0133】ここに、数値→パルス列変換回路76(7
6A,76Bを含む)は、例えば、図42に示すよう
に、乱数生成装置77と、メモリ74からの2進数によ
る結合係数値をこの乱数生成装置77による乱数と比較
してパルス列表現の結合係数をANDゲート27等へ出
力する比較器78とにより構成されている。前記乱数生
成装置77は、例えば、図43に示すように基準クロッ
クに同期して乱数を発生する例えば7ビット構成のシフ
トレジスタ79とその最上位ビット(b6)のデータと
残りの適宜ビットのデータとを入力として最下位ビット
(b0)を順次更新する排他的ORゲート80とによる
リニアフィードバックシフトレジスタ(LFSR)81
により構成されている。これにより、0〜(2^m−
1)(mはシフトレジスタ79のビット数)までの一様
乱数が得られるものである。このLFSR81の生成多
項式は複数存在し、回路でも適宜切換えられるようにし
ておいたほうがよりランダムな乱数列が得られるので、
ここでは、b0,b1,b4,b5の内、何れのビット
から排他的ORゲート80に入力させるかを切換える切
換器82が設けられている。前記比較器78は乱数生成
装置77(LFSR81)により生成された乱数とメモ
リ74からの結合係数値とを比較し、メモリ74からの
データのほうが大きい時には「1」、小さい時には
「0」を出力するものである。これにより、パルス密度
が(メモリ74のデータ/2^m)となるパルス列によ
る結合係数が得られる。
【0134】なお、図41はニューロン20中のゲート
回路33a,33bを主体とした部分を示し、これらの
ゲート回路33a,33bの出力側に設けられるゲート
回路34は図1や図29に示したものに対して変形した
ものとされている。即ち、外部に設けられたオフセット
入力信号生成器83からの信号と前記ゲート回路33
a,33bからの信号との論理積をとるANDゲート3
4kと、ゲート回路33aからの出力をインバータ34
lで反転させた信号とゲート回路33bからの信号とオ
フセット入力信号生成器83からの信号との論理積をと
るANDゲート34mと、ゲート33bからの出力をイ
ンバータ34nで反転させた信号とゲート回路33aか
らの信号とオフセット入力信号生成器83からの信号と
の論理積をとるANDゲート34oとにより構成されて
いる。ここに、オフセット入力信号生成器83は数値→
パルス列変換回路76と同様にLFSRを利用した構成
のものであり、ここでは、パルス密度(数値)yHjとし
て「0.5」を出力するものとされている。この他の部
分は、図1の場合と同様に構成されている。
【0135】これにより、本実施例では、(11)〜(21)式
に代えて、(39)式を用いるように構成されている。つま
り、ゲート回路33aで得られた興奮性グループの結果
Fjとゲート回路33bで得られた抑制性グループの結
果yIjとが不一致であれば、興奮性の出力yFjをこのニ
ューロンの出力とするものである。即ち、興奮性グルー
プの結果yFjが「0」で抑制性グループの結果yIj
「1」であれば、「0」を出力し、興奮性グループの結
果yFjが「1」で抑制性グループの結果yIjが「0」で
あれば、「1」を出力する。興奮性グループの結果yFj
と抑制性グループの結果yIjとが一致した時には、パル
ス密度0.5なるオフセット入力信号生成器83からの
信号yHjがニューロンの出力とされる。
【0136】
【数24】
【0137】本実施例による場合も、具体例として、図
45で示したような3層構造のネットワーク構成におい
て、自己学習式文字認識処理を行わせたところ、同じ結
果、即ち、十分学習させた文字に対しては認識率100
%が得られたものである。
【0138】
【発明の効果】請求項1記載の発明によれば、学習時の
誤差信号の演算に必要となる神経細胞模倣ユニットから
の出力信号を内部電位で微分してなる神経細胞応答関数
の微係数に関して、正、負の誤差信号に対応させて微係
数算出手段により2種類の微係数を算出して用いるよう
にしたので、適正な誤差信号を得て、より高い学習能力
を持たせることができる。特に、請求項2記載の発明に
よれば、神経細胞模倣ユニットからの出力信号をパルス
列で表現するものとし、この神経細胞模倣ユニットから
の出力信号を所定時間遅延させた遅延信号と出力信号の
否定信号との論理積を一方の神経細胞応答関数の微係数
とし、神経細胞模倣ユニットからの出力信号の否定信号
を所定時間遅延させた遅延信号と出力信号との論理積を
他方の神経細胞応答関数としたので、微係数の実体が常
に0となってしまうような不都合を回避できる。加え
て、請求項3記載の発明によれば、結合係数の値をパル
ス列表現で保存するメモリと、このメモリ上の結合係数
のパルス列のパルス並びを一定時間毎に変更するパルス
並び変更手段とを有するものとし、請求項4記載の発明
によれば、結合係数の値をパルス列表現に変換する変換
手段を有するものとしたので、より学習能力を向上させ
ることができる。
【0139】一方、請求項5,6記載の発明によれば、
微係数規制手段により微係数算出手段による微係数又は
そのパルス密度が0とはならないように構成したので、
学習が途中で止まってしまうようなことがなく、十分に
学習機能を発揮させることができる。
【0140】この際、請求項7記載の発明によれば、予
め設定されたパルス密度のパルス列を生成するパルス列
生成手段と、このパルス列生成手段により生成されたパ
ルス列と神経細胞模倣素子の出力パルス列との論理和を
演算する演算手段とよりなる微係数規制手段とし、ま
た、請求項8記載の発明によれば、乱数生成装置と、こ
の乱数生成装置から出力される乱数と所定の閾値とを比
較してパルス列を出力する比較器とよりなるパルス列生
成手段とし、さらに、請求項9記載の発明では、乱数生
成装置をリニアフィードバックシフトレジスタとしたの
で、上記のような効果を発揮する微係数規制手段を、容
易に実現できるものとなる。
【0141】請求項10記載の発明によれば、請求項1
又は2記載の発明において、結合係数の値を2進数で保
存するメモリと、リニアフィードバックシフトレジスタ
よりなる乱数生成装置及び前記メモリに保存された結合
係数の値を前記乱数生成装置により生成された乱数と比
較してパルス列表現の結合係数を出力する比較器を備え
た数値・パルス列変換装置とを有するものとし、結合係
数の値を2進数の形態でメモリに保存し、数値・パルス
列変換装置でパルス列に変換して出力するようにしたの
で、結合係数の保存が容易であるとともに、処理する段
階ではパルス列で扱うので結合係数の処理も容易であ
り、より実際の装置に近い形の具体的な実現容易なもの
とすることができる。
【図面の簡単な説明】
【図1】請求項1ないし4記載の発明の一実施例を示す
論理回路図である。
【図2】既提案例における基本的な信号処理を行なうた
めの論理回路図である。
【図3】論理演算例を示すタイミングチャートである。
【図4】論理演算例を示すタイミングチャートである。
【図5】論理演算例を示すタイミングチャートである。
【図6】論理演算例を示すタイミングチャートである。
【図7】論理演算例を示すタイミングチャートである。
【図8】論理演算例を示すタイミングチャートである。
【図9】論理演算例を示すタイミングチャートである。
【図10】論理演算例を示すタイミングチャートであ
る。
【図11】応答関数を示す特性図である。
【図12】その微分関数を示す特性図である。
【図13】論理演算例を示すタイミングチャートであ
る。
【図14】論理演算例を示すタイミングチャートであ
る。
【図15】論理演算例を示すタイミングチャートであ
る。
【図16】論理演算例を示すタイミングチャートであ
る。
【図17】論理演算例を示すタイミングチャートであ
る。
【図18】論理演算例を示すタイミングチャートであ
る。
【図19】論理演算例を示すタイミングチャートであ
る。
【図20】論理演算例を示すタイミングチャートであ
る。
【図21】論理演算例を示すタイミングチャートであ
る。
【図22】論理演算例を示すタイミングチャートであ
る。
【図23】論理演算例を示すタイミングチャートであ
る。
【図24】各部の構成例を示す論理回路図である。
【図25】図24の別の変形例の構成例を示す論理回路
図である。
【図26】図24のさらに別の変形例の構成例を示す論
理回路図である。
【図27】各部の構成例を示す論理回路図である。
【図28】各部の構成例を示す論理回路図である。
【図29】変形例を示す論理回路図である。
【図30】パルス並び変更手段及び変換手段を示すブロ
ック図である。
【図31】手書き文字の読取り例を示す説明図である。
【図32】具体例による学習回数と残差との関係を示す
特性図である。
【図33】請求項5ないし7記載の発明の一実施例を示
すブロック図である。
【図34】そのパルス列生成装置の構成を示すブロック
図である。
【図35】請求項8記載の発明の一実施例を示すブロッ
ク図である。
【図36】請求項9記載の発明の一実施例を示すブロッ
ク図である。
【図37】その乱数生成装置の構成を示すブロック図で
ある。
【図38】変形例を示すブロック図である。
【図39】請求項10記載の発明の一実施例を示すシナ
プス部分の論理回路図である。
【図40】図39の変形例を示す論理回路図である。
【図41】ニューロン中の一部の構成を示す論理回路図
である。
【図42】数値→パルス列変換回路の構成を示すブロッ
ク図である。
【図43】乱数生成装置の構成を示すブロック図であ
る。
【図44】従来例の1つのユニット構成を示す概念図で
ある。
【図45】そのニューラルネットワーク構成の概念図で
ある。
【図46】シグモイド関数を示すグラフである。
【図47】1つのユニットの具体的構成を示す回路図で
ある。
【図48】デジタル構成例を示すブロック図である。
【図49】その一部の回路図である。
【図50】異なる一部の回路図である。
【符号の説明】
20 神経細胞模倣ユニット 26 メモリ 50 自己学習手段 51 微係数算出手段 55 パルス並び変更手段 56,57 変換手段 61 微係数規制手段 62 パルス列生成手段 63 演算手段 66 乱数生成装置 67 比較器 68 乱数生成装置 69 比較器 72 リニアフィードバックシフトレジスタ=
乱数生成装置 74 メモリ 76 数値・パルス列変換回路 77 乱数生成装置 78 比較器 81 リニアフィードバックシフトレジスタ
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成6年6月13日
【手続補正1】
【補正対象書類名】図面
【補正対象項目名】図48
【補正方法】変更
【補正内容】
【図48】
【手続補正2】
【補正対象書類名】図面
【補正対象項目名】図49
【補正方法】変更
【補正内容】
【図49】
【手続補正3】
【補正対象書類名】図面
【補正対象項目名】図50
【補正方法】変更
【補正内容】
【図50】
───────────────────────────────────────────────────── フロントページの続き (72)発明者 デビッド ジイ ストーク アメリカ合衆国 カリフォルニア州 メン ロー パークスイート 115 サンド ヒ ル ロード 2882 リコー コーポレーシ ョン カリフォルニア リサーチ センタ 内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 結合係数可変手段と、この結合係数可変
    手段の可変結合係数値を教師信号に対する正の誤差信号
    と負の誤差信号とに基づいて生成する結合係数生成手段
    とを有する自己学習手段を付設した複数の神経細胞模倣
    ユニットを網状に接続して回路網を形成した信号処理装
    置において、前記正、負の誤差信号の生成のために神経
    細胞模倣ユニットからの出力信号に基づき2種類の神経
    細胞応答関数の微係数を算出する微係数算出手段を設け
    たことを特徴とする信号処理装置。
  2. 【請求項2】 神経細胞模倣ユニットからの出力信号を
    パルス列で表現するものとし、この神経細胞模倣ユニッ
    トからの出力信号を所定時間遅延させた遅延信号と前記
    出力信号の否定信号との論理積を一方の神経細胞応答関
    数の微係数とし、前記神経細胞模倣ユニットからの出力
    信号の否定信号を所定時間遅延させた遅延信号と前記出
    力信号との論理積を他方の神経細胞応答関数の微係数と
    したことを特徴とする請求項1記載の信号処理装置。
  3. 【請求項3】 結合係数の値をパルス列表現で保存する
    メモリと、このメモリ上の結合係数のパルス列のパルス
    並びを一定時間毎に変更するパルス並び変更手段とを有
    するものとしたことを特徴とする請求項2記載の信号処
    理装置。
  4. 【請求項4】 結合係数の値をパルス列表現に変換する
    変換手段を有するものとしたことを特徴とする請求項2
    記載の信号処理装置。
  5. 【請求項5】 微係数算出手段により算出される2種類
    の微係数がともに0とならないように規制する微係数規
    制手段を設けたことを特徴とする請求項1記載の信号処
    理装置。
  6. 【請求項6】 微係数算出手段により算出される2種類
    の微係数のパルス密度がともに0とならないように規制
    する微係数規制手段を設けたことを特徴とする請求項
    2,3又は4記載の信号処理装置。
  7. 【請求項7】 予め設定されたパルス密度のパルス列を
    生成するパルス列生成手段と、このパルス列生成手段に
    より生成されたパルス列と神経細胞模倣素子の出力パル
    ス列との論理和を演算する演算手段とよりなる微係数規
    制手段としたことを特徴とする請求項6記載の信号処理
    装置。
  8. 【請求項8】 乱数生成装置と、この乱数生成装置から
    出力される乱数と所定の閾値とを比較してパルス列を出
    力する比較器とよりなるパルス列生成手段としたことを
    特徴とする請求項7記載の信号処理装置。
  9. 【請求項9】 乱数生成装置をリニアフィードバックシ
    フトレジスタとしたことを特徴とする請求項8記載の信
    号処理装置。
  10. 【請求項10】 結合係数の値を2進数で保存するメモ
    リと、リニアフィードバックシフトレジスタよりなる乱
    数生成装置及び前記メモリに保存された結合係数の値を
    前記乱数生成装置により生成された乱数と比較してパル
    ス列表現の結合係数を出力する比較器を備えた数値・パ
    ルス列変換装置とを有するものとしたことを特徴とする
    請求項1又は2記載の信号処理装置。
JP07313594A 1993-05-20 1994-04-12 信号処理装置 Expired - Fee Related JP3582737B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07313594A JP3582737B2 (ja) 1993-05-20 1994-04-12 信号処理装置
US08/246,342 US5588090A (en) 1993-05-20 1994-05-19 Signal processing apparatus

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP11808793 1993-05-20
JP5-206282 1993-08-20
JP5-118087 1993-08-20
JP20628293 1993-08-20
JP07313594A JP3582737B2 (ja) 1993-05-20 1994-04-12 信号処理装置

Publications (2)

Publication Number Publication Date
JPH07111090A true JPH07111090A (ja) 1995-04-25
JP3582737B2 JP3582737B2 (ja) 2004-10-27

Family

ID=27301140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07313594A Expired - Fee Related JP3582737B2 (ja) 1993-05-20 1994-04-12 信号処理装置

Country Status (2)

Country Link
US (1) US5588090A (ja)
JP (1) JP3582737B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19622533A1 (de) * 1996-06-05 1997-12-11 Deutsche Telekom Ag Verfahren und Vorrichtung zum Laden von Inputdaten in einen Algorithmus bei der Authentikation
US6269306B1 (en) * 2000-06-13 2001-07-31 Ford Global Tech. System and method for estimating sensor errors
JP4340091B2 (ja) * 2002-04-11 2009-10-07 株式会社リコー 紙識別情報管理システム、紙識別情報管理サーバ、およびクライアント装置
US6959866B2 (en) * 2002-05-30 2005-11-01 Ricoh Company, Ltd. 2-Dimensional code pattern, 2-dimensional code pattern supporting medium, 2-dimensional code pattern generating method, and 2-dimensional code reading apparatus and method
JP4322169B2 (ja) * 2003-07-16 2009-08-26 株式会社リコー 文書処理システム、文書処理方法、文書処理プログラム
US7672918B2 (en) * 2007-02-05 2010-03-02 Steve Adkins Artificial neuron
CN101959219B (zh) * 2009-03-20 2012-07-04 华为技术有限公司 被管理单元设备、自优化的方法及系统
WO2010105443A1 (zh) * 2009-03-20 2010-09-23 华为技术有限公司 被管理单元设备、自优化的方法及系统
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP6501146B2 (ja) * 2014-03-18 2019-04-17 パナソニックIpマネジメント株式会社 ニューラルネットワーク回路およびその学習方法
US9489618B2 (en) * 2014-05-27 2016-11-08 Purdue Research Foudation Electronic comparison systems
US10242313B2 (en) * 2014-07-18 2019-03-26 James LaRue Joint proximity association template for neural networks
WO2021199386A1 (ja) * 2020-04-01 2021-10-07 岡島 義憲 曖昧検索回路
JP7346373B2 (ja) * 2020-09-16 2023-09-19 株式会社東芝 演算装置およびニューラルネットワーク装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62159198A (ja) * 1986-01-07 1987-07-15 沖電気工業株式会社 音声合成方式
US4737929A (en) * 1986-04-14 1988-04-12 American Telephone And Telegraph Company, At&T Bell Laboratories Highly parallel computation network employing a binary-valued T matrix and single output amplifiers
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method
JP3102918B2 (ja) * 1990-11-22 2000-10-23 株式会社リコー ニューラルネットワーク学習方法およびこの学習方法を用いた信号処理装置
JP2760170B2 (ja) * 1990-11-29 1998-05-28 松下電器産業株式会社 学習機械
US5259064A (en) * 1991-01-25 1993-11-02 Ricoh Company, Ltd. Signal processing apparatus having at least one neural network having pulse density signals as inputs and outputs

Also Published As

Publication number Publication date
US5588090A (en) 1996-12-24
JP3582737B2 (ja) 2004-10-27

Similar Documents

Publication Publication Date Title
JP3582737B2 (ja) 信号処理装置
JPH07114524A (ja) 信号処理装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JP4181837B2 (ja) 演算回路およびこれを用いたニューラルネットワーク
JPH05165987A (ja) 信号処理装置
JP3508783B2 (ja) パルス密度型信号処理回路網における結合係数更新方法並びに結合係数更新装置
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JPH09185596A (ja) パルス密度型信号処理回路網における結合係数更新方法
JPH05217010A (ja) 信号処理装置
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH05314290A (ja) 信号処理装置
JP3338713B2 (ja) 信号処理装置
JPH05307624A (ja) 信号処理装置
JPH056356A (ja) 信号処理方法及びその装置
JP3463890B2 (ja) 神経回路模倣素子
JPH0581229A (ja) 信号処理回路網
JPH05181830A (ja) 信号処理装置
JPH056351A (ja) 信号処理装置
JPH05108599A (ja) 信号処理装置
JPH07175773A (ja) 信号処理回路網における教師信号付与方法
JPH05108598A (ja) 信号処理装置
JPH05135001A (ja) 信号処理装置
JPH04229361A (ja) ニューラルネットワークの学習方法及びこの方法を用いた信号処理装置
JPH05108597A (ja) 信号処理装置
JPH05290014A (ja) 信号処理装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040723

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees