JPH0822446A - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JPH0822446A
JPH0822446A JP6158454A JP15845494A JPH0822446A JP H0822446 A JPH0822446 A JP H0822446A JP 6158454 A JP6158454 A JP 6158454A JP 15845494 A JP15845494 A JP 15845494A JP H0822446 A JPH0822446 A JP H0822446A
Authority
JP
Japan
Prior art keywords
neuron
neural network
storage means
neurons
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6158454A
Other languages
English (en)
Inventor
Hiroyuki Nakahira
博幸 中平
Masaru Fukuda
大 福田
Shiro Sakiyama
史朗 崎山
Masakatsu Maruyama
征克 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP6158454A priority Critical patent/JPH0822446A/ja
Priority to EP94111798A priority patent/EP0636991A3/en
Priority to US08/281,683 priority patent/US5621862A/en
Publication of JPH0822446A publication Critical patent/JPH0822446A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 ニューラルネットワークのネットワーク規模
を容易に拡張可能なニューラルネットワーク回路を提供
する。 【構成】 入力ベクトルIVが演算装置104に入力さ
れると、記憶装置101に記憶されたネットワークの接
続情報に従い入力ベクトルIVに応答するニューロンが
検索されニューロン番号がレジスタ105に書き込まれ
る。演算装置104は、このニューロン番号を用いて記
憶装置102に記憶された当該ニューロンの内部情報を
読み出してレジスタ106に書き込み、この内部情報を
用いて当該ニューロンの出力と当該ニューロンに接続さ
れたシナプスの結合荷重との積和演算を行なう。このよ
うな動作を入力ベクトルIVの個数に相当する回数だけ
繰り返すことによって認識処理が実行される。ここで、
記憶装置101,102の内容を書き換えることにより
ネットワークの構成が変更される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像認識処理等を行な
うニューラルネットワーク回路に関する。
【0002】
【従来の技術】近年、情報処理分野においてニューラル
ネットワークを応用した情報処理に大きな関心が集まっ
てきている。ニューラルネットワークは、生物の頭脳に
備わるニューロンの構造を模倣したものである。ニュー
ラルネットワーク上の処理の多くは、従来のフォン・ノ
イマン型の逐次計算機により実現されているが、処理速
度が極めて遅いため、最近、ニューラルネットワークを
専用の電子回路で実現する試みがなされている。
【0003】専用の電子回路でニューラルネットワーク
を実現する方法としては、例えば、特開平2−2366
58号公報に記載されるように、ニューラルネットワー
クでより複雑な情報処理を行なうためにニューロンの個
数を増やしてもハードウェア量が飛躍的に増大すること
がないように、ハードウェアを共通に時分割で使うもの
が知られている。
【0004】
【発明が解決しようとする課題】しかしながら、上記従
来のニューラルネットワークの実現方法においては、単
一のニューラルネットワーク回路で実現できるニューラ
ルネットワークの構造は固定されており、簡単な情報処
理から複雑な情報処理まで、すなわち、ネットワーク規
模の小さなものから大きなものまでを単一のニューラル
ネットワーク回路で実現することには適していないとい
う問題点がある。なぜなら、小規模なニューラルネット
ワークから大規模なニューラルネットワークまでを実現
するためには、ニューラルネットワーク回路を大規模な
ニューラルネットワークの仕様に合わせる必要があるた
め、小規模なニューラルネットワークを実現する場合に
冗長な部分が多くなるからである。
【0005】また、上記従来のニューラルネットワーク
の実現方法では、出力ニューロンの出力値を比較して最
大の値を持つ出力ニューロンの番号を認識結果としてい
るが、後処理や学習等には認識結果の候補が複数個必要
であると言われている。従来、値を2つずつ順次比較し
ていく方法が用いられているが、この方法ではデータの
個数に処理時間が比例するため多大な時間がかかってし
まう。例えば、N個のデータの中から10個の候補を見
つける場合、1回の比較に要する時間を1サイクルとす
ると、最大値を持つ候補を求めるのにNサイクル、その
次に大きな値を持つ候補を求めるのに最大値以外の(N
−1)個のデータから求めるので(N−1)サイクル必
要とし、以下、同様にして、(N−2)サイクル、(N
−3)サイクル、…、(N−9)サイクル必要であり、
全体として、 N+(N−1)+(N−2)+(N−3)+…+(N−
9)=10N−45[サイクル] の時間が必要である。N=100のときには、10個の
候補すべてを選出するために955サイクルの時間を要
することになる。
【0006】このように、入力するデータ数や選出する
候補数が多くなればなるほど、選出に要するサイクル数
がそれらに比例して多くなるので全体の処理時間も長く
なってしまう。
【0007】さらに、上記従来のニューラルネットワー
クの実現方法では、すべてのニューロンに対してそれぞ
れアドレスを割り当て、各ニューロンは対応するアドレ
スにより特定された場合にのみ出力を行なうようになっ
ており、学習を行なう場合にもアドレスにより特定され
たニューロンのみが学習するように構成されている。こ
のため、拡張し得るネットワーク規模がアドレスのビッ
ト幅により制限されてしまい、さらに、ニューロンのア
ドレスが共通のバスに出力される場合には複数のアドレ
スを同時に出力することはできないので、処理時間も学
習すべきニューロンの個数分だけ処理時間を要すること
になる。
【0008】本発明は、上記に鑑みなされたものであっ
て、ニューラルネットワークのネットワーク規模を容易
に拡張でき高速処理が可能なニューラルネットワーク回
路を提供することを目的とする。
【0009】
【課題を解決するための手段】上記の目的を達成するた
め、対象とする情報処理に応じて動的にニューロンを増
殖し、ネットワークを自己生成することが可能なニュー
ラルネットワークをハードウェアで実現することが考え
られる。
【0010】このようなニューラルネットワークの一つ
として、例えば、文献「適応増殖量子化ニューロン(AS
QA)による文字認識」(電子情報通信学会技術報告NC91
-51、pp.23-28)又は文献「Adaptive Segmentation of
Quantizer Neuron Architecture (ASQA) 」(IJCNN'93,
Proceedings Vol.1, pp.367-370 )に記述されるもの
が知られている。
【0011】以下、ネットワークを自己生成するニュー
ラルネットワークを図面を用いて説明する。
【0012】図15は上記ニューラルネットワークの一
例を示す図であり、図15において、ニューラルネット
ワークは、入力ベクトルをそれぞれ入力するニューロン
10−1,10−2からなる入力層と、状態エネルギー
や各出力ニューロンとのシナプスの結合荷重の値等を内
部情報として持っているニューロン11−1〜11−5
からなる中間層と、中間層の各ニューロンの出力を統合
する出力ニューロン12−1,12−2からなる出力層
とにより構成される3層構造のニューラルネットワーク
である。ここで、ニューロン間の接続は各層間にのみ存
在し、各層内には存在しないものとする。当該ニューラ
ルネットワークにおけるネットワークの接続情報とは入
力層の各ニューロンと中間層の各ニューロンとの接続状
態を示す情報であり、具体的には、ニューロン10−1
とニューロン11−1,11−3との接続状態を示す情
報と、ニューロン10−2とニューロン11−2,11
−4,11−5との接続状態を示す情報とが相当する。
中間層の各ニューロンと出力層の各ニューロンとの接続
状態については考慮していないが、中間層におけるすべ
てのニューロンはそれぞれ各出力ニューロンとシナプス
の結合荷重を介して接続されている。
【0013】中間層のニューロンの状態エネルギーとし
ては、平均値、分散、学習回数等があげられる。ここ
で、平均値とは、1つのニューロンに入力されたデータ
列の値の平均のことである。ニューラルネットワークの
学習はニューロンの内部情報を更新することによって行
なわれる。
【0014】当該ニューラルネットワークでは入力ニュ
ーロン毎に多次元空間を中間層のニューロン数だけ分割
し、中間層のニューロン1つ1つが固有の空間を占め
る。当該ニューラルネットワークに入力ベクトルが入力
されると、中間層のあるニューロンが反応して出力層の
各ニューロンに信号を伝え、中間層の残りのニューロン
は信号を伝えない。中間層の各ニューロンの出力とそれ
ぞれに対応するシナプスの結合荷重との積和を求めるこ
とによって出力ニューロンは中間層の各ニューロンの出
力を統合する。そして、各出力ニューロンの出力値の大
小比較を行ない、出力値が最も大きい出力ニューロンの
番号を認識結果として設定する。
【0015】ニューロンの内部情報の更新を行なった際
に、例えば、ニューロン11−5の状態エネルギーが所
定のしきい値を越えた場合には、図16に示すように、
ニューロン11−5が分裂してニューロン11−6が生
成され、このニューロン11−6と入力層及び出力層の
ニューロンとの間に新たにネットワークが生成されるこ
とになる。このとき、ネットワークの接続情報としてニ
ューロンの増殖履歴も記憶される。ここで、増殖履歴と
は、分裂時のニューロンの内部情報とニューロン11−
5が新たなニューロン11−5とニューロン11−6と
に分裂したという事象を表わす情報とにより構成される
情報である。
【0016】図17(a)及び図17(b)は2次元空
間におけるニューロンの分裂の様子を示しており、分裂
時の新たなニューロン11−5とニューロン11−6と
の境界条件を増殖履歴における1つの情報として記憶す
る。ここでの境界条件は、分裂する直前のニューロン1
1−5の平均値とする。ニューロン11−6の各出力ニ
ューロンとのシナプスの結合荷重はニューロン11−5
の各出力ニューロンとのシナプスの結合荷重から複製さ
れる。
【0017】このように、シナプスの結合荷重の値を変
化させるだけでなくネットワークの構造自体も動的に変
化させることによって、対象とする情報処理に適応した
ネットワーク規模にすることができる。
【0018】請求項1〜7の発明は、以上説明したよう
な、ネットワークの自己生成が可能なニューラルネット
ワークをハードウェアで実現するものである。
【0019】具体的に請求項1の発明が講じた解決手段
は、入力信号をネットワークの演算により認識又は学習
する複数個のニューロンを有した多層のニューラルネッ
トワークを実現するニューラルネットワーク回路を対象
とし、上記ニューラルネットワークにおける上記複数個
のニューロンの接続状態を示すネットワーク接続情報を
書き換え可能に記憶する第1の記憶手段と、上記ニュー
ラルネットワークにおける各ニューロン固有の情報であ
るニューロン内部情報を書き換え可能に記憶する第2の
記憶手段と、上記第1の記憶手段から読み出されたニュ
ーロンを記憶する第3の記憶手段と、上記第2の記憶手
段から読み出されたニューロン内部情報を記憶する第4
の記憶手段と、上記第1の記憶手段に記憶されたネット
ワーク接続情報を用いて上記入力信号に応答するニュー
ロンを検索し、捜し出されたニューロンを上記第1の記
憶手段から読み出して上記第3の記憶手段に書き込み、
該第3の記憶手段に記憶されたニューロンに対応するニ
ューロン内部情報を上記第2の記憶手段から読み出して
上記第4の記憶手段に書き込み、該第4の記憶手段に記
憶されたニューロン内部情報を用いて上記ネットワーク
の演算を行なう演算手段とを備えている構成とするもの
である。
【0020】請求項2の発明は、請求項1の発明の構成
に、上記演算手段は、上記第2の記憶手段に記憶された
ニューロン内部情報を書き換え、書き換えられたニュー
ロン内部情報を用いて上記第1の記憶手段に記憶された
ネットワーク接続情報を書き換える機能をさらに有して
いる構成を付加するものである。
【0021】また、請求項3の発明は、状態エネルギー
を持ち該状態エネルギーが所定のしきい値を超過すると
増殖する複数個のニューロンを有し、該複数個のニュー
ロンのうちの何れかのニューロンの状態エネルギー及び
該ニューロンに接続されたシナプスの結合荷重を変更す
ることにより学習を行なう多層のニューラルネットワー
クを実現するニューラルネットワーク回路を対象とし、
上記複数個のニューロンのそれぞれに固有のニューロン
番号を付与する番号付与手段と、上記ニューロン番号が
それぞれ付与された上記複数個のニューロンの接続状態
を、該複数個のニューロンが増殖により生成されてきた
過程を示すことによって表わすネットワーク接続情報を
書き換え可能に記憶する第1の記憶手段と、上記複数個
のニューロンのうちのそれぞれのニューロン毎の、該ニ
ューロンの状態エネルギー及び該ニューロンに接続され
たシナプスの結合荷重をそれぞれ書き換え可能に記憶す
る第2の記憶手段と、上記第1の記憶手段に記憶された
ネットワーク接続情報を用いて発火したニューロンを検
索し、捜し出されたニューロンに付与されたニューロン
番号を上記第1の記憶手段から読み出す第1の演算手段
と、該第1の演算手段により読み出されたニューロン番
号を用いて、該ニューロン番号に対応するニューロンの
状態エネルギーと該ニューロンに接続されたシナプスの
結合荷重とを上記第2の記憶手段から読み出す第2の演
算手段と、該第2の演算手段により読み出されたシナプ
スの結合荷重を用いて、上記複数個のニューロンの出力
と該複数個のニューロンにそれぞれ接続されたシナプス
の結合荷重との積和を演算する第3の演算手段とを備え
ている構成とするものである。
【0022】請求項4の発明は、請求項3の発明の構成
に、上記番号付与手段は、上記複数個のニューロンに対
して、各ニューロンが増殖により生成された順番に相当
するニューロン番号を付与する構成を付加するものであ
る。
【0023】請求項5の発明は、請求項3の発明の構成
に、上記第2に演算手段は、上記第2の記憶手段に記憶
された状態エネルギー及びシナプスの結合荷重を書き換
える機能をさらに有し、上記第1の演算手段は、上記第
2の演算手段により書き換えられた状態エネルギーを用
いて、上記第1の記憶手段に記憶されたネットワーク接
続情報を書き換える機能をさらに有している構成を付加
するものである。
【0024】また、請求項6の発明は、状態エネルギー
を持ち該状態エネルギーが所定のしきい値を超過すると
増殖する複数個のニューロンを有し、該複数個のニュー
ロンのうちの何れかのニューロンの状態エネルギー及び
該ニューロンに接続されたシナプスの結合荷重を変更す
ることにより学習を行なう多層のニューラルネットワー
クを実現するニューラルネットワーク回路を対象とし、
上記複数個のニューロンのそれぞれに固有のニューロン
番号を付与する番号付与手段と、上記ニューロン番号が
それぞれ付与された上記複数個のニューロンの接続状態
を、該複数個のニューロンが増殖により生成されてきた
過程を示すことによって表わすネットワーク接続情報、
並びに、上記複数個のニューロンのうちのそれぞれのニ
ューロン毎の、該ニューロンの状態エネルギー及び該ニ
ューロンに接続されたシナプスの結合荷重をそれぞれ書
き換え可能に記憶する記憶手段と、該記憶手段に記憶さ
れたネットワーク接続情報を用いて発火したニューロン
を検索し、捜し出されたニューロンに付与されたニュー
ロン番号を上記記憶手段から読み出す第1の演算手段
と、該第1の演算手段により読み出されたニューロン番
号を用いて、該ニューロン番号に対応するニューロンの
状態エネルギーと該ニューロンに接続されたシナプスの
結合荷重とを上記記憶手段から読み出す第2の演算手段
と、該第2の演算手段により読み出されたシナプスの結
合荷重を用いて、上記複数個のニューロンの出力と該複
数個のニューロンにそれぞれ接続されたシナプスの結合
荷重との積和を演算する第3の演算手段と、上記第1の
演算手段から出力される第1のアドレスをビット毎に論
理反転しその結果得られる第2のアドレスを出力するア
ドレス変換手段と、該アドレス変換手段から出力される
第2のアドレス及び上記第2の演算手段から出力される
第3のアドレスのうちの何れか一方を選択し、上記第2
のアドレスを選択した場合には上記第1の演算手段によ
る上記記憶手段の第2のアドレスに対するアクセスを可
能とする一方、上記第3のアドレスを選択した場合には
上記第2の演算手段による上記記憶手段の第3のアドレ
スに対するアクセスを可能とする選択手段と、該選択手
段による選択を決定するための選択信号を出力する選択
信号出力手段とを備えている構成とするものである。
【0025】請求項7の発明は、請求項6の発明の構成
に、上記第2に演算手段は、上記記憶手段に記憶された
状態エネルギー及びシナプスの結合荷重を書き換える機
能をさらに有し、上記第1の演算手段は、上記第2の演
算手段により書き換えられた状態エネルギーを用いて、
上記記憶手段に記憶されたネットワーク接続情報を書き
換える機能をさらに有している構成を付加するものであ
る。
【0026】上記の目的を達成するため、請求項8の発
明は、認識結果の候補数に関係なく、入力するデータの
個数のみで候補の選出に要する時間が決まるニューラル
ネットワーク回路を実現するものである。
【0027】具体的に請求項8の発明が講じた解決手段
は、入力信号にネットワークの演算を施すことにより得
られ認識の対象となるN個のカテゴリーのうちn個のカ
テゴリーを認識結果の候補として選出するニューラルネ
ットワークを実現するニューラルネットワーク回路を対
象とし、2つのデータの値同士の大きさを比較する比較
手段と、上記2つのデータのうち値が大きい方のデータ
を記憶する第1の記憶手段と、上記2つのデータのうち
値が小さい方のデータを記憶する第2の記憶手段と、上
記第1の記憶手段に記憶されたデータに付随する他のデ
ータとの識別情報を記憶する第3の記憶手段と、上記第
2の記憶手段に記憶されたデータに付随する他のデータ
との識別情報を記憶する第4の記憶手段とを有する(n
−1)個の第1乃至第(n−1)の候補選出手段と、上
記比較手段と上記第1及び第3の記憶手段とを有する第
nの候補選出手段とを備え、第1の候補選出手段の比較
手段により比較される2つのデータのうち一方のデータ
が第1の候補選出手段の第1の記憶手段に記憶されたデ
ータとなり他方のデータがN個のデータのうちの何れか
のデータとなり、第iの候補選出手段(2≦i≦n)の
比較手段により比較される2つのデータのうち一方のデ
ータが第iの候補選出手段の第1の記憶手段に記憶され
たデータとなり他方のデータが第(i−1)の候補選出
手段の第2の記憶手段に記憶されたデータとなるよう
に、n個の第1乃至第nの候補選出手段はカスケード接
続されている構成とするものである。
【0028】上記の目的を達成するため、請求項9の発
明は、複数個用いてネットワーク規模を拡張しても、ニ
ューロンの学習にかかる処理速度を単一の場合と同等に
することができるニューラルネットワーク回路を実現す
るものである。
【0029】具体的に請求項9の発明が講じた解決手段
は、第1及び第2の値を持つ教師信号を与えることによ
り学習を行なう複数個のニューロンを有したニューラル
ネットワークを実現するニューラルネットワーク回路を
対象とし、上記複数個のニューロンのうち、上記教師信
号の第1の値を用いて学習を行なうニューロンを指定す
る指定手段と、該指定手段によるニューロンの指定を有
効とするか否かを決定する決定手段とを備え、該決定手
段により、上記指定手段によるニューロンの指定を有効
とすると決定された場合にのみ、上記指定手段により指
定されたニューロンに対して上記教師信号の第1の値を
用いて学習を行ない且つ上記複数個のニューロンのうち
上記指定手段により指定されたニューロンを除くニュー
ロンに対して上記教師信号の第2の値を用いて学習を行
なう構成とするものである。
【0030】
【作用】請求項1の発明の構成により、第1及び第2の
記憶手段にニューラルネットワークにおけるネットワー
クの接続状態を記憶することが可能となる。このため、
第1及び第2の記憶手段の内容を書き換えるだけでネッ
トワークの接続状態を変更することができる。したがっ
て、小規模なニューラルネットワークから大規模なニュ
ーラルネットワークまで単一のニューラルネットワーク
回路で対応することが可能になる。
【0031】さらに、請求項2の発明の構成により、第
1及び第2の記憶手段の内容を演算手段により書き換え
ることができる。このため、ニューラルネットワークの
内部における学習によりこのニューラルネットワーク自
身のネットワークの接続状態を変更することができる。
【0032】また、請求項3の発明の構成により、第1
及び第2の記憶手段に対してそれぞれ専用の第1及び第
2の演算手段を設けることによって各記憶手段を独立に
アクセスすることが可能となる。このため、処理速度の
高速化が可能となる。また、ニューロンが増殖していく
過程、ネットワークの構成及びニューロンの内部情報を
各ニューロンに付与された番号のみで管理することが可
能となる。
【0033】さらに、請求項4の発明の構成により、第
2の記憶手段に各ニューロンの内部情報をニューロンが
増殖により生成された順に書き込むことによって、第2
の記憶手段をフラグメンテーションが生じることなく効
率よく使用でき、記憶容量の低減化を図ることができ
る。
【0034】請求項5の発明の構成により、第1及び第
2の記憶手段の内容をそれぞれ第1及び第2の演算手段
により書き換えることができる。このため、ニューラル
ネットワークの内部における学習によりこのニューラル
ネットワーク自身のネットワークの接続状態を変更する
ことができる。
【0035】また、請求項6の発明の構成により、アド
レス変換手段を用いることによって、例えば、第1の演
算手段はネットワーク接続情報を記憶手段の上位アドレ
スから降順に書き込み、第2の演算手段は各ニューロン
の内部情報を記憶手段の下位アドレスから昇順に書き込
むことが可能となる。これにより、単一の記憶手段に2
種類の情報を記憶できるため、記憶手段の少量化を図る
ことができる。
【0036】さらに、請求項7の発明の構成により、第
1及び第2の記憶手段の内容をそれぞれ第1及び第2の
演算手段により書き換えることができる。このため、ニ
ューラルネットワークの内部における学習によりこのニ
ューラルネットワーク自身のネットワークの接続状態を
変更することができる。
【0037】また、請求項8の発明の構成により、N個
のデータを1回与えるだけでn個の候補をそれぞれ第1
〜第nの候補選出手段により選出することができる。例
えば、N=100、n=10の場合には、約100サイ
クルで10個の候補すべてを選出することができる。こ
れにより、処理速度を大幅に向上させることができる。
また、同一の機能を持つ候補選出手段を必要な個数だけ
カスケード接続しているだけなので、認識結果の候補数
を容易に変更することが可能である。
【0038】また、請求項9の発明の構成により、当該
ニューラルネットワーク回路を複数個用いてニューラル
ネットワークを実現する場合にも、1ニューロン当たり
の学習速度を変化させずに、各ニューラルネットワーク
回路毎に独立して学習が行なえる。このため、当該ニュ
ーラルネットワーク回路により大規模なニューラルネッ
トワークを実現しても、学習の処理速度は低下しない。
また、ニューラルネットワークのネットワーク規模は、
単一のニューラルネットワーク回路により実現されるネ
ットワーク規模に制限されないので容易に拡張すること
ができる。
【0039】
【実施例】
(実施例1)図1は本発明の実施例1に係るニューラル
ネットワーク回路の構成を示すブロック図である。ここ
で、実現の対象となるニューラルネットワークは、例え
ば、図15に示すように、適応増殖量子化ニューロンを
有する多層のニューラルネットワークである。
【0040】図1において、101はネットワークの接
続情報を記憶する記憶装置、102は各ニューロンに固
有の情報を集めたニューロンの内部情報を記憶する記憶
装置、IVは入力ベクトルであり、104は演算装置で
あり、記憶装置101の内容を読み書きすることによっ
てネットワークの接続情報を操作する機能と、記憶装置
102の内容を読み書きすることによってニューロンの
内部情報を操作する機能とを有する。105は記憶装置
101内のネットワークの接続情報を対象として演算装
置104が検索した結果を保持するレジスタ、106は
記憶装置102に対して演算装置104がアクセスして
得られた結果を保持するレジスタである。ここで、各ニ
ューロンには固有のニューロン番号を付与する。
【0041】以上のように構成されたニューラルネット
ワーク回路の動作について説明する。
【0042】まず、入力ベクトルIVが演算装置104
に入力されると、入力ベクトルIVに応答するニューロ
ンを特定するために、演算装置104は記憶装置101
に記憶されたネットワークの接続情報に従って検索を行
なう。つづいて、特定されたニューロンのニューロン番
号をレジスタ105に保持する。レジスタ105に保持
されたニューロン番号を用いて、ニューロンの内部情報
を記憶する記憶装置102に対してアクセスを行なう。
ここで、1ニューロン当たりの内部情報量をnワードと
すると、特定されたニューロンの内部情報には(ニュー
ロン番号×nワード)のアドレスによりアクセスするこ
とができる。このアドレスには特定されたニューロンの
内部情報として、特定されたニューロンの各出力ニュー
ロンとのシナプスの結合荷重が記憶されているので、こ
の内部情報をレジスタ106に保持することによって演
算装置104により特定されたニューロンの出力とシナ
プスの結合加重との積和演算を行なうことができる。こ
のような動作を入力ベクトルの個数に相当する回数だけ
繰り返すことによって認識処理が実行される。
【0043】ここで、記憶装置101に記憶されたネッ
トワークの接続情報を書き換えることによって、ネット
ワークの構造が異なるニューラルネットワークを容易に
構築することができる。このとき、記憶装置102に記
憶されたニューロンの内部情報も記憶装置101の内容
の変更に伴ない書き換える。記憶内容の変更方法として
は、例えば、別の計算機上で演算を行ないその結果得ら
れた値を記憶装置101及び102に直接書き込めばよ
い。
【0044】以上のように、本実施例にかかるニューラ
ルネットワーク回路によると、ネットワークの接続情報
を記憶する記憶装置を設けることによって、ネットワー
クの接続状態を変更可能なニューラルネットワークを実
現することができる。
【0045】次に、別の計算機上で演算され得られた結
果を記憶装置101及び102に書き込むのではなく、
本実施例のニューラルネットワーク回路の内部で演算を
行ない得られた結果を記憶装置101及び102に書き
込む場合について説明する。ここでは、適応増殖量子化
ニューロンを有するニューラルネットワークにおいて学
習を行なう場合について説明する。
【0046】上記ニューラルネットワークにおける学習
は、中間層のニューロンの内部情報を更新することによ
って行なわれる。具体的には、状態エネルギー(例え
ば、平均値、分散、学習回数等)の更新と、出力ニュー
ロンとのシナプスの結合荷重の更新とにより実現され
る。
【0047】学習時には学習の対象となるニューロンの
内部情報を記憶装置102から読み出しレジスタ106
に保持する。レジスタ106に保持されたニューロンの
内部情報に対して演算装置104がその内容の書き換え
を行ない、更新されたニューロンの内部情報を記憶装置
102における読み出しアドレスと同一のアドレスに書
き込む。このとき、ニューロンの分裂が生じたとする
と、新たに生成されたニューロンに固有のニューロン番
号を付与し、このニューロンを記憶装置102における
(ニューロン番号×nワード)のアドレスに書き込む。
つづいて、演算装置104は、分裂時の境界条件の書き
込みと、ネットワークの接続情報の変更とを行なうため
に記憶装置101にアクセスする。ここでの境界条件は
分裂する直前のニューロンの平均値とする。
【0048】このようにして、ネットワークの構造の変
更をニューラルネットワーク回路内で行なうことができ
る。別の計算機を用いる必要がないため、処理時間を短
縮することができ、実用性を高めることができる。
【0049】(実施例2)図2は本発明の実施例2に係
るニューラルネットワーク回路の構成を示すブロック図
である。ここで、実現の対象となるニューラルネットワ
ークは、実施例1と同様に、適応増殖量子化ニューロン
を有する多層のニューラルネットワークである。
【0050】図2において、301はニューロンにニュ
ーロン番号を付与するニューロン番号付与装置、302
はニューロンの増殖履歴を記憶する増殖履歴記憶装置で
ある。303は増殖履歴記憶装置302へのアドレス及
びデータバスを有する演算装置であり、増殖履歴記憶装
置302内の増殖履歴を操作する。304は各ニューロ
ンに固有の情報を集めたニューロンの内部情報を記憶す
る内部情報記憶装置である。305は内部情報記憶装置
304へのアドレス及びデータバスを有する演算装置で
あり、内部情報記憶装置304内のニューロンの内部情
報を操作する。306はニューロンの出力とシナプスの
結合荷重との積和演算を行なう積和演算装置、307は
演算装置303と演算装置305との間の通信を行なう
通信装置である。
【0051】次に、図15に示すニューラルネットワー
クにおける中間層のニューロンの増殖の過程をどのよう
に表現し増殖履歴記憶装置302にどのように記憶する
かを説明する。
【0052】図3は中間層のニューロンに付与されるニ
ューロン番号及びノード番号を示している。まず、ニュ
ーロンに対するニューロン番号の付与について説明す
る。初期状態において、中間層のニューロンは2つだけ
であるため、この2つのニューロンには11−1,11
−2のように昇順に番号を付ける。ここで、初期状態に
おけるニューラルネットワークを図13に示す。つづい
て、ニューロン番号11−1のニューロンが分裂してニ
ューロンが増殖した場合には11−3のように最も新し
いニューロンのニューロン番号の次の番号を付与する。
この様子を図14に示す。このように、入力ニューロン
の番号には関係なく、中間層のニューロンが分裂する度
に順番にニューロン番号を付けていく。
【0053】ところで、ネットワークの接続情報を構築
するためには、各ニューロンに対して付与されるニュー
ロン番号と、ニューロンが増殖していった過程を示す増
殖履歴とが必要である。増殖履歴を作成する方法とし
て、ニューロンが増殖する毎に新たに生成されたニュー
ロンにニューロン番号を付けると同時に、分裂五の2つ
のニューロンにノード番号を付ける。これにより、ニュ
ーロンの増殖履歴として、図3に示すように、分裂前の
ニューロン番号11−2のニューロンのノード番号は2
であり、このノード番号2のニューロンがノード番号5
のニューロンとノード番号6のニューロンとに分裂し、
さらに、このノード番号6のニューロンがノード番号7
のニューロンとノード番号8のニューロンとに分裂して
いることが分かる。ノード番号の付け方はk,(k+
1)というように続き番号で行なう。
【0054】図4(a)及び図4(b)はニューロン番
号及びノード番号が増殖履歴記憶装置304に書き込ま
れた様子を示している。図4(a)及び図4(b)にお
いて、例えば、ニューロンが分裂した場合、末端フィー
ルドに1を書き込み、番号フィールドには分裂により新
たに生まれた2つのニューロンのうちの一方のノード番
号を書き込む。ここでは、値が小さい方のノード番号を
書き込んでいる。そして、協会条件フィールドに分裂時
の境界条件を書き込む。ここでの境界条件は分裂する直
前のニューロンの平均値とする。番号フィールドに書き
込まれたノード番号の値と同一の値のアドレスの番号フ
ィールドには、そのノード番号を持つニューロンのニュ
ーロン番号を書き込み、その次のアドレスの番号フィー
ルドには、分裂により新たに生まれた2つのニューロン
のうちの他方のニューロン番号を書き込む。なお、初期
状態においては、すべての末端フィールドに0が書き込
まれる。
【0055】具体的に、図15に示すニューラルネット
ワークの中間層のニューロンが図16に示すように分裂
する場合について説明する。
【0056】分裂前には、図4(a)に示すように、増
殖履歴記憶装置302のアドレス8には、その番号フィ
ールドにニューロン番号11−5が、その末端フィール
ドに0(末端であることを示す)が書き込まれている。
ニューロン番号11−5のニューロンが新たなニューロ
ン番号11−5のニューロンとニューロン番号11−6
のニューロンとに分裂すると、図4(b)に示すよう
に、増殖履歴記憶装置302のアドレス8には、その番
号フィールドにノード番号9が書き込まれ、さらに、そ
の末端フィールドに1(ニューロンが分裂したことを示
す)が、その境界条件フィールドに境界条件A8が書き
込まれる。ここでの境界条件A8は、分裂する直前のニ
ューロン番号11−5のニューロンの平均値である。同
時に、増殖履歴記憶装置302のアドレス9の番号フィ
ールドにはニューロン番号11−5が、そして、アドレ
ス10の番号フィールドにはニューロン番号11−6が
書き込まれる。
【0057】次に、本実施例に係るニューラルネットワ
ーク回路の動作を説明する。
【0058】図2において、演算装置303は、増殖履
歴記憶装置302に記憶されたニューロン番号の検索を
実行する。詳しくは、入力層の各ニューロンに付与され
たノード番号の値(例えば、ニューロン番号10−1の
ニューロンであればノード番号1、ニューロン番号10
−2のニューロンであればノード番号2)と同一の値の
アドレスを初期値として、末端フィールドに0が設定さ
れたアドレスにおける番号フィールドの値すなわちニュ
ーロン番号を検索する。これにより、演算装置303
は、発火したニューロンのニューロン番号を捜し出し、
捜し出されたニューロン番号は通信装置307を介して
演算装置305に転送される。
【0059】演算装置305は、図5に示すように、発
火したニューロンのニューロン番号を用いて内部情報記
憶装置304にアクセスする。ここで、1ニューロン当
たりの内部情報量をnワードとすると、(ニューロン番
号×nワード)のアドレス演算を行なうことによってア
クセスすることができる。ニューロンにニューロン番号
を付与する方法として、ニューロンが増殖する毎に順番
に付与する方法をとると、内部情報記憶装置304はフ
ラグメンテーションを生じることなく効率よく使用で
き、記憶容量の少容量化を図ることができる。
【0060】積和演算装置306は、内部情報記憶装置
304に記憶されたニューロンの内部情報を用いて発火
したニューロンの出力とシナプスの結合荷重との積和演
算を実行する。
【0061】学習時には、演算装置305は、学習する
ニューロンの内部情報を更新する。さらに、ニューロン
が分裂する条件を満たせば、境界条件が通信装置307
を介して演算装置303に転送され、演算装置303は
更新されたニューロンの内部情報を用いて上述した一連
の処理を行ない、増殖履歴記憶装置302内のネットワ
ークの接続情報を更新することによって新たなニューラ
ルネットワークを構築する。
【0062】通信装置307は、演算装置303と演算
装置305との同期をとるための装置である。発火した
ニューロンのニューロン番号が特定されると、演算装置
305はこのニューロン番号に対応するニューロンの内
部情報を内部情報記憶装置304から読み出すことがで
きる。このとき、演算装置303は次の入力ニューロン
に対する処理を実行することができる。これは、増幅履
歴記憶装置302及び内部情報記憶装置304がそれぞ
れ演算装置303及び305に対してローカルな記憶装
置だからである。したがって、演算装置303及び30
5は同時に動作させることが可能である。しかし、演算
装置305により内部情報記憶装置304から読み出さ
れる内部情報が、演算装置303により特定されたニュ
ーロン番号のニューロンに関する内部情報であることを
示すために通信装置307により同期をとる必要があ
る。具体的な方法としては、例えば、セマフォ制御と1
つのレジスタとによるものや、FIFOメモリによるも
の等ががあげられる。
【0063】以上のように、本実施例に係るニューラル
ネットワーク回路によると、ニューロンが増殖していく
過程、ネットワークの構成、及び各ニューロンの内部情
報を各ニューロンに付与された番号のみで管理すること
によって、ネットワークの接続状態を変更することが可
能なニューラルネットワークを実現することができる。
【0064】(実施例3)図6は本発明の実施例3に係
るニューラルネットワーク回路の構成を示すブロック図
である。ここで、実現の対象となるニューラルネットワ
ークは、実施例1及び2と同様に、適応増殖量子化ニュ
ーロンを有する多層のニューラルネットワークである。
なお、図2に示す実施例2と同一の構成要素には同じ符
号を付して詳細な説明を省略する。。
【0065】図6において、401はニューロンの内部
情報及びネットワークの接続情報を記憶する記憶装置、
402は演算装置303から記憶装置401へのアドレ
ス信号を変換するアドレス変換回路である。403は選
択回路であり、演算装置303が有する記憶装置401
へのアドレス及びデータバスと、演算装置305が有す
る記憶装置401へのアドレス及びデータバスとのうち
の何れか一方を選択する。SLTは選択回路403の選
択信号、405は選択信号SLTを出力する選択信号出
力回路、ENはアドレス変換回路402を有効にするア
ドレス変換イネーブル信号である。
【0066】図7はアドレス変換回路402の一例を示
す回路図である。ここでは、説明を簡単にするため、演
算装置303及び305のアドレスのビット幅を16ビ
ットとする。
【0067】図7において、A0〜A15は演算装置3
03からのアドレスである入力アドレス、B0〜B15
はアドレス変換回路402の出力としての出力アドレ
ス、X0〜X15は排他的論理和回路である。アドレス
変換イネーブル信号ENが1になると、アドレス変換回
路402が出力する出力アドレスB0〜B15は、図8
に示すように、入力アドレスA0〜A15をビット毎に
論理反転したものとなる。ここで、選択回路403によ
り演算装置303からのアドレスが選択されると、図9
に示すように、演算装置303からのデータは記憶装置
401の上位アドレスから降順に書き込まれていく。こ
れに対して、選択回路403により演算回路305から
のアドレスが選択されると、演算装置305からのデー
タは記憶装置401の下位アドレスから昇順に書き込ま
れていく。このように、2種類の情報を単一の記憶装置
上に記憶させることが可能になる。勿論、2種類の情報
が同一のアドレスに書き込まれないように制御する必要
はある。具体的な方法としては、例えば、次に2種類の
情報がそれぞれ書き込まれる2つのアドレスを保持して
おき、この2つのアドレスを比較するという方法があげ
られる。
【0068】また、演算装置303及び305が互いに
独立して動作できることは実施例2で述べたが、対象と
なる記憶装置が同一である場合には相互に排他的な制御
が必要になる。この制御を実現する手段が選択信号出力
回路405である。通信装置307は演算装置303と
演算装置305との同期をとっているが、選択信号出力
回路405は通信装置307を利用して選択信号SLT
を出力する。演算装置303及び305のうちの一方か
ら他方にデータが転送される場合、例えば、演算装置3
03から演算装置305にニューロン番号が転送される
場合を考えると、まず、演算装置303はニューロンを
特定するために、記憶装置401に記憶された増殖履歴
を検索する。そのために、選択回路403は演算装置3
03側のアドレス及びデータバスを選択する。ここで、
アドレスはアドレス変換回路402から出力されたアド
レスである。次に、ニューロンが特定されると、このニ
ューロンを示すニューロン番号が演算装置303から通
信装置307を介して演算装置305に転送される。転
送後、選択回路403は演算装置305側のアドレス及
びデータバスを選択する。演算装置305が必要な情報
を記憶装置401から得た後に、選択回路403は再び
演算装置303側のアドレス及びデータバスを選択す
る。
【0069】ここで、例えば、記憶装置401にアクセ
スする演算装置が演算装置303から演算装置305に
代わる場合には、演算装置303がデータを転送した
後、記憶装置401にアクセスしないように演算装置3
03を停止し、演算装置305による記憶装置401に
対するアクセスが終了した後に、演算装置303の動作
を再び開始するという制御を行なう。
【0070】以上のように、本実施例に係るニューラル
ネットワーク回路によると、アドレス変換回路を用いる
ことによって、単一の記憶装置に2種類の情報を記憶さ
せることが可能となり、実施例2の演算装置303及び
305を全く変更することなく記憶装置を効率的に使用
することができ、記憶容量の少容量化を図ることが可能
となる。
【0071】なお、本実施例において、アドレス変換回
路402に入力されるアドレス変換イネーブル信号EN
の値を0とすることによって実施例2と同様のニューラ
ルネットワーク回路を容易に実現することができる。
【0072】また、本実施例では、簡単のため、入力ニ
ューロン及び出力ニューロンの個数を2個、中間層のニ
ューロンの個数を5〜6個として説明したが、これに限
定されず、他のニューロン数としてもよいのは勿論であ
る。
【0073】(実施例4)図10は本発明の実施例4に
係るニューラルネットワーク回路の構成の一部を示す回
路図である。ここでは、説明を簡単にするため、選出さ
れる認識結果の候補の個数を4個とする。
【0074】図10において、501a〜501d、5
31a,531bはレジスタ、502,532は比較結
果のMSBを出力する比較器、DTは入力されるデー
タ、RSTはレジスタ501a〜501d、531a及
び531bのリセット信号、DTNはデータDTに対応
して付与されたデータ番号、506a〜506d、53
6a,536bはマルチプレクサ、N1,N2,N3,
N4は選出される候補のうち、それぞれ1番目、2番
目、3番目、4番目に大きい値を持つデータに付与され
たデータ番号である。ここで、データ番号として出力ニ
ューロンのニューロン番号と同一の番号を割り当てるこ
とによって、N1〜N4は認識結果の候補となる。ま
た、比較器502及び532は1サイクルで比較結果を
出力するものとする。
【0075】レジスタ501a及び531aは比較され
た2つのデータのうち値が大きい方のデータを記憶し、
レジスタ501cは値が小さい方のデータを記憶する。
また、レジスタ501b,531bは、それぞれレジス
タ501a,531aに記憶されるデータに付与された
データ番号を記憶し、レジスタ501dはレジスタ50
1cに記憶されるデータに付与されたデータ番号を記憶
する。
【0076】なお、レジスタ501a〜501dと比較
器502とマルチプレクサ506a〜506dとから候
補選出回路500が構成され、レジスタ531a,53
1bと比較器532とマルチプレクサ536a,536
bとから候補選出回路530が構成される。また、候補
選出回路510,520は候補選出回路500と同一の
構成を持つものであり、各レジスタのクロックは共通で
あるとする。
【0077】以上のように構成されたニューラルネット
ワーク回路の動作を説明する。ただし、比較するデータ
の総数はN個とする。
【0078】まず、リセット信号RSTにより各レジス
タをリセットしその値として0を設定する。つづいて、
データDTとこのデータDTに付与されたデータ番号D
TNとを同時に入力する。1番目に入力されたデータD
Tとレジスタ501aの出力とを比較器502により比
較し、比較器502から出力される比較結果のMSBを
用いてマルチプレクサ506a〜506dはその出力を
それぞれ選択しレジスタ501a〜501dにそれぞれ
書き込む。このような動作をデータの個数に相当する回
数すなわちN回繰り返す。
【0079】すると、Nサイクル目には、N個のデータ
のうち最大値を持つデータがレジスタ501aに書き込
まれ、レジスタ501bには最大値を持つデータのデー
タ番号が書き込まれている。このため、結果として、選
出すべき候補のうち最大値を持つ候補が候補選出回路5
00から出力されることになる。
【0080】次の(N+1)サイクル目にはN個のデー
タのうち2番目に大きい値を持つデータのデータ番号が
候補選出回路510から出力され、(N+2)サイクル
目にはN個のデータのうち3番目に大きい値を持つデー
タのデータ番号が候補選出回路520から出力され、
(N+3)サイクル目にはN個のデータのうち4番目に
大きい値を持つデータのデータ番号が候補選出回路53
0から出力され、4つの候補の選出が完了する。
【0081】ここで、従来例と同様にN=100とし1
0個の候補を選出する場合を考えると、10候補をすべ
て選出するのに要するサイクル数は、 100+(10−1)=109[サイクル] であり、従来例の955サイクルと比較して格段の速度
向上が実現できることが分かる。
【0082】なお、候補がn個必要な場合にはn個の候
補選出回路をカスケード接続すればよく容易に拡張が可
能である。
【0083】(実施例5)図11は本発明の実施例5に
係るニューラルネットワーク回路の構成を示す模式図で
ある。
【0084】図11において、600はニューラルネッ
トワーク回路、601a〜601dはそれぞれニューロ
ン番号0〜3を付与されたニューロン、S0はニューロ
ンに付与されたニューロン番号を指定するための指定信
号である。C0は制御信号であり、その値が1の場合に
はすべての教師信号を有効にし、値が0の場合にはすべ
ての教師信号の値を強制的に0とする。
【0085】ここでは、ニューロンの学習のアルゴリズ
ムとしてデルタルールを用いることにする。デルタルー
ルを簡単に説明すると、ニューロンの出力値と教師信号
の値との差を用いて、そのニューロンが持つシナプスの
結合荷重の値を変更する学習方法である。教師信号は
[0,1]の2値を持つものとし、ニューロンを発火さ
せるように、教師信号の値として1を与えて学習するも
のとする。
【0086】ニューラルネットワーク回路600に情報
が入力されたとき、ニューロン番号0のニューロン60
1aが発火するように学習を行なう場合について説明す
る。制御信号C0の値としては1を設定し、指定信号S
0によりニューロン番号0を指定する。指定信号S0に
より指定されたニューロン601aについてはその教師
信号の値として1が設定され、他のニューロン601b
〜601dについてはその教師信号の値として0が設定
され、各ニューロンはその出力値と教師信号の値との差
を用いて学習を行なう。すなわち、ニューロン番号0,
1,2,3のニューロンはそれぞれ教師信号1,0,
0,0により学習を行なう。
【0087】次に、以上のように構成されたニューラル
ネットワーク回路を複数個用いて、ネットワーク規模を
拡張したニューラルネットワークを実現する場合につい
て説明する。
【0088】図12は3個のニューラルネットワーク回
路からなるニューラルネットワークシステムを示す図で
ある。図12において、ニューラルネットワーク回路6
10,620は図11に示すニューラルネットワーク回
路600と同一の機能を持つニューラルネットワーク回
路であり、611a〜611dはニューラルネットワー
ク回路610内においてそれぞれニューロン番号0〜3
を付与されたニューロンであり、同様に、621a〜6
21dはニューラルネットワーク回路620内において
それぞれニューロン番号0〜3を付与されたニューロン
である。また、S1,S2は指定信号S0と同一の機能
を持つ指定信号、C1,C2は制御信号C0と同一の機
能を持つ制御信号である。
【0089】各ニューラルネットワーク回路内のニュー
ロンのニューロン番号は何れも0〜3であるが、ニュー
ラルネットワーク全体から考えると12個のニューロン
があるのでネットワーク全体からみたニューロン番号と
しては0〜11が割り当てられることになる。例えば、
ニューロン611aにはネットワーク全体からみたニュ
ーロン番号として4が付与され、ニューロン621dに
はネットワーク全体からみたニューロン番号として11
が付与される。
【0090】次に、ある情報が入力されたとき、ネット
ワーク全体におけるニューロン番号4のニューロン61
1aが発火するように学習を行なう場合について説明す
る。
【0091】ネットワーク全体におけるニューロン番号
4のニューロンは、ニューラルネットワーク回路610
内のニューロン番号0のニューロン611aであるので
指定信号S1によりニューラルネットワーク回路610
内におけるニューロン番号0を指定する。次に、制御信
号C1の値として1を設定する。このとき、他のニュー
ラルネットワーク回路600,620の制御信号C0,
C2の値として0を設定する。このように信号の値を設
定することによって、ニューラルネットワーク回路60
0,620内において、それぞれ指定信号S0,S2に
より何れのニューロン番号を指定しても常に教師信号の
値は0に設定されたものとして学習を行なうことができ
る。したがって、指定信号S0,S1,S2を共通にす
ることもできるので、ハードウェア規模の低減が可能と
なる。
【0092】以上のように、本実施例に係るニューラル
ネットワーク回路によると、このニューラルネットワー
ク回路を複数個用いてニューラルネットワークシステム
を構成した場合に、各ニューラルネットワーク回路毎に
独立に学習を行なうことができるため並列に処理を実行
でき、学習に要する処理時間はネットワーク規模が大き
くなっても単体のニューラルネットワーク回路と同程度
となる。
【0093】
【発明の効果】以上説明したように、請求項1の発明に
係るニューラルネットワーク回路によると、ニューラル
ネットワークにおけるネットワークの接続状態を記憶手
段に記憶することが可能となるため、この記憶手段の内
容を書き換えるだけでネットワークの接続状態を変更す
ることができる。したがって、小規模なニューラルネッ
トワークから大規模なニューラルネットワークまで単一
のニューラルネットワーク回路で対応することが可能に
なる。
【0094】また、請求項3の発明に係るニューラルネ
ットワーク回路によると、各記憶手段に専用の演算手段
を設けることによって、各記憶手段を独立にアクセスす
ることが可能となり処理速度の高速化を図ることができ
る。また、ニューロンが増殖していく過程、ネットワー
クの構成及びニューロンの内部情報を各ニューロンに付
与された番号のみで管理することが可能となる。
【0095】さらに、請求項4の発明に係るニューラル
ネットワーク回路によると、各ニューロンの内部情報を
ニューロンが増殖により生成された順に記憶手段に書き
込むことによって、この記憶手段をフラグメンテーショ
ンが生じることなく効率よく使用でき、記憶容量の低減
化を図ることができる。
【0096】また、請求項6の発明に係るニューラルネ
ットワーク回路によると、アドレス変換手段を用いるこ
とによって単一の記憶手段に2種類の情報を記憶できる
ため、記憶手段の少量化を図ることができる。
【0097】さらに、請求項2、5、7の発明に係るニ
ューラルネットワーク回路によると、ネットワークの接
続状態を回路内部における学習により変更することがで
きる。
【0098】また、請求項8の発明に係るニューラルネ
ットワーク回路によると、データを1回与えるだけで所
望の個数の候補を選出することができるため、処理速度
を大幅に向上させることができる。また、同一の機能を
持つ候補選出手段を必要な個数だけカスケード接続して
いるだけなので、認識結果の候補数を容易に変更するこ
とが可能である。
【0099】また、請求項9の発明に係るニューラルネ
ットワーク回路によると、このニューラルネットワーク
回路を複数個用いてニューラルネットワークを実現する
場合にも、1ニューロン当たりの学習速度を変化させず
に各ニューラルネットワーク回路毎に独立して学習が行
なえるため、大規模なニューラルネットワークを実現し
ても高速な学習を維持することができる。また、ニュー
ラルネットワークのネットワーク規模は、単一のニュー
ラルネットワーク回路により実現されるネットワーク規
模に制限されないので容易に拡張することができる。
【0100】以上のように、本発明によると、従来のよ
うなネットワークの構造が固定されたニューラルネット
ワークとは違い、ニューロンの増殖によりネットワーク
の構造が次第に変化していくニューラルネットワークを
実現することができ、ニューラルネットワークのネット
ワーク規模を容易に拡張でき高速処理が可能なニューラ
ルネットワーク回路を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施例1に係るニューラルネットワー
ク回路の構成を示すブロック図である。
【図2】本発明の実施例2に係るニューラルネットワー
ク回路の構成を示すブロック図である。
【図3】実施例2に係るニューラルネットワーク回路に
より実現されるニューラルネットワークのニューロンに
付与されるニューロン番号及びノード番号を示す図であ
る。
【図4】(a)及び(b)は実施例2に係るニューラル
ネットワーク回路の増殖履歴記憶装置の内容を示す図で
ある。
【図5】実施例2に係るニューラルネットワーク回路に
おいて演算装置305がニューロン番号を用いて内部情
報記憶装置にアクセスする様子を示す図である。
【図6】本発明の実施例3に係るニューラルネットワー
ク回路の構成を示すブロック図である。
【図7】実施例3に係るニューラルネットワーク回路の
アドレス変換回路の一例を示す回路図である。
【図8】上記アドレス変換回路によるアドレスの変換動
作を示す図である。
【図9】実施例3に係るニューラルネットワーク回路の
記憶装置への増殖履歴及びニューロンの内部情報の書き
込み方を示す図である。
【図10】本発明の実施例4に係るニューラルネットワ
ーク回路の一部を示す回路図である。
【図11】本発明の実施例5に係るニューラルネットワ
ーク回路の構成を示す模式図である。
【図12】実施例5に係るニューラルネットワーク回路
を複数個用いて構成されるニューラルネットワークシス
テムを示す図である。
【図13】初期状態のニューラルネットワークを示す図
である。
【図14】上記初期状態のニューラルネットワークにお
いてニューロンが分裂した場合におけるニューラルネッ
トワークを示す図である。
【図15】ネットワークを自己生成するニューラルネッ
トワークの一例を示す図である。
【図16】図15に示すニューラルネットワークにおい
てニューロンが分裂した場合におけるニューラルネット
ワークを示す図である。
【図17】(a)及び(b)はニューロンの分裂を2次
元的に表わした図である。
【符号の説明】
101,102 記憶装置 104 演算装置 105,106 レジスタ 301 ニューロン番号付与装置 302 増殖履歴記憶装置 303,305 演算装置 304 内部情報記憶装置 306 積和演算装置 401 記憶装置 402 アドレス変換回路 403 選択回路 405 選択信号出力回路 500,510,520,530 候補選出回路 501a〜501d,531a,531b レジスタ 502,532 比較器 600,610,620 ニューラルネットワーク回路 C0,C1,C2 制御信号 S0,S1,S2 指定信号
───────────────────────────────────────────────────── フロントページの続き (72)発明者 丸山 征克 大阪府門真市大字門真1006番地 松下電器 産業株式会社内

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 入力信号をネットワークの演算により認
    識又は学習する複数個のニューロンを有した多層のニュ
    ーラルネットワークを実現するニューラルネットワーク
    回路であって、 上記ニューラルネットワークにおける上記複数個のニュ
    ーロンの接続状態を示すネットワーク接続情報を書き換
    え可能に記憶する第1の記憶手段と、 上記ニューラルネットワークにおける各ニューロン固有
    の情報であるニューロン内部情報を書き換え可能に記憶
    する第2の記憶手段と、 上記第1の記憶手段から読み出されたニューロンを記憶
    する第3の記憶手段と、 上記第2の記憶手段から読み出されたニューロン内部情
    報を記憶する第4の記憶手段と、 上記第1の記憶手段に記憶されたネットワーク接続情報
    を用いて上記入力信号に応答するニューロンを検索し、
    捜し出されたニューロンを上記第1の記憶手段から読み
    出して上記第3の記憶手段に書き込み、該第3の記憶手
    段に記憶されたニューロンに対応するニューロン内部情
    報を上記第2の記憶手段から読み出して上記第4の記憶
    手段に書き込み、該第4の記憶手段に記憶されたニュー
    ロン内部情報を用いて上記ネットワークの演算を行なう
    演算手段とを備えていることを特徴とするニューラルネ
    ットワーク回路。
  2. 【請求項2】 上記演算手段は、上記第2の記憶手段に
    記憶されたニューロン内部情報を書き換え、書き換えら
    れたニューロン内部情報を用いて上記第1の記憶手段に
    記憶されたネットワーク接続情報を書き換える機能をさ
    らに有していることを特徴とする請求項1に記載のニュ
    ーラルネットワーク回路。
  3. 【請求項3】 状態エネルギーを持ち該状態エネルギー
    が所定のしきい値を超過すると増殖する複数個のニュー
    ロンを有し、該複数個のニューロンのうちの何れかのニ
    ューロンの状態エネルギー及び該ニューロンに接続され
    たシナプスの結合荷重を変更することにより学習を行な
    う多層のニューラルネットワークを実現するニューラル
    ネットワーク回路であって、 上記複数個のニューロンのそれぞれに固有のニューロン
    番号を付与する番号付与手段と、 上記ニューロン番号がそれぞれ付与された上記複数個の
    ニューロンの接続状態を、該複数個のニューロンが増殖
    により生成されてきた過程を示すことによって表わすネ
    ットワーク接続情報を書き換え可能に記憶する第1の記
    憶手段と、 上記複数個のニューロンのうちのそれぞれのニューロン
    毎の、該ニューロンの状態エネルギー及び該ニューロン
    に接続されたシナプスの結合荷重をそれぞれ書き換え可
    能に記憶する第2の記憶手段と、 上記第1の記憶手段に記憶されたネットワーク接続情報
    を用いて発火したニューロンを検索し、捜し出されたニ
    ューロンに付与されたニューロン番号を上記第1の記憶
    手段から読み出す第1の演算手段と、 該第1の演算手段により読み出されたニューロン番号を
    用いて、該ニューロン番号に対応するニューロンの状態
    エネルギーと該ニューロンに接続されたシナプスの結合
    荷重とを上記第2の記憶手段から読み出す第2の演算手
    段と、 該第2の演算手段により読み出されたシナプスの結合荷
    重を用いて、上記複数個のニューロンの出力と該複数個
    のニューロンにそれぞれ接続されたシナプスの結合荷重
    との積和を演算する第3の演算手段とを備えていること
    を特徴とするニューラルネットワーク回路。
  4. 【請求項4】 上記番号付与手段は、上記複数個のニュ
    ーロンに対して、各ニューロンが増殖により生成された
    順番に相当するニューロン番号を付与することを特徴と
    する請求項3に記載のニューラルネットワーク回路。
  5. 【請求項5】 上記第2に演算手段は、上記第2の記憶
    手段に記憶された状態エネルギー及びシナプスの結合荷
    重を書き換える機能をさらに有し、 上記第1の演算手段は、上記第2の演算手段により書き
    換えられた状態エネルギーを用いて、上記第1の記憶手
    段に記憶されたネットワーク接続情報を書き換える機能
    をさらに有していることを特徴とする請求項3に記載の
    ニューラルネットワーク回路。
  6. 【請求項6】 状態エネルギーを持ち該状態エネルギー
    が所定のしきい値を超過すると増殖する複数個のニュー
    ロンを有し、該複数個のニューロンのうちの何れかのニ
    ューロンの状態エネルギー及び該ニューロンに接続され
    たシナプスの結合荷重を変更することにより学習を行な
    う多層のニューラルネットワークを実現するニューラル
    ネットワーク回路であって、 上記複数個のニューロンのそれぞれに固有のニューロン
    番号を付与する番号付与手段と、 上記ニューロン番号がそれぞれ付与された上記複数個の
    ニューロンの接続状態を、該複数個のニューロンが増殖
    により生成されてきた過程を示すことによって表わすネ
    ットワーク接続情報、並びに、上記複数個のニューロン
    のうちのそれぞれのニューロン毎の、該ニューロンの状
    態エネルギー及び該ニューロンに接続されたシナプスの
    結合荷重をそれぞれ書き換え可能に記憶する記憶手段
    と、 該記憶手段に記憶されたネットワーク接続情報を用いて
    発火したニューロンを検索し、捜し出されたニューロン
    に付与されたニューロン番号を上記記憶手段から読み出
    す第1の演算手段と、 該第1の演算手段により読み出されたニューロン番号を
    用いて、該ニューロン番号に対応するニューロンの状態
    エネルギーと該ニューロンに接続されたシナプスの結合
    荷重とを上記記憶手段から読み出す第2の演算手段と、 該第2の演算手段により読み出されたシナプスの結合荷
    重を用いて、上記複数個のニューロンの出力と該複数個
    のニューロンにそれぞれ接続されたシナプスの結合荷重
    との積和を演算する第3の演算手段と、 上記第1の演算手段から出力される第1のアドレスをビ
    ット毎に論理反転しその結果得られる第2のアドレスを
    出力するアドレス変換手段と、 該アドレス変換手段から出力される第2のアドレス及び
    上記第2の演算手段から出力される第3のアドレスのう
    ちの何れか一方を選択し、上記第2のアドレスを選択し
    た場合には上記第1の演算手段による上記記憶手段の第
    2のアドレスに対するアクセスを可能とする一方、上記
    第3のアドレスを選択した場合には上記第2の演算手段
    による上記記憶手段の第3のアドレスに対するアクセス
    を可能とする選択手段と、 該選択手段による選択を決定するための選択信号を出力
    する選択信号出力手段とを備えていることを特徴とする
    ニューラルネットワーク回路。
  7. 【請求項7】 上記第2に演算手段は、上記記憶手段に
    記憶された状態エネルギー及びシナプスの結合荷重を書
    き換える機能をさらに有し、 上記第1の演算手段は、上記第2の演算手段により書き
    換えられた状態エネルギーを用いて、上記記憶手段に記
    憶されたネットワーク接続情報を書き換える機能をさら
    に有していることを特徴とする請求項6に記載のニュー
    ラルネットワーク回路。
  8. 【請求項8】 入力信号にネットワークの演算を施すこ
    とにより得られ認識の対象となるN個のカテゴリーのう
    ちn個のカテゴリーを認識結果の候補として選出するニ
    ューラルネットワークを実現するニューラルネットワー
    ク回路であって、 2つのデータの値同士の大きさを比較する比較手段と、
    上記2つのデータのうち値が大きい方のデータを記憶す
    る第1の記憶手段と、上記2つのデータのうち値が小さ
    い方のデータを記憶する第2の記憶手段と、上記第1の
    記憶手段に記憶されたデータに付随する他のデータとの
    識別情報を記憶する第3の記憶手段と、上記第2の記憶
    手段に記憶されたデータに付随する他のデータとの識別
    情報を記憶する第4の記憶手段とを有する(n−1)個
    の第1乃至第(n−1)の候補選出手段と、 上記比較手段と上記第1及び第3の記憶手段とを有する
    第nの候補選出手段とを備え、 第1の候補選出手段の比較手段により比較される2つの
    データのうち一方のデータが第1の候補選出手段の第1
    の記憶手段に記憶されたデータとなり他方のデータがN
    個のデータのうちの何れかのデータとなり、第iの候補
    選出手段(2≦i≦n)の比較手段により比較される2
    つのデータのうち一方のデータが第iの候補選出手段の
    第1の記憶手段に記憶されたデータとなり他方のデータ
    が第(i−1)の候補選出手段の第2の記憶手段に記憶
    されたデータとなるように、n個の第1乃至第nの候補
    選出手段はカスケード接続されていることを特徴とする
    ニューラルネットワーク回路。
  9. 【請求項9】 第1及び第2の値を持つ教師信号を与え
    ることにより学習を行なう複数個のニューロンを有した
    ニューラルネットワークを実現するニューラルネットワ
    ーク回路であって、 上記複数個のニューロンのうち、上記教師信号の第1の
    値を用いて学習を行なうニューロンを指定する指定手段
    と、 該指定手段によるニューロンの指定を有効とするか否か
    を決定する決定手段とを備え、 該決定手段により、上記指定手段によるニューロンの指
    定を有効とすると決定された場合にのみ、上記指定手段
    により指定されたニューロンに対して上記教師信号の第
    1の値を用いて学習を行ない且つ上記複数個のニューロ
    ンのうち上記指定手段により指定されたニューロンを除
    くニューロンに対して上記教師信号の第2の値を用いて
    学習を行なうように構成されていることを特徴とするニ
    ューラルネットワーク回路。
JP6158454A 1993-07-29 1994-07-11 ニューラルネットワーク回路 Pending JPH0822446A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP6158454A JPH0822446A (ja) 1994-07-11 1994-07-11 ニューラルネットワーク回路
EP94111798A EP0636991A3 (en) 1993-07-29 1994-07-28 Information processing device for implementing a neural network.
US08/281,683 US5621862A (en) 1993-07-29 1994-07-28 Information processing apparatus for implementing neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6158454A JPH0822446A (ja) 1994-07-11 1994-07-11 ニューラルネットワーク回路

Publications (1)

Publication Number Publication Date
JPH0822446A true JPH0822446A (ja) 1996-01-23

Family

ID=15672108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6158454A Pending JPH0822446A (ja) 1993-07-29 1994-07-11 ニューラルネットワーク回路

Country Status (1)

Country Link
JP (1) JPH0822446A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032259A (ja) * 2007-07-20 2009-02-12 Seagate Technology Llc 非線形確率的処理記憶装置
JP2016103262A (ja) * 2014-11-27 2016-06-02 三星電子株式会社Samsung Electronics Co.,Ltd. ニューラルネットワーク構造拡張方法、次元縮小方法、及びその方法を用いた装置
WO2017023042A1 (ko) * 2015-08-03 2017-02-09 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
WO2018135002A1 (ja) * 2017-01-23 2018-07-26 株式会社カヤック 人工ニューラルネットワークシステム、人工ニューラルネットワークの制御方法および人工ニューラルネットワークのためのデータ構造
WO2018189791A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018189792A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
CN109478253A (zh) * 2016-05-19 2019-03-15 国立大学法人北海道大学 神经网络电路以及神经网络集成电路
EP3660746A1 (en) 2018-11-27 2020-06-03 Fujitsu Limited Optimization device and control method of optimization device
KR20200072910A (ko) * 2018-12-13 2020-06-23 한동대학교 산학협력단 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법
CN113033792A (zh) * 2019-12-24 2021-06-25 财团法人工业技术研究院 神经网络运算装置及方法
US11494388B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
US11715003B2 (en) 2018-02-06 2023-08-01 Fujitsu Limited Optimization system, optimization apparatus, and optimization system control method for solving optimization problems by a stochastic search

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8127075B2 (en) 2007-07-20 2012-02-28 Seagate Technology Llc Non-linear stochastic processing storage device
JP2009032259A (ja) * 2007-07-20 2009-02-12 Seagate Technology Llc 非線形確率的処理記憶装置
US10832138B2 (en) 2014-11-27 2020-11-10 Samsung Electronics Co., Ltd. Method and apparatus for extending neural network
JP2016103262A (ja) * 2014-11-27 2016-06-02 三星電子株式会社Samsung Electronics Co.,Ltd. ニューラルネットワーク構造拡張方法、次元縮小方法、及びその方法を用いた装置
KR20160063965A (ko) * 2014-11-27 2016-06-07 삼성전자주식회사 뉴럴 네트워크 구조 확장 방법, 디멘션 리덕션 방법, 및 그 방법을 이용한 장치
WO2017023042A1 (ko) * 2015-08-03 2017-02-09 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
US11468283B2 (en) 2015-08-03 2022-10-11 Seoul National University R&Db Foundation Neural array having multiple layers stacked therein for deep belief network and method for operating neural array
CN109478253B (zh) * 2016-05-19 2022-11-01 国立大学法人东京工业大学 神经网络电路以及神经网络集成电路
CN109478253A (zh) * 2016-05-19 2019-03-15 国立大学法人北海道大学 神经网络电路以及神经网络集成电路
WO2018135002A1 (ja) * 2017-01-23 2018-07-26 株式会社カヤック 人工ニューラルネットワークシステム、人工ニューラルネットワークの制御方法および人工ニューラルネットワークのためのデータ構造
JPWO2018135002A1 (ja) * 2017-01-23 2019-11-14 株式会社カヤック 人工ニューラルネットワークシステム、人工ニューラルネットワークの制御方法および人工ニューラルネットワークのためのデータ構造
JPWO2018189792A1 (ja) * 2017-04-10 2020-03-05 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2018189791A1 (ja) * 2017-04-10 2020-03-05 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018189792A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018189791A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
US11494388B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
US11494640B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
US11586933B2 (en) 2017-04-10 2023-02-21 Softbank Corp. Information processing apparatus, information processing method, and program for simulating growth of cells
US11715003B2 (en) 2018-02-06 2023-08-01 Fujitsu Limited Optimization system, optimization apparatus, and optimization system control method for solving optimization problems by a stochastic search
EP3660746A1 (en) 2018-11-27 2020-06-03 Fujitsu Limited Optimization device and control method of optimization device
US11521049B2 (en) 2018-11-27 2022-12-06 Fujitsu Limited Optimization device and control method of optimization device
KR20200072910A (ko) * 2018-12-13 2020-06-23 한동대학교 산학협력단 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법
CN113033792A (zh) * 2019-12-24 2021-06-25 财团法人工业技术研究院 神经网络运算装置及方法

Similar Documents

Publication Publication Date Title
CN109104876B (zh) 一种运算装置及相关产品
JP3088766B2 (ja) ハイアラーキー ニューラル ネットワークに用いる分類方法及びネットワーク
JPH0822446A (ja) ニューラルネットワーク回路
CN110163354B (zh) 一种计算装置及方法
US20180341642A1 (en) Natural language processing with knn
EP0591286A1 (en) NEURONAL NETWORK ARCHITECTURE.
US5621862A (en) Information processing apparatus for implementing neural network
WO1991018347A1 (en) Spin: a sequential pipelined neurocomputer
CN115879508A (zh) 一种数据处理方法及相关装置
CN112446460A (zh) 用于处理数据的方法、装置以及相关产品
JPH04213750A (ja) 層化されたニューラル・ネットワークでの分類方法
KR100542467B1 (ko) 연상 메모리 시스템 및 네트워크 기기 및 네트워크 시스템
US5636327A (en) Neural network circuit
JP7363145B2 (ja) 学習装置および学習方法
JP2022501670A (ja) データを処理するための方法、装置、及び関連製品
WO2020049666A1 (ja) 時系列データ処理装置
EP0533193A2 (en) Neural network circuit
JP4106021B2 (ja) 人工ニューラル・ネットワークにおけるプロトタイプの数を仮想的に増加させる方法および回路
Sadegh A multilayer nodal link perceptron network with least squares training algorithm
US5426721A (en) Neural networks and methods for training neural networks
JP2825133B2 (ja) 並列データ処理方式
CN111047024A (zh) 一种计算装置及相关产品
GB2583957A (en) Associative memory apparatus
CN113239077B (zh) 一种基于神经网络的搜索方法、系统和计算机可读存储介质
Qiu et al. Accelerating cogent confabulation: An exploration in the architecture design space

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010116