JP2000298661A - ニューラルネットワーク装置 - Google Patents

ニューラルネットワーク装置

Info

Publication number
JP2000298661A
JP2000298661A JP11107400A JP10740099A JP2000298661A JP 2000298661 A JP2000298661 A JP 2000298661A JP 11107400 A JP11107400 A JP 11107400A JP 10740099 A JP10740099 A JP 10740099A JP 2000298661 A JP2000298661 A JP 2000298661A
Authority
JP
Japan
Prior art keywords
neuron
layer
input
neural network
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11107400A
Other languages
English (en)
Inventor
Koji Suzuki
耕二 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP11107400A priority Critical patent/JP2000298661A/ja
Publication of JP2000298661A publication Critical patent/JP2000298661A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 ニューラルネットワークにおいて不要なニュ
ーロンを検出し消去することにより効率化を図る。 【解決手段】 ニューロン32の第一のメモリ323は
前回の入力値を保持し、第二のメモリ324は今回の入
力値を保持する。前層から入力がある度に、比較部32
5は第一のメモリ323と第二のメモリ324の記憶内
容を比較し、両者が一致した場合はカウンタ321のカ
ウント値を1増加させる。この処理を繰り返し、カウン
タ321のカウント値が所定値に達した場合、当該ニュ
ーロン32は連想・認識にほとんど寄与しないと判断
し、出力演算部328に対して演算禁止命令を発行し、
このニューロン32で出力値の演算を行わないようにす
るとともに、フラグ322をOFFにセットする。ニュー
ロン消去部60は、フラグ322がOFFにセットされて
いるニューロン32を検出し、消去する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、パターン認識、
文字認識、画像認識等に用いるニューラルネットワーク
装置に関する。
【0002】
【従来の技術】中間層のニューロンを前層の制限された
一部分と結合させるニューラルネットワークとしてはコ
グニトロン(Biological Cybernetics 20:121-36)、ネオ
コグニトロン(Biological Cybernetics 36(4):193-202)
が知られている。
【0003】これらのニューラルネットワークでは、生
体の視覚情報処理を模倣し、中間層の各ニューロンは前
層の一部分とのみ結合される様に制限されている。例え
ば、コグニトロンは層状のネットワークで、興奮性と抑
制性のニューロンから成り、各層のニューロンは前層の
一部分を占める結合領域内の興奮性、抑制性ニューロン
と結合を持つ。各ニューロンは、この結合領域内の興奮
性ニューロン、抑制性ニューロン、及び同じ層にある競
合領域のニューロンに接続した側抑制ニューロンから入
力を受け、これらの入力の総和が正のときのみ発火す
る。各ニューロン間の荷重の更新は、以下のように行わ
れる。
【0004】すなわち、各層の競合領域で、最も強く発
火するニューロンに結合する興奮性ニューロンとの間の
荷重は増加させられ、他の強く発火しないニューロンの
興奮性ニューロンとの間の荷重は変更されず、抑制性ニ
ューロンからの荷重が増加させられる。このような荷重
の修正により、競合領域内のある特定のニューロンのみ
の興奮性の荷重が増加させられ、その領域内の強く発火
しない他のニューロンはより発火しにくい方向に調整さ
れる。上記の結合領域の制限のために、コグニトロン、
ネオコグニトロンでは、各層のニューロンは、前層のす
べてのニューロンと結合荷重を持たなくてもよいため、
大規模なニューラルネットワークを構成する場合にも学
習時、連想時に必要となる計算量を著しく軽減すること
が可能である。またこれらのニューラルネットワークは
生体の視覚情報処理を模倣しているため、より生体が持
つ認識、連想の特性に近い連想記憶装置を構成できると
いう利点があった。
【0005】
【発明が解決しようとする課題】上記従来のニューラル
ネットワークでは前層のあらゆる領域に対して、その領
域と結合するニューロンが後層に存在する。このとき、
入力層に与えられる入力パターンの一部が常に同じ場合
には、この部分に対応するニューロンは連想、認識など
の処理に役立つことはない。特にコグニトロンなどで
は、特定のニューロンのみが発火しやすくなるように荷
重が修正されるので、どの入力にも発火しないニューロ
ンが多数存在しやすくなる。これらのニューロンは無駄
なものであり、学習、連想を行う際には不効率を生み出
すという問題があった。
【0006】本発明は、このような問題を解決するため
になされたものであり、ニューラルネットワークの学習
や連想などの効率化を実現する機構を提供することを目
的とする。
【0007】
【課題を解決するための手段】上記の問題を解決するた
めに、本発明に係るニューラルネットワーク装置は、ニ
ューロン群が層構造をなして構成されたニューラルネッ
トワーク装置において、当該ニューラルネットワーク装
置に対して入力データが順次入力されたときに、所定の
ニューロンに対する前層のニューロンからの入力値をモ
ニタする手段と、前記所定のニューロンに対する入力値
が予め定められた確率以上で同一である場合に当該ニュ
ーロンを消去する手段とを有する。
【0008】また、本発明に係るニューラルネットワー
ク装置は、中間層を備えた層構造のニューラルネットワ
ーク装置であって、中間層は、入力層を構成するニュー
ロン群のそれぞれ異なる一部に対応した複数のカラムを
含み、カラムに含まれる各中間層ニューロンの入力層に
対する接続先が当該カラムに対応した一部の入力層ニュ
ーロン群のみに限定されたカラム構造のニューラルネッ
トワーク装置において、当該ニューラルネットワーク装
置に対して複数の入力データが入力されたときに、前記
カラムに含まれるニューロンへの入力層からの入力値が
予め定められた確率以上で同一である場合、当該ニュー
ロンを消去する。
【0009】このように、本発明に係るニューラルネッ
トワーク装置では、学習時あるいは連想処理時などで入
力データが順次入力される場合において、ニューロンに
対する入力値が所定確率以上で同一と推定されるとその
ニューロンを消去することができるので、連想・認識に
ほとんど寄与しないと考えられる無駄なニューロンがな
くなる。したがって、ニューラルネットワーク装置の規
模を小さくすることができる。
【0010】
【発明の実施の形態】以下、図面を参照して本発明の好
適な実施の形態(以下「実施形態」と呼ぶ)について説
明する。
【0011】本実施形態のニューラルネットワーク装置
の全体構成を図1に示す。図示のニューラルネットワー
ク装置は、第一層10、第二層30、第三層40及び第
四層50の4層構造を有しており、第一層10が入力
層、第二層30及び第三層40が中間層20、第四層5
0が出力層を構成している。ここで、第二層30の各ニ
ューロン32は第一層10の全てのニューロン12に接
続されるわけではなく、第一層10の一部のニューロン
12にのみ接続される。第二層30は複数のカラム34
に分割されており、同じカラム34に含まれるニューロ
ン32は第一層10の同じニューロン集団に接続され、
その集団に含まれない第一層ニューロン12には接続さ
れない。このような構造をカラム構造と呼ぶ。
【0012】第三層40の各ニューロン42は、第二層
30のすべてのニューロン32に対して接続されてい
る。また第四層50の各ニューロン52は、第三層のす
べてのニューロン42に対して接続されている。第三層
40、第四層50はネットワークの計算効率を向上させ
るために、第一層10、第二層30に比べて小規模な
(すなわちニューロン数の少ない)ものとすることがで
きる。このように小規模化した場合、ネットワークの能
力低下の可能性があるが、この場合、後に説明するよう
にバックプロパゲーション学習法を用いれば、その学習
能力の高さによってネットワークの能力低下は補われ
る。
【0013】各層のニューロン12、32、42及び5
2は、各々、出力値決定のためのしきい値と、結合して
いる前層のニューロンとの間の結合の強さを示す実数値
の荷重を持つ。ニューロンのしきい値は、各ニューロン
ごとに独立に設定できる。
【0014】第二層30の各ニューロン32は、結合し
ている前層(第一層10)の各ニューロンから受取る入
力にその結合の荷重をかけたものの総和から、当該ニュ
ーロンのしきい値を引いた値が非負のとき+1、負のと
き−1の値を出力する。第三層40及び第四層50の各
ニューロンでは、前層からの入力の総和xを受取ったと
き、以下の式に従って値yを出力する。
【0015】
【数1】y=f(x), f(x)=1/(1+exp(-x)) 以下では、文字等の画像情報に細線化処理などのエッジ
処理を加えた画像輪郭情報が第一層10に入力され、こ
れからその画像の示す対象物(文字等)を認識するため
のニューラルネットワーク装置を例にとって説明する。
【0016】この場合、第一層10には、エッジ処理を
加えた画像情報等の輪郭画像が与えられる。この入力デ
ータに対して、第一層10のニューロン12のうち輪郭
部分に対応するニューロン12は+1、それ以外のニュ
ーロン12は−1の値を出力する。
【0017】第二層30の一つのカラム34は第一層1
0の4つのニューロン12が作る正方形の領域と結合
し、このようなカラム34群によって第一層10のニュ
ーロン12は全て覆われている。ここで各カラム34
は、他のカラム34と共通の入力領域を持たないものと
する。また第二層30のカラム34には、そのカラム3
4に対応する第一層10の部分に与えられる輪郭画像
(すなわちエッジ)の種類に応答するニューロンが備え
られる。
【0018】すなわち、図2に示すように、第一層10
の各ニューロン12は、画像100の各画素110に対
して1対1対応で設けられており、その画像100は2
画素×2画素の正方形領域120に分割され、この正方
形領域120に対応する4つの第一層ニューロン12
が、第二層30の1つのカラム34の各ニューロン32
に接続されている。この場合、正方形領域120に存在
しうる輪郭画像(エッジ)は、図3に示すようにパター
ン1〜パターン6の6つのパターンに分類される。図3
では黒丸の部分は+1、白丸の部分は−1の値を第一層
10のニューロン12が出力しているものとする。図3
には全部で6個のパターンが示されるが、これらの各々
のパターンに対して発火するニューロン32がカラム3
4に一つずつ存在する。このため第二層30の各カラム
34にはそれぞれ6個のニューロン32が配置される。
【0019】このように、各パターンに対応して発火す
るニューロン32をカラム34に配置するために、以下
のような荷重としきい値の設定を行う。まず、カラム3
4内のニューロン32が対応すべきパターンをベクトル
表示したものをT=(t1,t2,t3,t4)で表す。ここでt
x(x=1,2,3又は4)は+1あるいは−1の値を取る。こ
のパターンTに対応するニューロン32の荷重wxを、
【数2】wx=tx, x=1,2,3,4 とし、しきい値を4と設定する。このように荷重、しき
い値を設定することにより、このニューロンはパターン
Tのみに対して発火し、他のパターンには発火しなくな
る。
【0020】第三層40、第四層50の各ニューロン4
2および52は、前層のニューロン群に全結合する。第
三層40、第四層50の荷重及びしきい値の設定には、
バックプロパゲーション学習法を用いる。バックプロパ
ゲーション法は任意の連続写像を近似することが可能な
学習法で、パーセプトロンなどの単層ニューラルネット
ワークでは学習不可能な様々な問題を解決できる強力な
学習法であることが知られている。本実施形態では、第
一層10に画像情報等の入力信号を与え、これに対する
望ましい出力が第四層50に現れるようにバックプロパ
ゲーション法を用いて学習を行う。
【0021】さて、第一層10の全てのニューロン12
は、第二層30のカラム34のどれかと必ず結合してい
る。しかしながら、文字画像等の入力信号では、文字の
周辺の空白部分やアンダーラインなど、連想や認識に役
立たない領域が数多く存在する。従来技術の一種である
画像処理では、不要な空白部分の除去を文字などの図形
が存在しない領域を抽出することにより行っていたが、
この手法ではアンダーラインなどの不要な図形部分を消
去することが不可能である。また前処理が不完全に行わ
れると、連想や認識に必要な図形部分が消去しまう場合
があるなどの問題があった。
【0022】これに対し、本実施形態では、連想や認識
に役立たない画像領域ではほとんどの入力データで同一
のパターンが提示されることを利用して、第二層30に
ある不必要なカラムあるいはカラム内のニューロンを削
除することを行う。本実施形態では、この処理を、第二
層30の各ニューロン32とニューロン消去部60とに
より行う。
【0023】図4に、第二層30のニューロン32の構
成を示す。図4に示すように、第二層のニューロン32
は、カウンタ321と、フラグ322と、第一層10か
らの入力を保持するための二つのメモリ(すなわち第一
のメモリ323及び第二のメモリ324)、そしてこれ
ら第一及び第二のメモリ323及び324の記憶内容を
比較するための比較部325を持つ。ここで、フラグ3
22はニューロン32を活動又は停止状態に制御するた
めに用いるものであり、ON又はOFFの2値をとる。ニュ
ーロン32が活動状態のときはフラグ322はONであ
り、フラグ322がOFFになるとニューロン32は停止
状態になる。また、第二層のニューロン32は、第一層
10からの入力に対して第三層40に出力する出力値を
計算するために、入力信号記憶部326、荷重記憶部3
27及び出力演算部328を持つ。入力信号記憶部32
6は、当該ニューロン32に結合した前層(第一層1
0)の各ニューロン12からの入力信号を保持する。荷
重記憶部327は、それら前層の各ニューロン12と当
該ニューロン32との間の荷重を保持する。出力演算部
328は、入力信号記憶部326、荷重記憶部327か
ら入力信号、荷重情報を受け取り、これらに基づき後層
(第三層40)に渡すための出力値を計算する。
【0024】なお、出力演算部328は、比較部325
から演算禁止命令を受け取った場合に、全ての演算を停
止するものとする。
【0025】第一のメモリ323は、前回の入力データ
に対応する第一層10からの入力を保持するためのもの
であり、第二のメモリ324はカレント(今回)の入力
データに対応する第一層10からの入力を保持するため
のものである。ニューロン32では、第一層10から入
力があると、それを第二のメモリ324に保持し、これ
と第一のメモリ323の記憶内容とを、比較部325を
用いて比較する。比較の結果、これら二つが同じもので
ある場合は比較部325はカウンタ321のカウント値
を一つ増加(インクリメント)させ、異なる場合はカウ
ンタ321をクリアする。比較が終わると、第二のメモ
リ324に保持されたカレントの入力値が第一のメモリ
323にコピーされる。この動作を、第一層10に入力
データが供給される度に行う。そして、カウンタ321
のカウント値が所定の値に達した場合、比較部321は
フラグ322をOFFに設定し、出力演算部328に対し
て演算禁止命令を発行する。このようにしてフラグ32
2がOFFに設定されたニューロンは、全ての比較、演算
処理を停止され、ニューロン外にあり学習の間フラグ3
22の内容をチェックしているニューロン消去部60に
よって消去される。そして、カラム34に含まれる全て
のニューロン32が消去された場合、そのカラムを学習
の終了時に消去する。この消去処理により、連想や認識
に役立たない可能性の高い第二層のニューロン32ある
いはカラム34を消滅させることができるので、連想、
認識時の計算が少なくなり、処理の効率化を図ることが
できる。また、学習において、このようなニューロンの
消去処理を行ってから各ニューロンの荷重やしきい値の
修正処理を行うようにすれば、修正処理を効率化するこ
とができる。
【0026】次に、本実施形態における学習の手順を詳
細に示す。以下では、X(i)、Y(i)(i=1,2,…,m)は、そ
れぞれニューラルネットワーク装置に与えられるi番目
の入力データ、及びこれに対応する目標データ(教師信
号)とする。入力データX(i)は上記で述べたように文字
画像情報などの輪郭情報を示すベクトルデータであり、
そのベクトルの各成分は+1または−1の値である。ま
た目標データY(i)は、入力データX(i)に対する望ましい
信号であり、例えば入力データが文字画像の場合、その
文字に対するASCCIコードを目標データとする。
【0027】第一層10のニューロン数は入力データX
(i)の次元数に一致し、また第四層50のニューロン数
は目標データY(i)の次元数に一致する。
【0028】以下で、Oq,jは第q層のニューロンjの出
力の値とする。またwr,ij(t)は時刻tにおける第(r
−1)層のニューロンiと第r層のニューロンjとの間
の荷重とする。各層のニューロン0(0番目のニューロ
ン)は、常に発火するバイアスニューロンであり、特に
r,oj(t)は第r層のニューロンjのためのしきい値を
表す。このため、第三層40及び第四層50のi番目の
ニューロンの出力は以下の式に従う。
【0029】
【数3】Or,i=f(Σjr, ji(t) Or-1,j) ここで、r=3,4であり、“Σj”は、すべてのjについて
の総和を意味する。また、以下で停止状態にあるニュー
ロンでは出力の計算を行わず、停止状態にあるニューロ
ンとの間の結合の荷重は零に設定される。
【0030】第一層10と第二層30との間の荷重は上
記で述べられたように、第二層の各ニューロンが発火す
べき第一層の制限領域が表示するパターンに合わせて固
定されている。
【0031】本実施形態におけるニューラルネットワー
ク装置の学習の手順は、図5に示す第一フェイズの処理
と図6に示す第二フェイズの処理からなる。第一フェイ
ズでは連想・認識に寄与しないと推定される第二層ニュ
ーロンを消去し、第二フェイズで各層のニューロンのし
きい値及び各層間の結合の荷重を学習によって修正す
る。以下に説明する手順で、Uは、第二層30のニュー
ロン32を消去するためのカウンタ321の上限値、ε
は出力層(第四層50)の出力と目標データとの各ニュ
ーロンごとの誤差の二乗和の許容値である。
【0032】まず図5を参照して第一フェイズの処理手
順を説明する。第一フェイズでは、まず第三層40の各
ニューロン42と第四層50の各ニューロン52を停止
状態にし(S10)、入力信号X(i)のインデックスi
(iは1〜mの整数)を1に初期化する(S12)。次
に入力信号X(i)を第一層10(入力層)に与える(S1
4)。これにより、第一層10の各ニューロン12は、
各自が接続された第二層のニューロン32に対して入力
信号X(i)に応じた信号を出力する。第二層30の各ニュ
ーロン32は、接続された第一層のニューロン12から
受け取ったの入力を入力信号記憶部326及び第二のメ
モリ324に保持する。以下、各第二層ニューロン32
ごとに次の処理が実行される。
【0033】各ニューロン32では、まず比較部325
が第一のメモリ323と第二のメモリ324の記憶内容
を比較し、今回の入力が前回と同じかどうかを判定する
(S20)。両者が同じ場合には比較部325はカウン
タ321のカウント値を1だけインクリメントし(S2
2)、両者が異なる場合はカウンタ321のカウント値
をクリアする(S24)。カウンタ321のインクリメ
ント又はクリアが終わると、第二のメモリ324の内容
により第一のメモリ323の記憶内容が更新される(S
26)。
【0034】次に、比較部325は、カウンタ321の
値が消去判定のための上限値Uに達したかどうかを判断
し(S28)、上限値Uに達していればフラグ322を
OFFにセットし、出力演算部328に演算禁止命令を発
行して当該ニューロン32を停止状態にする(S3
0)。カウンタ321の値がU未満の場合はフラグ32
2は変化しない。
【0035】次に、インデックスiの値を1インクリメ
ントし(S32)、iが入力信号X(i)の総数mに達した
か否かを判定する(S34)。達していない場合(すな
わちS34の判定結果がYes)は、S14に戻り次の
入力信号を第一層10に供給して以上の処理を繰り返
す。S34でインデックスiがmに達していたと判定さ
れた場合、ニューロン消去部60は各ニューロン32の
フラグ322を調べ(S36)、フラグ322がOFFの
ニューロン32を消去する(S38)。このとき、消去
したニューロンに接続する全ての結合荷重およびこのニ
ューロンのしきい値が削除される。
【0036】以上が第一フェイズの処理である。このよ
うな処理により、ニューラルネットワーク装置から、連
想・認識に寄与しない可能性が高いニューロン32が消
去される。第一フェイズが終わると次に第二フェイズに
進む。第二フェイズでは、第一フェーズと同じ入力信号
X(i)群を用いて、消去されずに残った第二層30のニュ
ーロン32群及び他の各層のニューロン群のしきい値、
及び各層間のニューロンの結合荷重の修正を行う。すな
わち、この第二フェイズでは、従来の意味での「学習」
を行う。
【0037】第二フェイズでは、図6に示すように、ま
ず第三層40、第四層50のニューロン42及び52を
活動状態にし(S40)、入力信号X(k)のインデックス
k(kは1〜mの整数)を1に初期化する(S42)。
【0038】そして、入力信号X(k)を第一層10に入力
し、第二層30、第三層40、第四層50のニューロン
の出力を計算する(S44)。
【0039】次に、以下の式にしたがって、荷重wr,ij
(t)を修正する(S46)。
【0040】
【数4】wr,ij (t+1)=wr,ij(t)+Δwr,ij Δwr,ij=ηδr,jr,i ここで、ηは所定の定数であり、 r=4に対しては、δr,i=Or,i(1-Or,i)(y(i)-Or,i) r=3に対しては、δr,i=Or,i(1-Or,i)(Σjδr+1,j W
r+1,ij) 以上の演算を、r,i,jの可能なすべての組合せにつ
いて行う。なお、i=0の場合のwr,ijが、r層のj番
目のニューロンのしきい値である。
【0041】荷重修正が終わると、インデックスkを1
だけインクリメントし(S48)、kが入力信号の総数
mに達したか否かを判定する(S50)。達していない
場合(すなわちS50の判定結果がYes)は、S44
に戻り次の入力信号を第一層10に供給して以上の処理
を繰り返す。S50でインデックスkがmに達していた
と判定された場合、第四層50(出力層)の出力と目標
信号との誤差が許容値未満に収まったかどうかを判定す
る(S52)。ここでは、第四層50の各7ニューロン
ごとに次の条件式が成立するか否かを判定する。
【0042】
【数5】Σi,k(yi(k)-O4,i(k))2<ε ただし、ここでyi(k)は目標信号Y(k)の第i成分(ニュ
ーロンiに対応)、またO4,i(k)はX(k)を第一層10に
入力信号を与えたときの第四層50のニューロンiの出
力である。
【0043】この条件式が成立すれば(S52の判定結
果がYes)、学習を終了し、第二層30の各カラムを
調べ、すべてのニューロンが消去されたカラムがあれば
それを削除する(S54)。この条件式が成立しなけれ
ば、S42に戻って更に学習を繰り返す。
【0044】このように本実施形態では、各ニューロン
32に同一の入力が連続する回数を保持するカウンタを
設け、このカウンタの値が所定値以上になったニューロ
ン32を消去する。これにより、入力が予め定められた
しきい値確率以上で同一であると推定されるニューロン
を消去することができる。入力値がある確率で一定と考
えられるニューロンを検出し、消去するようにした。こ
のようなニューロンは、連想や認識にほとんど寄与しな
いので、このようなニューロンを消去してもニューラル
ネットワーク装置の連想・認識能力はほとんど低下しな
い。このようなニューロン消去によりニューラルネット
ワークの規模を小さくすることができるので、ニューラ
ルネットワーク装置をソフトウエア的に実現する場合に
は学習あるいは連想・認識の処理速度を改善でき、ハー
ドウエア的に実現する場合には消費電力などのコストを
低減することができる。また、ニューラルネットワーク
をソフトウエア的に実現する場合では、全ニューロンが
消去されたカラムを消去することによりプログラムのサ
イズを更に小さくすることができ、処理の高速化が図れ
る。実際の生体では、不必要なニューロンはアポトーシ
スと呼ばれる自己消滅機能により、ニューロン自ら消滅
して栄養の消費等を効率化する。本実施形態において
も、これと同様の作用により、学習時あるいは連想時の
計算量を削減し、学習あるいは認識を効率化できるとい
う効果がある。
【0045】なお、上記ではニューロンへの入力が一定
回数以上同一である場合にそのニューロンを消去した
が、ニューロン消去の判定基準はこれに限らない。基本
的には、ニューロンへの入力が所定確率以上で一定であ
る場合に、そのニューロンが連想・認識にほとんど寄与
しないと推定し、そのニューロンを消去するという考え
方であり、具体的には様々な方式で実現することができ
る。例えば、入力の変化の回数を記録するカウンタを第
二層30の各ニューロン32に持たせ、このカウンタの
値が設定回数以下の場合に該当するニューロンを消去す
るようにしてもよい。
【0046】また上記では、ニューロン間の荷重、ニュ
ーロンのしきい値の修正にバックプロパゲーション法を
用いたが、この代わりにカウンタープロパゲーション法
を用いてもよい。
【0047】また、以上では四層のニューラルネットワ
ークを例にとって説明したが、連想、認識すべきパター
ンの数が十分に少ない場合には、ネットワークを三層構
造とし、第三層を出力層としてもよい。この場合、学習
にはヘッブの学習則に基づく学習、相関学習などの手法
を用いることができる。連想・認識の対象となる各パタ
ーンが直交することが期待される場合には直交学習を用
いてもよい。
【図面の簡単な説明】
【図1】 実施形態のニューラルネットワーク装置の基
本構成図である。
【図2】 ニューラルネットワーク装置の第一層と第二
層のニューロンの接続構造を説明するための図である。
【図3】 第二層のニューロンに対応する画像の入力パ
ターンを列挙して示した図である。
【図4】 第二層のニューロンの構成を示す図である。
【図5】 ニューラルネットワーク装置の学習の第一フ
ェイズの手順を示すフローチャートである。
【図6】 学習の第2フェイズの手順を示すフローチャ
ートである。
【符号の説明】
10 第一層、20 中間層、30 第二層、32 第
二層のニューロン、34 カラム、40 第三層、50
第四層、60 ニューロン消去部、321カウンタ、
322 フラグ、323 第一のメモリ、324 第二
のメモリ、325 比較部、326 入力信号記憶部、
327 荷重記憶部、328 出力演算部。

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 ニューロン群が層構造をなして構成され
    たニューラルネットワーク装置において、 当該ニューラルネットワーク装置に対して入力データが
    順次入力されたときに、所定のニューロンに対する前層
    のニューロンからの入力値をモニタする手段と、 前記所定のニューロンに対する入力値が予め定められた
    確率以上で同一である場合に、当該ニューロンを消去す
    る手段と、 を有するニューラルネットワーク装置。
  2. 【請求項2】 中間層を備えた層構造のニューラルネッ
    トワーク装置であって、中間層は、入力層を構成するニ
    ューロン群のそれぞれ異なる一部に対応した複数のカラ
    ムを含み、カラムに含まれる各中間層ニューロンの入力
    層に対する接続先が当該カラムに対応した一部の入力層
    ニューロン群のみに限定されたカラム構造のニューラル
    ネットワーク装置において、 当該ニューラルネットワーク装置に対して複数の入力信
    号が順に入力されたときに、前記カラムに含まれるニュ
    ーロンへの入力層からの入力値が予め定められた確率以
    上で同一である場合、当該ニューロンを消去することを
    特徴とするニューラルネットワーク装置。
  3. 【請求項3】 前記カラムに含まれるニューロンは、 新たな入力データが与えられる度に、今回の入力データ
    についての入力層から当該ニューロンへの入力と、前回
    の入力データについての入力層から当該ニューロンへの
    入力とを比較する比較手段と、 比較手段の比較において今回と前回の入力が同一である
    と判明した場合にカウントアップするカウンタと、 このカウンタのカウント値が所定値に達した場合に当該
    ニューロンを機能停止させる手段と、 を有することを特徴とする請求項2記載のニューラルネ
    ットワーク装置。
  4. 【請求項4】 前記カラムに含まれるニューロンは、 新たな入力データが与えられる度に、今回の入力データ
    についての入力層から当該ニューロンへの入力と、前回
    の入力データについての入力層から当該ニューロンへの
    入力とを比較する比較手段と、 比較手段の比較において今回と前回の入力が異なると判
    明した場合にカウントアップするカウンタと、 すべての入力データの処理が完了した時点で前記カウン
    タのカウント値が所定値以下の場合に、当該ニューロン
    を機能停止させる手段と、 を有することを特徴とする請求項2記載のニューラルネ
    ットワーク装置。
  5. 【請求項5】 あるカラムに属する全中間層ニューロン
    が消去された場合、当該カラム自体を消去することを特
    徴とする請求項2から請求項4のいずれかに記載のニュ
    ーラルネットワーク装置。
  6. 【請求項6】 中間層を備えた層構造のニューラルネッ
    トワーク装置であって、中間層は、入力層を構成するニ
    ューロン群のそれぞれ異なる一部に対応した複数のカラ
    ムを含み、カラムに含まれる各中間層ニューロンの入力
    層に対する接続先が当該カラムに対応した一部の入力層
    ニューロン群のみに限定されたカラム構造のニューラル
    ネットワーク装置において、 当該ニューラルネットワーク装置に対して複数の入力デ
    ータが入力されたときに、あるカラムに対応する入力層
    の一部のニューロン群への入力データのパターンが予め
    定められた確率以上で同一である場合、当該カラムを消
    去することを特徴とするニューラルネットワーク装置。
  7. 【請求項7】 中間層・出力層間のニューロン結合荷
    重、または中間層及び出力層の各ニューロンのしきい値
    の設定に、ヘッブの学習則に基づく学習、または相関学
    習、または直行学習を用いることを特徴とする請求項2
    から請求項6のいずれかに記載のニューラルネットワー
    ク装置。
  8. 【請求項8】 複数の中間層を有し、各中間層間及び中
    間層・出力層間のニューロン結合荷重、各中間層及び出
    力層の各ニューロンのしきい値の設定に、バックプロパ
    ゲーション法、またはカウンタープロパゲーション法を
    用いることを特徴とする請求項2から請求項6のいずれ
    かに記載のニューラルネットワーク装置。
JP11107400A 1999-04-15 1999-04-15 ニューラルネットワーク装置 Pending JP2000298661A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11107400A JP2000298661A (ja) 1999-04-15 1999-04-15 ニューラルネットワーク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11107400A JP2000298661A (ja) 1999-04-15 1999-04-15 ニューラルネットワーク装置

Publications (1)

Publication Number Publication Date
JP2000298661A true JP2000298661A (ja) 2000-10-24

Family

ID=14458199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11107400A Pending JP2000298661A (ja) 1999-04-15 1999-04-15 ニューラルネットワーク装置

Country Status (1)

Country Link
JP (1) JP2000298661A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006078015A1 (ja) * 2005-01-24 2006-07-27 National University Corporation Yokohama National University カテゴリカル色知覚システム
JP2018129033A (ja) * 2016-12-21 2018-08-16 アクシス アーベー 人工ニューラルネットワークのクラスに基づく枝刈り
US11669730B2 (en) 2016-01-26 2023-06-06 Samsung Electronics Co., Ltd. Recognition apparatus based on neural network and method of training neural network

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006078015A1 (ja) * 2005-01-24 2006-07-27 National University Corporation Yokohama National University カテゴリカル色知覚システム
JPWO2006078015A1 (ja) * 2005-01-24 2008-08-07 国立大学法人横浜国立大学 カテゴリカル色知覚システム
JP4625962B2 (ja) * 2005-01-24 2011-02-02 国立大学法人横浜国立大学 カテゴリカル色知覚システム
US11669730B2 (en) 2016-01-26 2023-06-06 Samsung Electronics Co., Ltd. Recognition apparatus based on neural network and method of training neural network
JP2018129033A (ja) * 2016-12-21 2018-08-16 アクシス アーベー 人工ニューラルネットワークのクラスに基づく枝刈り

Similar Documents

Publication Publication Date Title
Tavanaei et al. Multi-layer unsupervised learning in a spiking convolutional neural network
JPH0664630B2 (ja) 計算ネットワーク
US5511134A (en) Image recognition device and image recognition method
CN113254927B (zh) 一种基于网络防御的模型处理方法、装置及存储介质
US20210192327A1 (en) Apparatus and method for neural network computation
US5528700A (en) Character recognition system based on a neural network
CN113408714B (zh) 基于stdp法则的全数字脉冲神经网络硬件系统及方法
JP2760145B2 (ja) 知識情報処理装置
Fukushima Neocognitron capable of incremental learning
Hung et al. Training neural networks with the GRG2 nonlinear optimizer
JP2000298661A (ja) ニューラルネットワーク装置
JPH0683792A (ja) ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
CN113344071A (zh) 一种基于深度策略梯度的入侵检测算法
JP3171897B2 (ja) 知識情報処理装置
JPH07113917B2 (ja) ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置
JP2780454B2 (ja) 追記学習型パターン認識装置
JP3303253B2 (ja) パターンマッチング方法および装置
Luetto People counting using detection networks and self calibrating cameras on edge computing
CN113066094B (zh) 一种基于生成对抗网络的地理栅格智能化局部脱敏方法
US20220164637A1 (en) Neural Processing Units (NPUs) and Computational Systems Employing the Same
JP2734374B2 (ja) 神経回路網模擬装置
KR102419338B1 (ko) 스파이킹 신경망 학습 장치 및 방법
Prieto et al. Simulation and hardware implementation of competitive learning neural networks
JPH02165285A (ja) パターン認識装置
JP3027874B2 (ja) 神経回路網及びそのパターン認識装置