JPH08297649A - 神経回路網模擬装置 - Google Patents

神経回路網模擬装置

Info

Publication number
JPH08297649A
JPH08297649A JP7099176A JP9917695A JPH08297649A JP H08297649 A JPH08297649 A JP H08297649A JP 7099176 A JP7099176 A JP 7099176A JP 9917695 A JP9917695 A JP 9917695A JP H08297649 A JPH08297649 A JP H08297649A
Authority
JP
Japan
Prior art keywords
local basis
local
output
function
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7099176A
Other languages
English (en)
Inventor
Natsuki Oka
夏樹 岡
Toshiki Kanemichi
敏樹 金道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7099176A priority Critical patent/JPH08297649A/ja
Publication of JPH08297649A publication Critical patent/JPH08297649A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 パターン認識等に用いられる神経回路網模擬
装置に関し、学習の収束性などを保証する損失関数が明
かであり、実用上十分な学習速度が得られ、人にとって
分かりやすく出力算出のための計算負荷も小さい階段関
数に精度を落すことなく容易に変換できる疑似階段関数
で目的関数を近似でき、目的関数の近似に適した構造が
得られることを目的とする。 【構成】 局所基底修正回路16および局所基底設定回
路18により複数の局所基底出力計算回路10の出力が
入力空間上の各位置で同時には大きい値を持たないよう
に局所基底出力計算回路10の内部パラメータの修正お
よび初期設定を行う神経回路網模擬装置。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声、画像をはじめと
するパターン認識、適応制御に用いられる神経回路網模
擬装置に関するものである。
【0002】
【従来の技術】近年、神経回路網を応用した神経回路網
模擬装置は、音声認識などに広く応用されるようになっ
てきた。神経回路網を応用した神経回路網模擬装置とし
ては、さまざまな種類のものが知られている。代表的な
ものとして、文献(PDPモデル、D.E.ラメルハー
ト他2名、甘利俊一監訳、産業図書、1989年)に詳
しく記載されている多層パーセプトロン(MLP)と呼
ばれるもの、ある局所的な範囲以外では出力値が0に極
めて近い関数(局所基底関数)を用い、出力信号が局所
基底関数の出力の総和によって規格化されており、必要
に応じて局所基底関数を追加できることを特徴とするQ
CNetと呼ばれるもの(特願平6−93237号)、
及び文献(セルフ・オーガニゼイション・アンド・アソ
シエイティブ・メモリ、Self−Organizat
ion and Associative Memor
y、T.Kohonen著、Springer−Ver
lag、1987年)に記載された学習ベクトル量子化
(LVQ)と呼ばれるものがある。こうした神経回路網
模擬装置の目的の多くは、提示される入力と教師信号
(理想的な出力信号)から入出力関係を獲得すること
(学習)である。神経回路網模擬装置は、この機能を持
つが故に、入出力関係が従来のルールによる記述では容
易ではない場合、すなわちパターン分類や制御値の推定
が困難である場合でも、利用可能なパターン分類装置や
適応制御装置を実現できる要素技術となっている。
【0003】また、坂口らは、文献(出力信号の構造を
反映した競合学習型神経回路モデル、坂口豊、村田昇
著、電子情報通信学会研究会報告NC89−54、19
89年)において、目的関数の性質を反映した中間素子
を形成し、目的関数をよりよく近似する以下の学習法を
提案している。
【0004】図10は、坂口らが提案している従来の神
経回路網模擬装置の構成を示すブロック図である。図1
0において、1−i(i=1〜4)は入力信号xを受け
て内部に保持した参照ベクトルWiとの距離を計算して
距離信号Diを出力する距離計算回路であり、2は距離
計算回路1−1〜4から距離信号Di(i=1〜4)を
受けて、最小の距離信号を与える距離計算回路の番号を
示す最小距離番号信号IDminと、2番目に小さい距
離信号を与える距離計算回路の番号を示す第2距離番号
信号IDsecを出力する競合回路であり、3は競合回
路2から最小距離番号信号IDminを受けて内部に保
持した距離計算回路の番号に応じて割り振られたメモリ
から最小距離番号信号IDminが指定するアドレスに
格納された値(またはベクトル)を読みだして出力信号
yとして出力する出力計算回路であり、4は教師信号入
力端子から与えられる教師信号zと出力計算回路3から
出力信号yとの差分信号E=z−yと競合回路2からの
最小距離番号信号IDminを受けて出力計算回路3の
メモリを修正する結合加重修正回路であり、5は差分信
号Eと最小距離番号信号IDminと第2距離番号信号
IDsecと、入力信号xとを受けて距離計算回路1−
1〜4の参照ベクトルを修正する参照ベクトル修正回路
である。
【0005】以上のように構成された神経回路網模擬装
置について、以下その動作について説明する。まず、距
離計算回路1−i(i=1〜4)は入力端子からの入力
信号xを受け、内部に保持した参照ベクトルWiとの距
離を示す距離信号Diを次式のように計算して、出力す
る。
【0006】
【数1】
【0007】競合回路2はそれぞれの距離計算回路1−
iから距離信号Diを受けて、最小の距離信号を与える
距離計算回路の番号を示す最小距離番号信号
【0008】
【数2】
【0009】と2番目に小さい距離信号を与える距離計
算回路の番号を示す第2距離番号信号IDsecとを計
算して出力する。出力計算回路3は競合回路2から最小
距離番号信号IDminを受けて、内部記憶に距離計算
回路1−iごとに対応して記憶されている値v(i)か
ら、最小距離番号信号IDminによって指定される値
v(IDmin)を読みだして出力信号yとして出力す
る。
【0010】学習動作は、次のように行われる。結合加
重修正回路4は、出力信号yと教師信号zとの差分信号
Eと最小距離番号信号IDminとを受けて、出力計算
回路3の内部記憶の記憶されている最小距離番号信号I
Dminによって指定される値v(IDmin)をv
(IDmin)+c2・Eに修正する。ここで、c2は
学習速度を決めるパラメータである。参照ベクトル修正
回路5は、出力信号yと教師信号zとの差分信号Eと最
小距離番号信号IDminと第2距離番号信号IDse
cと、入力信号xとを受けて、距離計算回路1−IDm
inの内部に記憶された参照ベクトルWIDminと距
離計算回路1−IDsecの内部に記憶された参照ベク
トルWIDsecとを
【0011】
【数3】
【0012】のように修正する。ここで、c1は学習速
度を決めるパラメータである。このように距離の最小の
参照ベクトルだけでなく、第2距離番号信号で指定され
る隣接する領域の参照ベクトルについても学習を行わせ
ることにより、図11に示されたように最小距離番号信
号によって指定される領域は、学習によってあまり移動
せずに、代わりに領域の大きさが小さくなる。このと
き、参照ベクトルが動く度合いが大きいほど、2つの参
照ベクトルの距離は縮まり、その分だけさらに領域は小
さくなる。したがって、誤差の絶対値に比例した大きさ
で参照ベクトルを動かせば、参照ベクトルの引っ張りあ
いにより、関数の傾きが急なところほど領域は小さくな
り、参照ベクトルは密に分布するようになる。関数の近
似に適した構造が実現される。
【0013】また、文献(Fox,D.,Heinz
e,V.,Moeller,K.,Thrun,S.a
nd Veenker,G.,Learning by
Error−Driven Decompositi
on,in T.Kohonen,K.Maekisa
ra,O.Simula and J.Kangas
(eds.),Artificial Neural
Networks,Elsevier Science
Publishers,pp.207−212,19
91.)では、前記坂口らの方法と類似の方法が提案さ
れている。Foxらの方法は、あらかじめ距離計算回路
間に隣接関係を定義しておき、与えられる例の確率分布
と出力誤差に応じて距離計算回路の保持した参照ベクト
ルを修正していく点が、坂口らの方法と異なる。
【0014】
【発明が解決しようとする課題】上記従来の方法はいず
れも、関数を精度良く近似する目的で提案されたもので
あり、これらのうち、MLPやQCNetでは、連続関
数は連続関数として学習される。MLPやQCNetで
は、通常、複数個の基底関数の重ね合わせとして出力を
算出するため、学習した結果の神経回路網模擬装置の動
作を簡潔に分かりやすく説明することが困難であること
が知られており、このことは、学習結果の正当性を保証
したり、学習後の神経回路網模擬装置の動作を予測した
り、安心して学習後の神経回路網模擬装置からの出力を
利用したりするための障害になっている。また、MLP
やQCNetにおいては、ある入力に対する出力を計算
するためには、指数関数などの負荷の大きい計算を要す
るが、このことは、低価格の機器内に組み込む安価なマ
イクロコンピュータなどによって、実用的な速度で出力
を求めるための障害になっている。
【0015】また、LVQや坂口らの方法やFoxらの
方法では、連続関数は階段関数として近似され、分散的
な表現は生じないため、神経回路網模擬装置の動作を理
解、説明することが比較的容易になる。しかしながら、
これらの方法では、距離計算回路の個数はあらかじめ用
意したものに固定されるため、必要十分な個数の距離計
算回路を用いた簡潔で分かりやすい学習結果を得るため
には、距離計算回路の個数についての多数回の試行錯誤
が必要になるという効率上の課題があった。
【0016】さらに、LVQには、出力誤差に応じては
距離計算回路の保持した参照ベクトルの配置は決まらな
いという課題や、出力計算経路が記憶する結合加重は学
習によって修正されるのではなく固定であるという課題
を有していた。坂口らの方法やFoxらの方法では、こ
の2点は部分的に解決されているが、なるべく少ない数
の距離計算回路で出力誤差が所定の値に収まるように、
距離計算回路の保持する参照ベクトルと出力計算回路が
記憶する結合加重とを学習によって効率良く修正すると
いう点で十分ではなかった。これは、これらの方法が、
損失関数の最急降下方向に学習を進めるといった明確な
指針を欠き、出力誤差を小さくするためには本質的でな
い情報(距離計算回路間の隣接関係など)に依存した学
習を行うからである。
【0017】本発明は上記従来の課題を解決するもの
で、学習の収束性などを保証する損失関数が明かであ
り、実用上十分な学習速度が得られ、人にとって分かり
やすく出力算出のための計算負荷も小さい階段関数に精
度を落すことなく容易に変換できる疑似階段関数で目的
関数を近似でき、目的関数の近似に適した構造が得られ
る神経回路網模擬装置を実現するものである。
【0018】
【課題を解決するための手段】この目的を達成するため
に本発明の神経回路網模擬装置は、入力信号を受けて局
所基底出力信号を計算して出力する局所基底出力計算回
路と、複数の局所基底出力計算回路からの局所基底出力
信号を受けてその総和をとり総局所基底出力信号を出力
する加算器と、局所基底出力計算回路と加算器とから局
所基底出力信号と総局所基底出力信号とを受けて規格化
局所基底出力信号を出力する除算器と、除算器からの規
格化局所基底出力信号を受け内部に保持した結合加重と
の積を局所出力信号として出力する局所出力計算回路
と、複数の局所出力計算回路からの局所出力信号の総和
を出力信号として出力する加算器と、教師信号と出力信
号との差分信号と除算器からの規格化局所基底出力信号
を受けて対応する局所出力計算回路の結合加重を修正す
る結合加重修正回路と、入力信号と出力信号と差分信号
と除算器からの規格化局所基底出力信号を受けて、複数
の局所基底出力計算回路の出力が入力空間上の各位置で
同時には大きい値を持たないように各局所基底出力計算
回路の内部パラメータを修正する局所基底修正回路と、
出力信号と教師信号と前記加算器からの総局所基底出力
信号とを受けて局所出力計算回路の結合加重を初期設定
する結合加重設定回路と、入力信号と局所出力計算回路
の内部パラメータに基づいて、複数の局所基底出力計算
回路の出力が入力空間上の各位置で同時には大きい値を
持たないように各局所基底出力計算回路の内部パラメー
タを初期設定する局所基底設定回路とからなる構成を有
してしている。
【0019】
【作用】この構成によって、出力信号yは入力信号xと
いくつかのパラメータとを用いた初等関数の組み合わせ
で生成されており、神経回路網模擬装置の学習則に対す
る損失関数Cは
【0020】
【数4】
【0021】と書ける。これを用いて、学習の収束性な
どについても容易に解析できる。また、目的関数に適し
た構造を効率良く得ることができる。加えて、本発明の
構成から明らかなように、一つの入力信号に対しては通
常単一の局所出力計算回路だけが0に極めて近くはない
出力を行うために、MLPやQCNetと異なって、疑
似階段関数による近似ができる。なお、こうして得られ
た疑似階段関数は、人にとって分かりやすく出力算出の
ための計算負荷も小さい階段関数に精度を落すことなく
容易に変換できる。さらに、誤差が大きい場合に、過去
に蓄積したパラメータに込められた情報を変更すること
なく、新たに入力信号xの近くでのみ働く神経細胞模擬
素子を活性化させ、出力信号yが入力された教師信号z
となるようにすることによって、学習の高速化を実現す
ることができる。
【0022】
【実施例】以下本発明の一実施例について、図面を参照
しながら説明する。
【0023】図1において、10は入力信号xを受けて
局所基底出力信号Sを計算して出力する局所基底出力計
算回路であり、11は複数の局所基底出力計算回路10
からの局所基底出力信号Sを受けてその総和をとり総局
所基底出力信号Stotalを出力する加算器であり、
12は局所基底出力計算回路10と加算器11とから局
所基底出力信号Sと総局所基底出力信号Stotalと
を受けて規格化局所基底出力信号bを出力する除算器で
あり、13は除算器12からの規格化局所基底出力信号
を受け内部に保持した結合加重vとの積を局所出力信号
oとして出力する局所出力計算回路であり、14は複数
の局所出力計算回路13からの局所出力信号oの総和を
出力信号yとして出力する加算器であり、15は教師信
号zと出力信号yとの差分信号Eと除算器12からの規
格化局所基底出力信号bを受けて対応する局所出力計算
回路13の結合加重vを修正する結合加重修正回路であ
り、16は入力信号xと出力信号yと差分信号Eと除算
器12からの規格化局所基底出力信号bを受けて対応す
る局所基底出力計算回路10の内部パラメータを修正す
る局所基底修正回路であり、17は出力信号yと教師信
号zと差分信号Eと総局所基底出力信号Stotalを
受けて局所出力計算回路13の結合加重を設定する結合
加重設定回路であり、18は入力信号xに基づいて局所
基底出力計算回路10の内部パラメータを設定する局所
基底設定回路である。
【0024】以上のように構成された神経回路網模擬装
置について、その動作を説明する。なお、ここでは局所
基底出力計算回路10の性質を特徴づける局所基底関数
として、ガウス関数を用いた場合について説明する。
【0025】まず、初期の設定については、例えば最初
の2つのデータ(x1,z1)、(x2,z2)から、
【0026】
【数5】
【0027】とする方法がある。ただし、σ0は固定値
であって、複数の局所基底出力計算回路10の参照ベク
トル間の予想される距離に比べて十分小さい値とする。
【0028】次に、入力信号xが局所基底出力計算回路
10に入る。i番目の局所基底出力計算回路において、
局所基底出力信号S(i)が
【0029】
【数6】
【0030】と計算され、出力される。ここで、a
(i)は0または1の値を持つ活性パラメータであり、
μ(i)は参照ベクトルであり、σ2(i)は分散であ
る。加算器11は局所基底出力計算回路10から出力さ
れるすべての局所基底出力信号Sの総和
【0031】
【数7】
【0032】を計算して総局所基底出力信号Stota
lを出力する。(ただし、Nは局所基底出力計算回路1
0の個数)i番目の除算器12はi番目の局所基底出力
計算回路10と加算器11から局基底出力信号S(i)
と総局所基底出力信号Stotalを受けて、規格化局
所基底出力信号b(i)を
【0033】
【数8】
【0034】と計算し出力する。i番目の局所出力計算
回路13は、除算器12からの規格化局所基底出力信号
b(i)と内部に保持した結合加重v(i)とから、局
所出力信号o(i)を次式のように計算し、出力する。
【0035】
【数9】
【0036】加算器14は、局所出力計算回路13から
の局所出力信号oを受けて、出力信号yを次式のように
計算し、出力する。
【0037】
【数10】
【0038】次に学習の動作について説明する。入力信
号xに対して教師信号zが与えられると、まず、入力信
号xから計算された出力信号yと教師信号zとの差分が
とられ、差分信号Eが生成される。差分信号Eは結合加
重修正回路15と局所基底修正回路16と結合加重設定
回路17と局所基底設定回路18に入力される。
【0039】差分信号Eの絶対値が閾値θEより小さい
か、または値が1である活性パラメータの数Naが局所
基底出力計算回路10の数Nに等しい場合には、結合加
重修正回路15と局所基底修正回路16は以下のように
動作する。
【0040】i番目(i=1〜Na)の結合加重修正回
路15は、また教師信号zとi番目の除算器から規格化
局所基底出力信号b(i)を受け、i番目の局所出力計
算回路13の結合加重v(i)を次のように修正する。
【0041】
【数11】
【0042】一方、i番目の局所基底修正回路16は、
入力信号xとi番目の除算器からの規格化局所基底出力
信号b(i)と出力信号yとを受け、局所基底出力計算
回路13から結合加重v(i)を読みだし、i番目の局
所基底出力計算回路10の内部パラメータを次のように
修正する。
【0043】
【数12】
【0044】この式から分かるように、σ(i)の値は
固定であり、学習によっては変化しない。また、この場
合、結合加重設定回路17と局所基底設定回路18は何
もしない。
【0045】次に、差分信号Eの絶対値が閾値θEより
大きく、かつ値が1である活性パラメータの数Naが局
所基底出力計算回路10の数Nより小さい場合には、結
合加重修正回路15と局所基底修正回路16は何もしな
い。また、結合加重設定回路17と局所基底設定回路1
8は、以下のように動作する。
【0046】結合加重設定回路17は、Na+1番目の
局所出力計算回路13の結合加重v(Na+1)を次の
ように設定する。
【0047】
【数13】
【0048】一方、局所基底設定回路18は、入力信号
xの値に応じて、Na+1番目の局所基底出力計算回路
10の内部パラメータを次のように設定する。
【0049】
【数14】
【0050】ただし、σ0は固定値であって、複数の局
所基底出力計算回路10の参照ベクトル間の予想される
距離に比べて十分小さい値とする。
【0051】また、初期の設定については、分散σ0は
【0052】
【数15】
【0053】としてもよい。ただし、kは定数、Dは入
力の幅、DIMは入力空間の次元、Nは素子の数である。
【0054】以下、本実施例による神経回路網模擬装置
の特性と従来の神経回路網模擬装置QCNet(特願平
6−93237号)の特性を比較する実験の結果、およ
び、本実施例による神経回路網模擬装置の特性を示す実
験の結果を示す。
【0055】図2に示す3種類の関数f1、f2、f3
の入出力関係を本実施例による神経回路網模擬装置また
は従来の神経回路網模擬装置QCNetに例として与え
学習させる実験を行った。各図の上側が関数面の3次元
表示、下側が等高線表示である。
【0056】3種類の関数はそれぞれ、次の通りであ
る。 f1(x,y)=0.5(x+y) f2(x,y)=0.5(x2+y2) f3(x,y)=0.5(1+cos(πx)cos
(πy)) (0<x,y<1)の領域内で訓練例をランダムに生成
してシステムに順次与え、インクリメンタルに学習させ
た。なお、この領域内では、(0<f1(x,y),f
2(x,y),f3(x,y)<1)である。
【0057】まず、比較のために、従来の神経回路網模
擬装置QCNetにより、関数f1を学習させた結果
(典型的な一例)を図3と図4を用いて示す。ここで
は、出力誤差が閾値θEを越えたときに新たに局所基底
出力計算回路を活性化し、また、冗長な局所基底出力計
算回路の不活性化(特願平6−93237号)も行って
いる。
【0058】図3に学習の経過を示す。図中の正方形は
xy平面(0<x,y<1)である。(a)、(b)、
(c)にそれぞれ200例、1600例、51200例
を与えた時点での等間隔のサンプル点におけるQCNe
tの出力の大きさを示した。図中の白丸は出力が0.5
以上であることを、黒丸は出力が0.5以下であること
を表し、丸の半径は|出力−0.5|に比例する。各図
中の+印の位置と大きさは、各局所基底出力計算回路の
参照ベクトルμ(i)の位置と分散σ2(i)の大きさ
に対応している。
【0059】また、図4は、51200例の時点でのQ
CNetの出力値(実線)と、もとの関数f1の出力値
(破線)を併せて3次元表示したものである。
【0060】この実験では、学習初期に2個の冗長な局
所基底出力計算回路が不活性化された(図には示されて
いない)が、その後、残った2個の局所基底出力計算回
路の参照ベクトルμ(i)が適切な位置に動くととも
に、分散σ2(i)が大きくなることにより、滑らかな
近似が達成されていったことがこれらの図から分かる。
これらの図から分かるように、QCNetの出力は、複
数の局所基底出力計算回路からの出力の重ね合わせから
なっており、学習対象の関数がより複雑な場合には、活
性化される局所基底出力計算経路の数が増え、また、そ
の重ね合わされ方も複雑になり、装置全体の動作は容易
には理解できないものとなる。
【0061】次に、関数f1の入出力例を与えて本実施
例による神経回路網模擬装置に学習を行わせた結果の例
を図5、図6、図7、図8、及び図9を用いていくつか
示す。
【0062】まず、出力誤差が、QCNetでの前記の
実験と同じ閾値θEを越えたときに新たに局所基底出力
計算回路10を活性化した場合の結果(典型的な一例)
を示す。図5に学習の経過を示す。(a)、(b)、
(c)にそれぞれ200例、800例、1600例を与
えた時点での状態を示している。なお、これ以上学習を
続けてもあまり変化はなかった。
【0063】また、図6は、1600例の時点での本実
施例による神経回路網模擬装置の出力値(実線)と、も
との関数f1の出力値(破線)を併せて3次元表示した
ものである。
【0064】この実験では、3個の局所基底出力計算回
路10が作られ、その後、これらの局所基底出力計算回
路10の参照ベクトルμ(i)が適切な位置に動く(こ
の場合は、x+yの値の勾配方向に沿って一列に並ぶ)
とともに、それぞれの結合加重v(i)が調整されるこ
とにより、疑似階段関数(階段関数の角が少しだけなま
った形の関数)による良好で分かりやすい近似が達成さ
れていったことがこれらの図から分かる。
【0065】つぎに、局所基底出力計算回路10の活性
化の閾値θEをより小さい値としたときの結果の一例を
図7に示す。これは12800例提示後の様子である
が、閾値θEの値を小さくしたことにより、より細かい
階段状の関数として近似されたことが分かる。途中経過
の図は省略するが、この場合は、初期に作られた5個の
局所基底出力計算回路10の参照ベクトルμ(i)が局
所基底修正回路16の働きによって、しだいに図のよう
な配置に移動していった。
【0066】次に、関数f2の学習結果の一例を2次元
表示と3次元表示で図8に示す。これは800例提示後
の様子であるが、11個の局所基底出力計算回路10に
よって階段状の関数として近似されていることが分か
る。関数f1とは異なり、関数f2では、出力値の等高
線は直線でなく円弧であるため、出力値が近い領域は円
弧状となる。また、各局所基底出力計算回路10の分散
σ2(i)が互いに等しいという条件の下では、円弧状
の領域を単一の局所基底出力計算回路10でカバーする
ことはできない。したがって、互いに似た結合加重v
(i)と対応する局所基底出力計算回路10の参照ベク
トルμ(i)が図のように円弧上に並んで生成される。
【0067】次に、関数f3の学習結果を示す。図9の
(a)、(b)は、閾値θEが比較的大きいとき、
(c)は、閾値θEが比較的小さいときの結果の例であ
る。一番上の場合と真中の場合の差は、乱数で生成して
いる訓練例の提示場所の違いにより生じたものである。
【0068】(a)は、活性化された4個の局所基底出
力計算回路10の参照ベクトルμ(i)が局所基底修正
回路16によって調整されて、12800例提示の時点
でほぼ格子状に配置されたときの出力の様子を示したも
のである。本実施例による神経回路網模擬装置の出力値
(実線)と、もとの関数f3の出力値(破線)が併せて
3次元表示されている。
【0069】(b)は、活性化された5個の局所基底出
力計算回路10による近似の様子を示したものである
(6400例提示の時点)。図には示していないが、1
個の局所基底出力計算回路10の参照ベクトルμ(i)
がxy平面のほぼ中央に配置され、残りの4個はそれぞ
れxy平面の4隅に配置されている。
【0070】(c)では、閾値θEが小さいため、9個
の素子により近似が行なわれている(51200例提示
の時点)。
【0071】以上のように、本実施例による神経回路網
模擬装置によれば、出力信号yが入力信号xといくつか
のパラメータとを用いた初等関数の組み合わせで生成さ
れており、学習のための損失関数Cは
【0072】
【数16】
【0073】と書ける。これを用いて、学習の収束性な
どについても容易に解析できる。また、規格化された局
所基底関数を用い、複数の局所基底関数の出力が入力空
間上の各位置で同時には大きい値を持たないように、そ
れぞれの局所基底関数のパラメータを初期設定する局所
基底設定回路18と、複数の局所基底関数の出力が入力
空間上の各位置で同時には大きい値を持たないように、
それぞれの局所基底関数のパラメータを修正する局所基
底修正回路16を備えることにより、図5から図9に示
したように、疑似階段関数による近似を実現できる。
【0074】また、図5から図9に示したように、許容
される出力誤差の上限、すなわち、新たな局所基底出力
計算回路10を活性化するかどうかを判定する閾値θE
の値の設定に応じて、適切な粗さで階段状の関数による
近似がなされる。なお、中間層の素子数の最大値Nを設
定して、それに応じた粗さによる近似を行うこともでき
る。
【0075】さらに、図5から図9に示したように、結
合加重修正回路15および局所基底修正回路16の働き
によって各局所基底出力計算回路10の参照ベクトルμ
(i)の配置および結合加重v(i)が調整されること
により、多くの場合に(ある活性化された局所基底出力
計算回路10の数の下での出力誤差を最小に近くするも
のという意味で)妥当な疑似階段関数による近似が実現
される。これは、多くの場合に、人にとって理解、伝達
が容易で、かつ、ある限られた計算資源のもとでの出力
誤差を最小に近いものにできる学習結果を得ることがで
きることを意味する。
【0076】本実施例の神経回路網模擬装置により得ら
れた疑似階段関数による近似は、各局所基底出力計算回
路10の分散σ2(i)が互いに等しいことから、各局
所基底出力計算回路10の参照ベクトルμ(i)を母点
とするボロノイ図において、各母点の勢力圏ごとに出力
yが一定値v(i)をとるとする近似(階段関数による
近似)に容易に変換でき、また、変換によって出力yの
精度はほとんど変化しない。母点からボロノイ図を求め
る効率の良いアルゴリズムは文献(伊理正夫(監)、腰
塚武志(編)、計算幾何学と地理情報処理、4.8節、
bit別冊、共立出版、1986)に記されている。こ
のようにして得られた階段関数による近似は、人にとっ
て分かりやすく、また、軽い計算負荷ですむために、安
価なマイクロコンピュータなどによっても実用的な速度
で入力から出力を計算できる入出力形式となっている。
【0077】さらに、誤差が大きい場合に、過去に蓄積
したパラメータに込められた情報はそのまま保ち、入力
信号xの近くでのみ働く神経細胞模擬素子を与えられた
教師信号zが出力信号yとなるように新たに活性化する
ことによって、学習の高速化が実現される。
【0078】なお、ここでは、各局所基底出力計算回路
10の分散σ2(i)を小さい値に固定することによっ
て、複数の局所基底関数の出力が入力空間上の各位置で
同時には大きい値を持たないようにしたが、結合加重修
正回路15と局所基底修正回路16において、出力誤差
の大きさを示す項だけでなく、複数の局所基底関数の出
力が入力空間上の各位置で同時に大きい値を持つと値が
大きくなる項を含む損失関数を用いて、最急降下法また
は確率的降下法によって、局所基底出力計算回路10の
参照ベクトルμ(i)と分散σ2(i)と局所出力計算
回路13の持つ結合加重v(i)を修正することによ
り、複数の局所基底関数の出力が入力空間上の各位置で
同時には大きい値を持たないようにすることもできる。
このとき、損失関数中の、複数の局所基底関数の出力が
入力空間上の各位置で同時に大きい値を持つと値が大き
くなる項としては、たとえば、
【0079】
【数17】
【0080】を用いることができる。ここに、cRは、
損失関数におけるこの項の影響の強さを決める定数であ
る。
【0081】なお、基底関数は区分線形関数のように、
高々可算個の特異点しか持たない関数であれば、特異点
における微係数をあらかじめ局所基底修正回路16に組
み込んでおくことにより、実質的に基底関数のパラメー
タに関する微分をとることができ、容易にパラメータの
修正量を計算できる。
【0082】なお、ここでは基底関数としてガウス関数
を用いたが、ある局所的な範囲以外では出力値が0に極
めて近く、微分可能な関数であれば、任意の関数を用い
ることができる。こうした関数を用いた場合であって
も、本発明においては学習則についての損失関数が与え
られているから、関数のパラメータに関する微分をとる
ことによって、容易にパラメータの修正量を計算でき
る。
【0083】なお、本発明の神経回路網模擬装置の出力
信号yは初等関数の組み合わせで表現される。したがっ
て、演算の順序の変更については、いくらかの自由度が
残されるため、本実施例とは異なる演算の順序に対応し
た構成の装置で本実施例と同等の機能を実現することも
できる。異なる演算の順序に対応した構成の一例は特願
平6−93237号の実施例2に示されている。
【0084】なお、本実施例においては、局所出力計算
回路13の働きは、規格化局所基底出力信号bまたは局
所出力信号Sに入力信号xに依存しない結合加重vをか
けるものであったが、結合加重vをxに依存する項を含
むように拡張することもできる。この拡張のしかたにつ
いては、特願平6−93237号の実施例3に示されて
いる。
【0085】なお、本実施例においては、各局所基底修
正回路16、各結合加重修正回路15、各局所基底設定
回路18、各結合加重設定回路17が、独立に学習の処
理の判定を行っていた。この方法は、装置のロバスト性
を考えれば有効であるが、回路規模が大きくなるという
面を持っている。そこで、学習方法をひとまとめに制御
する学習方法切り替え回路を設けることによって、回路
規模の縮小を実現することもできる。この学習方法切り
替え回路の設け方については、特願平6−93237号
の実施例4に示されている。
【0086】なお、本実施例の神経回路網模擬装置にお
いては、誤差が大きい場合に、局所基底出力計算回路1
0等を新たに設定することにより、学習の高速化を図っ
ている。しかし、この方法だけでは、学習用のデータに
ノイズが含まれている場合や、学習用のデータの順番に
よっては、実質的に不必要な局所基底出力計算回路10
が生き残る場合がある。こうした現象は、神経回路網模
擬装置のロバスト性の面からは有効であるが、メモリお
よび回路規模の面からは不利となる。この課題を解決
し、局所基底出力計算回路などを効率的に行うために、
忘却機能を導入することもできる。この忘却機能の導入
のしかたについては、特願平6−93237号の実施例
5および実施例7に示されている。
【0087】なお、学習すべき入出力関係に関してあら
かじめ分かっている情報が存在するとき、この情報を利
用して本発明の神経回路網模擬装置の内部パラメータを
初期設定することにより、計算量を増やすことなく、よ
り高速で、より少数の局所基底出力計算回路10による
学習を可能とすることもできる。この方法については、
特願平6−93237号の実施例6に示されている。た
だし、本実施例のように局所基底出力計算回路10の分
散σ2を学習時に固定したままにしておく方法をとる場
合には、特願平6−93237号の実施例6に示された
分散σ2の初期設定法は採用せず、すべての活性化され
る局所基底出力計算回路10に対して共通の十分小さい
値を設定するものとする。
【0088】
【発明の効果】以上のように本発明は、入力信号xを受
けて局所基底出力信号Sを計算して出力する局所基底出
力計算回路と、複数の局所基底出力計算回路からの局所
基底出力信号Sを受けてその総和をとり総局所基底出力
信号Stotalを出力する加算器と、局所基底出力計
算回路と加算器とから局所基底出力信号Sと総局所基底
出力信号Stotalとを受けて規格化局所基底出力信
号bを出力する除算器と、除算器からの規格化局所基底
出力信号を受け内部に保持した結合加重vとの積を局所
出力信号oとして出力する局所出力計算回路と、複数の
局所出力計算回路からの局所出力信号oの総和を出力信
号yとして出力する加算器と、教師信号zと出力信号y
との差分信号Eと除算器からの規格化局所基底出力信号
bを受けて対応する局所出力計算回路の結合加重vを修
正する結合加重修正回路と、出力信号yとの差分信号E
と除算器からの規格化局所基底出力信号bを受けて、複
数の局所基底出力計算回路の出力が入力空間上の各位置
で同時には大きい値を持たないように、対応する局所基
底出力計算回路の内部パラメータを修正する局所基底修
正回路と、教師信号zを受けて局所出力計算回路の結合
加重を設定する結合加重設定回路と、入力信号xと局所
出力計算回路の内部パラメータに基づいて、複数の局所
基底出力計算回路の出力が入力空間上の各位置で同時に
は大きい値を持たないように各局所基底出力計算回路の
内部パラメータを初期設定する局所基底設定回路とから
構成することにより、損失関数を持ち、目的関数に適し
た構造を効率的に学習することができ、人にとって分か
りやすく出力算出のための計算負荷も小さい階段関数に
精度を落すことなく容易に変換できる疑似階段関数で目
的関数を近似することができる神経回路網模擬装置を実
現できる。
【図面の簡単な説明】
【図1】本発明の一実施例における神経回路網模擬装置
のブロック図
【図2】本発明の神経回路網模擬装置の学習性能を評価
するために用いた3種類の関数の入出力関係を示す図
【図3】従来の神経回路網模擬装置による関数f1の学
習の進行状況を示す図
【図4】従来の神経回路網模擬装置による関数f1の学
習結果を示す図
【図5】本発明の一実施例における神経回路網模擬装置
による関数f1の学習の進行状況を示す図
【図6】同実施例における神経回路網模擬装置による関
数f1の学習結果を示す図
【図7】同実施例における神経回路網模擬装置による関
数f1の学習結果を示す図
【図8】同実施例における神経回路網模擬装置による関
数f2の学習結果を示す図
【図9】同実施例における神経回路網模擬装置による関
数f3の学習結果を示す図
【図10】従来の神経回路網模擬装置のブロック図
【図11】従来の神経回路網模擬装置の学習の様子を説
明するための概念図
【符号の説明】
1−1〜4 距離計算回路 2 競合回路 3 出力計算回路 4 結合加重修正回路 5 参照ベクトル修正回路 10 局所基底出力計算回路 11 加算器 12 除算器 13 局所出力計算回路 14 加算器 15 結合加重修正回路 16 局所基底修正回路 17 結合加重設定回路 18 局所基底設定回路

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 局所的な範囲以外では出力値が0に極め
    て近い関数である局所基底関数を用いた神経回路網模擬
    装置であって、前記局所基底関数の分散が入力空間の大
    きさに比較して小さい値に固定される如く前記局所基底
    関数のパラメータを初期設定する局所基底設定回路と、
    前記局所基底関数の分散を固定したまま前記局所基底関
    数のパラメータを修正する局所基底修正回路と、前記局
    所基底関数の出力の総和によって出力信号を規格化する
    規格化手段とを具備することを特徴とする神経回路網模
    擬装置。
  2. 【請求項2】 学習の初期および学習過程の途中におい
    て局所基底関数に対応する結合加重を設定する結合加重
    設定回路を具備し、局所基底設定回路は学習の初期およ
    び学習過程の途中において局所基底関数を設定すること
    を特徴とする請求項1記載の神経回路網模擬装置。
  3. 【請求項3】 局所基底修正回路は、複数の局所基底関
    数の出力が入力空間上の各位置で同時に大きくなるとと
    もに値が大きくなる項を含む損失関数を用いて、最急降
    下法または確率的降下法によって局所基底関数のパラメ
    ータを修正することを特徴とする請求項1または2記載
    の神経回路網模擬装置。
JP7099176A 1995-04-25 1995-04-25 神経回路網模擬装置 Pending JPH08297649A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7099176A JPH08297649A (ja) 1995-04-25 1995-04-25 神経回路網模擬装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7099176A JPH08297649A (ja) 1995-04-25 1995-04-25 神経回路網模擬装置

Publications (1)

Publication Number Publication Date
JPH08297649A true JPH08297649A (ja) 1996-11-12

Family

ID=14240350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7099176A Pending JPH08297649A (ja) 1995-04-25 1995-04-25 神経回路網模擬装置

Country Status (1)

Country Link
JP (1) JPH08297649A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011001916A (ja) * 2009-06-19 2011-01-06 Denso Corp 学習装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011001916A (ja) * 2009-06-19 2011-01-06 Denso Corp 学習装置
US8423486B2 (en) 2009-06-19 2013-04-16 Denso Corporation Learning device

Similar Documents

Publication Publication Date Title
US11741356B2 (en) Data processing apparatus by learning of neural network, data processing method by learning of neural network, and recording medium recording the data processing method
CN111325318B (zh) 神经网络的训练方法、神经网络的训练装置和电子设备
JP4532171B2 (ja) 立体物認識装置
KR20190125624A (ko) 딥-러닝을 통한 무선신호 전파 채널 해석을 이용한 실내공간의 구조를 예측하는 방법
CN111783551A (zh) 基于贝叶斯卷积神经网络的对抗样本防御方法
CN114511021A (zh) 基于改进乌鸦搜索算法的极限学习机分类算法
CN113554156B (zh) 基于注意力机制与可变形卷积的多任务图像处理方法
US20030179933A1 (en) Recognition device and method
Cho et al. Virtual sample generation using a population of networks
CN114152257A (zh) 基于注意力机制和环境感知lstm的船舶预测导航方法
CN108509964A (zh) 一种穿越欧几里德空间与概率空间的距离的获得方法
CN116933948A (zh) 基于改进海鸥算法与反向传播神经网络的预测方法和系统
WO2021064787A1 (ja) 学習システム、学習装置、および学習方法
CN114740710A (zh) 一种随机非线性多智能体的强化学习优化编队控制方法
KR20210060146A (ko) 딥 뉴럴 네트워크 모델을 이용한 데이터 처리 방법 및 장치, 딥 뉴럴 네트워크 모델을 학습시키는 학습 방법 및 장치
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
JPH08297649A (ja) 神経回路網模擬装置
KR20230071705A (ko) 하이브리드 신경망 기반 객체 추적 학습 방법 및 시스템
CN115346125A (zh) 一种基于深度学习的目标检测方法
CN109726805B (zh) 利用黑盒模拟器进行神经网络处理器设计的方法
JP2734374B2 (ja) 神経回路網模擬装置
Naing et al. Development of Methodology for System Identification of Non-linear System Using Radial Basis Function Neural Network
Huang et al. Signal processing by polynomial NN and equivalent polynomial function
Bazan et al. Unsupervised perception model for UAVs landing target detection and recognition
JPH11259445A (ja) 学習装置