JPH08235146A - 確率的非巡回神経回路網の学習法 - Google Patents

確率的非巡回神経回路網の学習法

Info

Publication number
JPH08235146A
JPH08235146A JP7041752A JP4175295A JPH08235146A JP H08235146 A JPH08235146 A JP H08235146A JP 7041752 A JP7041752 A JP 7041752A JP 4175295 A JP4175295 A JP 4175295A JP H08235146 A JPH08235146 A JP H08235146A
Authority
JP
Japan
Prior art keywords
neural network
unit
weight
equation
fluctuations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7041752A
Other languages
English (en)
Inventor
Yoshihiro Ochiai
慶広 落合
Shin Mizutani
伸 水谷
Tadashi Uchiyama
匡 内山
Noboru Sonehara
曽根原  登
Kazuchika Watanabe
一央 渡辺
Takafumi Ohori
隆文 大堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7041752A priority Critical patent/JPH08235146A/ja
Publication of JPH08235146A publication Critical patent/JPH08235146A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 連続非線形ユニットと線形しきい値ユニット
が混在するような神経回路網に対して、微分処理や逆伝
搬処理を用いることなく簡単な相関処理のみを用いて学
習を行なえるようにする。 【構成】 それぞれのユニットのしきい値に、互いに無
相関で分散1のゆらぎを加える(ステップ102)。教
師データに対する出力誤差とユニットでのゆらぎとその
ユニットへの入力との積の時間平均を求め、この時間平
均からそのユニットについての重みの更新量を計算し、
重みの修正を行なう(ステップ103)。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、神経回路網(ニューラ
ル・ネットワーク; Neural Network)の学習法に関し、
特に、確率的非巡回神経回路網の教師あり学習法に関す
る。
【0002】
【従来の技術】生体の脳内での情報伝達をモデル化して
各種の問題解決を図る神経回路網が注目されている。神
経回路網では、ニューロンとも呼ばれる複数のユニット
が接続され、1つのユニットには一般に他の複数のユニ
ットの出力が入力している。ユニットの結合部位のこと
をシナプスともいう。各ユニットの出力値は、他のユニ
ットから入力する値にそれぞれ重み(結合係数)を乗じ
て加算した和に応じて決定され、この和からそのユニッ
トの出力値を算出するアルゴリズムに応じ、ユニット
は、連続非線形ユニットや線形しきい値ユニットに分類
されている。神経回路網は、各ユニットでの重み(結合
係数)を変化させることによって、学習を行なうことが
できる。階層構成となった神経回路網に対する学習法と
しては、誤差逆伝搬(BP; error Back Propagation)
法が有名である。
【0003】ところで、誤差逆伝搬法とは異なる学習法
として、並列相関学習法(PCL;Parallel Correlatio
n Learning method)がある。並列相関学習法は、独立
・無相関なしきい値ゆらぎを学習に直接利用する方法で
あり、階層構成をとらない神経回路網の学習も可能であ
る。以下、並列相関学習法について説明する。
【0004】図1は非巡回形(フィードフォワード形)
の神経回路網の一例を示す図であり、複数のニューロン
(ユニット)51がシナプスによって結合している。図
2は並列相関学習法で用いられるニューロンモデルを示
す図であり、個々のニューロン51内での処理を図解し
たものである。このニューロンモデルは、ゆらぎの発生
源を持ち、情報伝達諸量が時間的に揺らいでいることを
除けば、従来のニューロンモデルと同様のものである。
すなわち、図2に示すように、パターンpに対するニュ
ーロン(ユニット)kの情報伝達量は以下のように記述
できる。ただし、f{・}は入出力関数、D(k)はニュー
ロンkに直接情報伝達している下位ニューロン集合、T
は転置、tは時間を表わす。
【0005】
【数1】 なお、結合係数
【0006】
【外1】 は、集合D(k)中のユニットjからユニットkへの結合
の重みwjkを要素とするベクトル
【0007】
【数2】 として表わされており、ユニット間の結合の程度を示す
ものである。また、しきい値関数nk(t)には、ゆらぎ
が含まれている。
【0008】ここで、連続非線形ユニットの場合と線形
しきい値ユニットの場合について、並列相関学習法にお
ける学習則を説明する。
【0009】(1)連続非線形ユニットの場合:[文
献:渡辺一央、三谷光照、西田啓蔵、大堀隆文;”しき
い値ゆらぎを利用した多層パーセプトロンの並列相関学
習法”,信学論D-II,投稿中] 連続非線形ユニットからなる神経回路網の出力ベクトル
に関して、微分可能な出力誤差関数e(p,t)を考え
る。微分可能であれば、その関数形にはこだわらない。
入力総和の平均ak(p)は、次式で表わされる。
【0010】
【数3】 このとき、入力総和の中のゆらぎ成分mk(p,t)は、
【0011】
【数4】 となる。各ユニットのak(p),mk(t),nk(t)からな
るベクトルを、それぞれ
【0012】
【外2】 によって表わす。ここで、ゆらぎに、条件1:「しきい
値ゆらぎベクトル
【0013】
【外3】 は十分に小さい」を設定すると、mk(t)はユニットk
へ情報を伝達しているユニットj群のしきい値ゆらぎn
j(t)群の線形和で近似できるので、ゆらぎ成分ベクト
【0014】
【外4】 は係数行列Cを用いて次式のように表わされる。
【0015】
【数5】 式(7)により、ゆらぎ成分ベクトルはしきい値ゆらぎベ
クトルの1次形式で近似できる従属変数で、
【0016】
【数6】 の時、
【0017】
【数7】 となるから、e(p,t)は、独立変数
【0018】
【外5】 のみに関するテーラー展開を用いて次式で表わされる。
【0019】
【数8】 全ユニットのゆらぎが存在しない状態、すなわち
【0020】
【数9】 であるときの出力誤差関数値
【0021】
【数10】 を、ユニットkへの結合係数
【0022】
【外6】 に関する最急降下法によって最小化することを考える
と、結合係数の修正式
【0023】
【外7】 は、次式で与えられる。
【0024】
【数11】 式(8)の両辺に、右辺から
【0025】
【外8】 を乗じ、その期待値を求めると、次式を得る。
【0026】
【数12】 ここで、条件2:「しきい値ゆらぎベクトルの時間平均
が0、すなわち
【0027】
【数13】 である」と条件3:「各ユニット間でゆらぎに相互相関
がない。すなわち、
【0028】
【数14】 である」を設定する。ただし、
【0029】
【外9】 は対角行列を表わす。
【0030】その結果、式(10)は、
【0031】
【数15】 となる。また、式(9)中の偏微分量
【0032】
【外10】 は、次式のように書き表される。
【0033】
【数16】 式(11),(12)を式(9)に代入することによって、微分処理
や逆伝搬処理を含まない簡潔な規則として、次式を得
る。
【0034】
【数17】 これが、神経回路網が微分可能な連続非線形で構成され
る場合の学習則である。
【0035】(2)線形しきい値ユニットの場合:[文
献:三谷光照、大堀隆文、渡辺一央;”確率的非巡回神
経回路網と並列相関学習法”,信学論D-II,投稿中] 次に、神経回路網が線形しきい値ユニット形多層パーセ
プトロンである場合の学習法を説明する。以下では、神
経回路網の動作を確率的に表現することから、この神経
回路網を確率的非巡回神経回路網(Probabilistic Feedf
orward Neuralnetwork; PFN)と呼ぶ。
【0036】確率的非巡回神経回路網の情報伝達量につ
いて離散時間確率系で考察する。あるパターンpの入力
期間中(入力継続期間)におけるニューロンkの伝達諸
量、すなわちシナプス前ニューロン群出力
【0037】
【外11】 入力総和uk(p,t)、しきい値ゆらぎ関数nk(t)、瞬
時活性値vk(p,t)及び瞬時出力値rk(p,t)をそれぞ
れ確率変数として
【0038】
【外12】 で表わし、各確率変数の分布を
【0039】
【外13】 で表わす。ゆらぎに、条件4:「パターン入力継続期間
Tp内の小区間Tsのゆらぎ分布N´(nk)は、微小な偏
り(活性値バイアス)νkを有していることを除いて
は、Tp内のゆらぎ分布と等しい。すなわち、
【0040】
【数18】 である」を設定する。
【0041】ここで、<・>TpはTp期間の期待値を表わ
す。式(1)〜(4)より、伝達諸量の確率分布は、下記の式
(14)〜(17)に示される特徴や関係を持つ。以下、時間変
数t、パターン変数p、期待値の表示における期間Tp
の表記を省略する。
【0042】
【数19】 よって、確率的非巡回神経回路網は式(14)〜(17)に示し
た確率分布変換を繰り返しながら情報伝達を行なってい
ると解釈できる。
【0043】一方、可視ニューロン群Svに対する平均
出力誤差<e>は、ζjを教師信号として、次式で表わせ
る。
【0044】
【数20】 パターン入力継続期間Tpでの平均出力誤差<e>を、各
ユニットkへの結合係数に関する最急降下法によって最
小化する。結合係数の修正量
【0045】
【外14】 は、次式で与えられる。
【0046】
【数21】 以後、式(19)の右辺の前半部と後半部をそれぞれ誤差駆
動項ED(k)、局部可塑項
【0047】
【外15】 と呼ぶ。Ts区間の平均出力誤差<e>を
【0048】
【外16】 に関してマクローリン展開すると、
【0049】
【数22】 を得る。上述の条件4から、
【0050】
【外17】 が<e>Tpと等しくなるので、式(20)の両辺に右から
【0051】
【外18】 を乗じ、期間Tpにおける期待値を求めると、
【0052】
【数23】 となる。ここで、ゆらぎに、条件5:「確率的非巡回神
経回路網では、各ニューロン内ゆらぎnkは互いに独立
である」を設定すると、
【0053】
【数24】 であることから、式(21)より、誤差駆動項はED(k)は
次式となる。
【0054】
【数25】 また、式(16)の
【0055】
【外19】 に関する微分から、局部可塑項は次式となる。
【0056】
【数26】 ここで、N(・)が分散σ2を有する正規分布であると
き、
【0057】
【数27】 の関係が成立する。式(24)を式(23)に代入し、変形する
と、次式が得られる。
【0058】
【数28】 結局、式(19),(22),(25)から、微分処理や逆伝搬処理を
含まない、以下の学習則が得られる。これが線形しきい
値ユニットに対する学習則である。
【0059】
【数29】
【0060】
【発明が解決しようとする課題】前述したように、微分
可能な連続関数で入出力特性が表わされるニューロン
(連続非線形ユニット)のみからなる神経回路網、ある
いは線形しきい値関数に代表されるような不連続関数で
入出力特性が表わされるニューロン(線形しきい値ユニ
ット)のみから構成された神経回路網に対しては、上述
の式(13)あるいは式(26)で表わされる学習則を用いるこ
とにより、学習が可能である。しかし、これら2つの学
習則は、連続非線形ユニットと線形しきい値ユニットが
混在している神経回路網に対しては、有効ではない。
【0061】本発明の目的は、連続非線形ユニットと線
形しきい値ユニットが混在しているような神経回路網に
対して、微分処理や逆伝搬処理を用いることなく簡単な
相関処理のみを用いて学習を実行できる学習法を提供す
ることにある。
【0062】
【課題を解決するための手段】本発明の確率的非巡回神
経回路網の学習法は、各ユニットに対応して互いに無相
関なゆらぎを発生させ、前向き方向の計算を行なうとき
には、ユニットへの入力値と重みとの内積値にバイアス
及び前記ゆらぎを加えた値を非線形変換した値を当該ユ
ニットの出力とし、ユニットにおける前記重みを更新す
るときには、出力ユニットの出力値と教師データとの誤
差を求め、前記誤差と当該ユニットのゆらぎと当該ユニ
ットに対する前層のユニット群からの出力との積に関し
て時間平均を計算することにより重みの更新量を求め、
前記更新量に応じて前記重みを修正する。
【0063】本発明において、KL変換用の神経回路網
を用いることにより、各ユニットに加えるべきゆらぎを
発生させることができる。また、重みの更新に際して
は、現在の重みの更新量のみに応じて重みの修正を行な
うほか、一反復前の重みの更新量と現在の重みの更新量
に応じて重みの修正を行なうようにしてもよい。
【0064】
【作用】神経回路網を構成するユニット間の結合値に互
いに無相関なゆらぎを加え、その上で、ゆらぎと教師デ
ータに対する出力誤差と各ユニットへの入力との積の時
間平均を求めることにより、以下に説明するようにして
重み(結合係数)の更新量を求めることができる。すな
わち、従来使用されてきた誤差逆伝搬法によらず、重み
の更新量を求めることが可能になり、かつ、連続非線形
ユニットと線形しきい値ユニットが混在する神経回路網
に対しても、学習を行なうことが可能になる。
【0065】以下、本発明についてさらに詳しく説明す
る。本発明における学習法は、確率的学習法の一種で、
連相関学習法(CCL;Chained Correlation Learning
method)と名付けたものである。はじめに、確率的非巡
回神経回路網の情報伝達諸量について説明する。伝達諸
量の確率分布は、以下の特徴や関係をもつ。
【0066】
【数30】 ただし、
【0067】
【数31】 であり、
【0068】
【外20】
【0069】
【外21】 の要素に関する多重積分、Shは隠れニューロン群を表
す。
【0070】ここで、神経回路網の瞬時誤差e(p,t)
として、以下の2種類を定義する。
【0071】
【数32】 このとき、誤差期待値は、次式となる。
【0072】
【数33】 瞬時出力誤差eの期待値<e>を次式の結合係数
【0073】
【外22】 に関する最急降下法により最小化する。
【0074】
【数34】 式(36)の右辺中の偏微分は以下のように表わせる。ただ
し、以下では、ニューロンkを意味する添え字kを省略
する。
【0075】
【数35】 ただし、右辺中の偏微分は、
【0076】
【数36】 と表わせる。また、式中の
【0077】
【外23】 は、
【0078】
【外24】 を用いて、
【0079】
【数37】 と表わすことができ、
【0080】
【数38】 であることから、式(37)は、
【0081】
【数39】 となる。ここで、ゆらぎの確率密度N(n)に関する微分
方程式
【0082】
【数40】 を満たすg(n)を導入すると、式(40)は次式となる。
【0083】
【数41】 ゆらぎが正規分布にしたがうとして式(41)を解くと、式
(36),(42)より以下の学習式を得る。
【0084】
【数42】 連続非線形ユニットと線形しきい値ユニットの両方に対
して式(27),(28)で情報伝達諸量の確率分布が示され、
以降は両方のユニットを区別していないので、式(43)に
示される学習則は、連続非線形ユニットと線形しきい値
ユニットとが混在する神経回路網にも適用できるもので
ある。
【0085】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。図3は本発明の一実施例の確率的非巡回神
経回路網の学習法の処理手順を示すフローチャート、図
4はこの学習法の実施に使用される装置の一例の構成を
示すブロック図である。
【0086】図3に示すように、本実施例の学習法で
は、まず、学習対象の非巡回神経回路網に入力とその時
の望ましい出力との対を教師データとして与える(ステ
ップ101)。次に、非巡回神経回路網を構成する各ユ
ニットのしきい値に、相互に無相関であり分散が1であ
るゆらぎを加える(ステップ102)。そして、教師デ
ータに対する出力誤差を求め、各ユニットごとに、この
出力誤差とそのユニットに加えられたゆらぎとそのユニ
ットへの入力との積の時間平均を求めることにより、そ
のユニットに対する重み(結合係数)の更新量を求め、
重みの修正を行なう(ステップ103)。以上の処理を
反復することによって、学習が進行する。本実施例にお
いては、神経回路網は、従来用いられている階層型神経
回路網のような層構造をなしている必要はない。また、
ユニットの入出力特性としても連続非線形ユニットのみ
あるいは線形しきい値ユニットのみから構成される神経
回路網のみならず、両方のタイプのユニットが混在して
いる神経回路網にも、本実施例を適用できる。
【0087】次に、本実施例の学習法の実施に使用され
る装置の構成例について、図4を用いて説明する。この
学習装置は、非巡回神経回路網1の学習を行なうための
装置であって、相互に無相関なゆらぎを生成するゆらぎ
生成回路2と、ゆらぎ生成回路2で生成したゆらぎに応
じ、非巡回神経回路網1内の各ユニットのしきい値にゆ
らぎを加えるゆらぎ混入回路3と、ゆらぎや非巡回神経
回路網1の出力誤差などから重みの更新量を計算する重
み更新量計算回路4と、計算された重み更新量を用いて
各ユニットの重み(結合係数)を修正し、非巡回神経回
路網1の学習を行なう学習回路5と、から構成されてい
る。重み更新量計算回路4では、上記のゆらぎと教師デ
ータに対する出力誤差と各ユニットへの入力値との積を
算出し、上述の式(43)によって時間平均を求めることに
より、各ユニットごとの重みの更新量を計算する。
【0088】学習回路5は、例えば、重み更新量計算回
路4により求められた重み更新量に学習率などの係数を
乗じて得た値を各ユニットの重みにそれぞれ加算するこ
とにより、各ユニットの重みを更新・修正する。学習回
路5により重みを修正する方法には、上述の学習率のみ
を乗じる方法だけでなく、一反復前の重みの更新量に慣
性率を乗じた値を現在の重みの更新量に加算する方法な
ど、各種の方法が考えられる。これら、実用的な学習ア
ルゴリズムの具体例を以下に示す。ここで、添え字k
ユニットkを示すのではなく、反復回数kを示してい
る。式(43)により計算される更新量
【0089】
【外25】 を勾配率とし、学習率と慣性率をそれぞれη,βとする
と、収束を加速化した以下のアルゴリズムが考えられ
る。
【0090】
【数43】 また、学習過程における重みの振動が激しい場合には、
振動が発生しないように重みの値を補正する項を付加し
たアルゴリズムを用いることにより、さらに収束を加速
化した以下の式(45)に示すアルゴリズムが考えられる。
ただし、補正係数をγ、補正項を
【0091】
【数44】 とする。
【0092】
【数45】 次に、ユニットのしきい値に混入すべきゆらぎ成分の生
成方法について説明する。ユニットのしきい値に混入す
るゆらぎ成分は、tとTpとをともに整数として、離散
時間系
【0093】
【外26】 の乱数系列群
【0094】
【数46】 の主成分軸群を抽出し、乱数ベクトル
【0095】
【外27】 の各主成分軸への射影ベクトル[KL(カルフーネン-
レーヴ)変換成分]
【0096】
【数47】 を求めることにより、有限標本数Tpの下で不偏かつ相
互に無相関な標本系列として得られる。
【0097】ところでKL変換用の神経回路網が知られ
ており[文献:渡辺一央、伊東英彦、増田一、大堀隆
文;”KL変換用多段接続形パーセプトロン”,信学論
(D-II), J75-D-II, 11, pp.1925-1932(1992)、あるい
は、文献:増田一、大堀隆文;”KL変換用3層構造ニ
ューラルネットワーク”,信学論(D-II), J77-D-II, 2,
pp. 397-404(1994)]、KL変換用の神経回路網を用意
しこれをゆらぎ生成回路として用いることによって、学
習対象の非巡回神経回路網の各ユニットのしきい値に混
入すべきゆらぎを生成することができる。
【0098】図5はKL変換用神経回路網の構成の一例
を示す図である。図5においてユニットは円で示されて
おり、この神経回路網は、N個のユニットからなる入力
層61、R個(ただしRはN以下の整数)のユニットか
らなる中間層62、及びN個の出力ユニットをR列並列
に配置した出力層63からなる3層線形神経回路網であ
る。出力層63で同じ列に属するユニットは、同一の中
間層ユニットとのみ結合している。以下では、図示最左
の中間層ユニットと結合されている出力層のネットワー
ク部分を第1列ネットワークと呼び、以下順次、列に番
号をふることにする。
【0099】出力層63の第r列の出力ベクトル
【0100】
【数48】 が、同じ列に対する入力ベクトル
【0101】
【数49】 と第r−1列の出力ベクトル
【0102】
【外28】 との和、すなわち
【0103】
【数50】 として与えられるように、出力層63の各列間には行方
向を向いた1方向性の水平ネットワークが形成されてい
る。第r列ネットワークの下層(中間層)と上層(出力
層)の重み(結合係数)ベクトルをそれぞれ
【0104】
【数51】 と定め、第r列ネットワークの下層のしきい値ベクトル
(実際にはスカラ量)をφrとし、上層のしきい値ベク
トルを
【0105】
【数52】 と定め、入力標本ベクトルを
【0106】
【数53】 とすると、出力層63の入出力ベクトル
【0107】
【外29】 及び中間層62の出力Zrpは、
【0108】
【数54】 のように表わされる。このようなKL変換用神経回路網
に対し、入力として乱数群
【0109】
【外30】 を与え、この入力と出力層の各列出力との間で並列的に
恒等写像学習を行なわせると、収束後に中間層ユニット
出力群
【0110】
【数55】 により、入力のKL変換成分群が得られる。これに、分
散が等しくなるように比例係数を乗じることにより、完
全に等分散、不偏かつ無相関のしきい値ゆらぎ
【0111】
【数56】 を得ることができる。
【0112】次に、本実施例による連相関学習法の学習
動作を確認するために行なったシミュレーションの結果
を説明する。パターン入力継続期間における標準正規分
布ゆらぎTp=1000(平均値などの条件がない)、
ε=0.1とし、結合係数の初期値を10系列用いて、
XOR課題に適用することにより、シミュレーションを
実行した。図3は連続非線形ユニットのみからなる神経
回路網についてのシミュレーション結果を示し、図4は
線形しきい値ユニットのみからなる神経回路網について
のシミュレーション結果を示している。ただし、連続非
線形ユニットの場合には式(32)で示される誤差関数e
1(p,t)を使用し、線形しきい値ユニットの場合には式
(33)で示される誤差関数e2(p,t)を使用した。どちら
の場合も、10系列の初期値の内、9系列が収束した。
これらのシミュレーション結果から、本実施例の学習法
は、連続非線形ユニットのみ、または、線形しきい値ユ
ニットのみから構成される異なる2種類の神経回路網を
学習させた場合に、誤差逆伝搬法と同等の収束性を有す
ることが示された。
【0113】
【発明の効果】以上説明したように本発明は、神経回路
網を構成するユニット間の結合値に互いに無相関なゆら
ぎを加え、その上で、教師データに対する出力誤差とユ
ニットに加えられたゆらぎとユニットへの入力との積の
時間平均を求めることにより、誤差逆伝搬法によらずに
重みの更新量を求めることが可能になり、かつ、連続非
線形ユニットと線形しきい値ユニットが混在する神経回
路網に対しても学習を行なうことが可能になるという効
果がある。
【図面の簡単な説明】
【図1】並列相関学習法で用いられるニューロンモデル
を示す図である。
【図2】非巡回神経回路網の構成の一例を示す図であ
る。
【図3】本発明の一実施例の確率的非巡回神経回路網の
学習法における処理手順を示すフローチャートである。
【図4】図3に示す学習法の実施に使用される装置の一
例の構成を示すブロック図である。
【図5】ゆらぎの発生に使用されるKL変換用神経回路
網の一例を示す図である。
【図6】連続非線形ユニットからなる神経回路網の学習
についてのシミュレーション結果を示すグラフである。
【図7】線形しきい値ユニットからなる神経回路網の学
習についてのシミュレーション結果を示すグラフであ
る。
【符号の説明】
1 確率的非巡回神経回路網 2 ゆらぎ生成回路 3 ゆらぎ混入回路 4 重み更新量計算回路 5 学習回路 51 ニューロン 61 入力層 62 中間層 63 出力層 101〜103 ステップ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 曽根原 登 東京都千代田区内幸町一丁目1番6号 日 本電信電話株式会社内 (72)発明者 渡辺 一央 北海道札幌市手稲区前田7条15丁目4番1 号 北海道工業大学 電気工学科内 (72)発明者 大堀 隆文 北海道札幌市手稲区前田7条15丁目4番1 号 北海道工業大学 電気工学科内

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 非巡回神経回路網の学習法において、 各ユニットに対応して互いに無相関なゆらぎを発生さ
    せ、 前向き方向の計算を行なうときには、ユニットへの入力
    値と重みとの内積値にバイアス及び前記ゆらぎを加えた
    値を非線形変換した値を当該ユニットの出力とし、 ユニットにおける前記重みを更新するときには、出力ユ
    ニットの出力値と教師データとの誤差を求め、前記誤差
    と当該ユニットのゆらぎと当該ユニットに対する前層の
    ユニット群からの出力との積に関して時間平均を計算す
    ることにより重みの更新量を求め、前記更新量に応じて
    前記重みを修正することを特徴とする確率的非巡回神経
    回路網の学習法。
  2. 【請求項2】 KL変換用の神経回路網を用いてゆらぎ
    を発生させる請求項1に記載の確率的非巡回神経回路網
    の学習法。
  3. 【請求項3】 一反復前の重みの更新量と現在の重みの
    更新量に応じて重みの修正を行なう請求項1または2に
    記載の確率的非巡回神経回路網の学習法。
JP7041752A 1995-03-01 1995-03-01 確率的非巡回神経回路網の学習法 Pending JPH08235146A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7041752A JPH08235146A (ja) 1995-03-01 1995-03-01 確率的非巡回神経回路網の学習法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7041752A JPH08235146A (ja) 1995-03-01 1995-03-01 確率的非巡回神経回路網の学習法

Publications (1)

Publication Number Publication Date
JPH08235146A true JPH08235146A (ja) 1996-09-13

Family

ID=12617162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7041752A Pending JPH08235146A (ja) 1995-03-01 1995-03-01 確率的非巡回神経回路網の学習法

Country Status (1)

Country Link
JP (1) JPH08235146A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022540171A (ja) * 2019-07-10 2022-09-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 人工ニューラルネットワークのよりロバストなトレーニング

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022540171A (ja) * 2019-07-10 2022-09-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 人工ニューラルネットワークのよりロバストなトレーニング

Similar Documents

Publication Publication Date Title
JPH07114524A (ja) 信号処理装置
CN113792858A (zh) 耦合神经网络有界同步及其分布式控制方法
Burse et al. Improved back propagation algorithm to avoid local minima in multiplicative neuron model
Solazzi et al. Regularising neural networks using flexible multivariate activation function
Bui et al. Training artificial neural network using modification of differential evolution algorithm
Yam et al. Determining initial weights of feedforward neural networks based on least squares method
JPH08235146A (ja) 確率的非巡回神経回路網の学習法
CN109697511B (zh) 数据推理方法、装置及计算机设备
JP7010541B2 (ja) パターン認識装置、学習方法及び学習プログラム
Gorse et al. A pulse-based reinforcement algorithm for learning continuous functions
JP3508783B2 (ja) パルス密度型信号処理回路網における結合係数更新方法並びに結合係数更新装置
Sabeti et al. Hybrid evolutionary algorithms based on PSO-GA for training ANFIS structure
JP3262340B2 (ja) 情報処理装置
JPH09185596A (ja) パルス密度型信号処理回路網における結合係数更新方法
Li et al. An enhanced training algorithm for multilayer neural networks based on reference output of hidden layer
Kamimura et al. Copy of neural loop circuits for memory and communication
Anusha et al. Modeling of neural image compression using gradient decent technology
Goyal et al. Implementation of back propagation algorithm using MATLAB
Liou et al. Data flow design for the backpropagation algorithm
JPH04353963A (ja) 神経回路網の構築装置および方法
JPH04275630A (ja) メンバシップ関数の構成方法
JPH0696046A (ja) ニューラルネットワークの学習処理装置
Thethi et al. Efficient System Identification using a Low Complexity Nonlinear Network with Differential Evolution and its variant based Training Schemes
JPH04275633A (ja) メンバシップ関数の構成方法
JP3338713B2 (ja) 信号処理装置