JPH0421155A - 学習機械 - Google Patents

学習機械

Info

Publication number
JPH0421155A
JPH0421155A JP2127361A JP12736190A JPH0421155A JP H0421155 A JPH0421155 A JP H0421155A JP 2127361 A JP2127361 A JP 2127361A JP 12736190 A JP12736190 A JP 12736190A JP H0421155 A JPH0421155 A JP H0421155A
Authority
JP
Japan
Prior art keywords
learning
output
weight change
weight
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2127361A
Other languages
English (en)
Inventor
Shigeo Sakagami
茂生 阪上
Toshiyuki Koda
敏行 香田
〆木 泰治
Taiji Shimeki
Hideyuki Takagi
英行 高木
Hayato Togawa
戸川 隼人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2127361A priority Critical patent/JPH0421155A/ja
Publication of JPH0421155A publication Critical patent/JPH0421155A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
産業上の利用分野 本発明はデータ処理装置の学習機械に関するものである
。 従来の技術 従来の学習機械としては、例えば、テーイ、イー、ルン
メルハルト(D、E、Rummelhart)らによる
 「ラーニング−i/76リ セーノiイション  ハ
ーイ  ハーツクフ0ロバ6y−イテイシク−エラー」
ネイチャー(”Learning  represen
tations  by  back−propaga
ting errors”、 Nature) Vo1
、323 No、9(198G)に示されている。第7
図にこの従来の学習機械の構成図を示す。第7図におい
て、201.202は入力端子、203.204.20
5.206.207.208は可変重み乗算器、209
.210.211は飽和人出力特性を持つ加算器、21
2は出力端子、213は教師信号発生部、214は誤差
算出部、215は最急降下方向決定部、216は重み変
更部、217は学習回路、218.219.220は多
入力一出力回路、221は出力層、222は隠れ層であ
る。 第7図に示されるように、多入力一出力回路218.2
19および220は可変重み乗算器203・・・と飽和
人出力特性を持つ加算器209・・・を備えている。即
ち、第5番目の多入力一出力回路の出力信号はy[jl
  =  fnc(Σ(w[i+  jl  *  y
[iコ))−−−−(1)で表される。ここに、y[i
]は前段の層の第1番目の多入力一出力回路の出力信号
であり、w[i、jlは前段の層の第1番目の多入力一
出力回路の出力信号が第5番目の多入力一出力回路に人
力される時に掛けられる重みである。 fncOは飽和特性を持つ関数でシグモイド関数等で表
される。第8図に、前記のfncOで表される、飽和人
出力特性を持つ加算器209.210及び211の特性
関数のグラフを示す。 学習機械は、このような多入力一出力回路を階層状に接
続した構成になっており、その学習の進め方は次の通り
である。 まず、入力信号に対して望ましい出力信号(以下、教師
信号と呼ぶ)を出力するように、可変重み乗算器203
,204,205,206,207および208で掛け
られる重みを変更する。重みの変更方法としては、まず
教師信号と出力層の出力信号とから、誤差E  =  
0.5  *  Σ Σ(↑p[J]  −yp[、+
コ )2= E (W)・・・・(2) を求める。ここに、yp[J]は第9番目の入力信号に
対する出力層の第5番目の多入力一出力回路の出力信号
、tJJ]はy、[J]に対する教師信号、Σは全ての
教師信号に関する総和、 Σは出力層の全ての 多入力一出力回路に関する総和、Wは重みw [i 、
 j ]を成分とするベクトル(以下Wを重みベクトル
と呼ぶ)である、(2)式で示されるように誤差Eは教
師信号と出力層の出力信号との差の2乗和て表され、重
みベクトルWの関数となる。 そして、学習中に、それら重みを変更し、教師信号と実
際の出力信号との差、即ち誤差を最小化する。重みの変
更量は AW ニーE*  ” E  + cx *AW”””
(3)θW によって決定される。ここで、εは学習パラメータと呼
ばれる正の定数、αは加速パラメータと呼ばれる正の定
数であり、 θW (2)式で表される誤差Eの重みw[i、jlによる微
分を成分とするベクトルで、最急降下方向と呼ばれる。 ΔW′は、前回の学習における重み変更量のベクトル表
現である。 第9図に、この従来の学習機械の学習回路217の構成
図を示す。第9図において、223は出力層出力の入力
端子、224は隠れ層比力の入力端子、225は入力信
号の入力端子、226は出力層の重みの出力端子、22
7は隠れ層の重みの出力端子である。従来の学習機械の
学習回路217では、教師信号発生部213が入力信号
に対する教師信号(望ましい出力信号)七〇[jlを発
生する。誤差算出部214は、教師信号t。 [jlと出力層の出力信号y、[jlとから、(2)式
で表される誤差Eを算出する。誤差算出部214は重み
の変更のために必要な教師信号と出力信号との差信号t
p[jl −y。[jlを、最急降下方向決定部215
に出力する。最急降下方向決定部215は前記差信号、
出力層出力信号、隠れ層比力信号、入力信号及び出力層
の重みをもとに、重みなベクトルで表現する重み空間に
おける誤差Eの、最急降下方向を求める。 最急降下方向は、 −〇E(w)  ・・・・(4) g =  − θW で求まる。(4)式の右辺は、誤差Eの重み
【こよる微
分のベクトル表現である。最急降下方向決定部215は
、最急降下方向に学習パラメータを掛けて、重み変更部
216に出力する。重み変更部216は、(3)式によ
って重み変更量を求め、各可変型み乗算器203.20
4.205.206.207および208で掛ける重み
を変更する。以上のように最急降下法によって重みの変
更量を求めることの繰り返しにより、誤差を小さくして
ゆき、誤差が十分に小さくなると、出力信号が望ましい
値に十分近くなったものとして、学習を終了する。 第1O図は、従来の学習機械の学習回路217の更に詳
しい内容を示すブロック図を示す図である。第10図に
おいて、228は学習終了判定部、229及び230は
微係数算出部、231は出力層微係数記憶部、232は
δ記憶部、233はδ木Wバッファ、234は隠れ層微
係数記憶部、235は入力信号記憶部、236.237
.238.239及び240は乗算器、241.242
.243及び244は加算器、245及び246は学習
パラメータ乗算器、247は出力層の重み記憶部、24
8は隠れ層の重み記憶部である。 第1O図を用いて、以下に学習回路217の動作を更に
詳細に説明する。最急降下方向決定部215が出力する
重み変更量は、 で表される。ここにw[i、jlは第j番目の多入力一
出力回路に人力される前段の層の第1番目の多入力一出
力回路の出力信号に掛けられる重み、6wg[i、 j
lはw[i、jlの最急降下方向に間する変更量、εは
学習パラメータである。(5)式は変形されて、・・・
・(6) ただし net、[jコ  =  Σ (w[i、   jl 
  ネ  yp[+])であり、yp[+]は第2番目
の入力信号に対する前段の屡の第1番目の多入力一出力
回路の出力信号である。 (6)式はさらに変形されて、 6wg[i、jコ =ε*  Σ(8w、[jl  *
  yJil)(7)たたし、 となる。以下、式の変形は、第3番目の多入力一出力回
路が出力層にあるときと、第3番目の多入力一出力回路
が隠れ層にあるときとで異なる。 ・第3番目の多入力一出力回路が出力層にある時で表さ
れる。 ただし fnc(neL[jl)は出力層の各多大カー出力回路
の特性関数(:yJ、+])である。り2)式を用いて
、この式はさらに変形されて、結局・・・・(9) と表すことができる。第1o図において、加算器241
が(9)式における( tp[Jl−yp[、+])を
計算し、微係数係数記憶部231を介して、乗算器23
6でが計算される。この値はδW 9 [J ]なので
8記憶部232に記憶される。乗算器237でδW p
 [J ]と隠れ層出力yp[i]との積を求め、乗算
器245で学習パラメータεを掛けて、(7)式で表さ
れるΔw、[i、j]を求める。(7)式のΔw g[
i 、 j ]に前回の学習における重み変更量のα倍
を加算して、(3)式で表される重み変更量Δw [i
 、 j ]を求め、加算器243で変更前の重みとの
和を求め、出力層の重み記憶部247に記憶されている
出力層の重みを変更する。 ・第j番目の多入力一出力回路が隠れ屑にある時θne
t、[Jl て表される。ただし、 net、[kl   ”   Σ (w[j、   k
l   ネ  yp[jコ)で、w[j、 klは第3
番目の多入力一出力回路の出力yp[、+]が次段の層
の多入力一出力回路に入力される時に掛けられる重みで
ある。 (8)式を用いて、この式はさらに変形されて
、結局 ・・・・(■0) となる。第1O図において、乗算器238がδ記憶部2
32の出力δWD[klと出力層の重みw[j、klと
の積を求め、δ木Wバッファ233と加算器242によ
ってΣ(δWい[kl*w[j、kl)を求める。微係
数算出部23微係数記憶部234を介して乗算器239
に人力され、前記Σ(δw、[k]*w[j、kl)と
の積より(10)式のに δW p [J ]が求められる。乗算器240て入力
信号y。 [i]と掛け、乗算器246で学習パラメータεとの積
を求め、(7)式で表されるΔW2[I、Jlを求める
。 (7)式のΔw、[i、j]に前回の学習における重み
変更量のα倍を加算して、(3)式で表される重み変更
量Δw [i 、 j ]を求め、加算器244で変更
前の重みとの和を求め、隠れ層の重み記憶部248に記
憶されている隠れ層の重みを変更する。 以上のように、出力層の出力信号と教師信号との誤差を
減らすために、出力信号と教師信号との差信号から、ま
ず出力層の重みの変更量を求め、出力層側から入力端に
向かってIIIJf次重みの変更量を求める。この学習
アルゴリズムは誤差逆伝搬法と呼ばれる。 発明が解決しようとする課題 しかしながら上記のような構成では、学習パラメータε
及び加速パラメータαは経験的に定められるかもしくは
試行錯誤で求められた固定の値が用いられているので、
それらは必ずしも最適値ではなく、学習に要する時間が
長くなるという課題を有していた。また重みの変更方向
としては、誤差Eの重みによる微分(1!IIち最急降
下方向)を用いており、重みの変更方向としては必ずし
も最適でないという課題を有していた。また、それ以上
学習を進めても誤差が減少しないという非効率的な状態
に学習が陥るという課題を有していた。 本発明はかかる点に鑑み、教師信号(望ましい出力信号
)と実際の出力信号との誤差を最小化する方法として、
誤差を最小化する方向を動的に設定しながら学習を進め
ることによって、学習に要する時間の短い学習機械を提
供することを目的とするつ 本発明の他の目的は、学習パラメータの最適値を動的に
設定して学習を進めることによって、学習に要する時間
が短い学習機械を提供することである。 本発明の他の目的は、それ以上学習を進めても誤差が減
少しない非効率的状態に学習が陥っていることを検出す
ると、重みを調整しなおして学習を再開することにより
、学習時間の短い学習機械を提供することである。 課題を解決するための手段 本発明は、入力信号の加重和に飽和特性を持つ特性関数
で非線形処理を施して出力する複数の多入力一出力回路
を有する隠れ層と、前記隠れ層の出力信号の加重和に飽
和特性を持つ特性関数で非線形処理を施して出力する多
入力一出力回路を有する出力層と、前記出力層の望まし
い出力信号を発生する教師信号発生部と、前記教師信号
発生部の出力と前記出力層の出力との誤差を最小化する
ための重み変更方向を複数の方向から選択して決定する
重み変更方向決定部と、重み変更方向に関して複数の学
習パラメータに対する重み変更量を出力する直線探索部
と、前記直線探索部で求められた重み変更量より重み変
更量を選択する重み変更部と、学習をそれ以上進めても
誤差が効率的に減少しない不適当な状態に陥フているこ
とを重み変更方向が最急降下方向でありしかも誤差の減
少率がある値よりも小さいことによって検出する不適学
習状態検出部とを備えたことを特徴とする学習機械であ
る。 作用 本発明は前記した構成により、隠れ層及び出力層で入力
信号に重み付けをして加算し、非線形処理を施して出力
信号を求め、教師信号発生部が出力する望ましい出力信
号と出力層の出力信号との誤差を最小化するために、重
み変更方向決定部で重みの変更方向を決定した後、直線
探索部で複数の学習パラメータに対する重み変更量を求
め、不適学習状態検出部で学習が不効率な状態に陥って
いないかどうか調べながら、重み変更部で誤差が最小と
なる学習パラメータに対する重み変更量によって各重み
を変更する。以下同様に、重みの変更方向において誤差
が最小となる学習パラメータを用いて重みを変更する動
作を繰り返して誤差を十分に小さくする。以上により、
重みの変更方向が決まるとその方向において最適な学習
パラメータを動的に設定し、最適な学習パラメータを用
いて重みを変更して誤差を小さくすることによって、短
い学習時間で誤差が十分に小さくなり、学習を終了する
ことができる。 本発明では、誤差を最小化するために、前記した構成の
重み変更方向決定部で、重みの変更方向を複数の方向か
ら選択して決定する。複数の重み変更方向としては、例
えは最急降下方向および共役勾配方向から選択してもよ
い。重みの変更方向としては、最急降下方向は、現在の
重みの値のごく近傍においては最も少ない重みの変更量
で最も誤差の減少量が大きいという意味で、局所的には
最も効率のよい方向である。それに対して、共役勾配方
向は、前回までの学習における重みの変更方向とは異な
る方向に重みを変更するという意味で、大局的にみて最
も効率のよい方向である。したがって、本発明では、重
みの変更方向をこれら複数の重み変更方向から選択して
動的に決定し、最適な重み変更方向を用いることによっ
て、学習に要する時間を短縮する。 本発明では、前記した構成の不適学習状態検出部で、最
急降下方向に重みを変更しても、誤差の減少率がある値
よりも小さいことにょフて検出すると、学習が非効率的
状態に陥ったものと判断し、重みを調整しなおして学習
を再開することにより、学習が非効率的状態に陥ること
を避け、学習に要する時間を短縮する。 実施例 第1図は本発明の実施例における学習機械の構成図を示
すものである。第1図において、1及び2は入力端子、
3.4.5.6.7及び8は可変重み乗算器、9、lO
及び11は飽和入出力特性をもつ加算器、12は出力端
子、13は教師信号発生部、14は誤差算出部、15は
共役勾配方向決定部、21は出力層、22は隠れ層、6
5は重み変更部、66は学習パラメータ初期化部、67
は直線探索部、77は隠れ層積和記憶部、92は不適学
習状態検出部、93は学習回路、94.95及び96は
多入力一出力回路である。本実施例の学習機械は、可変
重み乗算器と飽和人出力特性を持つ加算器からなる多入
力一出力回路を、階層状に接続した構成となっている。 入力信号に対して、各多入力一出力回路で重み付けして
加算し、各加算器の特性関数によって非線形処理を施し
て、出力信号を求める。本実施例の学習機械の学習にお
いては、出力層21の出力と教師信号発生部13の出力
とが等しくなるように、可変重み乗算器3,4,5゜6
.7および8で掛けられる重みを変更する。これらの重
みを成分とするベクトルを重みベクトルと呼ぶと、重み
ベクトルの変更量をベクトルで表すことができる。この
重みの変更ベクトルの向きを重みの変更方向と呼ぶ。本
実施例では、重みの変更方向として共役勾配方向を用い
る。共役勾配方向は、 d=g   +  β   零  d ゛ ・・・ ・
(11)て与えられる。ただし、gは(4)式で与えら
れる最急降下方向であり、βは で与えられる定数であり、d′は前回の学習における共
役勾配方向、1g′1 は前回の学習における最急降下
方向g′のベクトルのノルムである。なお初回の学習に
おける重み変更方向は、最急降下方向に決定する。 第2図に本実施例の学習回路93の構成図を示す。 第2図において、23は出力層出力の入力端子、24は
隠れ層出力の入力端子、25は入力信号の入力端子、2
6は出力層の重みの出力端子、27は隠れ層の重みの出
力端子、73及び74は加算器、75は重み記憶部、8
4は隠れ層出力の出力端子、85.86及び87は乗算
器、88は入力信号と変更方向との積和記憶部、89は
入力信号と重みとの積和記憶部、90は加算器、91は
非線形変換部である。本実施例の学習機械の学習回路9
3ては、教師信号発生部13は入力信号に対する出力層
の出力として望ましい信号を教師信号として与え、誤差
算出部!4は教師信号と実際の出力信号との差信号を出
力する。共役勾配方向決定部15は、この差信号をもと
に重みの変更方向を最急降下方向もしくは兵役勾配方向
に決定する。直線探索部67は複数の学習パラメータに
対する重み変更量を求め、隠れ層積和記憶部77は各学
習パラメータに対する隠れ層の出力信号を求め、誤差算
出部14は各学習パラメータに対する誤差を求め、重み
変更部65はこれらの誤差のうちで最小の誤差に対する
学習パラメータを用いて重みを変更する。 本実施例の学習機械では、不適学習状態検出部92で、
重み変更前の誤差と重み変更後の誤差を比較し、重み変
更方向が最急降下方向であり、しかも誤差の減少率があ
る値よりも小さいことを検出すると、それ以上学習を進
めても効率的に誤差が減少しない状態に学習が陥ったも
のと判断し、重みを乱数で初期化しなおして学習を再閉
する。 第3図は共役勾配方向決定部15の詳細を示すブロック
図である。第3図において、28は最急降下方向算出部
、29は共役勾配方向算出部、30は重み変更方向決定
部、31は学習回数計数部、32は出力層の重みの入力
端子、33は出力層の重み変更方向の出力端子、34は
隠れ層の重み変更方向の出力端子、35は差信号の入力
端子、36および37は微係数算出部、38は出力N微
係数記憶部、39は隠れ層微係数記憶部、40はδ記憶
部、41は今回の出力層の最急降下方向記憶部、42は
前回の出力層の最急降下方向記憶部、43はβ算出部、
44は前回の出力層重み変更方向記憶部、45.46.
47.4B、 49.50及び51は乗算器、52は加
算器、53はδ*Wバッファ、54は入力信号記憶部、
55は今回の隠れ層の最急降下方向記憶部、56は前回
の隠れ層の最急降下方向記憶部、58は前回の隠れ層重
み変更方向記憶部、59および60は重み変更方向切替
部、63および64は加算器である。 第3図を用いて、共役勾配方向決定部15の動作を詳細
に説明する。最急降下方向算出部28は、第1O図に示
される従来の学習機械の最急降下方向決定部215とほ
ぼ同じ構成となっており、乗算器46が出力層の重みに
関する最急降下方向を出力し、乗算器50が隠れ層の重
みに関する最急降下方向を出力する。これらの最急降下
方向を表す信号は、重み変更方向決定部30の重み変更
方向切替部59.60と、共役勾配方向算出部29の今
回の出力層の最急降下方向記憶部41及び今回の隠れ層
の最急降下方向記憶部55に出力される。今回の出力層
の最急降下方向記憶部41及び今回の隠れ層の最急降下
方向記憶部55に記憶されている今回の学習における最
急降下方向と、前回の出力層の最急降下方向記憶部42
及び前回の隠れ層の最急降下方向記憶部56に記憶され
ている前回の学習における最急降下方向とをもとに、β
算出部43は(12)式を用いてβを求める。乗算器4
8.51は前回の学習の重み変更方向d′とβとの積を
求め、加算器63.64によって最急降下方向との和が
求まり、共役勾配方向として重み変更方向決定部30の
重み変更方向切替部59.60に出力される。以上のよ
うにして重み変更方向切替部59.60には、最急降下
方向及び共役勾配方向が入力される。一方、学習回数計
数部31は学習回数を数えており、重みの個数と等しい
回数に1回の学習では最急降下方向を重みの変更方向と
するように選択信号を出力する。本実施例では、可変重
み乗算器3.4.5.6.7および8で掛けられる重み
は6個あるので、6回に1回の学習では最急降下方向を
重み変更方向とし、それ以外の回数の学習では共役勾配
方向を重み変更方向とするように選択信号を出力する。 この選択信号にしたがフて、重み変更方向切替部59.
60は重みの変更方向を最急降下方向と共役勾配方向と
で切り替える。 以上のようにして、共役勾配方向決定部15では、重み
の変更方向を求める。 (2)式で表されるように、誤差Eは重みベクトルの関
数なので、可変重み乗算器3,4,5,6.7及び8の
重みをベクトルで表す重み空間における曲面として表す
ことができる。これを誤差曲面と呼ぶ。 第4図に本実施例の動作を示す誤差曲面の等高線の模式
図を示す。第4図において、w[i+、 j+]及びw
[i2. j2コは可変重み乗算器3,4,5,6,7
及び8のうち任意の2つの可変重み乗算器の重み、Wn
は乱数で初期化された重みの値のベクトル表示、g8は
初回の学習における最急降下方向、Plは初回の学習に
おける誤差最小点、81はPieこおける最急降下方向
、dlはPlにおける共役勾配方向、P2は第2回目の
学習における誤差最小点である。 本実施例の学習機械の学習においては、最初に全ての可
変重み乗算器の重みを乱数で初期化するが、これは第4
図に示される誤差曲面における出発点(Wθ)を乱数で
設定することに相当する。学習の目的は、第4図の出発
点から始めて、誤差曲面上で誤差の小さくなる方向に重
みを変更することによって、誤差最小点の探索を繰り返
し、大局的誤差最小点に達することである。初回の学習
で(4)式によって求めた最急降下方向gg3を重みの
変更方向とし、goの方向において誤差が最小となる点
を求める。 これをglIの方向に対する直線探索と呼ぶ。学習パラ
メータ初期化部66は直線探索における学習パラメータ
の初期値として適当な正の値を出方する。 第5図に誤差曲面の出発点とPlとの閏の断面図を示す
。第5図において、ε1は学習パラメータ初期化部66
によフて設定される学習パラメータの初期値であり、 εに:εト1ネ2        (k > 1)・・
・・(13)であり、E k(k≧0)は学習パラメー
タεkに対する誤差、即ち てあり、ε、は誤差曲面を近似した放物線の頂点におけ
る学習パラメータの値、Evは学習パラメータε7に一
対する誤差である。第6図は本実施例の学習機械の直線
探索における動作を示すPAD図(Problem A
nalysis Diagram)である。 第6図に示されるように直線探索においては、まず学習
パラメータの初期値ε1に対する誤差を求める。直線探
索部67は学習パラメータの初期値ε1に共役勾配方向
を掛けて、学習パラメータの初期値ε1に対する重みの
変更量を求め、重み変更部65に出力する。重み変更部
65では、加算器73で出力層の重み変更量と出力層の
重みとの和を求め、加算器74で隠れ層の重み変更量と
隠れ層の重みとの和を求め、学習パラメータの初期値ε
1に対する重みを出力層の重みの出力端子26及び隠れ
層の重みの出力端子27から出力する。これらの重みを
用いて出力層21で出力信号が求められ、誤差算出部1
4で教師信号と出力信号とを比較して誤差を求める。こ
のようにして学習パラメータの初期値ε1に対する誤差
の初期値E1が求められる。第6図のPAD図に示され
るように、直線探索部67は誤差の初期値E1と誤差曲
面の出発点における誤差E11との値の大きさを比較し
、Elが、E8より小さくなったときには、もつと大き
な値の学習パラメータに対する誤差の方が小さいことが
期待てきるので、学習パラメータεの値を2倍にすると
いう動作を誤差の値が増加に転するまで繰り返す。第5
図に示す初回の学習ではE+くEeなので学習パラメー
タεの値を2倍にして誤差を求めるという動作を繰り返
すと、Es > E+ > E2 < E3となるため
、直線探索部67はε3に対する重み変更量まで求める
。なお学習パラメータの初期値に対する誤差E1が、誤
差の最初の値Eθより増加したときには、もっと小さな
値の学習パラメータに対する誤差の方が小さいことが期
待できるので、直線探索部67は学習パラメータの値を
1/2倍するという動作を、誤差が誤差の最初の値E[
!より小さくなるまで繰り返す。次に直線探索部67て
は、誤差最小点の近傍を放物線で近似するために、重み
空間内で重みの値が等間隔に変化する点での誤差を求め
る。即ち、ε2.5 ” (ε2+ε3)/2・・・・
(15)によって〜 εどε1=ε2,5−ε2=ε3
−ε25とし、ε245に対する誤差 E2.5 =  E(w  + ε2.5  ’t  
gll)      ・・・・(16)を求める。第5
図においてはE2.5 <E2 < E3<E+なので
、これらのうちで誤差が最小となる3点を通る放物線で
誤差最小点の近傍の誤差曲面を近似し、その頂点におけ
る誤差を求める。即ち、によって誤差曲面の放物線近似
の頂点の学習パラメータを求め、最急降下方向g[+と
ε9とを掛けて重み変更量を求め、重み変更部65で学
習パラメータε、に対する重みの値を設定し、出力層2
1において出力信号を求め、誤差算出部14において誤
差Evを算出する。直線探索部67は、以上のようにし
て求められた誤差E v y E 2 g E 2 、
5 ? E 3を比較し、それらの中で最も小さな誤差
E2.5を与える学習パラメータε25に対する重みの
変更量ε25ネgsを求めて出力する。重み変更部65
において、加算器73. 74で前記重み変更量ε2 5*g[!と重み記憶部 75に記憶されている重みwlIとの和を求め、新たな
重みとして重み記憶部75に記憶される。このようにし
て、重みか に変更される。以上が初回の学習である。第2回目の学
習では、重み空間においてwlて表される点P1におけ
る共役勾配方向d1を共役勾配方向決定部15で求め、
2回目の学習における重みの変更方向とする。学習パラ
メータ初期化部66は、学習パラメータの初期値を、初
回の学習ではε1とし、2回目以後の学習では前回の重
み変更ここ用いた学習パラメータの値もしくはε1のう
ち大きい方の値に決定する。即ち、2回目以後の学習で
は、前回の学習パラメータの最適値がε1よりも大きい
ときには前回の学習パラメータの最適値が学習パラメー
タの初期値となり、前回の学習パラメータの最適値がε
1よりも小さいときにはε1が学習バラメ−タの初期値
となる。これによフて、前回の学習パラメータの最適値
を今回の学習における学習パラメータの初期値とし、今
回の学習に最適な学習パラメータの設定を効率良く行う
ことができると同時に、前回の学習パラメータの最適値
が小さい場合に、それを今回の最小点探索の学習パラメ
ータの初期値として用いて、誤差曲面の局所的最小点に
陥り誤差曲面の大局的最小点に達することができなくな
ることを防ぐことができる。直線探索、部67てはdl
の方向に対して学習パラメータを2倍もしくは1/2倍
して、誤差が小さくなる重みの近傍おいて誤差曲線を放
物線近似して、d】の方向において誤差が最小となる重
みを求めて、第2回目の学習における誤差最小点P2に
達する。以上のように、本実施例の学習機械では、共役
勾配方向に対する直線探索を繰り返して学習を進めるこ
とによって、学習パラメータの最適値を動的に設定して
誤差を小さくしてゆき、大局的誤差最小点に近づいてゆ
く。 本実施例では、第2図に示したように、隠れ層積和記憶
部77を用いて隠れ層の出力信号を求める。 入力信号yo[ilに対する隠れ層の出力信号yp[j
lはyJ、、+] =fnc(Σ(w[+、 J]ネy
p[+]))  ・・・−(18)て表される。ただし
、w[i、jlは入力信号yp[ilが隠れ層の第3番
目の多入力一出力回路に人力されるとき掛けられる重み
、fncOは隠れ層の加算器の特性関数で、飽和特性を
もつ非線形関数である。 共役勾配方向決定部15で求めた重みの変更方向dのw
[i、jlの変更量に対応する成分をd[+、jlで表
すと、学習パラメータεに対する隠れ層の出力信号yp
[、+]は、 となり、yp[jlを求める度に、入力信号数の2倍の
回数の乗算を行う必要がある。 本実施例では、 A、[jl : Σ(w[i、JE  *  yp[i
コ)         −−−−(20)を、入力信号
と重みとの積和記憶部89に記憶し、BD[JE” Σ(d[i、j]ネyJi])     ・・・・(2
1)を、入力信号と変更方向との積和記憶部88に記憶
しておくことによって、学習パラメータεに対する隠れ
層の出力信号yp[jlを、 yp[JE  : fnc(Σ((w[i、jコ+ε*
d [+ 、JE)*yp[iコ))=  fnc(Σ
(w[i、j]ネyp[+])+ εネΣ(d [i、
jコネyp[iコ))= fnc(Ap[jl4ε*B
 p[jl)     ”(22)によって求める。即
ち、入力信号と変更方向との積和記憶部88の出力B 
D[JEに、乗算器87において学習パラメータεを掛
けて、加算器90で、入力信号と重みとの積和記憶部8
9の出力Ap[jlとの和(A p [J ]+ε*B
D[Jコ)を求める。非線形変換部91では、加算器9
0の出力に隠れ層の加算器の特性関数fncOに等しい
非線形変換を施し、(22)式で表されるyp[jlを
求める。これによって、重みの変更方向dに対する直線
探索において、演算回数を大幅に削減でき、学習時間の
短縮が図れる。 以上のように本実施例によれば、不適学習状態検出部9
2で、学習が非効率な状態に陥ったことを検出すると、
重みを調整しなおして学習を再開することにより、学習
が非効率的状態に陥ることを避け、学習に要する時間を
短縮する。また、隠れ層積和記憶部77において、入力
信号と重みとの積和及び入力信号と隠れ層の重み変更方
向との積和を記憶しておくことによって、重みの変更方
向dに対する直線探索において、直線探索における演算
回数を大幅に削減でき、学習時間の短縮が図れる。本実
施例によると、直線探索部67て複数の学習パラメータ
に対する重みの変更量を求め、重み変更部65で誤差が
最小となる重み変更量で重みを変更することにより、重
みの変更方向に対して最適な学習パラメータを動的に設
定して重みを変更することができ、学習に要する時間が
短縮される。 また、兵役勾配方向決定部15で、共役勾配方向もしく
は最急降下方向を、重み変更方向として求めることによ
り、学習に要する時開が短縮される。 なお本実施例では、学習パラメータ初期化部66は、学
習パラメータの初期値を、初回の学習ではε1とし、2
回目以後の学習では前回の学習における学習パラメータ
の最適値もしくはε1のうち大きい方の値に決定したが
、学習パラメータの初期値は常に固定の値ε1としても
よい。 また、本実施例では、共役勾配方向決定部15で、重み
の変更方向は求められた共役勾配方向もしくは最急降下
方向としたが、変更方向は常に最急降下方向としてもよ
い。また共役勾配方向決定部15で重みの変更方向を、
重みの個数と等しい回数に1回の学習では最急降下方向
とし、それ以外の回数の学習では共役勾配方向としたが
、重みの個数の半分に等しい回数に1回の学習では最急
降下方向とし、それ以外の回数の学習では共役勾配方向
としてもよい。また共役勾配方向に対する直線探索にお
いて、重み変更量をある値より小さくしても誤差が減少
しないとき、重み変更方向を最急降下方向に切り替えて
もよい。 また、本実施例では、不適学習検出部92は重み変更方
向が最急降下方向であり、しかも誤差の減少率がある値
よりも小さいことによって、不適学習状態を検出したが
、重みの絶対値がある値よりも大きいことによって検出
してもよい。また、本実施例では、全ての重みを乱数で
初期化することによフて重みを調整したが、全ての重み
を一律に圧縮することによって重みを調整しても良いし
、重みの絶対値が最も大きな重みのみを圧縮してもよい
。 また、本実施例では、隠れ層22は入力信号を処理して
出力層に出力する多入力一出力回路から成っていたが、
階層状に接続された多入力一出力回路によって構成して
もよい。また本実施例では、2個の入力信号に対して1
個の出力信号を出力したが、これらの人出力信号の個数
は何個でもよい。 発明の詳細 な説明したように、本発明によれば、重み変更方向を複
数の方向から動的に選択して重みを変更し、最適な学習
パラメータを動的に設定し、学習が非効率的状態に陥っ
ていることを検出すると重みを調整でき、学習機械の学
習時間を短縮できる。
【図面の簡単な説明】
第1図は本発明の一実施例における学習機械のブロック
図、第2図は同実施例の学習回路のブロック図、第3図
は同実施例の共役勾配方向決定部の詳細ブロック図、第
4図は同実施例の動作を示す誤差曲面の等高線の模式図
、第5図は同実施例の誤差曲面の出発点とPlとの閏の
断面図、第6図は本実施例の直線探索における動作を示
すPAD図、第7図は従来の学習機械のブロック図、第
8図は同従来例の加算器の特性関数のグラフ、第9図は
同従来例の学習機械の学習回路のブロック図、第10図
は同従来例の学習機械の学習回路の詳細ブロック図であ
る。 1、2・・・入力端子、12・・・出力端子、 13・
・・教師信号発生部、14・・・誤差算出部、15・・
・共役勾配方向決定部、21・・・出力層、22・・・
隠れ層、65・・・重み変更部、67・・・直線探索部
、77・・・隠れ層積和記憶部、92・・・不適学習状
態検出部、93・・・学習回路。

Claims (4)

    【特許請求の範囲】
  1. (1)入力信号の加重和に飽和特性を持つ特性関数で非
    線形処理を施して出力する複数の多入力一出力回路を有
    する隠れ層と、前記隠れ層の出力信号の加重和に飽和特
    性を持つ特性関数で非線形処理を施して出力する多入力
    一出力回路を有する出力層と、前記出力層の望ましい出
    力信号を発生する教師信号発生部と、前記教師信号発生
    部の出力と前記出力層の出力との誤差を最小化するため
    の重み変更方向を複数の方向から選択して決定する重み
    変更方向決定部と、重み変更方向に関して複数の学習パ
    ラメータに対する重み変更量を出力する直線探索部と、
    前記直線探索部で求められた重み変更量より重み変更量
    を選択する重み変更部と、学習をそれ以上進めても誤差
    が効率的に減少しない不適当な状態に陥っていることを
    、重み変更方向が最急降下方向でありしかも誤差の減少
    率がある値よりも小さいことによって検出する不適学習
    状態検出部とを備えたことを特徴とする学習機械。
  2. (2)入力信号の加重和に飽和特性を持つ特性関数で非
    線形処理を施して出力する複数の多入力一出力回路を有
    する隠れ層と、前記隠れ層の出力信号の加重和に飽和特
    性を持つ特性関数で非線形処理を施して出力する多入力
    一出力回路を有する出力層と、前記出力層の望ましい出
    力信号を発生する教師信号発生部と、前記教師信号発生
    部の出力と前記出力層の出力との誤差を最小化するため
    の重み変更方向を複数の方向から選択して決定する重み
    変更方向決定部と、重み変更方向に関して複数の学習パ
    ラメータに対する重み変更量を出力する直線探索部と、
    前記直線探索部で求められた重み変更量より重み変更量
    を選択する重み変更部と、入力信号と前記隠れ層の重み
    との積和および入力信号と前記隠れ層の重みの変更方向
    との積和を記憶する隠れ層積和記憶部と、学習をそれ以
    上進めても誤差が効率的に減少しない不適当な状態に陥
    っていることを、重み変更方向が最急降下方向であり、
    しかも誤差の減少率がある値よりも小さいことによって
    、検出する不適学習状態検出部とを備えたことを特徴と
    する学習機械。
  3. (3)教師信号発生部の出力と前記出力層の出力との誤
    差を最小化するための重み変更方向を共役勾配方向もし
    くは最急降下方向に決定する重み変更方向決定部を備え
    たことを特徴とする請求項1または2記載の学習機械。
  4. (4)直線探索部で求められた重み変更量のうち誤差が
    最小となる重み変更量で重みを変更する重み変更部を備
    えたことを特徴とする請求項1、2または3記載の学習
    機械。
JP2127361A 1990-05-16 1990-05-16 学習機械 Pending JPH0421155A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2127361A JPH0421155A (ja) 1990-05-16 1990-05-16 学習機械

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2127361A JPH0421155A (ja) 1990-05-16 1990-05-16 学習機械

Publications (1)

Publication Number Publication Date
JPH0421155A true JPH0421155A (ja) 1992-01-24

Family

ID=14958052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2127361A Pending JPH0421155A (ja) 1990-05-16 1990-05-16 学習機械

Country Status (1)

Country Link
JP (1) JPH0421155A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9455609B2 (en) 2010-09-16 2016-09-27 Robert Bosch Gmbh Electric motor with a power output stage and with efficient heat transport and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9455609B2 (en) 2010-09-16 2016-09-27 Robert Bosch Gmbh Electric motor with a power output stage and with efficient heat transport and method

Similar Documents

Publication Publication Date Title
Becker et al. Improving the convergence of back-propagation learning with second order methods
US5784304A (en) Adaptively controlled filter
EP0629969A1 (en) Artificial neuron and method of using same
JPH08297716A (ja) ニューラル・ネットワーク用の適応型重み調整回路
KR920006792B1 (ko) 다입력-출력회로를 계층형상으로 접속한 학습기계
US5485547A (en) Recognition unit and recognizing and judging apparatus employing same
JPH09503602A (ja) 学習ニューラルネットワークおよびその方法
JPH07191950A (ja) 計算ネットワーク
JPH0421155A (ja) 学習機械
EP0474222A2 (en) Learning machine with a hierarchical structure without mutual connections within levels thereof
JP2760170B2 (ja) 学習機械
El-Sharkawi et al. Static security assessment of power system using Kohonen neural network
JPH0424756A (ja) 学習機械
JP3262340B2 (ja) 情報処理装置
JPH0462658A (ja) 学習機械
JPH10198646A (ja) 神経回路網型逐次学習方法および装置
JPH064677A (ja) 認識判断装置
KR100445911B1 (ko) 시간차 신경망을 이용한 고립단어 인식을 위한 하드웨어구조
JPH07325797A (ja) 学習型認識判断装置
JPH0683798A (ja) 学習認識装置
JPH0736184B2 (ja) 学習機械
Patyra et al. Processing of incomplete fuzzy data using artificial neural networks
JP2570893B2 (ja) 信号処理装置
Ascia et al. A dedicated parallel processor for fuzzy computation
JPH06295292A (ja) 学習認識装置