JPH0367358A - 学習機械 - Google Patents

学習機械

Info

Publication number
JPH0367358A
JPH0367358A JP1203326A JP20332689A JPH0367358A JP H0367358 A JPH0367358 A JP H0367358A JP 1203326 A JP1203326 A JP 1203326A JP 20332689 A JP20332689 A JP 20332689A JP H0367358 A JPH0367358 A JP H0367358A
Authority
JP
Japan
Prior art keywords
output signal
input
signal
output
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1203326A
Other languages
English (en)
Inventor
Toshiyuki Koda
敏行 香田
〆木 泰治
Taiji Shimeki
Shigeo Sakagami
茂生 阪上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1203326A priority Critical patent/JPH0367358A/ja
Priority to DE69013716T priority patent/DE69013716T2/de
Priority to EP90301810A priority patent/EP0384709B1/en
Priority to US07/481,316 priority patent/US5129038A/en
Priority to KR1019900002310A priority patent/KR920006793B1/ko
Publication of JPH0367358A publication Critical patent/JPH0367358A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明はデータ処理装置の学習機械に関するものであも 従来の技術 従来の学習機械としては、 例えばり、 E、 Rum
elhart、 G、 E、Hinton and R
,J、Williamsによる”LearningRe
presentations by Back−Pro
pagatingErrors、’ Nature、 
vol、323. pp、533−536. Oct、
 91986)に示されていも この従来の学習機械(
上第6図に示すように出力信号算出部と重み係数更新部
とからなり、前記出力信号算出部は層構造をも執 各層
内相互の結合がなく、上位層にのみ信号が伝搬するよう
にネットワーク接続された複数の多入力−出力信号処理
部60から構成される。
各多入力−出力信号処理部60はそれに接続されている
下層の多入力−出力信号処理部60の出力とその接続の
度合である重み係数とを掛合わせたものの総和をしきい
値関数で変換した後、その値を上層への出力として伝達
する働きをしている。
重み係数更新部は、 前記出力信号算出部の入力部61
から入力される信号に応じて、教師信号発生部62が前
記入力信号に対する望ましい出力信号を教師信号tkと
して発生し 誤差信号算出部63において前記出力信号
算出部から出力される実際の出力信号□k(obiよ 
出力信号算出部における最上位層の第に番目の多入力−
出力信号処理部60の出力を表す。)と前記教師信号t
kとの差から誤差 E =0.5 (t b−o h) ”が計算され こ
の値で現在の結合状態(重み係数の大きさ)でのネット
ワークの性能を評価すもこのようにして計算された誤差
Eをもとに重み変更量算出部64は前記出力信号算出部
の重み係数の変更量△W + 1を次式に基づいて計算
する。
△WIJ”  −εaE/θW ここで、 εは学習レートと呼ばれる正の定数である。
以上のように重みの更新を繰返すことにより、誤差Eを
小さくしていき、誤差Eが十分小さくなると、出力信号
が望ましい値に十分近くなったものとして、学習を終了
すも 発明が解決しようとする課題 しかしながら上記のような構成では、 誤差の値が十分
小さくなっている多入力−出力信号処理部についても誤
差Eの値が減少すれば重みを更新するので学習効率が悪
く、学習に要する時間が長くなるという課題を有してい
た 本発明はかかる点に鑑へ 学習に要する時間の・短い学
習機械を提供することを目的とする。
課題を解決するための手段 第一の発明(表 層構造をもち、 各層内相互の結合が
なく、上位層にのみ信号が伝搬するようにネットワーク
接続された複数の多入力−出力信号処理部からなる出力
信号算出部と、この出力信号算出部で得られた出力信号
をもとに前記出力信号算出部の重み係数の値を更新する
重み係数更新部とを具備し 前記多入力−出力信号処理
部?t、  複数の重み係数を保持するメモリと、複数
のデータを入力する入力部と、この入力部からの入力デ
ータを前記メモリに貯えられた重み係数で重み付けする
乗算手段と、この乗算手段で重み付けされた複数のデー
タを多数加え合わせる加算手段と、この加算手段の出力
を一定範囲の値に制限するしきい値処理部とを備え 前
記重み係数更新部(友 上記出力信号算出部の出力信号
の望ましい値として教師信号を与える教師信号発生部と
、前記出力信号と前記教師信号との誤差を求める誤差信
号算出部と、この誤差信号算出部の出力に応じて前記メ
モリに蓄えられた重み係数の変更量を計算する重み変更
量算出部と、前記誤差信号算出部の出力がしきい値以下
であるかどうかを判定する誤差信号判定部と、この誤差
信号判定部において誤差の値がしきい値以下と判定され
た場合には前記重み係数変更量をゼロにする重み変更量
制御部とを備えた学習機械であも また第二の発明(上 上記誤差信号判定部の出力を計数
し全ての出力信号がしきい値以下の場合に飛越し信号を
出力する飛越し判定部と、前記飛越し信号に応じて上記
重み変更量算出部における重み変更操作をとばす重み変
更量制御部とを備えた学習機械であも 作   用 第−の発明は上記構成により、誤差の大きさが十分小さ
い多入力−出力信号処理部については、重み係数変更量
をゼロとすることによって重み変更はしないの玄 学習
効率が向上し 学習に要する時間を短縮することができ
る。
また 第二の発明は入力データに対して全ての多入力−
出力信号処理部の誤差がしきい値以下で十分小さい場合
、飛越し信号を出力して重み変更操作をとばすので、学
習効率が向上するだけでなく、演算量が大幅に削減でき
るので、学習に要する時間が短縮できる。
実施例 第1図は、 本発明の第1の実施例における学習機械の
構成図を示すものである。
同図において、 1は出力信号算出部 2はこの出力信
号算出部1で得られた出力信号をもとに前記出力信号算
出部1の重み係数の値を更新する重み係数更新部である
。出力信号算出部1(上 第2図に示すように多段の回
路網的構成をしており、3は多入力−出力信号処理に4
は出力信号算出部1の入力部である。
このような出力信号算出部1を構成する多入力−出力信
号処理部3の構成を具体的に示したものが第3図であも
 同図において、 5は多入力−出力信号処理部3の入
力部 6は入力部5からの複数入力を重み付ける重み係
数を格納するメモリ、7はメモリ6の重み係数と入力部
5からの入力を各々掛は合わせる乗算器 8は乗算器7
の各々の出力を足し合わせる加算機 9は加算器8の出
力を一定範°囲の値に制限するしきい値処理部であもし
きい値処理部9の入出力特性を第4図に示す。
例えば 出力を(0,1)の範囲に制限するしきい値処
理部9の入出力特性は f (1,)  = 1 / (1+exp(−I+θ
))   (1)と数式的に表現できも ここ玄 工は
しきい値処理部9の入力であも な耘 しきい値処理部
9の入出力特性としては上記以外のしきい値開数でもよ
賎 重み係数更新部2の構成図を第1図に示す。 lOは教
師信号発生部 I工は誤差信号算出if2は重み変更量
算出部 13は重み変更量制御部14は誤差信号判定部
であも 以上のように構成された本実施例の学習機械について、
以下その動作を説明する。
出力信号算出部1の入力部4に入力信号が入力されると
、各多入力−出力信号処理部3 (i  この多入力−
出力信号処理部3に接続されている下層の多入力−出力
信号処理部3の出力とメモリ6に記憶されているその接
続の度合である重み係数とを乗算器7により掛合わせ、
前記乗算器7の各々の出力の総和を加算器8で計算した
後、しきい値処理部9で変換しその値を上層の多入力−
出力信号処理部3へ出力する。つまり、第3図に示す多
入力−出力信号処理部3は、 入力部5への入力値をo
j(下層のj番目の多入力−出力信号処理部の出力)、
メモリ6に格納されている重み係数をWj(i番目の多
入力−出力信号処理部と下層のj番目の多入力−出力信
号処理部との結合重み)とすれば o+=f(ΣWN OJ)       (2)」 を計算しているわけであも 重み係数更新部2(上 前記出力信号算出部1の入力部
4から入力される信号に応じて、教師信号発生部10が
前記入力信号に対する望ましい出力信号を教師信号tk
として発生し 誤差信号算出部11において前記出力信
号算出部1から出力される実際の出力信号Qkと前記教
師信号tkとの差か板 最上位層におけるに番目の多入
力−出力信号処理部3の誤差 E =0.5 (t k−o k) 2(3)が計算さ
へ この値で現在の結合状態(重み係数の大きさ)での
ネットワークの性能を評価する。
このようにして計算された誤差Eをもとに重み変更量算
出部12は前記出力信号算出部1のメモリ6に記憶され
ている重み係数の変更量△WIJを次式に基づいて計算
する。
△WIJ”  −εθE / a wz       
(4)ここで、 εは学習レートと呼ばれる正の定数で
ある。
重み変更量制御部13ζよ 誤差信号判定部14におい
て誤差1tk oklがしきい値Tより小さいと判定さ
れた場合に 前記出力信号算出部1における最上位層の
重み係数変更量を「0」にする。
以上のようにして、重みの更新を繰返すことにより、誤
差を小さくしていき、誤差が十分小さくなると、出力信
号が望ましい値に十分近くなったものとして、学習を終
了すん このように本実施例によれは 誤差の大きさがが十分小
さい多入力−出力信号処理部3については重み変更はし
ないので、学習効率が向上し 学習に要する時間を短縮
することができる。
第5図は、 本発明の第2の実施例における学習機械の
構成図を示すものであも 同図に示す本実施例の重み係数更新部2において、 1
0は教師信号発生K  11は誤差信号算出R,12は
重み変更量算出数 23は重み変更量制御訊 14は誤
差信号判定敵 24は飛越し判定部である。な抵 出力
信号算出部1とその多入力−出力信号処理部3とは第1
の実施例(第2図〜第4図)と同様である。
以上のように構成された本実施例の学習機械について、
以下その動作を説明すも 出力信号算出部lの入力部4に入力信号が入力されると
、各多入力−出力信号処理部3ば この多入力−出力信
号処理部3に接続されている下層の多入力−出力信号処
理部3の出力とメモリ6に記憶されているその接続の度
合である重み係数とを乗算器7により掛合わせ、前記乗
算器7の各々の出力の総和を加算器8で計算した後、し
きい値処理部9で変換しその値を上層の多入力−出力信
号処理部3へ出力する。つまり、第3図に示す多入力−
出力信号処理部3は 入力部5への入力値をor  (
下層のj番目の多入力−出力信号処理部の出力)、メモ
リ6に格納されている重み係数をwz(i番目の多入力
−出力信号処理部と下層の3番目の多入力−出力信号処
理部との結合重み)とすれば o+=f(ΣWll  OJ)          (
2)を計算しているわけである。
重み係数更新部2は、 前記出力信号算出部lの入力部
4から入力される信号に応じて、教師信号発生部10が
前記入力信号に対する望ましい出力信号を教師信号tb
として発生し 誤差信号算出部11において前記出力信
号算出部1から出力される実際の出力信号Qkと前記教
師信号tkとの差か板 最上位層におけるに番目の多入
力−出力信号処理部3の誤差 E=0.5 (tk−ok) ”      (3)が
計算され この値で現在の結合状態(重み係数の大きさ
)でのネットワークの性能を評価する。
このようにして計算された誤差Eをもとに重み変更量算
出部12は前記出力信号算出部lのメモリ6に記憶され
ている重み係数の変更量△w + +を次式に基づいて
計算すも △w++=  −εθE/c?wz       (4
)ここで、 εは学習レートと呼ばれる正の定数である
誤差信号判定部14(亀 誤差ltk oblがしきい
値Tより小さいかどうかを調べ判定結果として誤差がし
きい値より大きい時は「0」を、小さいときは「1」を
飛越し材定部24に出力する。
飛越し判定部24は、 前記判定結果を計数し 最上位
層の全ての多入力−出力信号処理部3の誤差tb−ok
lがしきい値以下の隊 飛越し信号を出力すa 重み変
更量制御部23は、 飛越し判定部24が飛越し信号を
発生した時、重み変更量算出部12における重み変更操
作を飛ばすように制御する。
以上のようにして、重みの更新を繰返すことにより、誤
差を小さくしていき、誤差が十分小さくなると、出力信
号が望ましい値に十分近くなったものとして、学習を終
了する。
このように本実施例によれば 入力データに対して全て
の多入力−出力信号処理部3の誤差が十分小さい場合、
重み変更量算出部12における重み変更操作を飛ばすの
玄 学習効率が向上するだけでなく、演算量が大幅に削
減できるので、学習に要する時間が短縮できも 発明の詳細 な説明したように 第一の発明によれば 誤差信号判定
敵 重み変更量制御部を設けたことにより、誤差の大き
さが十分小さい多入力−出力信号処理部における重み変
更はしないので、学習効率が向上し 学習に要する時間
を短縮することが。
できる。
また 第二の発明によれば 飛越し判定敵 重み変更量
制御部を設けたことにより、入力データに対して全ての
多入力−出力信号処理部の誤差の大きさが十分小さい場
合、重み変更量算出部における重み変更操作を飛ばすの
で、学習効率が向上するだけでなく、演算量が大幅に削
減できるので学習に要する時間が短縮でき、その実用的
効果は犬き鶏
【図面の簡単な説明】
第1図は本発明の第1の実施例における学習機械の構成
は 第2図は同実施例における出力信号算出部の構成は
 第3図は同実施例における多入力−出力信号処理部の
構成阻 第4図は同実施例におけるしきい値処理部の入
出力特性は 第5図は本発明の第2の実施例における学
習機械の構成@ 第6図は従来の学習機械の構成図であ
も1・・・出力信号算出@2・・・重み変更量算出部3
・・・多入力−出力信号算出部 5・・・入力敵 6・
・・メモリ、 7・・・乗算a 8・・・加算法 9・
・・しきい値処理敵 10・・・教師信号発生ff1L
  11・・・誤差信号算出!  12・・・重み変更
量算出部13、23・・・重み変更量制御部 14・・
・誤差信号判定餓24・・・飛越し判定訛

Claims (2)

    【特許請求の範囲】
  1. (1)層構造をもち、各層内相互の結合がなく、上位層
    にのみ信号が伝搬するようにネットワーク接続された複
    数の各入力−出力信号処理部からなる出力信号算出部と
    、この出力信号算出部で得られた出力信号をもとに前記
    出力信号算出部の重み係数の値を更新する重み係数更新
    部とを具備し、前記多入力−出力信号処理部は、複数の
    重み係数を保持するメモリと、複数のデータを入力する
    入力部と、この入力部からの入力データを前記メモリに
    貯えられた重み係数で重み付けする乗算手段と、この乗
    算手段で重み付けされた複数のデータを多数加え合わせ
    る加算手段と、この加算手段の出力を一定範囲の値に制
    限するしきい値処理部とを備え、前記重み係数更新部は
    、上記出力信号算出部の出力信号の望ましい値として教
    師信号を与える教師信号発生部と、前記出力信号と前記
    教師信号との誤差を求める誤差信号算出部と、この誤差
    信号算出部の出力に応じて前記メモリに蓄えられた重み
    係数の変更量を計算する重み変更量算出部と、この誤差
    信号算出部の出力がしきい値以下であるかどうかを判定
    する誤差信号判定部と、この誤差信号判定部において誤
    差の値がしきい値以下と判定された場合には前記重み係
    数変更量をゼロにする重み変更量制御部とを備えたこと
    を特徴とする学習機械。
  2. (2)層構造をもち、各層内相互の結合がなく、上位層
    にのみ信号が伝搬するようにネットワーク接続された複
    数の多入力−出力信号処理部からなる出力信号算出部と
    、この出力信号算出部で得られた出力信号をもとに前記
    出力信号算出部の重み係数の値を更新する重み係数更新
    部とを具備し、前記多入力−出力信号処理部は、複数の
    重み係数を保持するメモリと、複数のデータを入力する
    入力部と、この入力部からの入力データを前記メモリに
    貯えられた重み係数で重み付けする乗算手段と、この乗
    算手段で重み付けされた複数のデータを多数加え合わせ
    る加算手段と、この加算手段の出力を一定範囲の値に制
    限するしきい値処理部とを備え、前記重み係数更新部は
    、上記出力信号算出部の出力信号の望ましい値として教
    師信号を与える教師信号発生部と、前記出力信号と前記
    教師信号との誤差を求める誤差信号算出部と、この誤差
    信号算出部の出力に応じて前記メモリに蓄えられた重み
    係数の変更量を計算する重み変更量算出部と、前記誤差
    信号算出部の出力がしきい値以下であるかどうかを判定
    する誤差信号判定部と、この誤差信号判定部の出力を計
    数し全ての出力信号が前記しきい値以下の場合に飛越し
    信号を出力する飛越し判定部と、前記飛越し信号に応じ
    て前記重み変更量算出部における重み変更操作をとばす
    重み変更量制御部とを備えたことを特徴とする学習機械
JP1203326A 1989-02-23 1989-08-04 学習機械 Pending JPH0367358A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP1203326A JPH0367358A (ja) 1989-08-04 1989-08-04 学習機械
DE69013716T DE69013716T2 (de) 1989-02-23 1990-02-20 Lernmaschine.
EP90301810A EP0384709B1 (en) 1989-02-23 1990-02-20 Learning Machine
US07/481,316 US5129038A (en) 1989-02-23 1990-02-20 Neural network with selective error reduction to increase learning speed
KR1019900002310A KR920006793B1 (ko) 1989-02-23 1990-02-23 학습기계

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1203326A JPH0367358A (ja) 1989-08-04 1989-08-04 学習機械

Publications (1)

Publication Number Publication Date
JPH0367358A true JPH0367358A (ja) 1991-03-22

Family

ID=16472163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1203326A Pending JPH0367358A (ja) 1989-02-23 1989-08-04 学習機械

Country Status (1)

Country Link
JP (1) JPH0367358A (ja)

Similar Documents

Publication Publication Date Title
JPH07121495A (ja) 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法
EP0384709B1 (en) Learning Machine
JPH04114263A (ja) 学習機械
JPH0451384A (ja) ニューラルネットワークの構築方法
JP3303032B2 (ja) ニューラルネット学習装置
JPH0367358A (ja) 学習機械
JPH04229362A (ja) 学習機械
JPH05101028A (ja) 複数特徴量の統合判定方法
JP2779119B2 (ja) 学習認識装置
JP3262340B2 (ja) 情報処理装置
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JP3412700B2 (ja) 神経回路網型パターン学習方法およびパターン処理装置
JPH0233655A (ja) 神経回路網型パターン処理装置
JPH04662A (ja) 学習機械
Nakashima et al. How to design a regularization term for improving generalization
JPH02222062A (ja) 学習機械
JPH0644207A (ja) ニューラルネットワーク及びその構成方法
JPH07325797A (ja) 学習型認識判断装置
JPH0451386A (ja) ニューラルネットワーク及びその構築方法
Teixeira et al. Recurrent neural gas in electric load forecasting
Lin et al. Neural net-based H∞ control for a class of nonlinear systems
JPH0744195A (ja) 音声認識用リカレントニューラルネットワーク
JPH03196358A (ja) 学習機械
JPH0424756A (ja) 学習機械
JPH0451383A (ja) ニューラルネットワーク