JP3232597B2 - ニューラルネットワークの学習装置 - Google Patents
ニューラルネットワークの学習装置Info
- Publication number
- JP3232597B2 JP3232597B2 JP24477391A JP24477391A JP3232597B2 JP 3232597 B2 JP3232597 B2 JP 3232597B2 JP 24477391 A JP24477391 A JP 24477391A JP 24477391 A JP24477391 A JP 24477391A JP 3232597 B2 JP3232597 B2 JP 3232597B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- error
- neural network
- data
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Feedback Control In General (AREA)
Description
クの学習装置に関する。詳しくは、学習の進行状況に応
じて学習の継続か終了かを指令することにより、学習を
効果的に完了させるようにした装置に関する。
析が困難な因果関係を結合係数の学習効果により直接的
に実現する回路網として知られている。即ち、ニューラ
ルネットワークは、予め、離散的な複数の入力に対し
て、それぞれの入力に対して最適な出力が得られるよう
に、ニューラルネットワークの結合係数を学習してお
き、任意の入力に対して妥当な出力が直接的に得られる
ようにした回路網である。
の分野で応用されており、工作機械の分野においても、
多くの設定条件から要求された加工に最適な加工条件を
演算するのに用いられている。
ワークは多数の入力データとその入力データに対応する
出力の最適値、即ち、教師データを用いて学習される。
ある入力データと対応する教師データの1つの組に対し
て、出力データが教師データに近づく方向に全結合係数
を補正するという演算を、入力データと教師データの全
ての組に対して実行するのが1回の学習演算となる。
とで、全ての結合係数は全ての入力データに対して対応
する教師データが出力される方向に逐次補正されて、最
終的にある値に漸近する。結合係数がある値に漸近する
までの学習回数は、学習させる入出力特性にもよるが、
数十万回から数百万回にも及ぶ。従って、学習演算の打
切りを結合係数がある値に漸近したことにより判定する
と、学習に長時間必要となる。
トワークを用いている装置では、通常、ニューラルネッ
トワークを使用していく過程で、入力データとその入力
データに対応する最適な出力である教師データとを蓄積
しておき、ニューラルネットワークの出力が適性な出力
を示さなくなった場合に、適宜、ニューラルネットワー
クをその蓄積されたデータに基づいて学習させることが
行われている。
十万回から数百万回にも及ぶ学習演算が実行され、学習
の完了に長時間を必要とする。従って、学習をしている
間、数値制御装置が学習演算に占有されて、他の処理が
できないという問題がある。又、ニューラルネットワー
クの学習が完了するまでは、そのニューラルネットワー
クを用いた加工条件の演算が開始できないという問題が
ある。このように、長時間に渡る学習演算は作業性の低
下の原因となっていた。
たものであり、その目的は、学習演算の切上げを効率良
く行うようにすることである。
うに、入力データと教師データとに基づいてニューラル
ネットワークに学習させる学習装置において、入力デー
タと教師データの多数の組を記憶したデータ記憶手段X
1と、多数の入力データに対して、対応する教師データ
が出力されるようにニューラルネットワークの結合係数
を逐次補正して、ニューラルネットワークに所定の入出
力関係を学習させる学習手段X2と、学習の進行の程度
を表した学習誤差を演算する誤差演算手段X3と、学習
誤差が所定値より小さいか否を判定する誤差判定手段X
4と、学習回数が所定回数に達したか否かを判定する回
数判定手段X5と、学習誤差を表示する学習誤差表示手
段X6と、回数判定手段により所定回数の学習が完了し
たと判定された場合には、さらに、所定回数の学習を継
続するか否かを指令する継続有無指令手段X7と、誤差
判定手段により学習誤差が所定値より小さいと判定され
た場合には学習を終了させ、継続有無指令手段により継
続指令が付与された場合には、学習手段を起動してさら
に指定された所定回数の学習を継続し、継続有無指令手
段により非継続指令が付与された場合には学習を終了す
る学習制御手段X8とを設けたことである。
び教師データに基づいて、学習手段により、結合係数の
補正による学習演算が実行される。この学習演算の進行
に伴って、学習の進行の程度を表した学習誤差が誤差演
算手段により演算され、誤差判定手段により学習誤差が
所定値よりも小さいか否かが判定される。学習誤差が所
定値より小さいならば、学習制御手段により学習終了と
なる。学習誤差が所定値よりも大きいならば、回数判定
手段により学習回数が所定値に達したか否かが判定され
る。学習誤差は学習誤差表示手段により表示される。作
業者はこの表示された学習誤差を判読して、学習を更に
継続するか許容される程度に学習誤差が零に収束して、
学習を打ち切っても良い場合には、継続有無指令手段に
より非継続の指令を付与し、継続学習が必要な場合には
継続指令を付与する。この結果、学習制御手段は継続指
令が付与された場合には、学習手段を起動して、さら
に、次の所定回数の学習演算を実行させる。
きく、所定回数の学習演算が完了した時に、表示された
学習誤差の変動傾向を見て、学習を継続するか打ち切る
かの指令を与えることができる。従って、学習誤差の収
束が遅くなった時に、不必要に学習演算を繰り返すこと
がないので、効率の良い学習が達成される。
AM3とから成るコンピュータシステムで構成されてい
る。ROM2には入力データと教師データの蓄積を管理
する制御プログラムの記憶された制御プログラム領域2
1とニューラルネットワークの演算プログラムの記憶さ
れたニューラルネットワーク領域22とニューラルネッ
トワークを学習させるためのプログラムの記憶された学
習プログラム領域23が形成されている。又、RAM3
には蓄積される入力データ及び教師データをそれぞれ記
憶する入力データ記憶領域31及び教師データ領域3
2、ニューラルネットワークの結合係数を記憶する結合
係数領域33とが形成されている。又、CPU1には入
出力インタフェース5を介して学習を継続すべきか打ち
切るべきかの指令を与えるためのキーボード4と学習誤
差と学習回数との関係を表示するCRT6が接続されて
いる。
ように、入力層LI と出力層LO と中間層LM の3層構
造に構成されている。入力層LI はe個の入力素子を有
し、出力層LO はg個の出力素子を有し、中間層LM は
f個の出力素子を有している。多層構造のニューラルネ
ットワークは、一般的に、次の演算を行う装置として定
義される。
式で演算される。但し、i ≧2 である。
のバイアス、Wi-1 k, i jは、第i-1 層の第k 番目の素子と
第i 層の第j 番目の素子間の結合係数、O1 j は第1 層の
第 j番目の素子の出力値を表す。即ち、第1 層であるか
ら演算を行うことなく、そのまま入力を出力するので、
入力層(第1層)の第j 番目の素子の入力値でもある。
ットワーク10の具体的な演算手順について図2を参照
して説明する。各素子の演算は、RAM3の結合係数記
憶領域33に記憶されている結合係数を参照しつつ、R
OM2のニューラルネットワーク領域22に記憶された
プログラムを実行することによって行われる。ステップ
100において、中間層(第2層)の第j 番目の素子
は、入力層(第1層)の各素子からの出力値O1 j (第1
層の入力データ)を入力して、(2)式を層番号と第1
層の素子数を用いて具体化した次式の積和演算を行な
う。
り、(4)式の入力値の積和関数値のシグモイド関数に
より、中間層(第2層)の各素子の出力が演算される。
第2層の第j 番目の素子の出力値は次式で演算される。
となる。次に、ステップ104において、出力層(第3
層)の各素子の入力値の積和演算が実行される。
シグモイド関数により、出力層の各素子の出力値O3 jが
演算される。
は、図5に示すようなデータベースに構成されている。
入力データは、D1,…,Dn であり、対応する教師デー
タは、E1,…,En である。このn個の入力データ及び
教師データは、ニューラルネットワークの初期学習又は
初期学習後のニューラルネットワークを現実に使用した
過程で蓄積されたデータである。この入力データは、次
のように定義される。e個の入力素子のそれぞれに与え
るe個のデータを1組のデータとして考える。そして、
任意の第m番目の1組の入力データをDm で表し、その
組に属する第j番目の入力素子に対する入力データをd
mjで表す。Dm はベクトルを表し、dmjはそのベクトル
の成分である。即ち、Dm は次式で定義される。
れる。以下、全n組の入力データ群は、入力データ群D
と表記される。尚、入力データDm に対して(4)式を
用いる場合には、(4)式のO1 k に、成分dmk が代入さ
れる。
される。出力層LO に関して、g個の出力素子のそれぞ
れからの出力に対する教師データを1組のデータとして
考える。そして、任意の第m番目の1組の教師データを
Em で表し、その組に属する第j番目の出力素子に対す
る教師データをemjで表す。Em はベクトルを表し、e
mjはそのベクトルの成分である。即ち、Em は次式で定
義される。
れる。以下、全n組の教師データ群は、教師データ群E
と表記される。
M2の学習プログラム領域23に記憶された図3に示す
手順のプログラムが実行されることにより学習される。
結合係数の学習は良く知られたバックプロパーゲーショ
ン法により実行される。この学習は、各種の事象に関す
る多数の入力データに対して、それぞれの出力が、それ
ぞれの最適な教師データとなるように、繰り返し実行さ
れる。これらの入力データ及び教師データは、それぞ
れ、入力データ記憶領域31及び教師データ記憶領域3
2に記憶されている。
号iが初期値の1に設定され、出力素子の番号j(教師
データの成分番号j)が初期値の1に設定される。次
に、ステップ202へ移行して、第i番目の入力データ
Di と第i番目の教師データEi が入力データ記憶領域
31と教師データ記憶領域32から抽出される。次に、
ステップ204において、次式により出力層のその成分
に対応した素子の学習データY が演算される。
いる。f'(x) はジグモイド関数の導関数である。又、I3
j は、入力データDi の各成分を(4)式のO1 kに代入
して、中間層の全ての素子に関しI2 k を求め、I2 k を
(5)に代入して中間層の全ての素子に関し出力O2 kを
求め、その全てのk に関してO2 kを(6)式に代入して
求められる。又、O3 j はI3 j を(7)式に代入して求め
られる。
子について、学習データが演算されたか否かが判定さ
れ、判定結果がNOの場合には、ステップ208におい
て、素子番号jが1だけ増加され、ステップ204へ戻
り、次の出力素子に関する学習データが演算される。
データの演算が完了したと判定されると、ステップ21
0において、中間層の任意の第r番目の素子に関する学
習データY が次式で演算される。
して実行される。
各結合係数が補正される。補正量は次式で求められる。
間層の第i 番目の素子との間の結合係数の第t 回目演算
の変化量である。又、Δω2 i, 3 j(t-1) は、その結合係
数の前回の補正量である。P,Q は比例定数である。よっ
て、結合係数は、
の各素の結合係数が補正される。その結合係数の補正量
は出力層の場合と同様に、次式で求められる。
のn個の入力データ及び教師データに対して1回の学習
が完了したか否が判定される。全ての入力データに対す
る学習が終了していない場合には、ステップ218へ移
行して、次の入力データとその入力データに対応する教
師データを入力データ記憶領域31と教師データ記憶領
域32から読み込むためにデータ番号iが1だけ加算さ
れ、成分番号jは初期値の1に設定される。そして、ス
テップ202へ戻り、次の入力データ及び教師データを
用いて上記した学習が実行される。
び教師データに関して学習が完了したと判定されると、
ステップ220に移行して、学習誤差ΔLが演算され
る。学習誤差ΔLは次式で演算される。
さ、δijは入力データDi に関する出力誤差の第j成
分、即ち、出力層の第j番目の素子の出力誤差である。
Oijは入力データDi に関する出力の第j成分、eiJは
その出力に関する教師データの第j成分である。nは入
力データ又は教師データの数、gは出力層の素子数であ
る。よって、学習誤差ΔLは、n個の入力データに関す
る出力誤差の平均値を表している。
ΔLが所定値より小さいか否かが判定される。学習誤差
ΔLが所定値よりも小さいならば、所定の学習効果が得
られたのであるから、学習終了となる。学習誤差ΔLが
所定値よりも大きいと判定された場合には、ステップ2
24へ移行して、学習回数が所定値に達したか否かが判
定される。学習回数が所定回数(例えば一万回)に達し
ていない場合には、ステップ202に戻り、次の所定回
数までの学習演算が繰り返される。
された場合には、CRT6に図6に示すような学習回数
に対する学習誤差ΔLの関係が表示される。作業者はこ
の表示の予測部分(塗られた部分)を見て、学習がかな
り収束しているか、未だ、学習する効果が残されている
か等の判断をする。そして、作業者は、時間を掛けて学
習を継続してもあまり学習効果は向上しないので学習を
打ち切っても良いと判定した場合には、キーボード4を
操作して非継続指令を与える。逆に、作業者は、さらに
時間を掛けても学習を継続した方がより学習効果が向上
すると判定した場合には、継続指令を与える。
ーボード4から継続指令又は非継続指令を読み込み、次
のステップ230でその指令が継続指令か否かを判定す
る。継続指令であれば、ステップ224で判定される次
の学習回数を判定するための所定学習回数が更新され
て、ステップ200に戻り、次の所定学習回数に向けて
上述した学習演算が繰り返される。
束傾向を途中で見ることができ、さらに、時間をかけて
学習させるべきか、時間をかけて学習させるまでもない
かを判定することが可能となる。よって、無用に長時間
学習が継続実行されることがないので、有効な学習が達
成される。
トワークの構成を示した構成図。
手順を示したフローチャート。
手順を示したフローチャート。
図。
力データと教師データを有するデータベースのデータ構
成を示した構成図。
の関係を示した説明図。
Claims (1)
- 【請求項1】 入力データと教師データとに基づいてニ
ューラルネットワークに学習させる学習装置において、 前記入力データと前記教師データの多数の組を記憶した
データ記憶手段と、 多数の入力データに対して、対応する教師データが出力
されるようにニューラルネットワークの結合係数を逐次
補正して、ニューラルネットワークに所定の入出力関係
を学習させる学習手段と、 学習の進行の程度を表した学習誤差を演算する誤差演算
手段と、 前記学習誤差が所定値より小さいか否を判定する誤差判
定手段と、 学習回数が所定回数に達したか否かを判定する回数判定
手段と、 前記学習誤差を表示する学習誤差表示手段と、 前記回数判定手段により所定回数の学習が完了したと判
定された場合には、さらに、所定回数の学習を継続する
か否かを指令する継続有無指令手段と、 前記誤差判定手段により前記学習誤差が所定値より小さ
いと判定された場合には学習を終了させ、前記継続有無
指令手段により継続指令が付与された場合には、前記学
習手段を起動してさらに指定された所定回数の学習を継
続し、前記継続有無指令手段により非継続指令が付与さ
れた場合には学習を終了する学習制御手段とを設けたこ
とを特徴とするニューラルネットワークの学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24477391A JP3232597B2 (ja) | 1991-08-29 | 1991-08-29 | ニューラルネットワークの学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24477391A JP3232597B2 (ja) | 1991-08-29 | 1991-08-29 | ニューラルネットワークの学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0554013A JPH0554013A (ja) | 1993-03-05 |
JP3232597B2 true JP3232597B2 (ja) | 2001-11-26 |
Family
ID=17123703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24477391A Expired - Fee Related JP3232597B2 (ja) | 1991-08-29 | 1991-08-29 | ニューラルネットワークの学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3232597B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6400750B2 (ja) | 2017-01-26 | 2018-10-03 | ファナック株式会社 | 学習制御機能を備えた制御システム及び制御方法 |
-
1991
- 1991-08-29 JP JP24477391A patent/JP3232597B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0554013A (ja) | 1993-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3637412B2 (ja) | 時系列データ学習・予測装置 | |
JP6947108B2 (ja) | データ予測装置、方法、及びプログラム | |
EP0384709B1 (en) | Learning Machine | |
JP3232597B2 (ja) | ニューラルネットワークの学習装置 | |
US5596681A (en) | Method of determining an optimal number of neurons contained in hidden layers of a neural network | |
JPH07121498A (ja) | ニューラルネットワーク構築方法 | |
JPH0581228A (ja) | ニユーラルネツトワークの構成方法および学習/想起システム | |
JPH0561849A (ja) | ニユーラルネツトワークの入出力特性検出装置 | |
JPH0554014A (ja) | ニユーラルネツトワークの学習装置 | |
Ye et al. | Estimate exponential memory decay in hidden Markov model and its applications | |
JPH0581230A (ja) | ニユーラルネツトワークの学習装置 | |
JPH05128284A (ja) | ニユーロプロセツサ | |
JP2021012600A (ja) | 診断方法、学習方法、学習装置およびプログラム | |
JPH0546585A (ja) | ニユーラルネツトワークの学習方法 | |
JP3232595B2 (ja) | ニューラルネットワークの学習データ記憶装置 | |
JP3412700B2 (ja) | 神経回路網型パターン学習方法およびパターン処理装置 | |
JP2536146B2 (ja) | パタ―ン学習装置 | |
JPH09101944A (ja) | ニューラルネットワーク回路 | |
JP2000035955A (ja) | 階層型ニューラルネットワークの構成方法 | |
JP2744321B2 (ja) | 適応型データ処理装置の解析処理方法 | |
JPH0660050A (ja) | ニューラルネットワークの学習支援装置 | |
CN115423102A (zh) | 基于张量数据计算推理的虚拟机优化方法、装置及设备 | |
JP2763366B2 (ja) | 階層ネットワーク構成データ処理装置及びデータ処理システム | |
JP3097212B2 (ja) | ファジィ推論状態の出力方法およびファジィ推論システム | |
JP3137996B2 (ja) | メンバシップ関数を用いたニューラルネットワーク及びその学習方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070921 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080921 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090921 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |