JPH0660050A - ニューラルネットワークの学習支援装置 - Google Patents

ニューラルネットワークの学習支援装置

Info

Publication number
JPH0660050A
JPH0660050A JP4214092A JP21409292A JPH0660050A JP H0660050 A JPH0660050 A JP H0660050A JP 4214092 A JP4214092 A JP 4214092A JP 21409292 A JP21409292 A JP 21409292A JP H0660050 A JPH0660050 A JP H0660050A
Authority
JP
Japan
Prior art keywords
learning
neural network
time
data
case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4214092A
Other languages
English (en)
Inventor
Seiichi Kasama
誠一 笠間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4214092A priority Critical patent/JPH0660050A/ja
Publication of JPH0660050A publication Critical patent/JPH0660050A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 学習能力が動的に変化する場合であっても学
習終了までの時間を確実に予測し、学習の進行状況を把
握できるようにする。 【構成】 順次に提示される学習データに基づいて学習
を実行させて現在時点での学習能力を測定し、その測定
した学習能力に基づいて未学習の学習データの学習が終
了するまでの時間を予測して利用者に提示する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クシミュレータによりニューラルネットワークの学習を
対話的に実行する際の学習支援装置に関する。
【0002】多層型ニューラルネットワークは、ノード
を層状に並べ、隣接した層のノードの間を重みを付けて
結合した構造のものである。
【0003】多層型ニューラルネットワークでは、誤差
逆伝播法というアルゴリズムにより、多数の事例データ
(学習データ)を繰り返し提示し、ニューラルネットワ
ーク中の結合係数wの値を修正することで、事例データ
中の入力と出力の関係を自動的に獲得することができ
る。この誤差逆伝播法は、D.E.ラメルハート他著
「PDPモデル」(1989)p321−365で述べ
られている。
【0004】この誤差逆伝播法のアルゴリズムから、多
層型ニューラルネットワークが学習開始から学習終了ま
での学習時間を予測する計算式を求めることができる。
学習時間は、ニューラルネットワークシミュレータを構
成するコンピュータ等の装置における結合係数の大きさ
を修正する学習能力と、ニューラルネットワークの各ノ
ードを結ぶ結合の数と、学習にもちいる事例データの事
例の数と、学習終了までの事例データの提示回数の積に
より予測することができる。
【0005】
【数1】学習時間≒学習能力×結合数×事例データ数×
提示回数 この式を用いることにより、全ての事例データによる学
習が終了するまでの学習時間を計算することができる。
【0006】
【発明が解決しようとする課題】ところで、ニューラル
ネットワークにおいては、事例データ数が多い場合は、
それに比例して学習時間が増加する。
【0007】そこで、学習時間を短縮するための一手法
として、学習の実行中に各事例の誤差を監視し、事例の
誤差が利用者の与えた基準値を下回っている場合、学習
に用いる事例から基準値を下回った事例を除外すること
が行われる。この手法を用いると、学習に用いる事例の
数が少なくなり、上記数式から分かるように学習終了ま
での時間も少なくなる。
【0008】しかし、実際にどの程度の所要時間がかか
るかは不明である。そこで、予想以上に時間がかかる場
合は、学習を中止するといった選択が可能なように、学
習を開始するに際して、学習終了までの時間を上記数式
に基づいて予測し、この予測値に基づいて学習を実行す
るかどうかを指示させる手法がある。
【0009】一方、ニューラルネットワークをコンピュ
ータのソフトウェアでシミュレーションするニューラル
ネットワークシミュレータで構成した場合、ニューラル
ネットワークシミュレータに割当てることのできるコン
ピュータの計算能力は、同じコンピュータで並行して実
行されるプロセスの数に影響を受け変化する。
【0010】すなわち、コンピュータに他のプロセスが
多く割り当てられた場合、ニューラルネットワークシミ
ュレータに割当てられる計算能力は少なくなり、ニュー
ラルネットワークの学習能力は低下する。
【0011】このように学習能力が動的に変化する場合
は、学習終了までの時間を再予測する必要がある。しか
し、利用者は学習能力が固定であれば上記数式を用いて
学習終了までの時間を計算することはできるが、学習能
力が動的に変化する場合は不可能になるという問題があ
る。
【0012】本発明の目的は、学習能力が動的に変化す
る場合であっても学習終了までの時間を確実に予測し、
その結果を利用者に提示し、学習の支援を行うことがで
きるニューラルネットワークの学習支援装置を提供する
することにある。
【0013】
【課題を解決するための手段】上記目的を達成するため
に本発明は、順次に提示される学習データに基づいて学
習を実行させて現在時点での学習能力を測定し、その測
定した学習能力に基づいて未学習の学習データの学習が
終了するまでの時間を予測する予測手段と、予測結果を
利用者に提示する出力手段とを設けた。
【0014】
【作用】上記手段によれば、順次に提示される学習デー
タに基づいて学習を実行させて現在時点での学習能力を
測定し、その測定した学習能力に基づいて未学習の学習
データの学習が終了するまでの時間を予測して利用者に
提示するので、利用者が学習終了までの時間を計算せず
にすみ、しかも学習能力が動的に変化する場合であって
も学習終了までの時間を確実に予測し、学習の進行状況
を把握することが容易になる。
【0015】
【実施例】以下、図面に基づいて本発明を詳細に説明す
る。
【0016】図1は本発明を組み込んだニューラルネッ
トワークシミュレータの一実施例を示すシステム構成図
である。このシステムは、多層型ニューラルネットワー
クに、データベースに蓄積された事例データの入力と出
力の関係を学習させるものである。また、学習実行中に
各事例とニューラルネットワーク出力との間の誤差を調
べ、誤差が利用者が与えた基準値を下回る事例は、学習
に用いる事例から省く操作を行う。
【0017】図1において、キーボード等よりなる入力
手段1と、半導体メモリ装置や磁気ディスク装置等より
なる記憶手段2と、ディスプレイ装置等よりなる表示装
置3と、中央処理装置等よりなる演算処理手段4と、演
算処理手段4中にあってニューラルネットワークの学習
を実行する学習手段5と、演算処理手段4中にあって学
習終了までの時間を計算する学習時間予測手段6より構
成される。
【0018】図2はこの実施例の全体処理フロー、図3
は記憶手段2上のニューラルネットワークシミュレータ
を制御する変数を格納する学習戦略格納領域の構成図、
図4は記憶手段2上のニューラルネットワークの構造を
定義する情報を格納するネットワーク定義情報格納領域
の構成図である。図5は記憶手段2上のニューラルネッ
トワークの学習に用いる事例を格納する事例データ格納
領域の構成図、図6は記憶手段2上の作業領域である。
図7〜図10は詳細な処理フロー、図11は残り学習時
間の表示例である。
【0019】以下、処理フローに基づきシステムの動作
を説明する。
【0020】まず、図2をもとに本システム全体の処理
の流れを説明する。
【0021】まず、ニューラルネットワークの学習を行
うにあたって、利用者が入力手段1から記憶手段2上の
領域に、学習戦略、ネットワーク定義、事例データを入
力し、記憶手段2上の作業領域を初期化するなどの初期
設定を行う(ステップ7)。
【0022】次に学習時間表示手段6により学習終了ま
でに必要な時間を予測し、予測結果を表示手段3に表示
する(ステップ8)。
【0023】この後、入力手段1で学習中止ボタンが押
されたか否かを検出し(ステップ9)、学習中止ボタン
が押されたことが検出されたならば、ニューラルネット
ワークの学習を中止する。
【0024】しかし、学習中止ボタンが押されていなけ
れば、事例提示の繰り返し回数が学習戦略で与えた繰り
返し回数を越えているかどうかを判定し(ステップ1
0)、越えていれば学習を中止する。
【0025】しかし、越えていない場合は、記憶手段2
中の学習戦略、ネットワーク定義、事例データから学習
手段5を用いてニューラルネットワークの学習を実行す
る(ステップ11)。そして、この学習結果により、学
習時の各事例の誤差と学習戦略中の基準値とを用いて事
例提示リストを更新する(ステップ12)。すなわち、
誤差範囲に収まった事例を外した新しい事例リストを作
成する。
【0026】この後、繰り返し回数を1増分し(ステッ
プ13)、ステップ8に戻る。
【0027】次に処理の詳細を説明する。
【0028】図7では、このニューラルネットワークシ
ミュレータの初期設定処理を示す。初期設定では、記憶
手段2中の学習戦略格納領域(図3)、ネットワーク定
義情報格納領域(図4)、事例データ格納領域(図
5)、作業領域(図6)に初期値を与える。
【0029】すなわち、学習に用いるデータの事例数、
データ提示の最大繰り返し回数、提示リストから除外す
るときの誤差の基準値を入力手段1から入力し、図3の
対応する領域14〜16に格納する(ステップ32)。
同様に、ネットワーク定義情報として、ネットワークの
層の数、各層のノード数を入力し、図4の対応する領域
17〜18に格納する(ステップ34)。さらにネット
ワークの各結合係数を格納する領域19に初期値を代入
する(ステップ34)。
【0030】また、入力手段1からN個の事例データを
入力し(ステップ36)、図5の対応する領域20に格
納し、さらに図6の作業領域21に繰り返し回数を設定
し、作業領域24には経過時間として「0」を代入す
る。
【0031】また、図4の領域17,18に格納された
ニューラルネットワークの層の数および各層のノード数
からニューラルネットワークの結合数を求め(ステップ
37)、領域25に代入する。
【0032】続いて、学習手段5の学習能力を測定し、
その測定結果として、学習開始時刻と学習終了時刻を領
域26に代入する(ステップ38)。ここで、学習能力
とは、ネットワークの各ノードを結ぶ結合線1本当りの
計算時間を言う。
【0033】次に残り繰り返し回数(=提示回数)とし
て、最大繰り返し回数を代入し、領域27に格納する
(ステップ39)。さらに、現在の事例数として図3の
領域14に格納された事例数を代入し、領域29に格納
する(ステップ40)。続いて提示事例リストとして全
事例の番号を代入し、領域30に格納する(ステップ4
1)。
【0034】次に、図2のステップ8の詳細を図8によ
って説明する。
【0035】まず、作業領域22,23に格納された学
習開始時刻と学習終了時刻とから経過時間を求め(ステ
ップ42)、作業領域24に格納する。
【0036】次に、作業領域25に格納された結合数と
作業領域24に格納された経過時間をもとに、シュミュ
レータを実行している計算機の学習能力を求め、作業領
域26に格納する(ステップ43)。次に、作業領域2
1より現在までの事例の繰り返し回数を取り出し、さら
に図3の領域15から最大繰り返し回数を取り出し、学
習終了までの残り繰り返し回数を求め、作業領域27に
格納する(ステップ44)。
【0037】次に作業領域26に格納された学習能力
と、作業領域25に格納されたネットワークの結合数
と、作業領域27に格納された残り提示回数と、作業領
域29に格納された現在の事例数の積から残り学習時間
を求め、作業領域28に格納する(ステップ45)。最
後に、学習開始からの経過時間と作業領域28に格納し
た残り学習時間の計算結果を表示手段3に表示する(ス
テップ46)。この表示例を図11に示す。すなわち、
表示手段3の画面上に表示領域61,62を確保し、表
示領域61に学習開始からの経過時間を、表示領域62
に残り学習時間の予測値を表示する。
【0038】次に、図2のステップ11の詳細を図9に
基づいて説明する。
【0039】まず学習開始時刻を求め(ステップ4
9)、図6の作業領域22に格納する。続いて作業領域
30の提示事例リストから学習に用いる提示事例番号を
1個取り出し、その事例番号をキーとして1個の事例を
取り出す(ステップ50)。
【0040】次に、その事例をニューラルネットワーク
に提示し、ニューラルネットワークの出力を求め、事例
の出力部とニューラルネットワークの出力を比較して誤
差を求め、誤差に基づいてネットワークの結合係数を修
正し、修正した結合係数を図4の領域19に代入する。
また事例の誤差を図6の作業領域31に格納する(ステ
ップ51,52)。この操作を提示事例リストの最後ま
で繰り返す。
【0041】提示事例番号リストの中のすべての事例の
学習が終了したら(ステップ53)、終了時刻を作業領
域23に代入する(ステップ54)。
【0042】全事例を提示したら、学習に用いる事例リ
ストの更新操作を行う。
【0043】この処理の詳細を図10に示す。まず、図
6の作業領域31に格納されている各事例の誤差を1個
取り出し(ステップ55)、その誤差の大きさが学習を
除外する誤差の基準値(図3の領域16に格納されてい
る)以下であれば(ステップ56)、提示事例リストか
ら削除する。これを提示事例リスト中のすべての事例を
調べるまで繰り返す(ステップ57,58)。
【0044】この後、提示事例リストの更新後の事例数
を求め(ステップ59)、現在の事例数を格納する領域
29に代入し、作業領域21の繰り返し回数を1増加さ
せてステップ42にもどる。
【0045】以上の説明から理解されるように、本実施
例によれば、提示事例数の変化や、学習能力の変化に対
応して学習終了までの時間を予測し、その予測値を利用
者に提示するので、利用者は提示された予測値にもとづ
いて学習を継続するか、中止するかを制御することがで
きる。
【0046】なお、上記実施例は本発明をニューラルネ
ットワークシミュレータに組み込んだものであるが、単
体で構成することも可能である。
【0047】
【発明の効果】以上説明したように本発明は、順次に提
示される学習データに基づいて学習を実行させて現在時
点での学習能力を測定し、その測定した学習能力に基づ
いて未学習の学習データの学習が終了するまでの時間を
予測して利用者に提示するので、利用者が学習終了まで
の時間を計算せずにすみ、しかも学習能力が動的に変化
する場合であっても学習終了までの時間を確実に予測
し、学習の進行状況を把握したり、残り時間を参考にし
て、学習の打ち切りなどの判断を行うことができる。
【図面の簡単な説明】
【図1】 本発明を組み込んだニューラルネットワーク
シミュレータの一実施例を示すシステム構成図である。
【図2】 実施例の処理の概略を示すフローチャートで
ある。
【図3】 記憶手段中の学習戦略定義情報格納領域の構
成図である。
【図4】 記憶手段中のネットワーク定義情報格納領域
の構成図である。
【図5】 記憶手段中の事例データ格納領域の構成図で
ある。
【図6】 記憶手段中の作業領域の構成図である。
【図7】 図2の初期設定処理の詳細を示すフローチャ
ートである。
【図8】 図2の学習時間表示処理の詳細を示すフロー
チャートである。
【図9】 図2の学習処理の詳細を示すフローチャート
である。
【図10】 図2の提示事例更新処理の詳細を示すフロ
ーチャートである。
【図11】 残り学習時間の表示例を示す説明図であ
る。
【符号の説明】
1…入力手段、2…記憶手段、3…表示手段、4…演算
処理手段、5…学習手段、6……学習時間表示手段。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットワークの学習を支援す
    る装置であって、順次に提示される学習データに基づい
    て学習を実行させて現在時点での学習能力を測定し、そ
    の測定した学習能力に基づいて未学習の学習データの学
    習が終了するまでの時間を予測する予測手段と、予測結
    果を利用者に提示する出力手段とを備えるニューラルネ
    ットワークの学習支援装置。
JP4214092A 1992-08-11 1992-08-11 ニューラルネットワークの学習支援装置 Pending JPH0660050A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4214092A JPH0660050A (ja) 1992-08-11 1992-08-11 ニューラルネットワークの学習支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4214092A JPH0660050A (ja) 1992-08-11 1992-08-11 ニューラルネットワークの学習支援装置

Publications (1)

Publication Number Publication Date
JPH0660050A true JPH0660050A (ja) 1994-03-04

Family

ID=16650099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4214092A Pending JPH0660050A (ja) 1992-08-11 1992-08-11 ニューラルネットワークの学習支援装置

Country Status (1)

Country Link
JP (1) JPH0660050A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230656A (ja) * 2008-03-25 2009-10-08 Ntt Data Corp ホスト計算機、計算システム、計算方法、及び、プログラム
JP2017049677A (ja) * 2015-08-31 2017-03-09 富士通株式会社 機械学習管理プログラム、機械学習管理装置および機械学習管理方法
JP2018018422A (ja) * 2016-07-29 2018-02-01 株式会社デンソーアイティーラボラトリ 予測装置、予測方法および予測プログラム
JP2019220027A (ja) * 2018-06-21 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230656A (ja) * 2008-03-25 2009-10-08 Ntt Data Corp ホスト計算機、計算システム、計算方法、及び、プログラム
JP2017049677A (ja) * 2015-08-31 2017-03-09 富士通株式会社 機械学習管理プログラム、機械学習管理装置および機械学習管理方法
JP2018018422A (ja) * 2016-07-29 2018-02-01 株式会社デンソーアイティーラボラトリ 予測装置、予測方法および予測プログラム
JP2019220027A (ja) * 2018-06-21 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理装置
CN110626357A (zh) * 2018-06-21 2019-12-31 松下电器(美国)知识产权公司 信息处理方法及信息处理装置
US11454977B2 (en) 2018-06-21 2022-09-27 Panasonic Intellectual Property Corporation Of America Information processing method and information processing device

Similar Documents

Publication Publication Date Title
US5313559A (en) Method of and system for controlling learning in neural network
EP3401803A1 (en) Interaction scenario display control program and information processing apparatus
TW202004573A (zh) 學習裝置、學習推論裝置、方法及程式
El-Bouri et al. A neural network for dispatching rule selection in a job shop
JPH0660050A (ja) ニューラルネットワークの学習支援装置
CN108334427A (zh) 存储系统中的故障诊断方法及装置
JP2019125319A (ja) 学習プログラム、学習方法および学習装置
CN115600992A (zh) 一种基于预测算法的项目管理方法
JPH1071543A (ja) 生産ラインの管理方法
JPH07302249A (ja) フィードフォワードニューラルネットの学習方法
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
JPH0561849A (ja) ニユーラルネツトワークの入出力特性検出装置
Hu et al. Modeling nonlinear synaptic dynamics: a laguerre-volterra network framework for improved computational efficiency in large scale simulations
JP3388118B2 (ja) プラント制御プログラムのシミュレーション装置
JPH0784633A (ja) プラント状態表示装置及び方法
JPH07105165A (ja) ニューラルネットワーク情報処理装置
JPH07334070A (ja) プロセスシミュレータ
JPH0490076A (ja) 医用画像特徴抽出方法
JP3232597B2 (ja) ニューラルネットワークの学習装置
JPH08202668A (ja) 性能評価装置と評価方法
JPH0575968B2 (ja)
JP2633378B2 (ja) 自己故障発生・学習装置
JPH0675934A (ja) ニューラルネットワーク構成法および該ネットワークを用いた設備異常診断法
JP2002334135A (ja) プロセス制御モデルの定義方法およびプロセス制御モデル定義プログラム並びにプロセス制御方法およびそのシステム
JP2003058863A (ja) ニューラルネットワークにおける学習方法