JP2003058863A - ニューラルネットワークにおける学習方法 - Google Patents

ニューラルネットワークにおける学習方法

Info

Publication number
JP2003058863A
JP2003058863A JP2001249809A JP2001249809A JP2003058863A JP 2003058863 A JP2003058863 A JP 2003058863A JP 2001249809 A JP2001249809 A JP 2001249809A JP 2001249809 A JP2001249809 A JP 2001249809A JP 2003058863 A JP2003058863 A JP 2003058863A
Authority
JP
Japan
Prior art keywords
learning
neural network
data
characteristic
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001249809A
Other languages
English (en)
Inventor
Koichi Negishi
公一 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bridgestone Corp
Original Assignee
Bridgestone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bridgestone Corp filed Critical Bridgestone Corp
Priority to JP2001249809A priority Critical patent/JP2003058863A/ja
Publication of JP2003058863A publication Critical patent/JP2003058863A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【課題】 要因データ群に対する特性データの推定計算
と、特性データ群に対する要因データの推定計算を容易
に、かつ、効率的に行うことのできるニューラルネット
ワークにおける学習方法を提供する。 【解決手段】 実験データを要因項目の列と特性項目の
列とに分けた学習データ表を作成してこれをコンピュー
タに入力し、コンピュータの表示画面上において、上記
学習データ表の各列を入力層あるいは出力層に割り付
け、要因データ群に対する特性データの推定計算と特性
データ群に対する要因データの推定計算とをともに行う
ことができるように構成することにより、ニューラルネ
ットワークによる学習をGUI環境で実現できるように
した。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
ワークの手法を用いて行う、各種製品設計、配合設計あ
るいは製造装置の条件設定等における要因と特性との写
像関係の学習を効率的に行う方法に関するものある。
【0002】
【従来の技術】従来、各種製品設計、配合設計あるいは
製造装置の条件設定等における実験データの解析方法と
しては、重回帰分析が知られているが、要因数が多い場
合にはそれに応じてデータ数が十分ないと精度が得られ
ないこと、回帰式が高々二次までの適用であるため非線
形の強い現象の解析には誤差が多いこと、上記手法を使
いこなすためにはある程度統計学の専門知識が必要であ
ること、更には、手軽に利用できるソフトウエアがない
などの問題点があった。また、回帰分析においては、グ
ラフと表が多用されるが、GUI(グラフィカル・ユー
ザ・インターフェイス)の視覚的なわかり易さがなかっ
た。一方、非線形の強い現象を解析する手法として、生
体ニューロンの、.多入力1出力、.出力のスイッ
チング特性、.可変性のあるシナプスの重み、を模擬
化したニューロンモデルをネットワーク状に接続したニ
ューラルネットワークを用いて、製品設計や配合設計に
おける要因と特性との関係をシミュレーションする方法
が盛んに行われている。これは、入力層、中間層及び出
力層の各々のニューロンがシナプスによって結合された
ニューラルネットワークを構成し、例えば、製品の形状
や構造などの値を要因として上記入力層に入力し、中間
層を介して、上記製品特性を出力層から出力するもの
で、後述する学習後に、上記要因の各値が入力される
と、それに対応する特性が出力される。
【0003】ニューラルネットワークの学習は、実験デ
ータに基づいて、上記シナプスの重みであるノード間の
荷重の強さを決定するもので、上記荷重の強さは、既知
である予測データについて誤差、すなわち、学習に用い
た特性項目のデータである実測値と、学習に用いた要因
項目のデータから推定計算された推定値との誤差が最小
となるように学習・修正される。そして、上記学習によ
って求められた荷重の強さを用いて、要因条件の各値を
入力して製品性能(特性)を表わす値を推定値として出
力することにより、上記要因条件を変更した場合の特性
変化をシミュレーションすることができる。
【0004】
【発明が解決しようとする課題】しかしながら、上記ニ
ューラルネットワークの手法は、利用者が統計学の専門
知識がなくても行うことができるという利点はあるもの
の、ニューラルネットワーク特有のデータ準備、学習、
解析への利用までの一連の流れを初心者でも分かり易く
実現することは困難であった。そこで、要因データ群に
対する特性データの推定計算の前段階として行う、要因
項目及び特性項目の入力層及び出力層への割付けや、要
因と特性の写像関係を学習するための、分かり易い学習
方法の開発が望まれていた。また、上記反対方向の推
定、すなわち、特性データ群に対する要因データの推定
ができれば、各種設計業務におけるシミュレーションの
効率化と精度向上を図ることができるが、このような推
定を容易に行うことのできる学習方法については実現さ
れてはいなかった。
【0005】本発明は、従来の問題点に鑑みてなされた
もので、要因データ群に対する特性データの推定計算
と、特性データ群に対する要因データの推定計算を容易
に、かつ、効率的に行うことのできるニューラルネット
ワークにおける学習方法を提供することを目的とする。
【0006】
【課題を解決するための手段】本発明の請求項1に記載
のニューラルネットワークにおける学習方法は、実験デ
ータを要因項目の列と特性項目の列とに分けた学習デー
タ表を作成してこれをコンピュータに入力し、コンピュ
ータの表示画面上において、上記学習データ表の各列を
入力層あるいは出力層に割付け、要因データ群に対する
特性データの推定計算と特性データ群に対する要因デー
タの推定計算とをともに行うことができるように構成し
たもので、これにより、要因データ群を入力層に、特性
データ群を出力層に割付ける構成のニューラルネットワ
ークに加えて、特性データ群を入力層に、要因データ群
を出力層に割付ける構成のニューラルネットワークを容
易に構築して、コンピュータの表示画面上において学習
を行うことができるので、要因から特性を推定したり、
反対に、特性から要因を推定したりでき、各種設計業務
において、シミュレーションの効率化と精度向上を図る
ことができる。
【0007】請求項2に記載のニューラルネットワーク
における学習方法は、上記割付けにおいて、上記学習デ
ータ表の要因項目の列、及び特性項目の列を、入力層の
項目、出力層の項目、あるいは無視する項目のいずれか
に設定可能とするとともに、コンピュータの表示画面上
にパラメータ設定欄を設けた学習画面を表示して、隠れ
層ノード数、繰返計算数の最大値、収束判定限界の値を
含む学習パラメータを設定可能としたもので、これによ
り、学習すべき要因項目及び特性項目の選択や学習パラ
メータの設定を容易にかつ効率的に行うことが可能とな
る。請求項3に記載のニューラルネットワークにおける
学習方法は、一連の学習を連続して自動的に行う機能を
備えるとともに、上記学習画面に、自動学習選択欄を設
けて、任意の学習パラメータを設定して要因項目または
特性項目のいずれか1つに対して学習する機能と要因項
目または特性項目の全てについて上記自動学習する機能
とを選択可能としたもので、これにより、学習対象によ
りパラメータの設定を省略でき、学習の効率を向上させ
ることが可能となる。請求項4に記載のニューラルネッ
トワークにおける学習方法は、上記パラメータ設定欄
に、中間層の荷重修正比率ηと出力層の荷重修正比率
η’、直前の荷重修正量に対する修正比率であるモーメ
ント係数、学習が飽和した際に用いる、飽和ノードの揺
さぶり量、飽和チェック間隔、飽和判定の移動平均回数
の少なくとも1つ又は複数又は全部の値を設定する欄を
設けたもので、これにより、学習効率を高めることがで
き、収束時間を短縮することが可能となる。
【0008】また、請求項5に記載のニューラルネット
ワークにおける学習方法は、学習に際して、パターン
(学習に利用するデータ群)の学習順序をランダムに変
更するか、固定したまま実行するかを選択する手段を設
け、上記学習画面上で、パターンの学習順序を選択可能
としたものである。請求項6に記載のニューラルネット
ワークにおける学習方法は、学習に際して、パターンの
学習順序をランダムに変更するタイミングを回数で判定
するか、ノード出力が飽和した際にも実行するかを選択
する手段を設けたものである。請求項7に記載のニュー
ラルネットワークにおける学習方法は、収束判定を効率
的に行うようにするため、収束判定限界の値として、実
際の単位での値と正規化した値のいずれかを選択する手
段を備えたものである。
【0009】請求項8に記載のニューラルネットワーク
における学習方法は、学習結果を記憶する手段を備え、
任意の学習結果について継続した学習を行う機能を備え
たもので、これにより、同じ学習パラメータについて、
最初から学習を行う必要がないので、学習効率を向上さ
せることが可能となる。請求項9に記載のニューラルネ
ットワークにおける学習方法は、継続学習を行う際に、
学習パラメータを変更するか、前回と同じ値を使うか、
デフォルト値を使うかのいずれかを選択して実行する機
能を付加したもので、これにより、学習効率を更に向上
させることが可能となる。請求項10に記載のニューラ
ルネットワークにおける学習方法は、上記学習結果か
ら、学習に用いた特性項目のデータである実測値と、学
習に用いた要因項目のデータから推定計算された推定値
との関係を求めてグラフ化するとともに、上記実測値と
推定値との相関係数を算出して上記グラフとともに表示
して、学習程度を検証可能としたもので、これにより、
学習程度を確実に把握することが可能となる。
【0010】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面に基づき説明する。図1は、本実施の形態に係
わる学習方法に用いられるパーソナルコンピュータの概
略を示す図で、本例においては、パーソナルコンピュー
タ10を用いたグラフィカル・ユーザ・インターフェイ
ス(GUI)環境において、ニューラルネットワークの
手法を用いて実験データの要因群と特性群との写像関係
を学習して製品・配合のシミュレーションを行う。同図
において、11はパーソナルコンピュータ10の表示手
段であるディスプレイ、12はコンピュータ本体、13
a,13bはそれぞれ入力手段であるキーボード及びマ
ウスである。コンピュータ本体12は、図2に示すよう
に、後述する処理プログラムに従って演算処理を行うC
PU14と、データやプログラムあるいは計算結果等の
記憶手段であるROM15,RAM16及びメモリー1
7と、この本体12と入出力装置などとのデータ等のや
り取りを行うためのI/Oボード18と、データやコマ
ンドが入出力可能なように接続されたバス19とを備え
ている。なお、上記データは、キーボード13aから直
接コンピュータ本体12に入力してもよいし、データ用
FDからパーソナルコンピュータ10に内蔵されている
FDU12Fを介して入力してもよい。
【0011】次に、本実施の形態のニューラルネットワ
ークにおける学習方法を用いた設計・配合のシミュレー
ション方法について説明する。まず、パーソナルコンピ
ュータ10を立ち上げて、シミュレーション用プログラ
ムを起動させ、図3に示すような初期画面G0をディス
プレイ11の表示画面に表示させる。そして、上記初期
画面G0の上方に表示された学習データ表欄g1をクリ
ックし、図4に示すようなデータ表作成画面G1を呼び
出して、学習データ表の作成を行う。本例では、上記学
習データ表は、通常のパソコンにインストールされてい
る表計算アプリケーションソフトであるExcel上に
て行う。具体的には、データ表作成画面G1のデータ作
成欄g11に要因数、特性数、データ数を入力した後、
表作成ボタンB11をクリックして、Excelブック
を呼び出し、このExcelブック上に、図5に示すよ
うな、設計・配合のシミュレーションに使用される要因
条件と特性とを列、実験データを行とした各セルにそれ
ぞれデータ値を配列した学習データ表10Tを作成す
る。このとき、上記実験データはキーボード13aによ
り入力するか、後述するように、図3のファイル操作欄
g7をクリックして予めExcelブック上に作成され
た学習データ表を読み出すようにしてもよい(図10参
照)。
【0012】次に、入出力設定欄g2をクリックし、図
6(a),(b)に示すような入出力設定画面G2を呼
び出して、各割付欄g21,g22,‥‥,g29に表
示された、学習データ表10Tの要因項目及び特性項目
の各列を、順次、入力層の項目、出力層の項目、あるい
は無視する(デフォルトの値にする)項目のいずれかに
設定する。これにより、学習すべき要因項目及び特性項
目の選択及び設定を容易に行うことができるので、効率
的な学習を行うことができる。なお、初回の学習におい
ては、通常、要因項目の全てを入力層に、特性項目の全
てを出力層に割付ける。その後、学習欄g3を選択し、
上記設計・配合等の実験データを用いて、ニューラルネ
ットワークの学習、すなわち、要因群と特性群との写像
関係の学習を行う。
【0013】学習欄g3を選択すると、図7に示すよう
な学習画面G3が表示され、この画面を用いて学習パラ
メータの設定や学習方法の設定を行うことができる。本
例では、写像関係を学習する際に、一連の学習を自動的
に行うことができるように、中央下段に全特性自動学習
欄g36を設け、自動学習するか、任意の学習対象に対
して学習パラメータを設定して学習するかの選択を行う
ことができるようにしてある。学習パラメータを設定し
て学習する場合には、ニューラルネットのパラメータ設
定欄g31に示された、隠れ層ノード数、繰返計算数の
最大値(リミット)、収束判定限界、ジクモイドの傾き
などのパラメータ値を設定して要因群と特性群の写像関
係を学習して、荷重の強さを求める。本発明では、学習
効率を向上させる目的で、上記収束判定限界の値とし
て、通常の正規化した値(0〜1)と実際の単位での値
とのいずれかを選択可能とするとともに、上記通常の学
習パラメータに加えて、中間層の修正比率η、出力層の
荷重修正比率η’、荷重の修正を行う際に用いる、直前
の荷重修正量に対する修正比率であるモーメント係数、
学習が飽和した際の飽和ノードの揺さぶり量、飽和チェ
ック間隔、及び飽和判定の移動平均回数を学習パラメー
タとして設定可能としている。
【0014】一般に、学習終了の判定は、教師データで
ある実測値と、出力層ノードから出力される、判定すべ
き荷重の強さを用いて演算された推定値との差が予め設
定された収束判定限界の値以下となっているか否かによ
って行うが、この値の単位としては、通常用いられてい
る正規化した値(0〜1)よりも実スケールの値の方が
取り扱い易い場合がある。また、いろいろな単位の現象
にそれぞれニューラルネットワークモデルを割り当てて
いる場合には、上記正規化した値を用いた方が便利な場
合がある。そこで、本例のように、収束判定限界の値と
して、通常の正規化した値と実際の単位での値とのいず
れかを選択可能にすることにより、学習効率を向上させ
ることが可能となる。
【0015】また、ニューラルネットワークの学習にお
いては、荷重の大きさを中間層と出力層間の荷重、入力
層と中間層間の荷重の順で修正することを繰り返すが、
計算で求めた修正量に対して100%修正してしまうの
ではなく、100%よりも小さな比率で修正する方が経
験上有効であることから、本例では、上記のように、中
間層の修正比率ηと出力層の荷重修正比率η’とを学習
パラメータに設定し、これにより、学習の収束を早める
ようにしている。また、上記荷重の修正は、何千回、何
万回という規模で繰り返されるので、修正に際しては、
上記のように、直前の荷重修正量に対する修正比率であ
るモーメント係数を学習パラメータに設定して直前の修
正量の何割かを加える構成にすることにより、加速的に
学習を進めることができるとともに、発散を抑制するこ
とができる。
【0016】ところで、学習の進行過程においては、各
ノードの出力yは、入力をxとすると、以下の式に示す
ジグモイド関数で計算される。 y=1/(1+e−x) ここで、入力xがある程度大きすぎたり小さすぎたりす
ると、xの値が多少変化してもyの値は0又は1で変化
しない飽和状態になってしまう。そこで、上記のよう
に、学習が飽和した際の飽和ノードの揺さぶり量、飽和
チェック間隔、飽和判定の移動平均回数についてもを学
習パラメータとして設定可能とすることにより、学習の
収束を早めることができる。
【0017】また、パターンの学習順序を固定したまま
実行するよりはランダムに変更する場合の方が学習効率
が向上する場合があるため、本発明では、パターン学習
順序欄g33を設けて、学習に際して、パターンの学習
順序をランダムに変更するか、固定したまま実行するか
を選択できるようにするとともに、パターンの学習順序
をランダムに変更する場合には、その変更するタイミン
グを回数で判定するか、ノード出力が飽和した際にも実
行するかを選択できるようにしている。なお、学習順序
を固定しなければならない制約がある場合には、上記パ
ターン学習順序欄g33の「表の順序で固定」をクリッ
クして学習することができる。なお、全特性自動学習欄
g36を選択した場合には上記学習パラメータは予め設
定された初期値にセットされ、学習順序は初期設定であ
る「定期回数ランダム学習」にセットされる。
【0018】ニューラルネットワークの学習は、上述し
た学習データ表10Tの要因群データ及び特性群データ
を読み取り、これらの値を用いて学習データを読み取
り、入力された複数の学習データを用いてニューラルネ
ットワークの各荷重の強さをそれぞれ変化させることに
よって中間層及び出力層の各々の誤差を求め、誤差が最
小になるように学習する。そして、上記求めた各荷重の
強さを更新した後、上記更新された各荷重の強さを用
い、ニューラルネットワークにより、テストデータの各
々をテストしてテスト結果の値としての特性データ(推
定値)を得る。なお、学習の収束の様子は、上記学習画
面G3の収束状態表示欄g34に逐次表示される。次
に、テスト結果の値が収束判定の基準である所定範囲内
の値か否か、または上記の処理を所定回数繰り返しした
か否かを判別することにより収束したか否かを判断し肯
定判断の場合には本ルーチンを終了する。一方、否定判
断の場合には上記処理を繰り返して、中間層及び出力層
の各々のユニットの誤差が最小になるように各荷重の強
さを算出する。学習終了後には、上記学習画面G3のシ
ステムパラメータ保存欄g37をクリックすることによ
り、上記学習に用いたニューラルネットのパラメータを
保存することができる。なお、本発明においては、後述
するように、継続学習が可能であるので、上記パラメー
タを保存しておくことが望ましい。
【0019】また、本例では、学習終了後に学習度検証
欄g4をクリックすることにより、図8に示すような学
習度検証画面G4を呼び出して、上記学習した写像関係
の計算結果から作成した、実測値と上記推定値との関係
のグラフで表示して学習度の検証を行えるようにしてい
る。このとき、上記実測値と推定値との相関係数を求め
てこれを同時に表示する。これにより、利用者はニュー
ラルネットワークの学習程度を確実に把握することがで
きる。なお、上記図8では、例として、特性1に関する
実測値と推定値の相関関係をグラフ欄g41に表示した
が、特性項目番号欄g42の数値を変更することで、学
習が完了した他の特性項目についても表示できることは
言うまでもない。
【0020】更に、本例では、継続学習を行うことが可
能である。継続学習を行う際には、学習欄g3を選択し
て図7の学習画面G3に戻り、継続学習条件欄g32の
継続学習を選択する。その際、上記学習画面G3の特性
項目番号欄g35で所定の特性項目を指定するととも
に、学習パラメータを変更するか、前回と同じ値を使う
か、デフォルト値を使うかのいずれかを選択することが
できる。これにより、前回と同じ値を使う場合には、同
じ学習パラメータについて、最初から学習を行う必要が
なく、学習パラメータを変更する場合にも、前回の結果
を参照して変更できるので、学習効率を向上させること
ができる。なお、学習パラメータの再設定後には、学習
再開欄g38を選択して学習を継続する。また、上記継
続学習は、必ずしも学習度の検証後に行うものではな
く、収束が遅いなどの理由で学習を途中で中断したりし
た場合に行うこともできる。そのときには、上述したよ
うに、前回と同じ学習パラメータで学習を継続すること
も可能であるし、学習パラメータを変更することも可能
なので、効率よく学習を行うことができる。
【0021】なお、以上の処理が終了し、ニューラルネ
ットワークの学習が十分に行われた後に、ネットワーク
の構造、すなわち各荷重の強さをメモリー17に記憶さ
せる。その後には、特性推定欄g5をクリックして、図
9に示すような特性推定画面G5を表示させ、上記学習
結果を用いて、要因と特性の推定を行うことができる。
すなわち、本発明では、上記特性推定画面G5の特性推
定欄g51又は要因推定欄g52を選択することによ
り、従来の要因データ群に対する特性データの推定計算
と、特性データ群に対する要因データの推定計算とのい
ずれの推定計算も行うことができるように構成してあ
る。なお、上記推定計算の終了後には、ファイル欄g6
を選択して、図10に示すようなファイル操作画面G6
を呼び出し、ニューラルネットワークに使用した学習デ
ータ表と、上記結果とをExcelブックに保存する。
【0022】
【発明の効果】以上説明したように、本発明によれば、
実験データを要因項目の列と特性項目の列とに分けた学
習データ表を作成してこれをコンピュータに入力し、コ
ンピュータの表示画面上において、上記学習データ表の
各列を入力層あるいは出力層に割付け、要因データ群に
対する特性データの推定計算と特性データ群に対する要
因データの推定計算とをともに行うことができるように
構成したので、ニューラルネットワークによる学習をG
UI環境で実現できるとともに、要因データ群を入力層
に、特性データ群を出力層に割付ける構成のニューラル
ネットワークに加えて、特性データ群を入力層に、要因
データ群を出力層に割付ける構成のニューラルネットワ
ークを容易に構築して学習することができる。したがっ
て、要因から特性を推定したり、反対に、特性から要因
を推定したりでき、各種設計業務において、シミュレー
ションの効率化と精度向上を図ることができる。
【図面の簡単な説明】
【図1】 本発明のニューラルネットワークにおける学
習方法に用いられるパーソナルコンピュータの概略を示
す図である。
【図2】 コンピュータ本体の構成を示すブロック図で
ある。
【図3】 本実施の形態に係わるニューラルネットワー
クにおける学習方法に用いられる初期画面を示す図であ
る。
【図4】 本実施の形態に係わる学習データ表作成画面
を示す図である。
【図5】 本実施の形態に係わる学習データ表の一例を
示す図である。
【図6】 本実施の形態に係わる入出力設定画面を示す
図である。
【図7】 本実施の形態に係わる学習画面を示す図であ
る。
【図8】 本実施の形態に係わる学習度検証画面を示す
図である。
【図9】 本実施の形態に係わる特性推定画面を示す図
である。
【図10】本実施の形態に係わるファイル操作画面を示
す図である。
【符号の説明】
10 パーソナルコンピュータ、11 ディスプレイ、
12 コンピュータ本体、12F FDU、13a キ
ーボード、13b マウス、14 CPU、15 RO
M、16 RAM、17 メモリー、18 入出力装
置、19 バス。

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットワークの手法を用いて
    行う、実験データの要因群と特性群との写像関係を学習
    する際に、上記実験データを要因項目の列と特性項目の
    列とに分けた学習データ表を作成してこれをコンピュー
    タに入力し、コンピュータの表示画面上において、上記
    学習データ表の各列を入力層あるいは出力層に割付け、
    要因データ群に対する特性データの推定計算と特性デー
    タ群に対する要因データの推定計算とをともに行うこと
    ができるようにしたことを特徴とするニューラルネット
    ワークにおける学習方法。
  2. 【請求項2】 上記割付けにおいて、上記学習データ表
    の要因項目の列、及び特性項目の列を、入力層の項目、
    出力層の項目、あるいは無視する項目のいずれかに設定
    可能とするとともに、コンピュータの表示画面上にパラ
    メータ設定欄を設けた学習画面を表示して、隠れ層ノー
    ド数、繰返計算数の最大値、収束判定限界の値を含む学
    習パラメータを設定可能としたことを特徴とする請求項
    1に記載のニューラルネットワークにおける学習方法。
  3. 【請求項3】 一連の学習を連続して自動的に行う機能
    を備えるとともに、上記学習画面に、自動学習選択欄を
    設けて、任意の学習パラメータを設定して要因項目また
    は特性項目のいずれか1つに対して学習する機能と要因
    項目または特性項目の全てについて上記自動学習する機
    能とを選択可能としたことを特徴とする請求項1または
    請求項2に記載のニューラルネットワークにおける学習
    方法。
  4. 【請求項4】 上記パラメータ設定欄に、中間層の荷重
    修正比率ηと出力層の荷重修正比率η’、直前の荷重修
    正量に対する修正比率であるモーメント係数、学習が飽
    和した際に用いる、飽和ノードの揺さぶり量、飽和チェ
    ック間隔、飽和判定の移動平均回数の少なくとも1つ又
    は複数又は全部の値を設定する欄を設けたことを特徴と
    する請求項2または請求項3に記載のニューラルネット
    ワークにおける学習方法。
  5. 【請求項5】 パターンの学習順序をランダムに変更す
    るか、固定したまま実行するかを選択する手段を設け、
    上記学習画面上で、パターンの学習順序を選択可能とし
    たことを特徴とする請求項2〜請求項4のいずれかに記
    載のニューラルネットワークにおける学習方法。
  6. 【請求項6】 学習に際して、パターンの学習順序をラ
    ンダムに変更するタイミングを回数で判定するか、ノー
    ド出力が飽和した際にも実行するかを選択する手段を設
    けたことを特徴とする請求項5に記載のニューラルネッ
    トワークにおける学習方法。
  7. 【請求項7】 収束判定限界の値として、実際の単位で
    の値と正規化した値のいずれかを選択する手段を備えた
    ことを特徴とする請求項1〜請求項6のいずれかに記載
    のニューラルネットワークにおける学習方法。
  8. 【請求項8】 学習結果を記憶する手段を備え、任意の
    学習結果について継続した学習を行う機能を備えたこと
    を特徴とする請求項1〜請求項7のいずれかに記載のニ
    ューラルネットワークにおける学習方法。
  9. 【請求項9】 継続学習を行う際に、学習パラメータを
    変更するか、前回と同じ値を使うか、デフォルト値を使
    うかのいずれかを選択して実行する機能を付加したこと
    を特徴とする請求項8に記載のニューラルネットワーク
    における学習方法。
  10. 【請求項10】 上記学習結果から、学習に用いた特性
    項目のデータである実測値と、学習に用いた要因項目の
    データから推定計算された推定値との関係を求めてグラ
    フ化するとともに、上記実測値と推定値との相関係数を
    算出して上記グラフとともに表示して、学習程度を検証
    可能としたことを特徴とする請求項1〜請求項9のいず
    れかに記載のニューラルネットワークにおける学習方
    法。
JP2001249809A 2001-08-21 2001-08-21 ニューラルネットワークにおける学習方法 Pending JP2003058863A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001249809A JP2003058863A (ja) 2001-08-21 2001-08-21 ニューラルネットワークにおける学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001249809A JP2003058863A (ja) 2001-08-21 2001-08-21 ニューラルネットワークにおける学習方法

Publications (1)

Publication Number Publication Date
JP2003058863A true JP2003058863A (ja) 2003-02-28

Family

ID=19078751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001249809A Pending JP2003058863A (ja) 2001-08-21 2001-08-21 ニューラルネットワークにおける学習方法

Country Status (1)

Country Link
JP (1) JP2003058863A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058848A (ja) * 2015-09-15 2017-03-23 日本電気株式会社 情報処理システム、情報処理方法、及び、プログラム
JP2019185359A (ja) * 2018-04-09 2019-10-24 トヨタ自動車株式会社 機械学習装置
JP2020166461A (ja) * 2019-03-29 2020-10-08 株式会社野村総合研究所 データラングリング作業支援装置、データラングリング作業支援方法及びデータラングリング作業支援プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058848A (ja) * 2015-09-15 2017-03-23 日本電気株式会社 情報処理システム、情報処理方法、及び、プログラム
JP2019185359A (ja) * 2018-04-09 2019-10-24 トヨタ自動車株式会社 機械学習装置
JP2020166461A (ja) * 2019-03-29 2020-10-08 株式会社野村総合研究所 データラングリング作業支援装置、データラングリング作業支援方法及びデータラングリング作業支援プログラム
JP7253161B2 (ja) 2019-03-29 2023-04-06 株式会社野村総合研究所 データラングリング作業支援装置、データラングリング作業支援方法及びデータラングリング作業支援プログラム

Similar Documents

Publication Publication Date Title
Martinez-Jaramillo et al. An heterogeneous, endogenous and coevolutionary GP-based financial market
Gero et al. An exploration‐based evolutionary model of a generative design process
Bai et al. Prediction of SARS epidemic by BP neural networks with online prediction strategy
US20060229852A1 (en) Zeta statistic process method and system
JP2003058582A (ja) 設計・配合のシミュレーションシステム
CN110377511B (zh) 一种面向数据流的测试用例生成方法
CN106227599A (zh) 一种云计算系统中资源调度的方法及系统
Arifovic et al. Learning to alternate
Han et al. Emergence of cooperation with reputation-updating timescale in spatial public goods game
McGregor et al. Facilitating testing and debugging of Markov Decision Processes with interactive visualization
Rogers et al. Approaches to modeling natural regeneration in oak-dominated forests
CN110956261A (zh) 一种评价指标的确定方法及系统
JP2003058579A (ja) 設計・配合の最適化方法
Lorscheid et al. Divide and conquer: Configuring submodels for valid and efficient analyses of complex simulation models
JP2003058863A (ja) ニューラルネットワークにおける学習方法
GB2420886A (en) Scoring mechanism for automatically generated test programs
CN103763123A (zh) 一种网络健康状态的评估方法和装置
Yıldızoğlu et al. Learning the optimal buffer-stock consumption rule of Carroll
JP2003058859A (ja) ニューラルネットワークにおける最適化方法
Dutt et al. Slope of inflow impacts dynamic decision making
JPH0561848A (ja) 最適アルゴリズムの選定及び実行のための装置及び方法
Blosch et al. Experimental design and computer‐based simulation: a case study with the Royal Navy
Hu et al. Modeling nonlinear synaptic dynamics: a laguerre-volterra network framework for improved computational efficiency in large scale simulations
CN110991600A (zh) 一种融合分布估计算法与极限学习机的干旱智慧预测方法
JP2003044827A (ja) 特性推定方法