JPH0954764A - モデルの汎化能力評価方法 - Google Patents

モデルの汎化能力評価方法

Info

Publication number
JPH0954764A
JPH0954764A JP7207981A JP20798195A JPH0954764A JP H0954764 A JPH0954764 A JP H0954764A JP 7207981 A JP7207981 A JP 7207981A JP 20798195 A JP20798195 A JP 20798195A JP H0954764 A JPH0954764 A JP H0954764A
Authority
JP
Japan
Prior art keywords
data
model
generalization ability
value
adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7207981A
Other languages
English (en)
Inventor
Akira Kawamura
旭 川村
Nobuo Watabe
信雄 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7207981A priority Critical patent/JPH0954764A/ja
Publication of JPH0954764A publication Critical patent/JPH0954764A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】ニューロ・ファジイ融合システム等におけるモ
デルの汎化能力評価方法に関し,調節用データおよびテ
スト用データの全データ数が少ない場合でも,作成した
モデルの調節結果の汎化能力の評価を可能とし,かつ汎
化能力の評価値の信頼性を確認できるようにする。 【解決手段】モデル(ルール)の汎化能力を評価するた
めに,用意した全データの調節用データとテスト用デー
タへの分割を複数個作成する(2) 。その各々のデータ分
割について,調節(学習)用データを用いた調節(学
習)を行い(5) ,テスト用データで汎化能力の評価を行
う(7) 。この際に,データ分割を通した平均値によっ
て,汎化能力の評価値とし,データ分割を通した分散ま
たは標準偏差値によって,汎化能力の評価値の信頼性と
する(9) 。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は,データを用いた調
節によってモデルの改良を行うシステムにおけるモデル
の汎化能力評価方法に関する。
【0002】説明のために,ニューロ・ファジイ融合シ
ステムを例として取り上げる。エキスパートシステムに
おいては,対象システムをモデル化するためにルールを
作成することによってモデルを作成する。そのルールの
作成には膨大な手間がかかり,新しく得られたデータを
用いた改良を加えることや,条件が変化した場合の対応
等のメンテナンスが容易ではなかった。そのために,デ
ータを学習することによるルールの調節が必要となる。
【0003】その学習によるルールの調節を可能とする
システムの例として,ファジイとニューロを融合したシ
ステムがある。ニューロを用いた情報処理では,対象と
するシステムの入力パターンとそれに対する望ましい出
力パターンの組とを,階層型ニューラルネットワークに
提示して学習させ,適応的な処理を行わせる。特に,バ
ックプロパゲーション法とよばれる処理方式が,その実
用性の高さから注目されている。
【0004】ファジイ理論は,1960年代にZadeh に
より提案され,温度が「高い」とか「低い」といった,
人間が行っている,あいまいさに基づく思考や判断の過
程をモデル化する理論である。あいまいさを表すために
メンバシップ関数を導入したファジイ集合論を数学的基
礎としている。
【0005】応用としては,1974年にMamdani がス
チームエンジンの制御に用いて以来,ファジイ制御が行
われている。ニューロ・ファジイ融合システムは,制御
の精度を上げるためのメンバシップ関数やファジイルー
ルの調節・変更が困難であるというファジイ制御の問題
点をニューラルネットワークの学習機能を用いて解決
し,また一方,そのままでは内部の情報処理が理解し難
いというニューラルネットワークの問題点をファジイモ
デルの枠組で解釈することによって説明することで解決
する。
【0006】このようなシステムでは,モデルが未知の
入力に対してどれだけ正確な値を出力するかについての
能力評価が重要であり,また,その評価結果の信頼性を
確認できる必要がある。
【0007】
【従来の技術】ニューロ・ファジイ融合システムの概要
を図8を用いて説明する。 対象システムの専門家の勘や経験やノウハウ等を含
む知識を,メンバシップ関数とファジイルールの形式で
抽出し,ファジイモデルを作成する。
【0008】 作成されたファジイモデルに従い,ニ
ューラルネットワークのプリワイヤを行う。すなわち,
ニューロン間の結合や重み値を設定してニューラルネッ
トワークを構築する。
【0009】 プリワイヤによって構築されたニュー
ラルネットワークを,実際の対象システムに適用する。 対象システムに付けられたセンサ等から,動作中に
学習用のデータを得て,ニューラルネットワークにそれ
らを学習させることにより,モデルの精度の向上を図
る。
【0010】 学習を行ったニューラルネットワーク
の結合状態や重み値を,ファジイモデルのメンバシップ
関数やファジイルールに対応付けて解釈することによ
り,ニューラルネットワークの内部動作を説明する。
【0011】〔適用例〕簡単な問題について本システム
を適用した例に即して,システムの各ステップについて
の説明を行う。
【0012】〔例題〕簡単な例として,対象システムが
図9に示す入出力関係を持っている場合を考える。
【0013】ここで,XとYが入力変数であり,Zが出
力変数である。 ファジイモデルの作成 図9の入出力関係をモデル化するために,作成したファ
ジイルールを図10に示す。このファジイルールは,入
力変数X,Yの値の取り得る範囲をおおまかに5つの領
域に分け,その領域における出力変数Zのおおまかな値
(3つの領域に分割)を述べたものである。
【0014】ファジイルールにおいてifの後に続くフ
ァジイ命題を前件部命題,thenの後に続くファジイ
命題を後件部命題という。これらのファジイルールに用
いられている,「X is small 」等のあいまいな命題を
定量化するために,定義したメンバシップ関数のうち,
入力変数Xに関する前件部メンバシップ関数を図11
に,出力変数Zに関する後件部メンバシップ関数を図1
2に示す。
【0015】また,図13のようにファジイ命題間のフ
ァジイ論理演算ANDとして限界積を採用した。推論結
果の非ファジイ化には,図12のように重心計算法を採
用した。
【0016】以上のように作成した,ファジイモデルの
入出力関係を図14に示す。図14の入出力関係と図9
の対象システムの入出力関係のグラフを見比べると,前
件部メンバシップ関数の領域の変わり目の付近にずれが
生じているが,おおまかな特徴は捉えられていることが
判る。このようなずれが生じた原因は,入力値が前件部
メンバシップ関数の領域の変わり目の値になった場合,
どの前件部命題もグレード値が約0.5となり,これらの
グレード値に対しては,限界積は0.0に近い値をとるた
めと考えられる。
【0017】以下に,本システムにおいて採用したファ
ジイモデルの詳細について説明する。 a)前件部メンバシップ関数の説明 入力変数Xに関する前件部メンバシップ関数を図11に
示す。ここで,横軸は入力変数Xであり,縦軸はメンバ
シップ関数のグレード値である。これらのメンバシップ
関数によって各ファジイ命題の意味を表している。例え
ば,入力値がX=0.2のとき,ファジイ命題「X is sm
all 」,「X is middle」,「X is big 」の確からし
さを表すグレード値は,各々0.6,0.4,0.0である。
このように,ファジイ命題のグレード値は,0〜1の範
囲の任意の値をとる。
【0018】b)ファジイ論理演算の説明 普通の論理演算においては,命題は真か偽かのどちらか
一方となる。すなわち,命題のグレード値は1または0
のどちらかの値をとる。したがって,論理演算のAND
の値は,2つの命題のとりうるグレード値の4通りの組
み合わせ(0,0),(0,1),(1,0),(1,
1)について定義すればよい。これらの定義を,図13
の○と●で示す。○はAND演算の結果が真であること
を,●は偽であることを示す。
【0019】これに対して,ファジイ命題のグレード値
は,0〜1の範囲の任意の値をとるから,ファジイ論理
演算ANDの値は,上記の4つの点だけでなく,2つの
ファジイ命題のとり得るグレード値の範囲のすべてにつ
いて定義されなければならない。このようなAND演算
の拡張の一つが限界積であり,その入出力関係を図13
に示す。
【0020】これによって,「(X is small )AND
(Y is small )」等の複合命題のグレード値が計算さ
れる。前件部の複合命題のグレード値は,各ファジイル
ールの前提条件の成立の度合つまり適合度となる。
【0021】c)後件部メンバシップ関数の説明 後件部命題のグレード値は,各ファジイ命題を後件部に
持つファジイルールの適合度の和として得られる。この
ようにして得られた後件部命題「Z is small」,「Z
is middle」,「Z is big 」のグレード値が,各々0.
75,0.25,0.05の場合の,出力変数の算出過程を
図12に示す。ここで,横軸は出力変数Zであり,縦軸
はメンバシップ関数のグレード値である。定義したメン
バシップ関数を点線で示す。各々のメンバシップ関数の
高さは,対応する後件部命題のグレード値に比例して縮
小される。縮小されたメンバシップ関数を実線で示す。
それらの縮小されたメンバシップ関数の和が推論結果の
メンバシップ関数であり,図12中で塗りつぶされた部
分がこの推論結果のメンバシップ関数を示す。
【0022】推論結果のメンバシップ関数から代表値を
求める非ファジイ化の計算は,重心計算によって行い,
0.33を得る。 プリワイヤ 作成されたファジイモデルに従い,プリワイヤによって
構築した構造化ニューラルネットワークを図15に示
す。ここで,丸印はニューロンを表しており,●はシグ
モイド(関数)ニューロンを,○は線形(関数)ニュー
ロンを表す。この構造化ニューラルネットワークにおい
ては,ファジイモデルとの間に以下の対応関係がある。 ・3層目のニューロンは,各々前件部命題に対応してい
る。 ・4層目のニューロンは,各々ファジイルールに対応し
ている。 ・5層目のニューロンは,各々後件部命題に対応してい
る。
【0023】以下に,プリワイヤによるファジイモデル
の実現方法の詳細について説明を行う。 a)ファジイルールおよびファジイ論理演算の実現方法 図15にファジイルールと対応した構造を持つニューラ
ルネットワークを示す。
【0024】例えば,rule1:if(X is small )and
(Y is small )then Z is middleに対応したプリワ
イヤは次のように行う。4層目のrule1に対応するニュ
ーロンと3層目の「X is small 」と「Y issmall 」
に対応するニューロンとを結合させ,4層目のrule1に
対応するニューロンと5層目の「Z is middle」と対応
するニューロンとを結合させる。4層目と5層目との間
の結合の重み値はすべて1.0に設定する。5層目のニュ
ーロンの閾値はすべて0.0に設定する。
【0025】図16(a)に示すように,4層目のrule
1に対応するニューロンと3層目の「X is small 」と
「Y is small 」に対応するニューロンとの結合の重み
値は各々7.0,7.0に設定する。また,4層目のrule1
に対応するニューロンの閾値は10.5に設定する。この
ようにして,1個のニューロンを用いてファジイ論理演
算を実現する。このニューロンの入出力関係を図16
(b)に示す。図13の限界積の入出力関係と比較する
と,良い近似となっていることが解る。
【0026】b)前件部メンバシップ関数の実現方法 例えば,入力変数Xの前件部メンバシップ関数に対応し
たプリワイヤは次のように行う。
【0027】図17に,前件部メンバシップ関数を実現
するニューラルネットワークを示す。ここで,丸印はニ
ューロンを表しており,●はシグモイドニューロンを,
○は線形ニューロンを表す。結線の傍の数値は重み値,
ニューロンを示す丸印の中の数値は閾値である。small
,big のように単調減少,単調増加するメンバシップ
関数については,1個のニューロンのシグモイド関数を
利用して実現する。middleのような山形のメンバシップ
関数については,2個のニューロンを用い,2つのシグ
モイド関数の差によって実現する。
【0028】c)後件部メンバシップ関数の実現方法 出力変数Zの後件部メンバシップ関数に対応したプリワ
イヤは以下のように行う。
【0029】図18に,後件部メンバシップ関数を実現
するニューラルネットワークを示す。6層目の各ニュー
ロンを,出力変数Zの座標上にとられた点に対応させ
る。5層目のニューロンの一つから6層目の各ニューロ
ンへの結合の重み値の設定は,5層目のニューロンに対
応する後件部メンバシップ関数の6層目の各ニューロン
に対応するZ座標上の点におけるグレード値に設定す
る。例えば,small のメンバシップ関数のZ=0.0,0.
33,0.67,1.0におけるグレード値は各々1.0,0.
0,0.0,0.0であるから,5層目の1番目のニューロ
ン(「Z is small」に対応する)から6層目の各ニュ
ーロンへの結合の重み値は,1.0,0.0,0.0,0.0に
設定する。また,6層目のニューロンの閾値はすべて0.
0に設定する。
【0030】このように構成されたニューラルネットワ
ークの内部動作を以下に説明する。ここで,5層目の1
番目のニューロンに注目する。このニューロンの出力が
1.0のとき,すなわち「Z is small 」=1.0のとき,
6層目の各Z座標上の点に対応するニューロンの入力値
は,Z=0.0,0.33,0.67,1.0における後件部メ
ンバシップ関数small のグレード値1.0,0.0,0.0,
0.0と一致する。これを図18の点線で示す。そして,
注目している5層目の1番目のニューロンの出力が0.7
5のとき,すなわち「Z is small 」=0.75のとき,
6層目の各Z座標上の点に対応するニューロンの入力値
は,0.75,0.0,0.0,0.0となる。これを図18の
実線で示す。そして,これは点線で示されるsmall のメ
ンバシップ関数の高さを,ファジイ命題「Z is small
」の値に比例させて縮小したこと,すなわち0.75倍
したことに相当する。
【0031】6層目のニューロンは線型ニューロンであ
るから,各ニューロンの出力は5層目の各ニューロンか
らの入力の和である。したがって,6層目の各ニューロ
ンの出力値は,対応するZ座標上の点における,推論結
果のメンバシップ関数のグレード値と一致する。例え
ば,「Z is small 」=0.75,「Z is middle」=0.
25,「Z is big 」=0.05のときの推論結果のメン
バシップ関数を,図18に塗りつぶした図形で示す。
【0032】d)重心計算の実現方法 重心計算に対応したプリワイヤは次のように行う。図1
9の6層目の各ニューロンから7層目の一番目のZaと
名付けられたニューロンへの結合の重み値は,6層目の
ニューロンに対応する点のZ座標値に設定される。また
6層目の各ニューロンから7層目の二番目のZbと名付
けられたニューロンへの結合の重み値は,6層目のニュ
ーロンに対応する点のZ座標値−1が設定される。
【0033】このように構成されたニューラルネットワ
ーク・コンポーネントの内部動作は以下の通りである。
7層目のニューロンZaの出力値は,6層目の各ニュー
ロンの出力値(推論結果のメンバシップ関数の対応する
点におけるグレード値)の重み値(対応する点のZ座標
値)加重和であるので,その値はZ=0.0における推論
結果のメンバシップ関数の回転モーメントと一致する。
また,同様に,ニューロンZbの値はZ=1.0における
回転モーメントである。
【0034】これらの値から,Za/(Za−Zb)の
計算により,重心計算の結果が求められる。 対象システムへの適用 プリワイヤによって構成されたニューラルネットワーク
の入出力関係を図20に示す。元にしたファジイモデル
の入出力関係と同様に,細部については,対象システム
の入出力関係から外れているところがあるが,おおまか
な特徴は捉えている。
【0035】 学習によるモデルの精度向上 プリワイヤによって構築されたニューラルネットワーク
に,図9の対象システムの入出力関係を学習させる。図
9の格子上の点(11×11)のデータを教師データと
し,プリワイヤによって設定された重み値(閾値を含
む)を初期値として,ニューラルネットワークの学習を
行う。図20に示したように,プリワイヤによる初期値
で,おおまかな調整は済んでいるので,微調整だけを行
えば良く,この学習は容易である。
【0036】学習後のニューラルネットワークの入出力
関係を図21に示す。図9の対象システムの入出力関係
をほぼ再現できた。 学習後のニューラルネットワークの内部動作の説明 学習後のニューラルネットワークの結合の重み値および
閾値の変化は,以下のようにファジイルールおよびメン
バシップ関数の変化として解釈される。
【0037】a)学習後のファジイルールの比重の変化 学習後のファジイルールの比重の変化を図22に示す。
プリワイヤの時点では,各ファジイルールが同じ比重を
もって扱われることに対応して,4層目のニューロンと
5層目のニューロンとの間の結合の重み値は,すべて同
じ1に設定された。学習後のこの部分の重み値の変化は
各ニューロンに対応するファジイルールの比重の変化と
して解釈される。
【0038】b)学習後の前件部メンバシップ関数の変
化 図23は,学習前と学習後での,入力変数Xのメンバシ
ップ関数に対応する部分の重み値の変化を,メンバシッ
プ関数の変化として捉えて表示したものである。
【0039】点線が学習前のメンバシップ関数を,実線
が学習後のメンバシップ関数を示す。この変化は,メン
バシップ関数の変わり目におけるグレード値を0.5より
も大きくすることで,限界積を用いることによる出力値
の落ち込みを補償する働きをしていると解釈される。
【0040】c)学習後のファジイ論理演算の変化 図24は,学習後のrule1に対応するニューロンの重み
値の変化による,ファジイ論理演算の変化を示してい
る。
【0041】rule1にとって「X is small 」と「Y i
s small 」とがほぼ等しい寄与をすること,ファジイ論
理演算がAND演算のままで良いことが解釈される。
【0042】
【発明が解決しようとする課題】これまではモデル(ル
ール)の性能を評価するときに,調節(学習)用データ
にどれだけ合わせられるか,すなわち調節(学習)用デ
ータの誤差の大きさまたは正解率の大きさで評価する方
式がとられる。一般的にデータの数に比較してモデルの
調節自由度が大きい場合には,調節(学習)用データの
本質的でない誤差成分までモデルに取り込んでしまう過
適応が起きる危険性があり,全データを調節(学習)に
用いてしまうと,未知の入力に対してどれだけ正確な出
力が得られるかという汎化能力の評価が不可能である。
【0043】それを解決するために,全データを調節
(学習)用データとテスト用データとに分けて,調節
(学習)用データを用いて調節(学習)を行い,テスト
用データで汎化能力の評価が行われる。しかし,従来技
術では,調節(学習)用データとテスト用データへの分
割は1通りだけであった。モデル(ルール)の作成の時
点で全データを用いたりしている場合等には,1組だけ
の調節(学習)用データとテスト用データに対してだけ
の評価では,得られた汎化能力の値の信頼性が判らな
い。
【0044】本発明は上記問題点の解決を図り,調節用
データおよびテスト用データの全データ数が少ないよう
な場合でも,作成したモデル(ルール)の調節(学習)
結果の汎化能力の評価を可能とし,かつ汎化能力の評価
値の信頼性を確認できるようにする手段を提供すること
を目的とする。
【0045】
【課題を解決するための手段】モデル(ルール)の汎化
能力を評価するために,用意した全データの調節用デー
タとテスト用データへの分割を複数個作成する。その各
々のデータ分割について,調節(学習)用データを用い
た調節(学習)を行い,テスト用データで汎化能力の評
価を行う。そして,データ分割を通した平均値によっ
て,汎化能力の評価値とし,データ分割を通した分散ま
たは標準偏差値によって,汎化能力の評価値の信頼度と
する。
【0046】複数のデータ分割の作成方法の一つとし
て,汎化能力の評価の信頼度を確保するために,全デー
タ中のテスト用データの数を,調節用データと同等の数
とし,全データ中の各々のデータが,調節用データとテ
スト用データとのどちらに振り分けられるかを乱数を用
いて決定する方法がある。また,用意できる全データ数
が少なく,調節(学習)に必要なデータ数を確保するた
めには,全データ中のテスト用データの数を1個とし,
どの1個を選ぶかによってデータ分割を複数個作成する
方法が適用できる。
【0047】本発明の作用は以下の通りである。調節
(学習)用データだけでなく,テスト用データで調節
(学習)後のモデル(ルール)のデータの入力に対する
出力値とデータの出力値とを比較することで,汎化能力
の評価を行うことができる。その手続きを複数のデータ
分割で行い,平均値をとることで偶然の効果を減らして
汎化能力の信頼できる値が得られる。また,その評価値
の分布や分散(標準偏差)の値をみることで,汎化能力
評価値の信頼性をみることができる。また用意できる全
データ数が少ない場合に用いる,全データ中のテスト用
データの数を1個とし,どの1個を選ぶかによってデー
タ分割を複数個作成する方法による汎化能力評価値は,
テスト用データ数が大きい場合の方法によって得られる
値よりも大きく出る傾向があるが,この場合はモデルを
変えた場合の相対値が必要なだけであるので,使用に差
し支えはない。
【0048】
【発明の実施の形態】図1は本発明のシステムのブロッ
ク図である。元データ格納部1は,モデルの調節と汎化
能力を評価するためのテストの元となるデータ群を格納
している記憶手段である。データ分割部2は,元データ
格納部1に格納されているデータを,調節用データとテ
スト用データとに分割して,それぞれ調節用データ格納
部3およびテスト用データ格納部4に格納する処理を行
うものである。特に,本発明では,元データ格納部1に
格納されているデータを何回も使用し,複数通りのデー
タ分割を行う。
【0049】調節部5は,調節用データ格納部3に格納
されている調節用データを使用し,モデルの調節(学
習)を行うものである。調節によって,モデル格納部6
に格納されているモデルの特徴を表すデータを更新す
る。
【0050】テスト部7は,テスト用データ格納部4に
格納されているテスト用データを使用し,モデル格納部
6に格納されている調節後のモデルのデータについて,
汎化能力のテストを行うものである。特に,誤差算出部
/正解率算出部8は,テスト用データによるテスト結果
の誤差の大きさ,またはテスト用データによるテスト結
果の正解率を算出する手段である。
【0051】テスト結果のまとめ実行部9は,平均値算
出部10および分散/標準偏差算出部11を備え,テス
ト部7によるテスト結果のまとめを行って,結果を出力
する手段である。ここで,平均値算出部10は,誤差算
出部/正解率算出部8で算出したテスト用データの誤差
の大きさまたは正解率についてのデータ分割を通した平
均値を算出し,それを汎化能力の評価値とする。また,
分散/標準偏差算出部11は,誤差算出部/正解率算出
部8で算出したテスト用データの誤差の大きさまたは正
解率についてのデータ分割を通した分散もしくは標準偏
差値を算出し,それによって汎化能力の評価値の信頼度
を決定する。
【0052】データ分割部2におけるデータ分割の方法
として,以下の方法を選択可能である。 (1) 元データ格納部1に格納されている全データ中の各
々のデータについて,調節用データとテスト用データの
どちらに振り分けるかを乱数を用いて決定し,その乱数
のシード(seed)を複数個用意することによってデ
ータ分割を複数通り作成する。
【0053】(2) 汎化能力の評価の信頼度を確保するた
めに,元データ格納部1に格納されている全データ中の
テスト用データの数を,調節用データと同等の数にす
る。 (3) 元データ格納部1に格納されている全データ数が少
ない場合に,調節に必要なデータ数を確保するために,
全データ中のテスト用データの数を1個とし,どの1個
を選ぶかによってデータ分割を複数通り作成する。
【0054】図2は,本発明による汎化能力評価の全体
の処理フローを示す。まず,ステップS1において,デ
ータ分割部1は,元データ格納部1に格納されている元
データの調節用データとテスト用データへの分割を複数
通り作成する。ステップS2では,調節部5によって,
データ分割した中の1組の調節用データを用いたモデル
の調節を行い,モデル格納部6中のモデル情報を更新す
る。
【0055】次のステップS3では,調節部5により調
節したモデルについて,データ分割した中の1組のテス
ト用データを用いてテストを行う。ステップS4では,
すべてのデータ分割についての調節とテストが終了した
かどうかを判定し,未終了であれば,ステップS2へ戻
り,同様に処理を繰り返す。終了したならば,ステップ
S5へ進み,テスト結果のまとめを行う。
【0056】図3(a)は,第1の実施の形態によるデ
ータ分割の処理フローである。元データの調節用データ
とテスト用データへの分割を複数通り作成する方法とし
て,第1の方法では,まずステップS10により,乱数
を生成する。次に,ステップS11によって,元データ
格納部1中の元データを,調節用データとテスト用デー
タに乱数を用いて分割する。次のステップS12によ
り,あらかじめ設定された個数のデータ分割を生成した
かどうかを判定し,まだ生成していない場合には,ステ
ップS10へ戻って同様にデータ分割を繰り返す。設定
個数のデータ分割の生成後に,図2に示すステップS2
へ移る。
【0057】図3(b)は,第2の実施の形態によるデ
ータ分割の処理フローである。元データの調節用データ
とテスト用データへの分割を複数通り作成する方法とし
て,第2の方法では,まずステップS20により,元デ
ータ格納部1中の元データを,調節用データとテスト用
データに双方ともほぼ等しい数になるように分割する。
次に,ステップS21により,あらかじめ設定された個
数のデータ分割を生成したかどうかを判定し,まだ生成
していない場合には,同様にステップS20によってデ
ータ分割を繰り返す。設定個数のデータ分割の生成後
に,図2に示すステップS2へ移る。
【0058】図4は,第3の実施の形態によるデータ分
割の処理フローである。元データの調節用データとテス
ト用データへの分割を複数通り作成する方法として,第
3の方法では,まずステップS30により,元データ格
納部1中の元データを読み込み,ステップS31によ
り,元データの個数をカウントする。そして,ステップ
S32により,データ分割個数を元データ個数とする。
【0059】ステップS33では,データ分割個数のカ
ウント用変数mを0に初期化し,ステップS34〜S3
6を繰り返す。まず,ステップS34により,mに1を
加算し,次のステップS35で,元データのm番目のデ
ータをテスト用データとし,残りの元データを調節用デ
ータとしてデータ分割の一つを生成する。ステップS3
6で,設定個数のデータ分割を生成したかどうか,すな
わち,m=データ分割個数であるか否かを判定し,m=
データ分割個数でなければ,ステップS34へ戻って,
次のデータ分割を生成する。m=データ分割個数であれ
ば,図2に示すステップS2へ移る。
【0060】図5は,テスト用データを用いたテストの
処理フローである。第1のテスト方法では,図5(a)
に示すステップS40により,テスト用データの入力部
分をモデルに入力する。次に,ステップS41により,
入力に対するモデルの出力を算出する。そして,ステッ
プS42により,モデルの出力と,テスト用データの出
力部分との比較を行い,誤差を算出する。
【0061】第2のテスト方法では,図5(b)に示す
ステップS43により,テスト用データの入力部分をモ
デルに入力する。次に,ステップS44により,入力に
対するモデルの出力を算出する。そして,ステップS4
5により,モデルの出力と,テスト用データの出力部分
との比較を行い,正解率を算出する。
【0062】テスト結果のまとめは,図5(c)に示す
ように,(a)で求めた誤差または(b)で求めた正解
率のすべてのデータ分割を通した平均値を算出し,それ
を汎化能力の評価値とする。
【0063】図6は,テスト用データを用いたテストの
処理フローであって,特に汎化能力の評価値の信頼度を
求める方法を示す図である。第1のテスト方法では,図
6(a)に示すステップS50により,テスト用データ
の入力部分をモデルに入力する。次に,ステップS51
により,入力に対するモデルの出力を算出する。そし
て,ステップS52により,モデルの出力と,テスト用
データの出力部分との比較を行い,誤差を算出する。
【0064】第2のテスト方法では,図6(b)に示す
ステップS53により,テスト用データの入力部分をモ
デルに入力する。次に,ステップS54により,入力に
対するモデルの出力を算出する。そして,ステップS5
5により,モデルの出力と,テスト用データの出力部分
との比較を行い,正解率を算出する。
【0065】テスト結果のまとめは,図6(c)に示す
ように,(a)で求めた誤差または(b)で求めた正解
率のすべてのデータ分割を通した分散を算出し,それを
汎化能力の評価値の信頼度とする。または,誤差もしく
は正解率のすべてのデータ分割を通した標準偏差を算出
し,それを汎化能力の評価値の信頼度とする。
【0066】
【実施例】図7は,本発明の実施例によるデータ分割と
評価の具体例を示す図である。元データとして,図7
(a)に示すような元データP1 〜P10が,元データ格
納部1に与えられたとする。各元データP1 〜P10は,
それぞれ入力I1 〜I10と出力O1 〜O10の組からな
る。これらのデータは,例えば入力Ii (i=1,2,
…,10)をモデルに対して与えた場合,Oi が望まし
い出力であることを示している。
【0067】これらの元データを調節用データとテスト
用データとがほぼ同数となる方法を用いてデータ分割を
すると,例えば図7(b)に示すようなデータ分割が得
られる。ここでは,データ分割の設定個数を5としてい
る。他のデータ分割方法として,全データ中の各々のデ
ータについて,調節用データとテスト用データのどちら
に振り分けるかを乱数を用いて決定する方法,元データ
の中の1つだけをテスト用データとして選択する方法を
用いることも可能である。
【0068】このようにしてデータ分割した結果の調節
用データをL1 〜L5 とし,テスト用データをT1 〜T
5 とする。これを用い,図7(c)に示すように,調節
用データL1 で調節し,それをテスト用データT1 でテ
ストした結果の誤差をE1 とする。同様に,調節用デー
タL2 で調節し,それをテスト用データT2 でテストし
た結果の誤差をE2 とする。これをすべてのデータ分割
に対して繰り返し,結果の誤差E1 〜E5 を算出する。
【0069】次に,図7(d)に示すように,誤差E1
〜E5 の平均値を算出し,それを汎化能力の評価値とす
る。また,誤差E1 〜E5 の標準偏差を算出し,それを
汎化能力の評価値の信頼度とする。誤差E1 〜E5 では
なく,正解率を用いるようにしてもよい。また,汎化能
力の評価値の信頼度を,誤差または正解率の分散から求
めるようにしてもよい。
【0070】この汎化能力評価方法は,ニューロ・ファ
ジイ融合システムに用いることが可能である。
【0071】
【発明の効果】以上説明したように,本発明を用いるこ
とで,作成したモデル(ルール)の調節(学習)結果の
汎化能力の評価が可能となり,汎化能力の向上をモデル
(ルール)の作成の指針とすることで,調節(学習)デ
ータに合わせるために無闇に調節(学習)自由度を増や
して,過適応を起こすモデルを作成することを防止する
ことができる。
【図面の簡単な説明】
【図1】本発明のシステムのブロック図である。
【図2】本発明による汎化能力評価の全体の処理フロー
を示す図である。
【図3】第1および第2の実施の形態によるデータ分割
の処理フローである。
【図4】第3の実施の形態によるデータ分割の処理フロ
ーである。
【図5】テスト用データを用いたテストの処理フローで
ある。
【図6】テスト用データを用いたテストの処理フローで
ある。
【図7】本発明の実施例によるデータ分割と評価の具体
例を示す図である。
【図8】ニューロ・ファジイ融合システムの概要を示す
図である。
【図9】ニューロ・ファジイ融合システムを説明するた
めの例題を示す図である。
【図10】図9の入出力関係をモデル化するために作成
したファジイルールの例を示す図である。
【図11】前件部メンバシップ関数を示す図である。
【図12】出力変数Zに関する後件部メンバシップ関数
と非ファジイ化(重心計算)を示す図である。
【図13】ファジイ命題間のファジイ論理演算(限界
積)を説明する図である。
【図14】ファジイモデルの入出力関係を示す図であ
る。
【図15】ファジイルールと対応した構造を持つニュー
ラルネットワークを示す図である。
【図16】ファジイ論理演算を実現するニューロンを示
す図である。
【図17】前件部メンバシップ関数を実現するニューラ
ルネットワークを説明する図である。
【図18】後件部メンバシップ関数を実現するニューラ
ルネットワークを説明する図である。
【図19】重心計算を実現するニューラルネットワーク
を説明する図である。
【図20】プリワイヤによって構成されたニューラルネ
ットワークの入出力関係を示す図である。
【図21】学習後のニューラルネットワークの入出力関
係を示す図である。
【図22】学習後のファジイルールの比重の変化を示す
図である。
【図23】学習による前件部メンバシップ関数の変化を
示す図である。
【図24】学習によるファジイ論理演算の変化を示す図
である。
【符号の説明】
1 元データ格納部 2 データ分割部 3 調節用データ格納部 4 テスト用データ格納部 5 調節部 6 モデル格納部 7 テスト部 8 誤差算出部/正確率算出部 9 テスト結果のまとめ実行部 10 平均値算出部 11 分散/標準偏差算出部

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 データを用いた調節によってモデルの改
    良を行うシステムにおけるモデルの汎化能力評価方法に
    おいて,モデルの汎化能力を評価するために用意した全
    データの調節用データとテスト用データへの分割を複数
    通り作成し,前記調節用データを用いたモデルの調節と
    前記テスト用データを用いたモデルのテストとを前記複
    数通りのデータ分割の数だけ繰り返すことを特徴とする
    モデルの汎化能力評価方法。
  2. 【請求項2】 請求項1記載のモデルの汎化能力評価方
    法において,全データ中の各々のデータについて,調節
    用データとテスト用データのどちらに振り分けるかを乱
    数を用いて決定し,その乱数のシードを複数個用意する
    ことによってデータ分割を複数通り作成することを特徴
    とするモデルの汎化能力評価方法。
  3. 【請求項3】 請求項1記載のモデルの汎化能力評価方
    法において,全データ中のテスト用データの数を,調節
    用データと同等の数にすることにより,汎化能力の評価
    の信頼度を確保することを特徴とするモデルの汎化能力
    評価方法。
  4. 【請求項4】 請求項1記載のモデルの汎化能力評価方
    法において,全データ中のテスト用データの数を1個と
    し,どの1個を選ぶかによってデータ分割を複数通り作
    成し,全データ数が少ない場合における調節に必要なデ
    ータ数を確保することを特徴とするモデルの汎化能力評
    価方法。
  5. 【請求項5】 請求項1記載のモデルの汎化能力評価方
    法において,テスト用データの誤差の大きさのデータ分
    割を通した平均値またはテスト用データの正解率のデー
    タ分割を通した平均値を,汎化能力の評価値とすること
    を特徴とするモデルの汎化能力評価方法。
  6. 【請求項6】 請求項1記載のモデルの汎化能力評価方
    法において,テスト用データの誤差の大きさのデータ分
    割を通した分散もしくは標準偏差値またはテスト用デー
    タの正解率のデータ分割を通した分散もしくは標準偏差
    値によって,汎化能力の評価値の信頼度を決定すること
    を特徴とするモデルの汎化能力評価方法。
JP7207981A 1995-08-15 1995-08-15 モデルの汎化能力評価方法 Pending JPH0954764A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7207981A JPH0954764A (ja) 1995-08-15 1995-08-15 モデルの汎化能力評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7207981A JPH0954764A (ja) 1995-08-15 1995-08-15 モデルの汎化能力評価方法

Publications (1)

Publication Number Publication Date
JPH0954764A true JPH0954764A (ja) 1997-02-25

Family

ID=16548709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7207981A Pending JPH0954764A (ja) 1995-08-15 1995-08-15 モデルの汎化能力評価方法

Country Status (1)

Country Link
JP (1) JPH0954764A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210012762A (ko) * 2019-07-26 2021-02-03 주식회사 수아랩 데이터 레이블링 우선순위 결정방법
JP2021022051A (ja) * 2019-07-25 2021-02-18 富士通株式会社 機械学習プログラム、機械学習方法および機械学習装置
CN115457374A (zh) * 2022-11-09 2022-12-09 之江实验室 基于推理模式评估深伪图像检测模型泛化性方法及装置
CN115741782A (zh) * 2022-11-09 2023-03-07 广州市智能软件产业研究院 一种机器人泛化能力评价方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022051A (ja) * 2019-07-25 2021-02-18 富士通株式会社 機械学習プログラム、機械学習方法および機械学習装置
KR20210012762A (ko) * 2019-07-26 2021-02-03 주식회사 수아랩 데이터 레이블링 우선순위 결정방법
CN115457374A (zh) * 2022-11-09 2022-12-09 之江实验室 基于推理模式评估深伪图像检测模型泛化性方法及装置
CN115741782A (zh) * 2022-11-09 2023-03-07 广州市智能软件产业研究院 一种机器人泛化能力评价方法及系统

Similar Documents

Publication Publication Date Title
Papageorgiou et al. Active Hebbian learning algorithm to train fuzzy cognitive maps
Kang An investigation of the use of feedforward neural networks for forecasting
Yu et al. Fuzzy identification using fuzzy neural networks with stable learning algorithms
Shokri et al. Algorithm for increasing the speed of evolutionary optimization and its accuracy in multi-objective problems
Zhou et al. A new type of recurrent fuzzy neural network for modeling dynamic systems
Cho et al. Novel fuzzy logic control based on weighting of partially inconsistent rules using neural network
Amador-Angulo et al. Comparison of fuzzy controllers for the water tank with type-1 and type-2 fuzzy logic
WO2019160138A1 (ja) 因果推定装置、因果推定方法、及びプログラム
Wu et al. Automatic fuzzy model identification for short-term load forecast
Mishra et al. Neuro-fuzzy models and applications
JPH0954764A (ja) モデルの汎化能力評価方法
Meng Experimental design and decision support
Kato et al. Falsification of cyber-physical systems with reinforcement learning
Morozov Neuro-fuzzy approach for the calibration of high-precision embedded systems
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
Madey et al. Hybrid intelligent systems: Tools for decision making in intelligent manufacturing
Christina et al. Software cost estimation using neuro fuzzy logic Framework
Faghri et al. Analysis of performance of backpropagation ANN with different training parameters
Zuviria et al. SAPM: ANFIS based prediction of student academic performance metric
Guzika et al. Organisation of Fuzzy Cognitive Maps Considering Real Parameters of Simulated Systems
Baisch et al. A neural fuzzy system to evaluate software development productivity
CN110796243A (zh) 一种连续型运行监测数据模拟发生方法及装置
JP3292495B2 (ja) ニューロ・ファジィ融合システム
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
Liu et al. A camera calibration method based on neural network optimized by genetic algorithm

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031118