JPH08235145A - 応用問題に対して最適なニューラルネットワークの構造を決定する方法 - Google Patents
応用問題に対して最適なニューラルネットワークの構造を決定する方法Info
- Publication number
- JPH08235145A JPH08235145A JP7036648A JP3664895A JPH08235145A JP H08235145 A JPH08235145 A JP H08235145A JP 7036648 A JP7036648 A JP 7036648A JP 3664895 A JP3664895 A JP 3664895A JP H08235145 A JPH08235145 A JP H08235145A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- neurons
- learning
- intermediate layer
- principal component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 ニューラルネットワークの中間層に属する素
子の最適な個数を算出可能なニューラルネットワーク構
造決定方法を提供する。 【構成】 学習の収斂に十分な個数の中間層の素子数を
含むニューラルネットワークをまず構成し、このニュー
ラルネットワークを用いて学習を行う。次に、この学習
したニューラルネットワークの中間層の各素子の出力を
主成分分析によって検査する。次に、第k主成分までの
累積寄与率=1.0となるようなkを求める。そして、
このkを中間層の最適な素子数として出力する。これに
よって、1回の学習だけで最適な中間層の素子数を算出
することができる。
子の最適な個数を算出可能なニューラルネットワーク構
造決定方法を提供する。 【構成】 学習の収斂に十分な個数の中間層の素子数を
含むニューラルネットワークをまず構成し、このニュー
ラルネットワークを用いて学習を行う。次に、この学習
したニューラルネットワークの中間層の各素子の出力を
主成分分析によって検査する。次に、第k主成分までの
累積寄与率=1.0となるようなkを求める。そして、
このkを中間層の最適な素子数として出力する。これに
よって、1回の学習だけで最適な中間層の素子数を算出
することができる。
Description
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クの構造決定方法に関する。特に、ニューラルネットワ
ークの中間層の素子数を最適な値とすることが可能なニ
ューラルネットワークの構造決定方法に関する。
クの構造決定方法に関する。特に、ニューラルネットワ
ークの中間層の素子数を最適な値とすることが可能なニ
ューラルネットワークの構造決定方法に関する。
【0002】
【従来の技術】多層ニューラルネットワークは、制御、
認識、予測などさまざまな分野に適用が試みられてい
る。例えば、経済予測や、気象情報の予測、もしくは電
力消費量の予測、もしくは手書き文字の認識、パターン
認識などその適応分野は極めて広い。しかしながら、各
種の問題に対応した最適なネットワーク構成を決定する
手法については、未だ確定的な方法は見い出されていな
い。
認識、予測などさまざまな分野に適用が試みられてい
る。例えば、経済予測や、気象情報の予測、もしくは電
力消費量の予測、もしくは手書き文字の認識、パターン
認識などその適応分野は極めて広い。しかしながら、各
種の問題に対応した最適なネットワーク構成を決定する
手法については、未だ確定的な方法は見い出されていな
い。
【0003】特に、中間層のニューロン数に関しては、
入出力の関係のマッピングや、汎化能力に十分な個数
を、シミュレーションで試行錯誤の上決定する場合がほ
とんどである。このように試行錯誤によって決定するこ
とがニューラルネットワーク応用システムの発展の障害
の1つとなっている。
入出力の関係のマッピングや、汎化能力に十分な個数
を、シミュレーションで試行錯誤の上決定する場合がほ
とんどである。このように試行錯誤によって決定するこ
とがニューラルネットワーク応用システムの発展の障害
の1つとなっている。
【0004】階層型ニューラルネットワークに誤差逆伝
搬学習をさせ、制御やパターン認識などを行う場合、そ
の入力層と出力層に含まれる素子(ニューロン)数は、
それぞれニューラルネットワークへの入力数と、必要と
される出力数とによって一意に決定される。一方、中間
層に含まれる素子数には学習パターンの情報構造によっ
て定まる必要最小限の値が存在すると考えられるが、一
般の学習の問題においてはその値は未知である。そこ
で、通常はニューラルネットワークの設計者が経験的に
中間層に含まれる素子数を決定するが、その場合素子数
を少なく選ぶほど演算速度やシステムのコストなどの点
で有利である。
搬学習をさせ、制御やパターン認識などを行う場合、そ
の入力層と出力層に含まれる素子(ニューロン)数は、
それぞれニューラルネットワークへの入力数と、必要と
される出力数とによって一意に決定される。一方、中間
層に含まれる素子数には学習パターンの情報構造によっ
て定まる必要最小限の値が存在すると考えられるが、一
般の学習の問題においてはその値は未知である。そこ
で、通常はニューラルネットワークの設計者が経験的に
中間層に含まれる素子数を決定するが、その場合素子数
を少なく選ぶほど演算速度やシステムのコストなどの点
で有利である。
【0005】
【発明が解決しようとする課題】中間層に含まれるニュ
ーロン数を最適な値にする方法は、これまでもいくつか
の提案がなされている。まず、その代表的な手法とし
て、以下のものが挙げられる。
ーロン数を最適な値にする方法は、これまでもいくつか
の提案がなされている。まず、その代表的な手法とし
て、以下のものが挙げられる。
【0006】(イ)中間層自動削減法 (ロ)重回帰分析を用いた中間層数決定法 上記(イ)は、これまで設計者が行ってきた試行錯誤に
よって中間層に含まれるニューロン数を決定する手法
を、いわば単にアルゴリズム化しただけのものであっ
て、最終的には最適な中間層に含まれるニューロン数が
求められるが、1回の試行毎に再学習し直すために、決
定までに膨大な工程を経なければならず、工学的な興味
からは魅力があるとは言い難い。
よって中間層に含まれるニューロン数を決定する手法
を、いわば単にアルゴリズム化しただけのものであっ
て、最終的には最適な中間層に含まれるニューロン数が
求められるが、1回の試行毎に再学習し直すために、決
定までに膨大な工程を経なければならず、工学的な興味
からは魅力があるとは言い難い。
【0007】これに対し、上記(ロ)の手法では、1回
の学習で最適な中間層に含まれるニューロン数が決定で
きる画期的なものであり、その反面中間層に含まれる正
確なニューロン数が求められないという欠点がある。
の学習で最適な中間層に含まれるニューロン数が決定で
きる画期的なものであり、その反面中間層に含まれる正
確なニューロン数が求められないという欠点がある。
【0008】上記(ロ)の手法において、中間層に含ま
れる正確なニューロン数が求められないと言う欠点は、
中間層に含まれるニューロンの互いに相関のある振舞い
を解析する手段として、重回帰を用いたことによるもの
と考えられる。すなわち、この重回帰は、解析の要因間
に相関がないことを前提にしているので、この重回帰を
用いたことによって生じる、多重共線性の影響によるも
のと考えられる。
れる正確なニューロン数が求められないと言う欠点は、
中間層に含まれるニューロンの互いに相関のある振舞い
を解析する手段として、重回帰を用いたことによるもの
と考えられる。すなわち、この重回帰は、解析の要因間
に相関がないことを前提にしているので、この重回帰を
用いたことによって生じる、多重共線性の影響によるも
のと考えられる。
【0009】換言すれば、解析において相関のある中間
層のニューロンの出力値を説明変数とし、この解析に説
明変数間に相関がないことを前提とする線形重回帰分析
を用いるという矛盾があるため、寄与率が見掛け上大き
くなり、推定される最適中間素子ニューロン数が過少評
価(実際必要な数より少なく推定)される欠点があるも
のと考えられる。
層のニューロンの出力値を説明変数とし、この解析に説
明変数間に相関がないことを前提とする線形重回帰分析
を用いるという矛盾があるため、寄与率が見掛け上大き
くなり、推定される最適中間素子ニューロン数が過少評
価(実際必要な数より少なく推定)される欠点があるも
のと考えられる。
【0010】本発明は、上記課題に鑑みなされたもので
あり、その目的は、ニューラルネットワークが扱う問題
によらずに、汎用的に中間層に含まれるニューロン数の
最適値を、試行錯誤なしに一意的に決定する方法を提供
することである。
あり、その目的は、ニューラルネットワークが扱う問題
によらずに、汎用的に中間層に含まれるニューロン数の
最適値を、試行錯誤なしに一意的に決定する方法を提供
することである。
【0011】
【課題を解決するための手段】本発明は、上記課題を解
決するために、ニューラルネットワークの中間層の素子
数を対象データに対して充分に大きな個数に設定するこ
とによって、ニューラルネットワークを構成する初期ニ
ューラルネットワーク構成工程と、前記初期ニューラル
ネットワーク構成工程において構成されたニューラルネ
ットワークに、対象データの教師データを供給し、学習
を行わせる学習工程と、前記学習工程によって、学習が
終了したニューラルネットワークの中間層の各素子の出
力データに基づき、主成分分析を行う主成分分析工程
と、前記主成分分析工程の結果に基づき、第k番目(k
は正の整数)の主成分までの累積寄与率がほぼ「1」の
場合、前記kを中間層の最適な素子数として出力する最
適素子数決定工程と、を含むことを特徴とする。
決するために、ニューラルネットワークの中間層の素子
数を対象データに対して充分に大きな個数に設定するこ
とによって、ニューラルネットワークを構成する初期ニ
ューラルネットワーク構成工程と、前記初期ニューラル
ネットワーク構成工程において構成されたニューラルネ
ットワークに、対象データの教師データを供給し、学習
を行わせる学習工程と、前記学習工程によって、学習が
終了したニューラルネットワークの中間層の各素子の出
力データに基づき、主成分分析を行う主成分分析工程
と、前記主成分分析工程の結果に基づき、第k番目(k
は正の整数)の主成分までの累積寄与率がほぼ「1」の
場合、前記kを中間層の最適な素子数として出力する最
適素子数決定工程と、を含むことを特徴とする。
【0012】
【作用】本発明における最適素子数決定工程は、第1番
目から第k番目までの主成分の累積寄与率が「1」とな
るか否かを検査し、ほぼ「1」となるような前記kを、
中間層の最適な素子数として出力する。
目から第k番目までの主成分の累積寄与率が「1」とな
るか否かを検査し、ほぼ「1」となるような前記kを、
中間層の最適な素子数として出力する。
【0013】
【実施例】以下、本発明の好適な実施例を図面に基づい
て説明する。
て説明する。
【0014】1.ニューラルネットワークモデル 一般に多層ニューラルネットワークは、図1に示されて
いるような3層構造をなしている。これは、連続な非線
形の関数は3層のニューラルネットワークで近似できる
ことが証明されていることや、また実用の面からも簡易
な構造のニューラルネットワークが望まれているからな
どの理由による。
いるような3層構造をなしている。これは、連続な非線
形の関数は3層のニューラルネットワークで近似できる
ことが証明されていることや、また実用の面からも簡易
な構造のニューラルネットワークが望まれているからな
どの理由による。
【0015】ある層の神経細胞(ニューロン)は、その
1つ前の全ての神経細胞からその1つ前の全ての神経細
胞(ニューロン)から重み付けされた入力を受け付け、
各層で決められている関数に従って出力を決定し、この
出力を次の層の全ての神経細胞(ニューロン)に送る。
1つ前の全ての神経細胞からその1つ前の全ての神経細
胞(ニューロン)から重み付けされた入力を受け付け、
各層で決められている関数に従って出力を決定し、この
出力を次の層の全ての神経細胞(ニューロン)に送る。
【0016】従って、図1に示されている3層ニューラ
ルネットワークにおいて、入力と出力との関係は、以下
の式(1)〜(3)によって示される。
ルネットワークにおいて、入力と出力との関係は、以下
の式(1)〜(3)によって示される。
【0017】
【数1】 本実施例においては、各学習パターンに対する中間層の
出力、つまりYq(2)の振舞いに注目して解析を行
う。
出力、つまりYq(2)の振舞いに注目して解析を行
う。
【0018】2.最適ニューロン数の定義及びその算定
方法の基本的な考え 中間層に含まれるニューロン数は、少な過ぎる場合には
マッピング能力の不足から学習が収斂せず、また反対に
多過ぎる場合には中間層の描く超空間の曲面が不必要に
複雑となり、汎化能力の低下を招くと考えられる。中間
層のニューロン数と、汎化能力の関係についてはこれま
での研究においては依存関係は少ないと考えられ、また
汎化能力が最大となるニューロン数が存在するという種
々の報告がなされている。
方法の基本的な考え 中間層に含まれるニューロン数は、少な過ぎる場合には
マッピング能力の不足から学習が収斂せず、また反対に
多過ぎる場合には中間層の描く超空間の曲面が不必要に
複雑となり、汎化能力の低下を招くと考えられる。中間
層のニューロン数と、汎化能力の関係についてはこれま
での研究においては依存関係は少ないと考えられ、また
汎化能力が最大となるニューロン数が存在するという種
々の報告がなされている。
【0019】これは、アプリケーションにより、学習や
評価に用いたデータの性格に差が大きいためであると思
われるが、一般には中間層に含まれるニューロン数の増
大は、ニューラルネットワークの性能を直接向上させる
ものではなく、一定数以上のニューロンを備えていれ
ば、例えばそのニューラルネットワークの認識率はニュ
ーロン数に依存せずに飽和すると考えられる場合が多
い。
評価に用いたデータの性格に差が大きいためであると思
われるが、一般には中間層に含まれるニューロン数の増
大は、ニューラルネットワークの性能を直接向上させる
ものではなく、一定数以上のニューロンを備えていれ
ば、例えばそのニューラルネットワークの認識率はニュ
ーロン数に依存せずに飽和すると考えられる場合が多
い。
【0020】一方、ニューラルネットワークを制御や認
識などのリアルタイム性の制約が大きい用途に用いる場
合には、制御応答や認識速度との兼合いから、ニューラ
ルネットワークは最小の構成とすることが望ましい。す
なわち、最適なニューロン数とは、最小の中間層ニュー
ロン数であって最大の汎化能力を実現する値である。本
実施例において特徴的なことはこの最適なニューロン数
を決定するために、収斂に十分な数の中間層ニューロン
をまず備えさせ、この十分な数の中間素子のニューロン
によって学習を終えたネットワークに対し教師信号を再
入力したときの中間層のニューロンの出力の振舞いに着
目したことである。一般に中間層のニューロン数が過剰
になると、いくつかのニューロンが類似の動作をするこ
とが広く知られている。また、中間層ニューロン数の多
いニューラルネットワークにおいては、これらの間の統
計挙動に強い線形関係が生じ、結果的には1つのニュー
ロンが果す役割が減少してしまうことも報告されてい
る。ニューラルネットワークにおいて本来必要な仕事量
は、ニューロン数に拘らず不変のはずであるから、ニュ
ーロン間に含まれる線形成分を定量化し、これに相当す
るニューロン数を設定されているニューロン数から減じ
ることで、最適な中間層のニューロン数が得られると考
えられる。
識などのリアルタイム性の制約が大きい用途に用いる場
合には、制御応答や認識速度との兼合いから、ニューラ
ルネットワークは最小の構成とすることが望ましい。す
なわち、最適なニューロン数とは、最小の中間層ニュー
ロン数であって最大の汎化能力を実現する値である。本
実施例において特徴的なことはこの最適なニューロン数
を決定するために、収斂に十分な数の中間層ニューロン
をまず備えさせ、この十分な数の中間素子のニューロン
によって学習を終えたネットワークに対し教師信号を再
入力したときの中間層のニューロンの出力の振舞いに着
目したことである。一般に中間層のニューロン数が過剰
になると、いくつかのニューロンが類似の動作をするこ
とが広く知られている。また、中間層ニューロン数の多
いニューラルネットワークにおいては、これらの間の統
計挙動に強い線形関係が生じ、結果的には1つのニュー
ロンが果す役割が減少してしまうことも報告されてい
る。ニューラルネットワークにおいて本来必要な仕事量
は、ニューロン数に拘らず不変のはずであるから、ニュ
ーロン間に含まれる線形成分を定量化し、これに相当す
るニューロン数を設定されているニューロン数から減じ
ることで、最適な中間層のニューロン数が得られると考
えられる。
【0021】まとめると、本実施例におけるニューラル
ネットワークの中間層の最適素子数決定方法は、以下の
ように行われる。
ネットワークの中間層の最適素子数決定方法は、以下の
ように行われる。
【0022】(1)まず、学習の収斂に十分な数の中間
層の素子数によってニューラルネットワークを構成す
る。そして、この十分な素子数を備えたニューラルネッ
トワークに対して、各パターンの学習データに対して正
しい出力が得られるようにニューラルネットワークを学
習させる。この学習の様子を表す説明図が図2に示され
ている。
層の素子数によってニューラルネットワークを構成す
る。そして、この十分な素子数を備えたニューラルネッ
トワークに対して、各パターンの学習データに対して正
しい出力が得られるようにニューラルネットワークを学
習させる。この学習の様子を表す説明図が図2に示され
ている。
【0023】このようにして学習したニューラルネット
ワークの各学習パターン毎のそれぞれの中間層に含まれ
る素子の出力を調べる。この出力を例えば並べた図が、
図3に示されている。
ワークの各学習パターン毎のそれぞれの中間層に含まれ
る素子の出力を調べる。この出力を例えば並べた図が、
図3に示されている。
【0024】なお、図2及び図3に示されている例は、
パリティ問題(最適中間層の素子数が4)の例が示され
ている。そして、例えば図2に示されているように初期
においては、中間層に含まれる素子数を十分な数、例え
ば6個(図2参照)として、このニューラルネットワー
クに学習を行わせている。このようにして学習した後の
中間層の出力が図3に示されている。
パリティ問題(最適中間層の素子数が4)の例が示され
ている。そして、例えば図2に示されているように初期
においては、中間層に含まれる素子数を十分な数、例え
ば6個(図2参照)として、このニューラルネットワー
クに学習を行わせている。このようにして学習した後の
中間層の出力が図3に示されている。
【0025】(2)次に、この図3に示されている各学
習パターン毎のそれぞれの中間層の素子の出力データを
基にして、主成分分析を行う。その結果、第k主成分ま
での累積寄与率がほぼ1の場合には、このkが求めるべ
き最適中間層の素子数となる。例えば、図2や図3に示
されている場合は、k=4となる。累積寄与率がほぼ1
となる主成分の数が4であることを説明する図が図4に
示されている。図4に示されているように、第k主成分
までの累積寄与率が図4に示されている表の最下段に示
されており、第4主成分までの累積寄与率が1となるこ
とが図4から理解されよう。
習パターン毎のそれぞれの中間層の素子の出力データを
基にして、主成分分析を行う。その結果、第k主成分ま
での累積寄与率がほぼ1の場合には、このkが求めるべ
き最適中間層の素子数となる。例えば、図2や図3に示
されている場合は、k=4となる。累積寄与率がほぼ1
となる主成分の数が4であることを説明する図が図4に
示されている。図4に示されているように、第k主成分
までの累積寄与率が図4に示されている表の最下段に示
されており、第4主成分までの累積寄与率が1となるこ
とが図4から理解されよう。
【0026】以上述べた主成分分析を最適中間層素子
(ニューロン)数決定に用いる本実施例の手法によれ
ば、ニューラルネットワークを1回だけ学習する必要は
あるものの、中間層に含まれるニューロン数を一意的に
決定可能である。従って、従来のような試行錯誤的なシ
ミュレーションは必要なく、速かにかつ正確に最適な中
間層のニューロン数を確定可能である。
(ニューロン)数決定に用いる本実施例の手法によれ
ば、ニューラルネットワークを1回だけ学習する必要は
あるものの、中間層に含まれるニューロン数を一意的に
決定可能である。従って、従来のような試行錯誤的なシ
ミュレーションは必要なく、速かにかつ正確に最適な中
間層のニューロン数を確定可能である。
【0027】3.最適なニューロン数の具体的算出方法 一般に同一のサンプルについて何らかの相関関係がある
p種の変量(x1、x2、…xp)(p>2)の測定さ
れたN組のデータ(x1λ、x2λ、…xpλ)(λ=
1、2、…N)が得られた場合を説明する。これらN個
のデータはそれぞれp変量相互に関連のある変動を示し
ていると見なせるので、これを説明する関数としてp個
の変量の一次結合を次のように仮定する。
p種の変量(x1、x2、…xp)(p>2)の測定さ
れたN組のデータ(x1λ、x2λ、…xpλ)(λ=
1、2、…N)が得られた場合を説明する。これらN個
のデータはそれぞれp変量相互に関連のある変動を示し
ていると見なせるので、これを説明する関数としてp個
の変量の一次結合を次のように仮定する。
【0028】
【数2】 すると、l1 、l2 、…lp を変えてΣli2 =1とい
う条件の下で上記zの分散が最大になるときのzを第1
主成分と言う。この時の係数をl1 i(i=1、2、…
p)で表すと、次のように表すことができる。
う条件の下で上記zの分散が最大になるときのzを第1
主成分と言う。この時の係数をl1 i(i=1、2、…
p)で表すと、次のように表すことができる。
【0029】
【数3】 次に、z1とは無層間がzのうちで、Σli2 =1を満
たす最大の分散をもつz2 (これを、第2主成分と言
う。)を決定する。このときの係数をl2i(i=1、
2、…p)で表すと、このz2は、以下のように表すこ
とができる。
たす最大の分散をもつz2 (これを、第2主成分と言
う。)を決定する。このときの係数をl2i(i=1、
2、…p)で表すと、このz2は、以下のように表すこ
とができる。
【0030】
【数4】 以下、同様にしてzmまでで全変動の大部分が説明され
ていれば、これ以上求めることを停止する。このような
zmを次のように書く。
ていれば、これ以上求めることを停止する。このような
zmを次のように書く。
【0031】
【数5】 従って、各係数は、
【数6】 を満足し、各主成分は、第1主成分z1の分散が最大で
あること、及び第α主成分zαはz1、z2、…zα−
1(α=2、3、…m)と無層間で分散が最大であると
いう条件を満たすように定まる。
あること、及び第α主成分zαはz1、z2、…zα−
1(α=2、3、…m)と無層間で分散が最大であると
いう条件を満たすように定まる。
【0032】具体的には、まず得られたデータから各変
量の分散共分散σijを求め、それを行列で表す。行列
は、以下のように表される。
量の分散共分散σijを求め、それを行列で表す。行列
は、以下のように表される。
【0033】
【数7】 ここで、σijは各変量の分散共分散の不偏推定値であ
り、それぞれ以下のように表される。
り、それぞれ以下のように表される。
【0034】
【数8】 さらに、相関行列を求めると、その相関行列Rは、以下
のように表される。
のように表される。
【0035】
【数9】 p個の変量x1、x2、…xpからなるベクトル変量
は、以下のように表される。
は、以下のように表される。
【0036】
【数10】 ここで、ベクトル変量Xの取り得る値は、
【数11】 である。また、各主成分を上記(4)式の形で求めるた
めに、各主成分の変量xiの係数をそれぞれ、ベクトル
めに、各主成分の変量xiの係数をそれぞれ、ベクトル
【数12】 で表すと、主成分は、
【数13】 と書くことができる。但し、上記(15)式において各
1aは、長さ1の単位ベクトル(1a´1a=1)とす
る。係数ベクトル1aを求めるには、まず
1aは、長さ1の単位ベクトル(1a´1a=1)とす
る。係数ベクトル1aを求めるには、まず
【数14】 を、11 ´11 =1の条件の下で最大にするため、ラグ
ランジェの未定乗数λを用いて、
ランジェの未定乗数λを用いて、
【数15】 を11 ´で微分して0とおくと、連立方程式
【数16】 が得られる。この(18)式のベクトルの様子が全て0
以外の解を持つためには、λが固有方程式
以外の解を持つためには、λが固有方程式
【数17】 の解(固有値)でなければならない。また、z1の分散
を最大にするものがあるとするならば、上記(18)式
より、
を最大にするものがあるとするならば、上記(18)式
より、
【数18】 であり、上記(19)式の固有値に等しくなるので、z
1における係数ベクトル11 としては、上記(19)式
の最大の固有値λ1に対応する単位固有ベクトルとして
第1主成分z1を決定することができる。一方、上記
(19)式の固有方程式を展開すると、λについてのp
次方程式になるので、p個の固有値が存在(重複するも
のも含め)し、しかもこの(19)式におけるΣは非負
の対称行列であるから固有値は全て非負の実数である。
その中の最大のものをλ1として、11 を求める。さら
に大きさの順にλ2、λ3、…λmを取り出し、λ2に
対応する単位固有ベクトルを第2種主成分z2における
係数ベクトル12 、λ3に対応する単位固有ベクトルを
第3種成分z3における係数ベクトル13 …λmに対応
する単位固有ベクトルを第m主成分zmにおける係数ベ
クトル1m としてm個の主成分((15)式)を求め
る。
1における係数ベクトル11 としては、上記(19)式
の最大の固有値λ1に対応する単位固有ベクトルとして
第1主成分z1を決定することができる。一方、上記
(19)式の固有方程式を展開すると、λについてのp
次方程式になるので、p個の固有値が存在(重複するも
のも含め)し、しかもこの(19)式におけるΣは非負
の対称行列であるから固有値は全て非負の実数である。
その中の最大のものをλ1として、11 を求める。さら
に大きさの順にλ2、λ3、…λmを取り出し、λ2に
対応する単位固有ベクトルを第2種主成分z2における
係数ベクトル12 、λ3に対応する単位固有ベクトルを
第3種成分z3における係数ベクトル13 …λmに対応
する単位固有ベクトルを第m主成分zmにおける係数ベ
クトル1m としてm個の主成分((15)式)を求め
る。
【0037】主成分分析の目的は、p変量のデータをで
きるだけ少ない主成分z1、z2、…zk(k<p)で
表すことであるから、求まる主成分のうち何番目の主成
分まで用いるか、またどの程度まで説明できるのかを知
る尺度が必要となる。このために、各主成分の寄与率と
いう概念を次のように定義する。
きるだけ少ない主成分z1、z2、…zk(k<p)で
表すことであるから、求まる主成分のうち何番目の主成
分まで用いるか、またどの程度まで説明できるのかを知
る尺度が必要となる。このために、各主成分の寄与率と
いう概念を次のように定義する。
【0038】
【数19】 すなわち、Cαは主成分zαの分散のp変量x1、x
2、…xpの分散和に対する割合を表す。固有値がp個
求まった場合には、
2、…xpの分散和に対する割合を表す。固有値がp個
求まった場合には、
【数20】 であるため、通常はこのCαを%で表している。さら
に、
に、
【数21】 を第k主成分までの累積寄与率と呼ぶ。
【0039】本実施例においては、この(21)及び
(23)式を用いて、累積寄与率が何%になるまで主成
分を考えることによって、できるだけ少ないz1、z
2、…zkでp変量データに内在する関係を明らかに
し、データの説明変数をできるだけ小さい値にしてい
る。
(23)式を用いて、累積寄与率が何%になるまで主成
分を考えることによって、できるだけ少ないz1、z
2、…zkでp変量データに内在する関係を明らかに
し、データの説明変数をできるだけ小さい値にしてい
る。
【0040】以上述べたことを、図で説明すれば、以下
のようになる。すなわち、図5には、以上述べた説明の
幾何学的な説明が示されている。上記(13)式のデー
タは、p次元空間にちらばるn個の点によって表すこと
ができる。一方、m個の主成分のとる値は、m次元空間
におけるn個の点によって表される。今、n個の点が、
p次元空間内である1つの平面上にほぼ乗っているとす
ると、この平面上に全ての点を射影して、その上でのn
点のばらつきの状態だけに着目しても、情報のロスはほ
とんどないと考えられる。また、このような平面が見つ
からなくとも、n個の点はあるm次元(m<p)空間に
固っているかも知れず、その時は次元数をmにまで下げ
ることが可能となる。
のようになる。すなわち、図5には、以上述べた説明の
幾何学的な説明が示されている。上記(13)式のデー
タは、p次元空間にちらばるn個の点によって表すこと
ができる。一方、m個の主成分のとる値は、m次元空間
におけるn個の点によって表される。今、n個の点が、
p次元空間内である1つの平面上にほぼ乗っているとす
ると、この平面上に全ての点を射影して、その上でのn
点のばらつきの状態だけに着目しても、情報のロスはほ
とんどないと考えられる。また、このような平面が見つ
からなくとも、n個の点はあるm次元(m<p)空間に
固っているかも知れず、その時は次元数をmにまで下げ
ることが可能となる。
【0041】上記手法は、このm次元空間の決め方であ
ると言うことができる。これによって、z1、z2、…
zmは求めるm次元における直交座標系となる。つま
り、この手法を用いることによって、ほとんど情報のロ
スを生じさせることなく、ニューラルネットワークの中
間層に含まれるニューロン数をp個(次元)→m個(次
元)に低次元化できる可能性がある。
ると言うことができる。これによって、z1、z2、…
zmは求めるm次元における直交座標系となる。つま
り、この手法を用いることによって、ほとんど情報のロ
スを生じさせることなく、ニューラルネットワークの中
間層に含まれるニューロン数をp個(次元)→m個(次
元)に低次元化できる可能性がある。
【0042】この主成分分析を最適中間層ニューロン数
設定に用いる本実施例によれば、ニューラルネットワー
クを1回学習させる必要はあるものの、これを用いた統
計解析で中間層ニューロン数を一時的に決定可能であ
る。従って、試行錯誤的なシュミレーションは必要な
く、速かに中間層のニューロン数を確定可能である。
設定に用いる本実施例によれば、ニューラルネットワー
クを1回学習させる必要はあるものの、これを用いた統
計解析で中間層ニューロン数を一時的に決定可能であ
る。従って、試行錯誤的なシュミレーションは必要な
く、速かに中間層のニューロン数を確定可能である。
【0043】次に、本手法の有効性を評価するためのシ
ュミレーションの実験結果について述べる。また、先に
述べた従来の方法である線形重回帰分析を用いた最適中
間層数決定手法も合せて行って、それら有効性について
比較及び検討を行った。
ュミレーションの実験結果について述べる。また、先に
述べた従来の方法である線形重回帰分析を用いた最適中
間層数決定手法も合せて行って、それら有効性について
比較及び検討を行った。
【0044】4.シュミレーション実験 本実施例において提案される主成分分析による最適中間
層ニューロン数決定手法の有効性を確認するため、本実
施例においては3つのニューラルネットワークシステム
を構築した。図6(a)〜(c)に、それぞれ構成され
たニューラルネットワークの構造を示す。
層ニューロン数決定手法の有効性を確認するため、本実
施例においては3つのニューラルネットワークシステム
を構築した。図6(a)〜(c)に、それぞれ構成され
たニューラルネットワークの構造を示す。
【0045】図6(a)は、連続関数の恒等写像に適用
したもので、1+x+x2 の入力に対して同じく1+x
+x2 を出力するものである。入力層及び出力層のニュ
ーロン数は、1、x、x2 の「3」である。このような
3層構造の多層ニューラルネットワークが構成されてい
る。教師信号には、図7に示されているような1及びx
=0〜1の値を11等分したもの(X=0.0,0.
1,0.2,…1.0)とそれに対応するx2 の値を1
1パターン用いている。
したもので、1+x+x2 の入力に対して同じく1+x
+x2 を出力するものである。入力層及び出力層のニュ
ーロン数は、1、x、x2 の「3」である。このような
3層構造の多層ニューラルネットワークが構成されてい
る。教師信号には、図7に示されているような1及びx
=0〜1の値を11等分したもの(X=0.0,0.
1,0.2,…1.0)とそれに対応するx2 の値を1
1パターン用いている。
【0046】図6(b)は非線形関数の近似問題に適用
したものである。すなわち、xの値を入力して、sin
xの値を出力するものである。教師信号には図8に示さ
れているようなx=0〜2πの値を100等分したもの
とそれに対応するsinxの値を100パターン用いて
いる。
したものである。すなわち、xの値を入力して、sin
xの値を出力するものである。教師信号には図8に示さ
れているようなx=0〜2πの値を100等分したもの
とそれに対応するsinxの値を100パターン用いて
いる。
【0047】図6(c)には、パリティ問題に適用した
場合の構成であり、教師信号には、図9に示されている
16パターンを用いている。
場合の構成であり、教師信号には、図9に示されている
16パターンを用いている。
【0048】5.実験結果 以上示したような3つの異なる問題に対し今回の最適中
間層ニューロン数決定の方法が有効であるかを確認する
ために実験を行っている。
間層ニューロン数決定の方法が有効であるかを確認する
ために実験を行っている。
【0049】恒等写像問題の実験結果 恒等写像問題では、中間層の初期ニューロン数を1〜1
0に変化させた場合の実験結果が図10及び図11に示
されている。図10には、横軸が累積された主成分の数
を表し、縦軸が累積寄与率を表すグラフが示されてい
る。図11には、横軸が初期設定中間層ニューロン数を
表し、縦軸には推定された最適中間層ニューロン数を表
すグラフが示されている。学習は、中間層ニューロン数
=1で終息しているため、この写像問題での最適な中間
層ニューロン数は1である。今回本実施例において提案
した主成分分析を用いた手法においては、累積寄与率P
k=1.0とした場合、中間層の初期設定ニューロン数
に拘らず推定された最適中間層数は、初期設定中間層数
=1であった場合を除いて、正しいk=1であった。こ
れに対し、従来の線形重回帰分析を用いた手法によれ
ば、この手法で推定された最適中間層のニューロン数は
図11から理解されるように約1〜2であることが分
る。
0に変化させた場合の実験結果が図10及び図11に示
されている。図10には、横軸が累積された主成分の数
を表し、縦軸が累積寄与率を表すグラフが示されてい
る。図11には、横軸が初期設定中間層ニューロン数を
表し、縦軸には推定された最適中間層ニューロン数を表
すグラフが示されている。学習は、中間層ニューロン数
=1で終息しているため、この写像問題での最適な中間
層ニューロン数は1である。今回本実施例において提案
した主成分分析を用いた手法においては、累積寄与率P
k=1.0とした場合、中間層の初期設定ニューロン数
に拘らず推定された最適中間層数は、初期設定中間層数
=1であった場合を除いて、正しいk=1であった。こ
れに対し、従来の線形重回帰分析を用いた手法によれ
ば、この手法で推定された最適中間層のニューロン数は
図11から理解されるように約1〜2であることが分
る。
【0050】非線形関数近似問題 非線形関数近似問題では、図8に示された100パター
ンの教師データを用いて、中間層の初期ニューロン数を
1〜15に変化させた場合の実行の結果が図12及び図
13にされている。学習は中間層ニューロン数=2で収
束しているため、この非線形関数近似問題での最適な中
間層のニューロン数は2である。本実施例において提案
される主成分分析を用いた手法によれば、累積寄与率を
Pk=1.0とした場合、中間層の初期設定ニューロン
数に拘らず推定された最適中間層数は正解と同じk=2
となった。これに対して、従来の重回帰分析を用いた手
法で推定された最適中間層ニューロン数は、図13から
理解されるようにおよそ1である。
ンの教師データを用いて、中間層の初期ニューロン数を
1〜15に変化させた場合の実行の結果が図12及び図
13にされている。学習は中間層ニューロン数=2で収
束しているため、この非線形関数近似問題での最適な中
間層のニューロン数は2である。本実施例において提案
される主成分分析を用いた手法によれば、累積寄与率を
Pk=1.0とした場合、中間層の初期設定ニューロン
数に拘らず推定された最適中間層数は正解と同じk=2
となった。これに対して、従来の重回帰分析を用いた手
法で推定された最適中間層ニューロン数は、図13から
理解されるようにおよそ1である。
【0051】パリティ問題 パリティ問題においては、図9に示された16パターン
の教師データを用いて、中間層の初期ニューロン数を4
〜10に変化させた場合の実験結果が図14及び図15
に示されている。図14には、横軸が累積された主成分
の数を表し、縦軸が累積寄与率を表すグラフが示されて
いる。また、図15には横軸が初期設定中間層ニューロ
ン数を表し、縦軸が推定された最適中間層ニューロン数
を表すグラフが示されている。学習は、中間層のニュー
ロン数=4で収束しているため、このパリティ問題にお
ける最適な中間層のニューロン数は4である。本実施例
において提案されている主成分分析を用いた手法によれ
ば、累積寄与率Pk=1.0とした場合、中間層の初期
設定ニューロン数に拘らず、推定された最適中間層数は
正解と同じk=4であった。これに対して、従来の重回
帰分析による手法で推定された最適な中間層のニューロ
ン数は、図15に示されているようにおよそ1〜3であ
る。
の教師データを用いて、中間層の初期ニューロン数を4
〜10に変化させた場合の実験結果が図14及び図15
に示されている。図14には、横軸が累積された主成分
の数を表し、縦軸が累積寄与率を表すグラフが示されて
いる。また、図15には横軸が初期設定中間層ニューロ
ン数を表し、縦軸が推定された最適中間層ニューロン数
を表すグラフが示されている。学習は、中間層のニュー
ロン数=4で収束しているため、このパリティ問題にお
ける最適な中間層のニューロン数は4である。本実施例
において提案されている主成分分析を用いた手法によれ
ば、累積寄与率Pk=1.0とした場合、中間層の初期
設定ニューロン数に拘らず、推定された最適中間層数は
正解と同じk=4であった。これに対して、従来の重回
帰分析による手法で推定された最適な中間層のニューロ
ン数は、図15に示されているようにおよそ1〜3であ
る。
【0052】従来の重回帰分析を用いた手法によれば、
恒等写像問題に対してほぼ正確な最適中間層ニューロン
数の推定が行えたが、非線形関数近似問題やパリティ問
題においては実際の最適中間層のニューロン数より少な
い値を推定する傾向が上記実験結果から見られた。
恒等写像問題に対してほぼ正確な最適中間層ニューロン
数の推定が行えたが、非線形関数近似問題やパリティ問
題においては実際の最適中間層のニューロン数より少な
い値を推定する傾向が上記実験結果から見られた。
【0053】この原因としては、先に述べたように、線
形重回帰分析における多重共線性の影響が考えられよ
う。重回帰分析は通常説明変数に相関がないことを前提
として用いられている。しかし今回の場合には、相関の
ある中間層ニューロン数の出力値を説明変数として用い
ている。(つまり、説明変数の相関を求めるに、説明変
数間に相関がないことを前提としている線形重回帰分析
を用いているという矛盾がある)。
形重回帰分析における多重共線性の影響が考えられよ
う。重回帰分析は通常説明変数に相関がないことを前提
として用いられている。しかし今回の場合には、相関の
ある中間層ニューロン数の出力値を説明変数として用い
ている。(つまり、説明変数の相関を求めるに、説明変
数間に相関がないことを前提としている線形重回帰分析
を用いているという矛盾がある)。
【0054】このため、寄与率(線形近似率)が見掛け
上大きくなり推定される最適中間層ニューロン数が過少
評価(実際必要な数よりも少なく推定)されるため、正
確な最適の中間層のニューロン数を推定することができ
ないものと思われる。
上大きくなり推定される最適中間層ニューロン数が過少
評価(実際必要な数よりも少なく推定)されるため、正
確な最適の中間層のニューロン数を推定することができ
ないものと思われる。
【0055】一方、本実施例において提案されている主
成分分析を用いた手法では、それぞれの問題に対して最
適中間層のニューロン数が正確に推定されており、本実
施例で提案した手法が従来の重回帰分析による手法より
優れていることが理解されよう。
成分分析を用いた手法では、それぞれの問題に対して最
適中間層のニューロン数が正確に推定されており、本実
施例で提案した手法が従来の重回帰分析による手法より
優れていることが理解されよう。
【0056】中間層のニューロン数が過剰になるといく
つかのニューロンが類似の動作をするため、これらの間
の統計挙動の線形関係を求めこれに相当するニューロン
数を設定されているニューロン数から減じることで、最
適中間層のニューロン数を推定する手法が考えられてき
た。
つかのニューロンが類似の動作をするため、これらの間
の統計挙動の線形関係を求めこれに相当するニューロン
数を設定されているニューロン数から減じることで、最
適中間層のニューロン数を推定する手法が考えられてき
た。
【0057】従来の手法によればこの解析に線形重回帰
分析が用いられており、説明変数に相関がないことを前
提とした解析であり正確な最適中間層ニューロン数を確
定することは難しかった。本実施例においてはこの解析
に主成分分析を用いることによって、最適な中間層のニ
ューロン数を推定することが可能となった。
分析が用いられており、説明変数に相関がないことを前
提とした解析であり正確な最適中間層ニューロン数を確
定することは難しかった。本実施例においてはこの解析
に主成分分析を用いることによって、最適な中間層のニ
ューロン数を推定することが可能となった。
【0058】なお本実施例において提案した手法を実際
問題に用いる場合の留意点としては、以下のものが挙げ
られよう。
問題に用いる場合の留意点としては、以下のものが挙げ
られよう。
【0059】中間層の振舞いを分析して得られる各主成
分の寄与率は、学習の解析と共に変化する。ニューラル
ネットワークを実際の問題に応用する場合、学習精度は
勿論のこと、汎化能力(未学習データに対する推定精
度)が重要である。
分の寄与率は、学習の解析と共に変化する。ニューラル
ネットワークを実際の問題に応用する場合、学習精度は
勿論のこと、汎化能力(未学習データに対する推定精
度)が重要である。
【0060】よって、交差学習法(未学習データに対す
る誤差が増加している時点で、学習を打ち切る。;Cr
ossValiation)で最適な学習を終了したニ
ューラルネットワークでの中間層の振舞いを解析する必
要があり、学習が収束していないものや、過学習の下に
本実施例で提案した手法を用いても意味がない。
る誤差が増加している時点で、学習を打ち切る。;Cr
ossValiation)で最適な学習を終了したニ
ューラルネットワークでの中間層の振舞いを解析する必
要があり、学習が収束していないものや、過学習の下に
本実施例で提案した手法を用いても意味がない。
【0061】本実施例におけるシュミレーションに用い
た実験データは3つ問題共理論値であるため、累積寄与
率=1.0の場合で最適中間層を正確に推定することが
できたが、実際の問題はデータに誤差やばらつきがある
ため、ほとんどの場合寄与率が1.0まで達しないと考
えられる。この場合、今回行った実験で得られた傾向
「第k主成分までの累積寄与率≧0.9であるkまたは
k+1が最適中間層数」というルールを用いれば良い。
た実験データは3つ問題共理論値であるため、累積寄与
率=1.0の場合で最適中間層を正確に推定することが
できたが、実際の問題はデータに誤差やばらつきがある
ため、ほとんどの場合寄与率が1.0まで達しないと考
えられる。この場合、今回行った実験で得られた傾向
「第k主成分までの累積寄与率≧0.9であるkまたは
k+1が最適中間層数」というルールを用いれば良い。
【0062】
【発明の効果】以上述べたように、本発明によれば1回
の学習を行うだけで、中間層の最適な素子数を正確に算
出することが可能である。その結果、従来試行錯誤によ
って行われていた中間層の素子数を最適な個数にするこ
とができるので、問題に適した効率的な構造のニューラ
ルネットワークが提供可能である。
の学習を行うだけで、中間層の最適な素子数を正確に算
出することが可能である。その結果、従来試行錯誤によ
って行われていた中間層の素子数を最適な個数にするこ
とができるので、問題に適した効率的な構造のニューラ
ルネットワークが提供可能である。
【図1】 3層構造のニューラルネットワークの構造を
表す説明図である。
表す説明図である。
【図2】 本発明の学習工程を説明する説明図である。
【図3】 学習後のニューラルネットワークの中間層に
属する素子の出力の様子を表す説明図である。
属する素子の出力の様子を表す説明図である。
【図4】 本発明の最適素子数決定工程を説明する説明
図である。
図である。
【図5】 本実施例における主成分分析の動作を幾何学
的に表した説明図である。
的に表した説明図である。
【図6】 本実施例において説明されている3つの問題
に対して構成された3つのニューラルネットワークの構
成を表す説明図である。
に対して構成された3つのニューラルネットワークの構
成を表す説明図である。
【図7】 本実施例において恒等写像問題に用いられ教
師データを説明する説明図である。
師データを説明する説明図である。
【図8】 本実施例において非線形関数近似問題に対す
る教師データとして用いられるデータを説明する説明図
である。
る教師データとして用いられるデータを説明する説明図
である。
【図9】 本実施例においてパリティ問題に対する教師
データとして用いられるデータを説明する説明図であ
る。
データとして用いられるデータを説明する説明図であ
る。
【図10】 本実施例における恒等写像問題における第
k主成分と、累積寄与率との関係を表すグラフである。
k主成分と、累積寄与率との関係を表すグラフである。
【図11】 恒等写像問題における初期設定の中間層の
ニューロン数と、推定されたニューロン数の個数との関
係を表すグラフである。
ニューロン数と、推定されたニューロン数の個数との関
係を表すグラフである。
【図12】 非線関数近似問題における第k主成分と、
累積寄与率の関係を表すグラフである。
累積寄与率の関係を表すグラフである。
【図13】 非線形関数近似問題における初期設定の中
間層のニューロン数と、推定されたニューロン数との関
係を表すグラフである。
間層のニューロン数と、推定されたニューロン数との関
係を表すグラフである。
【図14】 パリティ問題における第k主成分と、累積
寄与率との関係を表すグラフである。
寄与率との関係を表すグラフである。
【図15】 パリティ問題における初期設定のニューロ
ン数と、推定されたニューロン数との関係を表すグラフ
である。
ン数と、推定されたニューロン数との関係を表すグラフ
である。
10 入力層、20 中間層、30 出力層。
Claims (1)
- 【請求項1】 ニューラルネットワークの中間層の素子
数を対象データに対して充分に大きな個数に設定するこ
とによって、ニューラルネットワークを構成する初期ニ
ューラルネットワーク構成工程と、 前記初期ニューラルネットワーク構成工程において構成
されたニューラルネットワークに、対象データの教師デ
ータを供給し、学習を行わせる学習工程と、 前記学習工程によって、学習が終了したニューラルネッ
トワークの中間層の各素子の出力データに基づき、主成
分分析を行う主成分分析工程と、 前記主成分分析工程の結果に基づき、第k番目(kは正
の整数)の主成分までの累積寄与率がほぼ「1」の場
合、前記kを中間層の最適な素子数として出力する最適
素子数決定工程と、 を含むことを特徴とするニューラルネットワーク構造決
定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7036648A JPH08235145A (ja) | 1995-02-24 | 1995-02-24 | 応用問題に対して最適なニューラルネットワークの構造を決定する方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7036648A JPH08235145A (ja) | 1995-02-24 | 1995-02-24 | 応用問題に対して最適なニューラルネットワークの構造を決定する方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08235145A true JPH08235145A (ja) | 1996-09-13 |
Family
ID=12475681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7036648A Pending JPH08235145A (ja) | 1995-02-24 | 1995-02-24 | 応用問題に対して最適なニューラルネットワークの構造を決定する方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08235145A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7584157B2 (en) | 2001-04-18 | 2009-09-01 | Nec Corporation | Method, device and computer program product for learning correlation matrix |
JP2010515181A (ja) * | 2007-01-02 | 2010-05-06 | シーメンス アクチエンゲゼルシヤフト | 計算機支援による技術システムの開ループ制御および/または閉ループ制御のための方法 |
DE102017212270A1 (de) | 2016-07-22 | 2018-02-01 | Fanuc Corporation | Erstellungsvorrichtung für Modelle für maschinelles Lernen, numerische Steuerung, Erstellungsverfahren für Modelle für maschinelles Lernen, Erstellungsprogramm für Modelle für maschinelles Lernen und Aufzeichnungsmedium |
JP2019046453A (ja) * | 2017-09-06 | 2019-03-22 | 富士通株式会社 | ニューラルネットワークの中間情報分析装置、最適化装置及び特徴可視化装置 |
-
1995
- 1995-02-24 JP JP7036648A patent/JPH08235145A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7584157B2 (en) | 2001-04-18 | 2009-09-01 | Nec Corporation | Method, device and computer program product for learning correlation matrix |
JP2010515181A (ja) * | 2007-01-02 | 2010-05-06 | シーメンス アクチエンゲゼルシヤフト | 計算機支援による技術システムの開ループ制御および/または閉ループ制御のための方法 |
US8566264B2 (en) | 2007-01-02 | 2013-10-22 | Siemens Aktiengesellschaft | Method for the computer-assisted control and/or regulation of a technical system |
DE102017212270A1 (de) | 2016-07-22 | 2018-02-01 | Fanuc Corporation | Erstellungsvorrichtung für Modelle für maschinelles Lernen, numerische Steuerung, Erstellungsverfahren für Modelle für maschinelles Lernen, Erstellungsprogramm für Modelle für maschinelles Lernen und Aufzeichnungsmedium |
US10649416B2 (en) | 2016-07-22 | 2020-05-12 | Fanuc Corporation | Machine learning model construction device, numerical control, machine learning model construction method, and non-transitory computer readable medium encoded with a machine learning model construction program |
JP2019046453A (ja) * | 2017-09-06 | 2019-03-22 | 富士通株式会社 | ニューラルネットワークの中間情報分析装置、最適化装置及び特徴可視化装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zurada et al. | Perturbation method for deleting redundant inputs of perceptron networks | |
CN106796533B (zh) | 自适应地选择执行模式的系统和方法 | |
CN110471276B (zh) | 用于为物理系统创建模型函数的装置 | |
CN108898214A (zh) | 一种在线序列数据预测方法及装置 | |
CN110110794A (zh) | 基于特征函数滤波的神经网络参数更新的图像分类方法 | |
Rottmann et al. | Learning non-stationary system dynamics online using gaussian processes | |
Shakeri et al. | Optimal measurement scheduling for state estimation | |
Cartagena et al. | Evolving fuzzy prediction interval for fault detection in a heat exchanger | |
Hong et al. | Variable selection algorithm for the construction of MIMO operating point dependent neurofuzzy networks | |
JPH08235145A (ja) | 応用問題に対して最適なニューラルネットワークの構造を決定する方法 | |
CN107979606A (zh) | 一种具有自适应的分布式智能决策方法 | |
US20140006321A1 (en) | Method for improving an autocorrector using auto-differentiation | |
Lughofer et al. | Online adaptation of Takagi-Sugeno fuzzy inference systems | |
Gottwald et al. | Analysis and optimisation of bellman residual errors with neural function approximation | |
Berry et al. | Applying neural networks to the extraction of knowledge from accounting reports: A classification study | |
CN113297540A (zh) | 在边缘物联代理服务下的app资源需求预测方法、装置及系统 | |
Gopalapillai et al. | Classification of robotic data using artificial neural network | |
Duarte et al. | Online sparse correntropy kernel learning for outlier-robust system identification | |
Al‐Ghanim et al. | Automated process monitoring using statistical pattern recognition techniques on X‐bar control charts | |
CN115167129B (zh) | 鲁棒故障检测方法、计算设备和存储介质 | |
Dam et al. | Interval type-2 recursive fuzzy C-means clustering algorithm in the TS fuzzy model identification | |
Zhu et al. | Kernel recurrent system trained by real-time recurrent learning algorithm | |
CN107608333A (zh) | 一种基于等效降阶的可诊断性评估方法 | |
Alegria et al. | An associative-memory-based method for system nonlinearities recursive estimation | |
JP6778708B2 (ja) | 解析装置、方法、及びプログラム |