JP4157477B2 - 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 - Google Patents
機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 Download PDFInfo
- Publication number
- JP4157477B2 JP4157477B2 JP2003579171A JP2003579171A JP4157477B2 JP 4157477 B2 JP4157477 B2 JP 4157477B2 JP 2003579171 A JP2003579171 A JP 2003579171A JP 2003579171 A JP2003579171 A JP 2003579171A JP 4157477 B2 JP4157477 B2 JP 4157477B2
- Authority
- JP
- Japan
- Prior art keywords
- noise
- neural network
- output
- artificial neural
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 47
- 238000005259 measurement Methods 0.000 title description 12
- 238000000034 method Methods 0.000 claims description 82
- 238000012549 training Methods 0.000 claims description 66
- 239000013598 vector Substances 0.000 claims description 48
- 238000004422 calculation algorithm Methods 0.000 claims description 41
- 238000012360 testing method Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 19
- 230000002068 genetic effect Effects 0.000 claims description 18
- 238000009826 distribution Methods 0.000 claims description 7
- 230000035772 mutation Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 27
- 239000011159 matrix material Substances 0.000 description 21
- 238000005457 optimization Methods 0.000 description 17
- 238000005094 computer simulation Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 6
- 238000002922 simulated annealing Methods 0.000 description 5
- 210000000349 chromosome Anatomy 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 229920000642 polymer Polymers 0.000 description 3
- 238000006116 polymerization reaction Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 238000011112 process operation Methods 0.000 description 2
- 241001117170 Euplectes Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003889 chemical engineering Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008303 genetic mechanism Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000010517 secondary reaction Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000008080 stochastic effect Effects 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
Description
技術分野
本発明は機械的雑音及び/又は測定誤差を含む入力−出力データの存在下における人工ニューラルネットワークモデルの予測精度及び一般化性能を改良する方法に関する。
【0002】
背景技術
人工ニューラルネットワーク(ANN)は、非線形関係を任意の精度まで近似するその能力により(ポギオ,T.及びギロシ,F.「多層ネットワークと等価の、習得のための組織化アルゴリズム」,Science, 247, 978, 1990)、多数入力−多数出力の複雑な非線形プロセスをモデル化するのに適している。その結果、ANNはプロセス変数のオンライン及びオフライン予測のため産業界で広範に使用されてきた。ANNの産業上の適用には、製造工程の同定、定常状態プロセス及び動力学的プロセスのモデル化、故障の発見及び診断、ソフトセンサー開発、及び非線形プロセスの制御及び監視が含まれる。これらのANN適用はタンベ及び協同研究者ら(タンベ,S.S.,クルカーニ,B.D.,デシュパンデ,P.B.「化学工学及び化学的生物学的科学における選ばれた適用を持つ人工ニューラルネットワークの初歩」,シミュレーション・アンド・アドバンスド・コントロールズ・インク,ルイズビル,USA,1996) により包括的な総説がなされている。任意のプロセス操作の間に巨大な量のプロセス入出力データが形成され、これらはプロセス出力変数の数値を予め予測できるANNモデルを開発するために使用できる。ANNモデルの望ましい特性は(i)それがその構築のために使用された入出力実例データ集合中に含まれる出力を正確に予測すべきであること、及び(ii) それが良好な一般化能力を有することである。通常、ANNモデルは予め特定された費用(誤差)関数を最小にする適当な加重調節アルゴリズムを用いてトレーニングされる。この費用関数の形が、得られるANNモデルの推計学的特性(雑音感受性)を完全に決定することに注意すべきである。例えば、最も広く使用されているエラー・バック・プロパゲーション(EBP)(ルーメルハート,D.,ヒントン,G.,ウィリアムズ,R.「後方伝搬する誤差による習得表示」,Nature, 323, 533, 1986) アルゴリズムは、二乗平均誤差(RMSE)関数の最小化を達成する。プロセスデータの任意の大きな集合における、機械的雑音及び/又は測定誤差の存在は差し迫った課題である。ネットワーク・トレーニングに使用される入出力データにおける雑音及び/又は誤差の存在はそのモデルにより示されるモデル予測の精度及び一般化性能の閾値的限界を構成する。これは、該ネットワークが雑音及び/又は誤差を含む入力データと出力データの間に存在する平均的関係に近づく(習得する)ように努力することにより主として発生する。該ネットワークはこれらのデータ中の雑音及び誤差を無視するので、それにより捕捉される平均的関係は不正確に満ち満ちている。予測における不正確さは、それが有意であれば、許容できない。何故なら、プロセス操作に関する相当の数の制御や政策判断はこのモデルにより作成される予測に基づくからである。例えば、重合反応では、メルト・フロー・インデックス(MFI)、ストレス指数(Sex) 、などの品質変数の予測は生産された重合体の等級を決定する際に重要である。一般化できるANNモデルはその開発のために使用されたデータ(実例の集合)の出力を正確に予測するだけでなく、新たな若しくは新規な入力データに相当するものをも予測する。こうして、ANNモデルは素晴らしい予測精度を有するだけでなく良好な一般化特性をも有していることが決定的に重要である。
【0003】
市販のソフトウェアでは、大部分のANNモデルは単純出力誤差(OE)費用関数を用いてトレーニングされ、これは入力データが雑音を有する場合ネットワークで予測される出力に深刻なバイアスのかかった誤差をもたらし得ることがゴープ及び協同研究者(ゴープ,J.V.,ショウケンス,J.,ピンテロン,R.「エラー−イン−バリャブルズ・アプローチを用いる雑音入力での習得神経ネットワーク,Transactions on Neural Networks A. 180, 1-14, 1999) により観察された。この著者らは雑音の存在がANNモデルの移送関数のより高次の導関数を実際に抑制し、そして若し通常の最小二乗費用関数が用いられるならばバイアスが導入されることを示す。従って、ANNの一般化性能を改良する方法はRMSE費用関数を新規な費用関数、例えばエラーズ−イン−バリャブルズ(EIV)費用関数(ゴープ,J.V.,ショウケンス,J.,ピンテロン,R.「エラー−イン−バリャブルズ・アプローチを用いる雑音入力での習得神経ネットワーク,Transactions on Neural Networks A. 180, 1-14, 1999) で置き換えることが推奨される。EIV法の欠点は、その実施に入力と出力に関する分散についての知識を必要とすることである。多くの実用的設定においては、この情報は入手可能ではなく、従ってEIV法の利用は厳しく制限される。この方法は、雑音の多い測定のためにより良好に働くが、それは大きなメモリーをも必要とし、極めて限られた場合にしか利用できない。(i)OE法を適用した後に処理後の手段としてEIV法を使用すること、(ii) 推定された数値の代わりに測定された入力及び出力の数値を使用すること、及び(iii)改良された習得及び最適化スキームなどの代替的方法がさまざまに提唱されそして例示された(ゴープ,J.V.,ショウケンス,J.,ピンテロン,R.「雑音の多い入力で神経ネットワークを習得するための変数費用関数における誤差」Intelligent Engineering Systems Through Artificial Neural Networks, 8, 141-146, 1998) などの代替的方法もある。
【0004】
ANNモデルの性能に及ぼす雑音の付加の効果を報告する文献は比較的稀で、これまでに僅かに二三の体系的研究がなされたに過ぎない。より良好な一般化性能を有するモデルを得る場合に、トレーニングデータに雑音を付加することが助けになることが一般に知られている。シーツマとダウ(シーツマ,J.,ダウ,R.J.「一般化する人工ニューラルネットワークの作成,Neural Networks 4, 67-79, 1991) は雑音及び添加した偽ガウス分布雑音のトレーニングパターンの各要素(ベクトル)に対する有利な効果を報告した。彼らは雑音付加データでのトレーニングが多層知覚(MLP)ネットワークの分類能力を改良することを示した。この研究はここに要求されるネットワーク・ノードの数が大きい程、各ノードはその解に独立に寄与することをも明らかにした。即ち、ネットワークの出力に明確には寄与しない二三のユニットを適当なネットワーク刈り込み技法により除去できるということも可能である。この観点はミナイとウィリアムズ(ミナイ,A.A.,ウィリアムズ,R.D.「フィード・フォワード・ネットワークにおける摂動応答」Neural Networks, 7(5), 783-796, 1994) により共有された。彼らは各ノードが大域計算へ向けてより小さな程度に寄与する大きなネットワークを作成することを提唱した。別の網羅的な一研究では、アン(アン,G.「後方伝搬トレーニングの間における雑音の添加の一般化性能に及ぼす効果」Neural Comput., 8, 643-674, 1996)はEBPに基づくネットワークトレーニングの一般化性能に及ぼす雑音添加の効果を研究した。こうして、アンの研究はネットワークの予測性能に及ぼす、入力、重み、及び出力における雑音の効果を別々に分析した。この研究は出力の雑音が一般化を改良しないが、入力の雑音及び重みの雑音は役に立つことを明らかにした。ランジェヴァン雑音を用いるネットワークのトレーニングがシミュレーティッド・アニーリング・アプローチを用いて得られたものに類似の大域最小化をもたらすことも観察された。理論的研究では、ビショップ(ビショップ,C.M.「雑音でのトレーニングはティクホノフ・レギュラリゼーションと等価である」Neural Comput. 7, 108-116, 1995)は雑音により誘導される誤差項が一般化された調整項(regulariser)のクラスに相当すると主張した。このレギュラリゼーション(ポギオ,T.,ギロシ,F.「多層ネットワークと等価の習得のためのレギュラリゼーション・アルゴリズム」 Science, 247, 978, 1990)は罰則項の追加により誤差関数を改変し、ネットワークにより生ずる分散を制御する。本質において、トレーニングデータにおける雑音の追加は平滑化の形式を与える、そしてANNにより習得されるべき関数は一般に平滑であり又は有限数の領域で少なくとも区分的連続であるからこの方法は機能する。この陳述は、巧く提示された問題については、独特の解が存在し、そしてデータ中の小さな摂動はその解における小さな変動を生ずるに過ぎないという根底にある仮定を表現している。換言すれば、二つの類似の入力については、二つの類似の出力が予想されるということである。
【0005】
こうして、所与の例のデータ集合について、雑音の少量を重ねることにより追加のネットワークトレーニングパターンが形成できる。その雑音の大きさは、大きな雑音の量は入力と出力の間の本質的関係を歪めることが明らかであるから小さくなければならない一方、小さ過ぎる雑音の量は結果を伴わない取るに足らない変化しかもたらさない。入力−出力の実例データに重ねるべき雑音の「小さな」量を正確に定量することが必要であるということが直ちに導かれる。製造産業やプロセス産業でふんだんに存在する非線形系では、入力変数の変化が出力変数に影響する場合の感受性は有意に異なりうることに注目される。従って、入力変数及び出力変数のそれぞれに種々の程度の雑音を追加することが必要になる。入力−出力変数のそれぞれに追加すべき雑音の正確な量を決定することは油断のならない問題であり、本発明はこの問題を解決するために遺伝的アルゴリズムに基づく効果的な解を提供する。
【0006】
遺伝的アルゴリズム(ゴールドバーグ,D.E.「調査、最適化、及び機械習得における遺伝的アルゴリズム」アディソン−ウェスレー,ニューヨーク,1989、ホランド, J.「天然及び人工の系における適応」ユニバーシティ・オブ・ミシガン・プレス,Ann Arbor, MI, USA) は「推計学的最適化アルゴリズム」として知られる関数の最小化/最大化形式のクラスの一員である。これらは生物のダーウィンの進化論において主要な役割を演じている自然の淘汰及び遺伝学の機序に基づいている。GA(遺伝的アルゴリズム)は、雑音の多い、不連続な、多峰形の、非凸面の解空間を調査するのに有効であることが知られており、その特徴的性質は、(i)それらがGAがスカラー値のみを必要とし最適化されるべき対象関数の導関数を必要としないことを意味する「ゼロ」次の調査技法であること、(ii) GAが大域調査を行い、従ってGAは対象の関数表面の大域最適値に大部分が収束すること、(iii)GAにより用いられる調査手法は推計学的であり、従って、GAは対象関数の形式に関する平滑性、分化性、及び連続性(この特性により、上記の基準を同時に満たすことを対象関数に要求する古典的な勾配に基づくアルゴリズムを用いて解決できない最適化問題をGAを用いて解決できる)などの特定の仮定を持ち込むことなく利用できること、及び(iv) このGA手順は効果的に並列化でき、これは大きな多次元の解空間を効率的且つ迅速に調査する助けとなる、というものである。本発明は実例の集合の入力/出力変数のそれぞれに加えられる雑音の最適レベルに到達し、それによりトレーニングされた該ネットワークが改良された予測精度及び一般化性能を有するように、ANNトレーニングに使用される拡大された雑音を重ね合わせた試料データ集合を作成するための遺伝的アルゴリズムに基づく方法を開示する。
【0007】
GA手順では、実例集合における入力/出力変数に重ねるべき雑音の許容値を表す最適解ベクトル(決断ベクトルとも呼ばれる)の調査は可能性のある(候補の)解の無作為に初期値に設定された集団から始める。この解は、通常二項の糸の形(染色体)でコードされ、次いで、最適化対象の充足させる点での、即ち関数の最小化又は最大化でのその解の適合性を測るため試験する。続いて、この候補解をその適合性得点の高い方から順に格付けし、「選択」、「交差」、及び「突然変異」を含むGA操作の主なループを該格付けした集団について行なう。このループの実施は候補解の新たな集団を形成する。現在の集団と比べたとき、この新たな集団は通常最適化対象を充足する点でより良好となる。上記のループを数回繰り返した後に生ずる最良の糸がこの最適問題に対する解となる。解ベクトルの適合性を評価すると同時に、その中に含まれる入力/出力変数特異的雑音許容値を用いて、実例集合における各パターンに相当する、多数の雑音を重ねた試料の入力−出力パターンを形成する。得られる拡大されたデータ集合は、次にRMSEなどの最小二乗費用関数を最小化するという見地で神経ネットワークをトレーニングするために使用する。ANNのトレーニングは勾配に基づくか又は他の適当な重み−最新化方式を用いて行なう。それにより得られるRMSEの大きさは雑音許容性を含む候補ベクトル解の適合値を計算するために使用される。GA−最適化雑音許容値を用いて形成されるデータに基づいてトレーニングされたネットワークは機械的雑音及び/又は測定誤差の存在下での真の入力−出力関係をより良好に近似し、従って、良好な予測精度及び一般化性能を有する。
【0008】
本発明は二つの実例の考察に基づいている。即ち、(i)工業的重合反応槽のANNに基づくモデル化、及び(ii) 連続攪拌式タンク反応槽(CSTR)のANN−に基づくモデル化であり、ここでは、A→B→Cの発熱的連続反応が起こる。本発明の方法を用いて得られた予測精度を普通に使用されたネットワークトレーニング手順を用いて得られたものと比較する。
【0009】
発明の目的
本発明の主な目的は、機械的雑音及び/又は測定誤差を含む入力−出力データの存在下で人工ニューラルネットワークモデルの予測精度及び一般化性能を改良する方法を提供することである。とりわけ、コンピュータを用いて、ネットワークトレーニングに使用されるためのガウス雑音を重ねられた拡大試料の入力−出力データの集合を作成するための方法論が発明された。ここでは、入力/出力変数のそれぞれに添加されるべき雑音の量が遺伝的アルゴリズム(GA)に基づく戦術を用いて最適化される。このGAに基づくアプローチは、二つの類似の入力は二つの類似の出力を生ずるべきであるという原理に従って、実例データの入力−出力変数に添加されるべき雑音の最適レベルを確定する。
【0010】
発明の概要
本発明は、改良された予測精度及び一般化性能を有するANNモデルを構築するための、人為的に作成された雑音を重ねた入力−出力データパターンを採用する。本質的に、本発明で提示されるこの方法は、その入力と出力の間に存在する雑音の関係をANNに強制的に習得させる。この発明された方法はネットワークトレーニングのため、雑音を重ねられた拡大試料データの集合を作成すべく入力−出力変数に特異的な雑音許容値を使用する。具体的には、既知の許容性のガウス雑音を実例集合の入力及び出力変数のそれぞれに添加し、このようにして実例集合における各パターンに相当する多数の雑音を重ねたパターンを形成する。本発明では、入力/出力変数のそれぞれに特異的なこの許容値は、「遺伝的アルゴリズム」として知られる新規な進化論的推計学的最適化方式を用いて最適化される。雑音を重ねられた拡大試料データの上でトレーニングされたこのANNモデルは改良された予測精度及び一般化能力を有することが見出された。
【0011】
発明の詳細な説明
従って、本発明は、ネットワークモデルを構築するために利用可能な、実例の集合として知られた入力−出力データが機械的雑音及び/又は測定誤差を含む場合、非線形の人工ニューラルネットワークモデルの予測精度及び一般化性能を改良する方法であって、下記の工程、即ち
(a)コンピュータシミュレーションを用いて雑音を重ねた拡大入力−出力試料データの集合を形成する工程、
(b)コンピュータシミュレーションを用いて実例の集合における入力−出力パターンのそれぞれについてM個の雑音を重ねた試料入力−出力パターン(ベクトル)を形成する工程、
(c)入力/出力変数のそれぞれに特異的な雑音許容値を用いて雑音を重ねた試料入力−出力パターンを形成する工程、
(d)雑音を重ねた試料入力−出力パターンを作成するため、コンピュータシミュレーションを用いてガウス(正規に)分布した乱数を形成する工程、
(e)推計学的調査及び最適化技法を用いて実例集合における入力/出力変数それぞれに添加すべきガウス雑音の正確な量を決定する工程、及び
(f)非線形人工ニューラルネットワークモデルを構築するための「トレーニング集合」として、コンピュータで形成された雑音を重ねた試料の入力−出力パターンを用いる工程
を含む方法を提供する。
【0012】
遺伝的アルゴリズムにより決定された実例集合の入力−出力変数それぞれに添加されるべきガウス雑音の正確な量が全体的に(局部的でなく)最適である、本発明の一実施態様。
【0013】
実例集合が人工ニューラルネットワークモデルの一般化性能を監視するための「テスト集合」として使用される、本発明の別の一実施態様。
【0014】
人工ニューラルネットワーク構造が「フィード−フォワード」である、即ちこのネットワーク内の情報の流れが入力層から出力層への一方向である、本発明のさらに別の一実施態様。
【0015】
フィード−フォワード神経ネットワーク構造が多層知覚(MLP)ネットワーク、ラジアル・ベイシス・ファンクション・ネットワーク(RBFN)、及びカウンター・プロパゲーション神経ネットワーク(CPNN)を含むものである、本発明のさらに別の一実施態様。
【0016】
人工ニューラルネットワークモデルを構築するため又はトレーニングするために使用されるアルゴリズムがエラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイックプロプ及びRPROPを含むものである、本発明のさらに別の一実施態様。
【0017】
雑音許容性を最適化するために使用される推計学的調査及び最適化技法が遺伝的アルゴリズム及び関連する方法、即ち、シミュレーティッド・アニーリング(SA)、サイマルテイニアス・パーターベーション・ストカスティック・アプロクシメーション(SPSA)、進化論的アルゴリズム(EA)及びメメティックアルゴリズム(memetic algorithms) (MA)を指すものである、本発明のさらに別の一実施態様。
【0018】
拡大された雑音を重ねた試料入力−出力データ集合が小規模の実例入力−出力集合からコンピュータシミュレーションを用いて作成されるものである、本発明のさらに別の一実施態様。
【0019】
本発明は下記の実施態様の形でさらに説明される。
実例集合を表すP個の入力−出力パターンの対、[(x1, y1), (x2, y2),……,( xP , yp ),……,( xP, yP )]を考えよう。N次元の入力ベクトルxp と対応するK次元の出力ベクトル yp の間の相互関係はK次元の非線形関数ベクトルfによって支配される。fは、 yp =f(xp ) と定義される。このxp ベクトルと yp ベクトルはそれぞれ入力パターン及び対応する出力(標的)パターンと呼ばれる。第p番目のN次元入力ベクトルであるxp は [ xp1 , xp2 ,‥‥ , xpN] T と定義され、対応するK次元標的出力ベクトルである yp は [ yp1 , yp2 ,‥‥ , ypK] T と定義される。MLP(図1を参照)などのフィード・フォワード神経ネットワーク(FFNN)は、xp と yp の間の非線形関係を以下に示すように近似する、
yp =f(xp , WH , WO ) (1)
上式中、行列 WH 及び WO はそれぞれMLPの入力層ノードと隠れた層ノードの間及び隠れた層ノードと出力層ノードの間の関連に関する重みを表す。MLPネットワークをトレーニングすることの全体としての目的は適当な最小二乗を最小化することである。
【0020】
例えば、二乗平均誤差(RMSE)などの誤差関数(ナンディ,S.,ゴーシュ,S.,タンベ,S.S.,クルカーニ,B.D.「人工ニューラルネットワーク支援推計学的プロセス最適化戦略」AIChE J., 47, 126, 2001 )は、以下のように定義される。
【0021】
【数1】
【0022】
上式中、iは入力パターンの指標(i=1,2,‥‥,Npat ) を意味し、Kは出力ノードの数を示し、そしてEi は以下に定義される和二乗誤差(sum-squared-error)(SSE)を表す。
【0023】
【数2】
【0024】
上式中、yi k は該ネットワークの入力層にi番目の入力パターンが適用された場合のk番目の出力ノードの実際の出力を示し、oi k は対応する標的出力を示す。RMSE最小化の仕事は、一般化デルタ・ルール(GDR)に基づくエラー・バック・プロパゲーション(EBP)、コンジュゲート・グラディエント、又はより進んだ方法であるクイックプロプ(ファールマン,S.E.「バック・プロパゲーションに関する急速習得変法」,proceedings of the 1988 Connectionist Models Summer School, D.S.トゥレツキー, G.E.ヒントン, 及び T.J. セイノウスキー編, pp. 38-51 、モーガン・カウフマン, サンマテオ, CA, 1988)、及び弾力性のあるバック−プロパゲーション(RPROP)(リードミラー, M.,ブラウン,H.「急速バック−プロパゲーション習得のための直接適応法:RPROPアルゴリズム」 Proc. of IEEE Int. Conf. on Neural Net., サンフランシスコ, CA, 3月28日−4月1日,1993)などの適当な下降勾配技法を用いて達成される。ネットワーク・トレーニングは重み付け行列、WH 及びWO を無作為に初期化することから始まる繰り返し手順である。トレーニングの繰り返しはネットワーク層を通る、二つのタイプの通過、即ちフォワード及びリバースの通過からなる。フォワード通過では、トレーニング・データ集合からの入力パターンが入力ノードに適用されそして隠れたノードの出力が評価される。この出力を計算するためには、まず、隠れたノードへの入力の加重総和を計算し、次いでこれをロジスティック・シグモイドなどの非線形活性化関数を用いて変換する。入力層ノードから出力層ノードへの隠れたノードの出力は隠れたノードの出力と同様にして評価される。ネットワーク出力とも呼ばれる出力層ノードの出力は標的出力と比較される。そしてリバース通過では、ネットワーク出力と標的出力の間の差(予測誤差)が重み行列であるWH 及びWO を最新化するために使用される。この重み最新化手順がトレーニング集合の全てのパターンについて繰り返されると、一つのトレーニング反復が完了する。重み行列であるWH 及びWO は、EBP、コンジュゲート・グラディエント、クイックプロプ及びRPROPなどの種々の方法を用いて最新化できることが注目される。本発明は一つの方法を提唱する。この方法により、トレーニング・データとして使用すべき雑音を重ねた試料入力−出力データの拡大した集合が実例集合から作成され、そして得られるANNモデルが改良された予測精度及び一般化性能を有するように、遺伝的アルゴリズムを用いて入力/出力変数それぞれに加えられるべき雑音の最適量が決定される。実例集合の入力/出力変数それぞれに加えられるべき雑音の量を最適化するために発明された方法を以下に説明する。
【0025】
実例集合におけるP個のN次元入力ベクトルを〔P×N〕入力行列であるX、そして同数の対応するK次元の出力ベクトルを〔P×K〕出力行列であるYと考えよう。本発明は行列X及びYそれぞれに雑音を重ねた行列X’及びY’を作成する。これらはANNトレーニングのためのトレーニング用の入力集合及び出力集合として用いられる。加えられるべき(正規分布した)ガウス雑音の量は入力/出力変数に特異的であり、許容パーセンテージの項で特徴付けられる。入力行列X及び出力行列Yに雑音を導入するために使用される雑音許容ベクトルは、それぞれε1 及びε0 と定義される。N次元入力ベクトルの各要素に加えられるべき雑音を特徴付けるN次元雑音許容ベクトルは次のように定義される。
【0026】
【数3】
【0027】
そしてそのn番目の要素ε1 n は入力行列Xのn番目の列要素{xpn}にガウス雑音を導入するために使用される。p=1,2,‥‥,Pである。この雑音許容値であるε1 n は次のように定義される。
【0028】
【数4】
【0029】
上式中、xpn及びσ1 pnはガウス分布の平均値及び標準偏差を示す。
【0030】
方程式5を変形すると、標準偏差は下記の式として計算できる。
【0031】
【数5】
【0032】
ガウス分布の平均値としてxpn(n=1,2,‥‥,N)、標準偏差としてσ1 pn(n=1,2,‥‥,N)を用いると、M個の雑音を重ねた試料入力パターンが実例集合におけるp番目(p=1,2,‥‥,P)の入力パターンに対応して(コンピュータ・シミュレーションを用いて)形成される。得られる雑音を重ねて誘導された入力行列(X’)は[(MP)×N]の次元を有する。
【0033】
入力に対する雑音許容ベクトルε1 と同様に、本発明者らはK次元の出力雑音許容ベクトルε0 を、
ε0 =[ε0 1 , ε0 2 ,‥‥,ε0 k , ‥‥,ε0 K ]T (7)
と定義する。
【0034】
この許容ベクトルのk番目の要素ε0 k は標的出力行列であるYのk番目の列要素{ypk}, p=1,2,‥‥,Pにガウス雑音を導入するために使用される。この許容ベクトル要素であるε0 k は下記の式のように定義される。
【0035】
【数6】
【0036】
上式中、ypk及びσ0 pkはそれぞれガウス分布の平均値及び標準偏差を示す。方程式8を変形すると、標準偏差は下記の式により評価される。
【0037】
【数7】
【0038】
雑音を重ねた試料出力行列Y’は、行列X’と同様にしてコンピュータ・シミュレーションを用いて形成される。ここで、ypk(k=1,2,‥‥,K)及びσ0 pk(k=1,2,‥‥,K)はそれぞれガウス分布の平均値及び標準偏差として用いられ、M個の雑音を重ねた試料出力パターンが実例集合におけるp番目(p=1,2,‥‥,P)の標的出力パターンに対応して形成される。得られる雑音を重ねた試料出力行列Y’は[(MP)×K]の次元を有する。ANNトレーニングの間、行列X’及びY’は入力−出力トレーニングデータとして用いられ、一方、行列X及びYは該ネットワークの一般化性能を監視するためのテスト用入力−出力データとして用いられる。
【0039】
その入力と出力の間の関係が非線形であるシステムでは、従属(出力)変数は原因(入力)変数の変化に種々の程度の感受性を示す。従って、(許容ベクトルの要素,ε1 及びε0 により定義された)実例集合における入力/出力変数それぞれに加えられるべき雑音の正確な量の決定は重要な論点となる。本発明は実例データ集合の入力−出力要素に加えられるべき雑音の正確な量を最適化するため、GAに基づく方法を導入する。雑音を重ねたデータは、ネットワークをトレーニングする際に使用されると、改良された予測精度及び一般化性能を有するネットワークモデルを生ずる。以下に、実例集合の入力/出力要素それぞれに加えられるべき雑音の正確な量を最適化するためのGAに基づくアプローチを記述する。
【0040】
GAに基づく最適化という課題は次のように述べられる。即ち、雑音許容値を用いて作成された雑音を重ねた拡大されたトレーニング用集合が改良された予測精度及び一般化能力を有するネットワークモデルを生ずるように、入力/出力変数特異的雑音許容度の最適値を見出すことである。本質的には、GAの課題は、それが雑音を重ねた拡大された入力−出力トレーニングデータ集合を作成するために用いられたとき、テスト集合と比べてRMSE誤差が最小となるような、最適な入力雑音許容ベクトル及び出力雑音許容ベクトル、ε1*=[ ε1* 1 , ε1* 2 , ‥‥,ε1* n ,‥‥,ε1* N]T 及びε0* =[ε0* 1 , ε0* 2 , ‥‥,ε0* k ,‥‥,ε0* K]T を見出すことである。従って、GAにより最小化されるべき対象の関数はテスト集合RMSEであり、次のように定義される。
【0041】
【数8】
【0042】
上式中、iはテスト入力パターンの指標を表し(i=1,2,‥‥,Ntst )、KはMLP構造における出力ノードの数を示し、Ntst はテスト集合におけるパターンの数を表し、そしてEi はi番目のテストパターンに対応する和二乗誤差(SSE)を表す。
【0043】
RMSEtst 最小化に関与する遺伝的アルゴリズムの工程は次のようになる。
(1)候補解集団の初期値設定:世代指標(Ngen )をゼロに設定し、そしてNpop 二項の糸(染色体)の集団を無作為に形成する。全部でlchr ビットを持つ糸それぞれを最適化すべき決断変数(N+K)の数と同数のセグメントに分割する。糸の(N+K)の二項セグメントの十進法等価物は候補の解ベクトルを表すことに注意せよ。この解ベクトルの最初のN個の要素はN個の入力変数に対応する雑音許容度を示し、次のK個の要素は同数の出力変数に対応する雑音許容度を表す。こうして、Npop 個の候補解の集団は入力−出力雑音許容度の組み合わせ集合として記述できる。即ち
{ε0 ln , ε0 lk}; l=1,2,‥‥,Npop 、n=1,2,‥‥,N、k=1,2,‥‥,K (11)
【0044】
(2)適合性計算:その解の適合値を計算するため、入力−出力雑音許容度のベクトル対を含む現在の集団におけるl番目(l=1,2,‥‥,Npop )の候補解を利用する。具体的には、入力−出力雑音許容値は、前に概述した手順(方程式6及び9をも参照)に従うことにより、ガウス雑音を重ねた拡大されたトレーニング集合{X’,Y’}を作成するために用いられる。そのようにして作成されたトレーニング集合はEBP、コンジュゲート・グラディエント、クイックプロプ及びRPROPなどの適当な習得アルゴリズムの枠内でネットワーク重み行列WH 及びWO を調節するために利用される。トレーニングの間、実例入力−出力集合はテスト集合として使用され、そして対応するRMSE値(RMSEtst (l))は次式を用いてl番目の候補解の適合性(ξl )を計算するために用いられる。
ξl =l/(l+RMSEtst (l));l=1,2,‥‥,Npop (12)
【0045】
方程式12で定義された適合性関数の形は適合値ξl を評価するために使用できる幾つかのうちの一つであることに注意すべきである。罰則項を含む適合性関数を使用することも可能である(デブ,K.「工学設計、アルゴリズム、及び実例の最適化」プレンティス−ホール,ニューデリー,1995)。適合性評価の後に該候補糸はそれらの適合値の大きい方から順に格付けされる。
【0046】
(3)親の選択:現在の集団からNpop 個の親の染色体を選択して交配用のプールを作成する。このプールの構成員は比較的高い適合性得点を有するように選択され、それらは子孫糸を作成するために使用される。普通に使用される親の選択法はルーレット−ホイール(RW)法でありそして推計学的残り選択(SRS)(ゴールドバーグ,D.E.「調査、最適化、及び機械習得における遺伝的アルゴリズム」アディソン−ウェスレー,ニューヨーク,1989) として知られるRW法のより安定な変法である。
【0047】
(4)交差:交配用プールから、Npop /2個の親の対を無作為に選択し、Pcr(0<Pc ≦1.0 ) に等しい交差確率を持つ各対について交差操作を行なう。交差では、親の対の各メンバーを同じく無作為に選んだ交差点で切断する。結果として、二つの下位の糸が各親糸から形成される。この下位の糸は親の間で相互に交換され且つ結合されて二つの子孫染色体を生ずる。「一点交差」と呼ばれるこの交差操作は、親の対の全てについてなされたとき、Npop 個の子孫糸を含む集団を生ずる。
【0048】
(5)突然変異:子孫糸について突然変異(ビット反転)操作を行なう。ここで、ビットが反転する(ゼロから1へ又はその逆)確率はpmut に等しい。推奨されるpmut の範囲は〔0.01−0.05〕である。
【0049】
(6)世代指標を1ずつ増加させ(Ngen =Ngen +1)、新たに形成された子孫糸について工程2〜5を収束に達するまで繰り返す。GA収束の基準はNgen がその最大限界(Nmax gen ) を超えること、又は突然変異した子孫集団における最良の糸の適合性得点が後続の世代にわたって極めて小さな変化しかしない又は全く変化しないことである。GA収束が達成された後、最高の適合値を有する糸を解読して最適化された解を得る。通常、最小RMSEtst 量をもたらす最適解ベクトル〔ε1* , ε0*〕を得るためには大量の数の世代が必要である。
【0050】
本発明の好ましい実施態様を以下に記述するが、本発明は変化及び修飾を受けることができる。従って、本発明の範囲はその効果を証明するために使用される実施例の正確な詳細に限定されない。
【0051】
本発明の実施態様では、非線形モデル化及び分類を行なうために用いられる人工ニューラルネットワークが雑音を重ねた拡大された入力−出力データ集合を用いてトレーニングされる。ここで、実例集合における入力/出力変数それぞれに加えられるべき雑音の最適量は遺伝的アルゴリズムとして知られる推計学的最適化方式を用いて決定された。この遺伝的アルゴリズムはネットワークに改良された予測精度及び一般化性能を持たせ得る。
【0052】
本発明の別の一実施態様では、機械的雑音及び/又は測定誤差を含む「実例集合」と呼ばれる入力−出力データがオフライン又はオンラインのいずれかで集められた場合に適用可能な方法が示される。
【0053】
本発明のさらに別の一実施態様では、この方法はその実施のためにプロセス監視システム、プロセスのタイプ、及びセンサーハードウェアなどについての知識を必要としない。
【0054】
本発明のさらに別の一実施態様では、実例データに加えられるべき最適雑音が、サイマルテイニアス・パーターベーション・ストカスティック・アプロクシメーション(SPSA)、シミュレーティッド・アニーリング(SA)、アント・コロニー(ant colony) 法、及びメメティックアルゴリズムなどの他の推計学的最適化技法を用いて決定され得る。
【0055】
本発明の付加的実施態様では、この方法は入力と出力の実例データの間の関係が非線形である場合の人工ニューラルネットワークモデルを開発するために使用できる。
【0056】
本発明のさらに付加的実施態様では、発明された方式は、エラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイックプロプ、及びRPROPなどの種々の決定論的且つ推計学的な人工ニューラルネットワークトレーニングスキームに適用できる。
【0057】
従って、本発明は機械的雑音及び/又は測定誤差を含むデータの存在下で人工ニューラルネットワークモデルの予測精度及び一般化性能を改良する方法であって、下記の工程(図2参照)を含む方法を提供する。
(a)プロセスデータ(実例集合)を原因(入力)変数の[P×N]行列(X)及び対応する従属(出力)変数の[P×K]行列(Y)の形式で編集する工程。
(b)実例データ集合を前処理する工程、即ち明らかな及び明らかでないアウトライアー(はずれ値)を除去し、欠落のあるデータ、センサーの誤った読みなどを含むパターンを捨てる工程。
(c)サイズNpop の糸の候補解集団を無作為に形成することによりGA調査及び最適化手順(世代の数,Ngen =0)を始める工程。ここで、解はそれぞれN個の入力雑音許容度(ε1 )及びK個の出力雑音許容度(ε0 )を記述する[N+K]次元の決断変数ベクトルである。
【0058】
(d)l番目(l=1,2,‥‥,Npop )の候補解を用いて、下記の工程を行なう、
(i)実例集合におけるp番目(p=1,2,‥‥,P)の入力−出力パターンに対応する、M個のガウス雑音を重ねた試料入力−出力パターンを、コンピュータ・シミュレーションを用いて形成させる工程。入力及び出力の試料パターンを形成させるための標準偏差値(σ1 ,σ0 )はそれぞれ方程式6及び9を用いて計算される。得られる試料入力行列であるX’及び出力行列であるY’はそれぞれ[(MP),N]及び[(MP),K]の次元のものである。
【0059】
(ii) 入力層及び隠れた層それぞれにおけるN個の入力ノード、NH 個の隠れたノード、一つのバイアスノード、並びにK個の出力ノードを収容するMLPなどのフィード・フォワードANNを、適当なトレーニングアルゴリズム、例えば、エラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイック−プロプ、又はRPROPを用いてトレーニングする工程。トレーニングの間、ネットワーク重み行列であるWH 及びWO はそれぞれ雑音を重ねた試料入力−出力行列であるX’及びY’を用いて調節され、そして実例入力−出力行列であるX及びYはこのネットワークの一般化能力を測るためのテストデータとして使用される。ネットワークトレーニングの目的はテスト集合(RMSEtst )と比べRMSEを最小にすることである。この目的を達成するため、隠れた層の数、隠れた層それぞれにおけるノードの数、及びトレーニング用アルゴリズムに特異的なパラメータ、例えば、EBPアルゴリズムにおける習得速度及び運動量係数を最適にする必要がある。l番目の候補解に対応するこの最小化されたテスト集合のRMSE値はRMSEtst (l) と定義される。
【0060】
(e)前の工程で得られた最小化されたRMSEtst (l) 値を用いて、候補解の適合値ξl (l=1,2,‥‥,Npop )を計算する工程。以下に示すようなものなどの適当な適合性関数を適合値を計算するために使用しうる。
ξl =1/(1+RMSEtst (l) ) (13)
l=1,2,‥‥,Npop
上式中、ξl はl番目の候補解の適合性得点を示し、RMSEtst (l) はl番目の解が雑音を重ねた拡大されたトレーニングデータを形成させるために使用された場合の最小化されたテスト集合RMSE値を表す。これらの適合性値を評価した後、その候補解を適合性得点の大きい方から順に格付けする。
【0061】
(f)先に詳述したように、この格付けされた候補解の集団について、選択、交差及び突然変異の操作を行って新たな世代の解(Ngen =Ngen +1)を得る。
【0062】
(g)この新たな世代の候補解について収束が得られるまで工程(d)から(f)までを行なう。収束の成功の基準は、GAが多数の世代にわたって(Ngen ≧Nmax gen ) を生ずること、又は最良の解の適合性値が後続の世代において極めて小さな変化しかしないか又は全く変化しないことのいずれかである。この収束した集団における最高の適合値を有する候補解がGA−最適化解(ε1* , ε0*)を表し、そしてこの解に対応する重み行列(WH 及びWO )は改良された予測精度及び一般化性能を有するANNモデルの最適重みを表す。
【0063】
本発明を利用する下記の実施例は例示のために示すものであり、従って、本発明の範囲を制限するものと解すべきではない。
【0064】
実施例1
本発明の方法論の第一の例で使用されるデータは、工業的重合プロセスの実施から得られる。このプロセスのデータは9個の入力と1個の出力とから成り、入力はプロセスの条件を記述し、出力はポリマーの品質のパラメータを表す。ANNモデル化には全部で28個の入力−出力データパターン(実例の集合)が利用可能であった。これらのデータは機械的雑音及び測定誤差を含んでいた。ANNの模範としてMLPを用いて、最初の幾つかのネットワークモデルを開発し、EBP、コンジュゲート・グラディエント、クイックプロプ及びRPROPなどの種々のトレーニング用アルゴリズムを用いてこのポリマーの品質パラメータを予測した。MLPに基づくモデルを発展させながら、隠れた層の数、隠れた層それぞれ中のノードの数、習得速度、運動量係数などの種々のネットワーク構造のパラメータの効果を厳密に研究した。また、ネットワークの重みの異なる初期設定の効果、及びトレーニング集合やテスト集合のサイズの効果も徹底的に検討した。トレーニング集合及びテスト集合に関して最小のRMSE値を生じた上述の方法を用いてトレーニングされたMLPネットワークの構造は、入力層中に9個のノード、隠れた層−1中に6個のノード、隠れた層−2中に7個のノード、そして出力層中に1個のノードを含んでいた。トレーニング集合及びテスト集合に関するRMSE誤差の量は、それぞれ 0.00590 (RMSEtrn ) 及び 0.03436 (RMSEtst ) であった。RMSE値から見ることができるように、RMSEtst がRMSEtrn よりも遙かに大きく、従って、このネットワークモデルの一般化能力は満足すべきものでないことが推論できる。このネットワークモデルの予測精度及び一般化性能を両方共改良するため、本発明に例示された方法論を使用した。特に、この実例集合の各パターンについて25(M=25)の雑音を重ねた試料の入力−出力パターンを作成した。全部で700個の入力−出力パターンを含む雑音を重ねたデータを作成するために使用した最適入力−出力雑音許容値(ε1*,ε0*) は本発明で導入された遺伝的アルゴリズムに基づく戦術を用いて得られた(図2も参照)。GAにより与えられた最適許容値を表1に列挙する。これらの数値は以下に示すGA特異的パラメータ値を用いて得られた。即ち、(i)各糸集団の長さ(lchr )=10ビット、(ii) 集団のサイズ(Npop )=16、(iii)交差の確率(Pcr)= 0.9、及び(iv) 突然変異の確率(Pmut )= 0.05 である。この雑音を重ねたデータの上でトレーニングされたMLPネットワークは表2で報告されたRMSE値を生じた。比較のために、雑音を重ねていないデータをトレーニング集合として用いて得られた最小のRMSE値もこの表に列挙している。雑音を重ねたデータの上でトレーニングされたネットワークがトレーニング集合データ及びテスト集合データの両方についてより小さなRMSE値を生じたことが、表2に列挙された数値から明瞭に見られ得る。より重要なことは、上記RMSEtst が 0.03436から 0.00172へ有意に減少したことである。比較を容易にするため、ネットワークが予測した数値と標的出力値の間の平均のパーセンテージ誤差及び相関係数(CC)を計算し、これらも表2に列挙している。観察できるように、このCC値は雑音を重ねたデータがネットワークトレーニングに使用されるとき増加した。より小さなトレーニング集合RMSE値及びテスト集合RMSE値はそれぞれこの雑音を重ねたデータの上でトレーニングされたネットワークモデルの予測精度及び一般化性能の改良を示した。また、ネットワークで予測された出力とそれらの望ましい量の間の平均のパーセンテージ誤差も有意に減少した。従って、本発明がネットワークモデルの予測精度を改良しそして一般化性能をも改良することに成功したものと推論できる。
【0065】
【表1】
【0066】
【表2】
【0067】
実施例2
この実施例では、その中で直列の二つの二次反応、A→B→Cが起こるジャケットを装備した非等温的連続攪拌式タンク反応槽(CSTR)を使用するプロセスが検討される。このプロセスデータは6個のCSTR操作変数(入力)の定常状態の値を含み、そしてその中の1個の出力が生成物の品質の変数の対応する定常状態の値を示す。全部で50個の入力−出力データパターン(実例集合)がANNに基づくモデル化のために利用可能であった。このデータは機械的雑音及び/又は測定誤差を含んでいた。まず、実例集合を出力変数の値を予測するためのトレーニングデータとして使用してMLPモデルを開発した。そのために、EBP、コンジュゲート・グラディエント、クイックプロプ、及びRPROPなどの種々のトレーニングアルゴリズムを利用した。MLPネットワークモデルを開発しながら、種々の構造的パラメータ、例えば、隠れた層の数、隠れた層それぞれのノードの数、習得速度、運動量係数などの効果を研究した。また、ネットワーク重みの異なる初期設定、及びトレーニング用集合やテスト集合のサイズの効果を厳密に検討した。上述の方法を用いてトレーニングされ、該トレーニング用集合やテスト集合に関して最小のRMSE誤差を生じたMLPネットワークの構造は、入力層に6個のノード、隠れた層−1に4個のノード、隠れた層−2に4個のノード、そして出力層に1個のノードを含んでいた。トレーニング集合及びテスト集合に関するRMSE誤差は、それぞれ 0.00909 (RMSEtrn ) 及び 0.01405 (RMSEtst ) であることが見出された。このRMSE値から、ネットワークモデルの予測精度及び一般化性能を改良するためのかなりの余地がなお存在することが見られる。この目的を達成するため、本発明で例示された方法論が用いられた。具体的には、実例集合におけるパターンのそれぞれについて、25個(M=25)の雑音を重ねた試料入力−出力パターンを作成した。全部で1250個の試料入力−出力パターンを含む雑音を重ねたデータを作成するために使用した最適許容値(ε1*,ε0*)は本発明で導入された遺伝的アルゴリズムに基づく戦術を用いて得られた(図2を参照)。GAにより与えられた最適雑音許容値は表3に列挙してある。これらの数値は以下に述べるGA特異的なパラメータ値を用いて得られた。即ち、(i)各糸集団の長さ(lchr )=10ビット、(ii) 候補集団のサイズ(Npop )=14、(iii)交差の確率(Pcr)= 0.9、及び(iv)突然変異の確率(Pmut )= 0.05 である。この雑音を重ねたデータを用いて得られたトレーニング集合及びテスト集合のRMSEの最小値は表4に列挙してある。比較のために、雑音を重ねていないデータを用いて得られたRMSEの最小値もこの表に列挙してある。表4に列挙した数値から、雑音を重ねたデータの上でトレーニングされたネットワークはトレーニングデータ及びテストデータの両方についてより低いRMSE値を生じたことが明瞭に読み取れる。より重要なことは、このRMSEtst は 0.01405から 0.00183まで有意に減少したことである。トレーニング集合及びテスト集合のRMSE値が極く小さいことは、雑音を重ねたデータの上でトレーニングされたネットワークモデルの予測精度及び一般化性能が向上したことを示すものである。この推論は対応する相関係数値がより高いこと(約1)及び平均予測誤差(%)の値がより小さいことによっても支持される。従って、本発明はCSTRのためのANNモデルの予測精度をそして一般化性能も改良することに成功したと結論できる。
【0068】
【表3】
【0069】
【表4】
【0070】
有利な点
(1)機械的雑音及び/又は測定誤差を含むデータの存在下で非線形の人工ニューラルネットワークモデルを構築するための方式を容易に実施できること。
(2)この方法論は、それが専らコンピュータ・シミュレーションにより拡大されたトレーニングデータ集合を作成し、それにより人工ニューラルネットワークモデルの予測精度及び一般化能力を改良するためのさらなるプロセスデータの収集を無用とするので、費用に対して効果が高いこと。
(3)発明された方法は、人工ニューラルネットワークモデルの予測精度及び一般化性能を改良するための雑音を重ねたトレーニングデータを作成するが、その場合、入力−出力変数のそれぞれに加えるべき雑音の量が恣意的に選択されるのではなく、新規な且つ強力な推計学的最適化法、即ち、遺伝的アルゴリズムを用いて選択されるものであること。
(4)遺伝的アルゴリズムの使用は実例データの入力/出力変数のそれぞれに加えるべき雑音の全体的に(そして局部的にではなく)最適な量を得ることを可能とすること。
(5)本発明方法は、雑音を重ねる方法を用いて追加のトレーニングデータを作成するので、実例データがANNトレーニングを行なうには不適当な場合でさえも機能すること。
(6)この方法は多重入力−多重出力の非線形システムのモデル化及び分類のためにそれを適用することを保障する程に十分に一般的であること。
(7)本発明の方法は、人工ニューラルネットワークに基づくモデル化及び分類を含む実時間適用に使用できること。
(9)本発明の方式は並列式コンピュータを用いて実施するために効率的に並列化できること。
(10)本発明の実施は完全に自動化され、使用者の介入は最小で済むか又は全く不要であること。
【図面の簡単な説明】
【図1】 図1は、多層知覚(MLP)などの典型的なフィード・フォワードニューラルネットワークの概略図を示す。
【図2】 図2は、本発明の工程を詳述するフローチャートを示す。
Claims (8)
- 雑音がそれぞれ付加されたN(Nは1以上の整数)次元の入力ベクトルとK(Kは1以上の整数)次元の出力ベクトルとを用いたトレーニングによる人工ニューラルネットワークモデルの改良方法であって、
コンピュータが、
N次元の既知入力ベクトルとK次元の既知出力ベクトルとに付加する雑音量の候補解として、N+K個のセグメントをそれぞれ有する複数のビット列を無作為に生成する工程と、
前記候補解ごとに、N+K個のガウス分布を生成する工程と、
前記候補解ごとに、生成したN個のガウス分布のそれぞれに基づく乱数を雑音として、前記既知入力ベクトルにおけるN個の値にそれぞれ付加する工程と、
前記候補解ごとに、生成したK個のガウス分布のそれぞれに基づく乱数を雑音として、前記既知出力ベクトルにおけるK個の値にそれぞれ付加する工程と、
前記雑音の付加により得たN次元の雑音付加入力ベクトルとK次元の雑音付加出力ベクトルとを用いた前記人工ニューラルネットワークモデルのトレーニングと、前記トレーニングの結果に基づく前記候補解ごとの適合値の算出と、前記適合値に基づく前記複数のビット列の操作とを繰り返し実行して、N+K個のセグメントを有する一つのビット列を前記雑音量の最適解として導出することにより、前記人工ニューラルネットワークモデルの最適重みを取得する工程と、
を実行する、人工ニューラルネットワークモデルの改良方法。 - 前記最適重みを取得する工程は、前記複数のビット列の操作において、遺伝的アルゴリズムに従って親選択操作と交差操作と突然変異操作とを行う、請求項1記載の人工ニューラルネットワークモデルの改良方法。
- 前記最適重みを取得する工程は、前記トレーニングにおいて、前記雑音付加入力ベクトルと前記雑音付加出力ベクトルとをトレーニングデータとして用いると共に、前記既知入力ベクトルと前記既知出力ベクトルとをテストデータとして用いる、請求項1記載の人工ニューラルネットワークモデルの改良方法。
- 前記人工ニューラルネットワークモデルはフィードフォワード型である、請求項1記載の人工ニューラルネットワークモデルの改良方法。
- 前記人工ニューラルネットワークモデルは、多層知覚ネットワーク、ラジアル・ベイシス・ファンクション・ネットワーク、又はカウンタープロパゲーションニューラルネットワークを含む、請求項1記載の人工ニューラルネットワークモデルの改良方法。
- 前記最適重みを取得する工程は、エラー・バック・プロパゲーション、コンジュゲート・グラディエント、クイックプロプ、又は弾力性バックプロパゲーションに従って前記トレーニングを行う、請求項1記載の人工ニューラルネットワークモデルの改良方法。
- 前記最適重みを取得する工程は、遺伝的アルゴリズム、シミュレーテッド・アニーリング、サイマルテイニアス・パーターベーション・ストカスティック・アプロクシメーション、進化論的アルゴリズム、又はメメティック・アルゴリズムに従って前記雑音量の最適解を導出する、請求項1記載の人工ニューラルネットワークモデルの改良方法。
- 前記雑音を前記既知入力ベクトルと前記既知出力ベクトルとに付加する工程は、前記既知入力ベクトルのM倍の(Mは1以上の整数)個数の前記雑音付加入力ベクトルと、前記既知出力ベクトルのM倍の個数の前記雑音付加出力ベクトルを得る、請求項1記載の人工ニューラルネットワークモデルの改良方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2002/001147 WO2003081527A1 (en) | 2002-03-26 | 2002-03-26 | Improved performance of artificial neural network models in the presence of instrumental noise and measurement errors |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005521167A JP2005521167A (ja) | 2005-07-14 |
JP4157477B2 true JP4157477B2 (ja) | 2008-10-01 |
Family
ID=28053165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003579171A Expired - Fee Related JP4157477B2 (ja) | 2002-03-26 | 2002-03-26 | 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP1382012B1 (ja) |
JP (1) | JP4157477B2 (ja) |
KR (1) | KR100869516B1 (ja) |
CN (1) | CN100520817C (ja) |
AU (1) | AU2002247918A1 (ja) |
DE (1) | DE60217663T2 (ja) |
WO (1) | WO2003081527A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7840287B2 (en) * | 2006-04-13 | 2010-11-23 | Fisher-Rosemount Systems, Inc. | Robust process model identification in model based control techniques |
CN103324085B (zh) * | 2013-06-09 | 2016-03-02 | 中国科学院自动化研究所 | 基于监督式强化学习的最优控制方法 |
CN104347066B (zh) * | 2013-08-09 | 2019-11-12 | 上海掌门科技有限公司 | 基于深层神经网络的婴儿啼哭声识别方法及系统 |
WO2016025887A2 (en) * | 2014-08-14 | 2016-02-18 | University Of North Dakota | Flight parameter prediction using neural networks |
CN106019359A (zh) * | 2016-05-17 | 2016-10-12 | 浪潮集团有限公司 | 一种基于神经网络的地震预测系统 |
US10558204B2 (en) * | 2016-09-19 | 2020-02-11 | Palo Alto Research Center Incorporated | System and method for scalable real-time micro-object position control with the aid of a digital computer |
CN108108506B (zh) * | 2016-11-24 | 2021-05-14 | 南方电网科学研究院有限责任公司 | 一种多端直流工程主回路参数的优化方法 |
KR101877161B1 (ko) * | 2017-01-09 | 2018-07-10 | 포항공과대학교 산학협력단 | 문서 문맥정보를 고려하는 상황기반 추천 방법 및 장치 |
US10997492B2 (en) | 2017-01-20 | 2021-05-04 | Nvidia Corporation | Automated methods for conversions to a lower precision data format |
US10832135B2 (en) | 2017-02-10 | 2020-11-10 | Samsung Electronics Co., Ltd. | Automatic thresholds for neural network pruning and retraining |
CN107007279B (zh) * | 2017-03-17 | 2019-11-05 | 浙江大学 | 一种基于堆栈式自编码器的无创心内异常激动点定位方法 |
CN107389732B (zh) * | 2017-07-14 | 2019-08-27 | 中国计量大学 | 一种激光扫描热成像裂纹检测方法 |
CN108104807A (zh) * | 2017-12-16 | 2018-06-01 | 中国石油大学(华东) | 一种海洋油气资源勘探系统及其使用方法 |
CN110162807B (zh) * | 2018-02-12 | 2023-09-12 | 沈阳理工大学 | 基于改进蚁群优化bp神经网络弹药贮存可靠性评估方法 |
CN110222834B (zh) * | 2018-12-27 | 2023-12-19 | 杭州环形智能科技有限公司 | 一种基于噪声遮蔽的发散式人工智能记忆模型系统 |
SG10201900755WA (en) * | 2019-01-28 | 2020-08-28 | Wilmar International Ltd | Methods and system for processing lipid contents of at least one oil sample and simulating at least one training sample, and for predicting a blending formula, amongst others |
CN110006664A (zh) * | 2019-04-03 | 2019-07-12 | 上海好耐电子科技有限公司 | 基于神经网络的汽车制动噪声专家检测方法 |
CN110942144B (zh) * | 2019-12-05 | 2023-05-02 | 深圳牛图科技有限公司 | 集自动化训练、校验、重构于一体的神经网络构建方法 |
CN111062442B (zh) * | 2019-12-20 | 2022-04-12 | 支付宝(杭州)信息技术有限公司 | 解释业务处理模型的业务处理结果的方法和装置 |
CN111030180B (zh) * | 2019-12-26 | 2023-08-25 | 河南牧业经济学院 | 基于无线传感器网络的双馈风电机组风能集成控制方法 |
CN111160667B (zh) * | 2020-01-02 | 2023-05-30 | 北京工商大学 | 一种提高食品安全预测模型鲁棒性的方法及装置 |
KR102648937B1 (ko) * | 2020-09-14 | 2024-03-20 | 한국전력공사 | 전력망 상태예측 모델 성능 관리 장치 및 방법 |
US12020399B2 (en) | 2020-11-16 | 2024-06-25 | Xerox Corporation | System and method for multi-object micro-assembly control with the aid of a digital computer |
US11893327B2 (en) | 2020-12-14 | 2024-02-06 | Xerox Corporation | System and method for machine-learning enabled micro-assembly control with the aid of a digital computer |
US11921488B2 (en) | 2020-12-15 | 2024-03-05 | Xerox Corporation | System and method for machine-learning-enabled micro-object density distribution control with the aid of a digital computer |
CN113221436B (zh) * | 2021-03-13 | 2024-07-26 | 宁波大学科学技术学院 | 一种基于改进型rbf神经网络的污水悬浮物浓度软测量方法 |
CN113243915A (zh) * | 2021-05-10 | 2021-08-13 | 西北工业大学 | 一种基于音频注入的烦恼感抑制定量评价方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1992007325A1 (en) * | 1990-10-15 | 1992-04-30 | E.I. Du Pont De Nemours And Company | Apparatus and method for on-line prediction of unmeasurable process information |
JPH04262453A (ja) * | 1991-02-15 | 1992-09-17 | Hitachi Ltd | ニュ−ロ学習制御方法及び装置 |
US5412256A (en) | 1994-01-06 | 1995-05-02 | Bell Communications Research, Inc. | Neuron for use in self-learning neural network |
-
2002
- 2002-03-26 EP EP02716997A patent/EP1382012B1/en not_active Expired - Lifetime
- 2002-03-26 DE DE60217663T patent/DE60217663T2/de not_active Expired - Lifetime
- 2002-03-26 WO PCT/IB2002/001147 patent/WO2003081527A1/en active IP Right Grant
- 2002-03-26 AU AU2002247918A patent/AU2002247918A1/en not_active Abandoned
- 2002-03-26 KR KR1020037004321A patent/KR100869516B1/ko active IP Right Grant
- 2002-03-26 CN CNB028024966A patent/CN100520817C/zh not_active Expired - Fee Related
- 2002-03-26 JP JP2003579171A patent/JP4157477B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR20040099092A (ko) | 2004-11-26 |
DE60217663D1 (de) | 2007-03-08 |
KR100869516B1 (ko) | 2008-11-19 |
CN1571982A (zh) | 2005-01-26 |
EP1382012A1 (en) | 2004-01-21 |
AU2002247918A1 (en) | 2003-10-08 |
JP2005521167A (ja) | 2005-07-14 |
WO2003081527A1 (en) | 2003-10-02 |
CN100520817C (zh) | 2009-07-29 |
EP1382012B1 (en) | 2007-01-17 |
DE60217663T2 (de) | 2007-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4157477B2 (ja) | 機械的雑音及び測定誤差の存在下における人為的神経ネットワークモデルの性能の改良 | |
US7313550B2 (en) | Performance of artificial neural network models in the presence of instrumental noise and measurement errors | |
Jadav et al. | Optimizing weights of artificial neural networks using genetic algorithms | |
US20040044633A1 (en) | System and method for solving an optimization problem using a neural-network-based genetic algorithm technique | |
Ramchoun et al. | New modeling of multilayer perceptron architecture optimization with regularization: an application to pattern classification | |
Chua et al. | A hybrid Bayesian back‐propagation neural network approach to multivariate modelling | |
Masri et al. | Training neural networks by adaptive random search techniques | |
JP7359493B2 (ja) | ハイパーパラメータ調整装置、ハイパーパラメータ調整プログラムを記録した非一時的な記録媒体、及びハイパーパラメータ調整プログラム | |
Porto | Neural-evolutionary systems | |
Aljahdali et al. | Software reliability prediction using multi-objective genetic algorithm | |
Darus et al. | Parametric and non-parametric identification of a two dimensional flexible structure | |
Golmaryami et al. | A hybrid method based on neural networks and a meta-heuristic bat algorithm for stock price prediction | |
Abraham et al. | ALEC: an adaptive learning framework for optimizing artificial neural networks | |
Anastassiou et al. | A recurrent neural fuzzy network | |
De Falco et al. | Artificial neural networks optimization by means of evolutionary algorithms | |
Gowramma et al. | IVF Success Rates Prediction Using Hybrid ANN-GA based Machine Learning Model | |
Barschkis | Exact and soft boundary conditions in Physics-Informed Neural Networks for the Variable Coefficient Poisson equation | |
Rahaman et al. | Artificial neural network for solving the inventory control problem in fuzzy environments | |
Guenounou et al. | Optimization of fuzzy controllers by neural networks and hierarchical genetic algorithms | |
Golbabai et al. | Width optimization of Gaussian function by genetic algorithm in RBF networks | |
د. مريم محمد عبد الكريم اخويطر et al. | An artificial neural network approach for the prediction of the growth rate of ZnO thin films | |
Wen et al. | Variable selection based on random vector functional-link in soft sensor modeling | |
Neruda et al. | Variants of memetic and hybrid learning of perceptron networks | |
Setia et al. | Quantum Inspired Evolutionary Technique for Optimization of End Milling Process | |
Ahmad et al. | Simultaneous input selection and hidden Nodes Optimization for Sunspot time series prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080708 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080711 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4157477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130718 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130718 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140718 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |