JP2000516739A - ニューラルネットワークの訓練データを選択するためのコンピュータ支援された方法 - Google Patents

ニューラルネットワークの訓練データを選択するためのコンピュータ支援された方法

Info

Publication number
JP2000516739A
JP2000516739A JP10509280A JP50928098A JP2000516739A JP 2000516739 A JP2000516739 A JP 2000516739A JP 10509280 A JP10509280 A JP 10509280A JP 50928098 A JP50928098 A JP 50928098A JP 2000516739 A JP2000516739 A JP 2000516739A
Authority
JP
Japan
Prior art keywords
training data
tdv
vector
neural network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10509280A
Other languages
English (en)
Inventor
デコ グスタヴォ
オブラドヴィク ドラーガン
シュルマン ベルント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2000516739A publication Critical patent/JP2000516739A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T74/00Machine element or mechanism
    • Y10T74/20Control lever and linkage systems
    • Y10T74/20012Multiple controlled elements
    • Y10T74/20018Transmission control
    • Y10T74/2003Electrical actuator
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T74/00Machine element or mechanism
    • Y10T74/20Control lever and linkage systems
    • Y10T74/20012Multiple controlled elements
    • Y10T74/20018Transmission control
    • Y10T74/2014Manually operated selector [e.g., remotely controlled device, lever, push button, rotary dial, etc.]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Arrangement Or Mounting Of Control Devices For Change-Speed Gearing (AREA)
  • Mechanical Control Devices (AREA)
  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 訓練データベクトルに対してこの訓練データベクトルの情報量を算出する(202)方法を提案する。この情報量は以前考慮された訓練データベクトルを基準にして決定される。訓練データベクトルの情報量が所定の第1の閾値よりも大きい場合(203)、この訓練データベクトルはニューラルネットワークの訓練のために使用される(204)。しかし、訓練データベクトルの情報量が所定の第1の閾値よりも大きくない場合、この訓練データベクトルはニューラルネットワークの訓練の枠内では考慮されない(205)。

Description

【発明の詳細な説明】 ニューラルネットワークの訓練データを選択するためのコンピュータ支援された 方法 例えばニューラルネットワークを使用するプロセス工学的プロセスのデータ駆 動型パラメトリックモデリングの場合、このプロセス工学的プロセスに対する測 定データが継続的に測定される。いわゆるニューラルネットワークのオンライン 学習においては、もとめられた測定データは適応のための訓練データとして、つ まりこのニューラルネットワークの重みの適応のための訓練データとして使用さ れる。従って、プロセス工学的プロセスの全測定データは訓練データとして使用 される。このためオンライン学習の実施のためには計算能力への極めて高い要求 が出される。というのも、各々新しい訓練データ毎に重みの適応が実施されなけ ればならないからである。 さらに、大きく重複する訓練データへのニューラルネットワークの重みの適応 の際には、これらの訓練データに所属する状態空間領域における絶え間ない適応 が行われる。このことはこの領域におけるニューラルネットワークの過適応をも たらす。しかし、このことは、まったく訓練データが測定されないか乃至は著し く少ない訓練データしか測定されない他の領域にとっ ては不利となる。これら著しく少ない訓練データは、従って適応の際に及び近似 すべき関数の近似の際にも「忘れ去られて」しまう。 文献[1]からニューラルネットワークに関する基礎が周知である。 さらに文献[2]から、以前考慮された訓練データベクトルを基準にして、訓 練データベクトルに対してこの訓練データベクトルの情報量を算出することが周 知である。 [3]から、部分的に少数の訓練データベクトルによってのみ表される状態を 分類するためのニューラルネットワークの訓練データベクトルの人工的な生成の 方法が周知である。この方法では、訓練データベクトルが生成され、これら訓練 データベクトルに対してそれぞれ1つの訓練データベクトルの正確な分類に関す る信頼性がもとめられる。この信頼性が十分に高い場合、この訓練データベクト ルは訓練に使用される。この方法によってはニューラルネットワークによるとり わけシステムの実行時間中の非線形システム特性の近似は不可能である。 [4]にはニューラルネットワークの訓練のための方法が記述されている。こ の方法では、潜在的訓練データベクトルに対して所与の所属の目標値によって、 この潜在的訓練データベクトルに対するニューラルネットワークの出力値の偏差 がこの目標値から明らかに 偏差しているかどうか、が検査される。この偏差が十分に小さければ、この潜在 的訓練データベクトルは訓練に使用される。この方法では予め設定される目標値 が必要であり、この目標値はしばしば動的なシステムでは既知ではない。従って 、この方法は例えばいわゆるオンライン学習では使用できない。 訓練可能なニューラルネットワークを実現するための装置は[5]に記述され ている。 本発明の課題はニューラルネットワークのための訓練データを選択することで ある。 上記課題は請求項1記載の方法及び請求項2記載の方法によって解決される。 請求項1記載の方法では、少なくとも1つの読み込まれる新しい訓練データベ クトルに対してこの訓練データベクトルの情報量が決定される。この訓練データ ベクトルの情報量は訓練フェーズにおいて以前考慮された訓練データベクトルに 関連付けられている。訓練データベクトルの情報量が十分に大きい場合にのみ、 すなわち所定の閾値よりも大きい場合にのみ、検査された訓練データベクトルが ニューラルネットワークの訓練に使用される。 請求項2記載の方法では、複数の訓練データベクトルが読み込まれ、これら複 数の訓練データベクトルは複数のクラスタにグループ分けされる。これらクラス タの少なくとも一部分に対してこのクラスタの情報量 が決定される。このクラスタの情報量はここでも以前訓練フェーズにおいて考慮 された訓練データベクトルに関連付けられる。この方法では各クラスタの情報量 が所定の第2の閾値よりも大きい場合にのみ、各クラスタの訓練データベクトル がニューラルネットワークの訓練に使用される。 これらの方法によって、計算能力への要求の大幅な低減が実現される。という のも、ニューラルネットワークのこの訓練ではもはや単に全ての訓練データが考 慮されるのではなく、既に訓練された訓練データを基準にして新しい内容を有す る訓練データが選択されるからである。 さらに本発明の方法の利点は、ニューラルネットワークによって実現される写 像関数は、大幅に低減された訓練のための計算所要時間及び考慮される訓練デー タの大幅に低減された量にもかかわらず、元々モデリングすべきプロセスへの、 つまり元々近似すべき関数へのきわめて改善された適応を実現するという点であ る。 このことは次のことに起因する。すなわち、所定の領域においてすでに十分な 個数の訓練データがこのニューラルネットワークの適応のために考慮された場合 には、近似すべき関数の過適応がこの所定の領域では実施されないことに起因す る。 本発明の方法によってさらに処理すべき冗長情報の 低減が達成される。 本発明の有利な実施形態は従属請求項から得られる。 図面に本発明の実施例を示し、この実施例をよりくわしく説明する。 図1a〜1cは、近似すべき関数、ニューラルネットワークによって形成され る写像関数ならびに多数の訓練データベクトルを表す図であり、これら図面によ って本発明の方法の原理が示されている。 図2は、請求項1記載の本発明の方法の個々の方法ステップを示すフローチャ ートである。 図3は、請求項2記載の本発明の方法の個々の方法ステップを示すフローチャ ートである。 図4は、本発明の方法が実施される、測定機器を有する計算装置の概略図であ る。 図5は、請求項1記載の方法による数値例の結果を示す線図である。 図1aには写像関数f()が図示されている。この写像関数f()はニュ ーラルネットワークNNによって実現される。さらに図1aにはニューラルネッ トワークNNによって近似される関数RFが図示されている。このニューラルネ ットワークNNに印加される入力ベクトルに対して写像関数f()により出 力ベクトルが形成される。この写像関数f()は訓練フェーズにおいて所定 の個数の訓練データベクト ルTDVAによって形成される。これら訓練データベクトルTDVAは訓練方法 、例えば最急降下法、例えば逆伝播法で適応化される。 図1bには、このニューラルネットワークNNの訓練のためにさらに別の新た に加わる訓練データベクトルTDVを使用した際によく見られる問題を有する状 況を示している。通常、新たに加えられる各訓練データベクトルTDV毎に再び 訓練方法が実施される。すなわち、各訓練データベクトルTDVは写像関数f( )の適応のために、つまりこのニューラルネットワークNNの重みベクトル の重みw i の適応において考慮される。 不都合なケースがこの簡単な実施例において図1bに示されている。この図1 bでは、近似すべき関数RFが非常に規則的な経過、つまりほぼリニアな経過を 有する第1の領域B1において非常に多数の訓練データベクトルTDVが測定さ れる。公知の方法の場合、訓練データベクトルTDVは通常は全てニューラルネ ットワークNNの訓練において考慮される。かなりの不規則性を有する第2の領 域B2においてこの実施例では少数の訓練データベクトルTDVのみが測定され る。よって、この領域では少数の訓練データベクトルTDVのみがニューラルネ ットワークNNの重みwiの適応のためのこのニューラルネットワークNNの訓 練において考慮される。 このことによって、公知の方法では第1の領域B1で不必要な程に多数の訓練 データベクトルTDVがニューラルネットワークNNの訓練において考慮される ことになる。このことによって、すでに説明したように、この方法をコンピュー タにより実施するために本来は不必要な計算を要求しなくてはならなくなる。 図1bには、公知の学習方法を使用した場合に写像関数f()は第2の領域 B2において滑らかな経過を有することが示されている。従って、近似すべき関 数RFの近似は大きく失敗している。これは次のことに起因する。すなわち、こ の訓練において第1の領域B1では多数の訓練データベクトルTDVが考慮され ているが、しかし第2の領域B2においては比較的少数の訓練データベクトルT DVのみが考慮されていることに起因する。 図1cには本発明の方法の利点が示されている。本発明の方法によれば、すで に説明したように、各訓練データベクトルTDV毎にこれら各訓練データベクト ルTDVの情報量N(P)が算出され、さらに訓練データベクトルTDVに依存 してこの訓練データベクトルTDVがニューラルネットワークNNの訓練におい て考慮されるか否かが決まる。 このことによりこの簡単な原理的な実施例では訓練データベクトルTDVは第 1の領域B1では考慮されず、これに対して訓練データベクトルTDVは第2の 領域B2において考慮されることになる。この本発明の方法によって、一方で比 較的少数の訓練データベクトルTDVを訓練において考慮しさえすればよいこと になり、他方で結果的に得られる写像関数f()はこれまでの公知の方法によ る場合よりもきわめて良好に近似すべき関数RFを全領域において近似できるこ とになる。 図2ではフローチャートの形式で請求項1記載の本発明の方法が個々の方法ス テップによって示されている。 第1のステップ201では少なくとも1つの訓練データベクトルTDVが本発 明の方法を実施するコンピュータRによって読み込まれる。この訓練データベク トルTDVは例えば測定機器MG又はセンサSEにより検出される任意のプロセ ス工学的プロセスの測定値でよい。しかし、この訓練データベクトルTDVは例 えば記録された音声信号又は音声信号の部分を表していてもよい。訓練データベ クトルTDVの形式及びこの訓練データベクトルTDVを検出する方式は一般に 完全に適用事例固有のものである。 第2のステップ202において、この少なくとも1つの訓練データベクトルT DVに対してこの訓練データベクトルTDVの情報量N(P)を決定する。これ は例えば文献[2]に示されている方法に従って行われる。この場合、例えばこ の訓練データベクトルTD Vの情報量N(P)は次式によって得られる: ただしこの式において、 はニューラルネットワークNNの重みベクトルを示し、この重みベクトルは 要素としてこのニューラルネットワークNNの重み iを有し、 (P)は訓練データセットを示し、この訓練データセットは既に以前考慮され た訓練データベクトルTDVを含み、 (P+1)は拡大された訓練データセットを示し、この拡大された訓練データセ ットは以前考慮された訓練データベクトルTDV及びこの訓練データベクトルT DVを含み、 p(.|.)はぞれぞれ条件付き確率を示す。 情報量N(P)の形成のためのこの式は、この算出の実施を簡略化するために 近似的にこの情報量N(P)を形成するための次式に単純化できる: これらの式において、はそれぞれニューラルネットワークNNの入力ベクトルを示し、 piはそれぞれニューラルネットワークNNの重みベクトルを示し、 fi(.)はニューラルネットワークNNの出力ベクトルの要素yiに対して このニューラルネットワークNNにより実現される写像関数を示し、 nは任意の自然数を示し、 MはニューラルネットワークNNの各出力ベクトルの次元を示し、 iはニューラルネットワークNNの出力ベクトルの要素yiを一意的に識別 するための第1のインデックスを示し、 qは考慮された各訓練データベクトルTDVを一意的に識別するための第2の インデックスを示し、 Sは以前考慮された訓練データベクトルTDVの個数を示す。 情報量N(P)を算出するための上記の式はKullba ck-Leiblerエントロピーの仮定に基づいている。情報量の決定のために他のエン トロピーの定義を使用すれば、当然、相応に適した式が本発明の方法において情 報量N(P)の算出のために使用される。 さらに文献[2]において示されているように、近似すべき関数RFが多項式 によって与えられている特殊なケースに対するこのような式は上記の式に変形さ れる形式において周知である。 訓練データベクトルTDVの情報量N(P)の算出の際に、以前考慮された訓 練データベクトルTDVAが考慮される。これは模範的な上記の式からすぐに見 て取れる。 次いで第3のステップ203ではこの訓練データベクトルTDVの情報量N( P)が予め自由に設定可能な第1の閾値S1よりも大きいかどうかが検査される 。 この情報量N(P)がこの第1の閾値S1よりも大きい場合、この訓練データ ベクトルTDVはニューラルネットワークNNの訓練に使用される204。すな わち、重みwiの適応において考慮される。 しかし、この訓練データベクトルTDVの情報量N(P)がこの第1の閾値S 1よりも大きくない場合、この訓練データベクトルTDVはニューラルネットワ ークNNの訓練の枠内では考慮されない205。 図3には請求項2記載の本発明の方法がその方法ス テップによって図示されている。 第1のステップでは複数の訓練データベクトルTDVが読み込まれる301。 これら訓練データベクトルTDVは次のステップ302で複数のいわゆるクラ スタにグループ分けされる。1つのクラスタは訓練データベクトルの1つのグル ープとして理解される。ベクトルのグループ形成、つまりベクトルのクラスタリ ングのために様々な方法が公知であり、例えばいわゆるK平均クラスタリング法 又はいわゆるNearest Neighborクラスタリング法がある。 第3のステップ303では、クラスタの少なくとも一部分に対して各クラスタ の情報量N(P)を決定する。この決定は任意のやり方で、例えば情報量N(P )を形成するための上記の式によって行われる。 この場合、本発明の変形実施形態では、有利には各クラスタ毎に例えば各クラ スタの訓練データベクトルTDVから少なくとも1つの代表ベクトルを任意に選 択し、さらにこの代表ベクトルの情報量N(P)を算出し、それぞれ全クラスタ の代表ベクトルの情報量N(P)を使用する。 さらに、本発明の変形実施形態では、有利にはクラスタの少なくとも一部分に 対してクラスタ中心ベクトルをもとめる。このクラスタ中心ベクトルは例えば各 クラスタの中心点によって形成される。クラスタの情 報量N(P)はこの変形実施形態ではこのクラスタ中心ベクトルに対して算出さ れ、各クラスタの情報量N(P)として使用される。 この場合も情報量N(P)は以前訓練フェーズにおいて考慮された訓練データ ベクトルTDVAを考慮して決定される。 次のステップ304では各クラスタの情報量N(P)が予め自由に設定可能な 第2の閾値S2よりも大きいかどうかが検査される。 イエスの場合、各クラスタの少なくとも1つの訓練データベクトルTDVがニ ューラルネットワークNNの訓練の枠内で使用される305。 しかし、ノーの場合には各クラスタの訓練データベクトルTDVはニューラル ネットワークNNの訓練において考慮されない306。 図4には本発明の方法を実施するコンピュータ装置の例が示されている。 訓練データベクトルTDVは例えばセンサSE又は測定機器MGを介して任意 の形式のプロセス工学的プロセスから測定される。訓練データベクトルTDVは コンピュータRに供給され、このコンピュータRによって本発明の方法が実施さ れる。さらに、このコンピュータ装置には例えばキーボードTA、マウスMA又 はディスプレイBSが設けられている。 図5には本発明の方法の簡単な数値例が示されてい る。この数値例は本発明の方法を簡単に垣間見せるだけのものであるが、しかし 、決して本発明の方法の一般的妥当性を限定するものではない。というのも、近 似すべき関数RFの形式も、訓練データベクトルTDVの個数も、これら訓練デ ータベクトルTDVの特性もなんらかの限定を受けるものではないからである。 この簡単な数値例では近似すべき関数RFは次式で与えられている: RF=−1−3x+18x2 +4x3−48x4+32x6+ν この例では記号νによって値0.05の分散を有するガウス雑音を表している 。この数値例の枠内で使用されたニューラルネットワークNNのアーキテクチャ は1個の入力ニューロン、10個の隠れニューロン及び1個の出力ニューロンを 有する。訓練データベクトルTDVは、−0.9<x<0.3の領域及び0.3< x<0.9の領域で測定された。 情報量N(P)は、全入力ベクトル及び全出力ベクトルに対する情報量N (P)の経過全体として図5では関数Nとして示されている。この数値例の枠内 で考慮された入力ベクトルの領域は、−1<X<1の領域内に存在する。 第1の閾値S1の値は例えば値0.15である。こ れは図5にも示されている。 このことは次のことを意味している。すなわち、この数値例では0.15より も大きい情報量N(P)を有する全ての訓練データベクトルTDVがニューラル ネットワークNNの訓練のために考慮された、ということを意味している。 しかし、一般的には第1の閾値S1も第2の閾値S2も完全に自由に選択可能 であり、適用事例固有の要求に依存する。 この明細書の枠内では以下の刊行物を引用した。 [1]G.Deco und D.Obradovic,An Information-Theoretic Approach to Neura l Computing,Springer Verlag,B,1.Auflage,ISBN 0-387-94666-7,p.23-37 ,1995 [2]G.Deco undD.Obradovic,An Information-Theoretic Approach to Neural Computing,Springer Verlag,B,1.Auflage,ISBN 0-387-94666-7,p.187-217 ,1995 [3]米国特許5359699号明細書 [4]米国特許5355434号明細書 [5]米国特許5283838号明細書
【手続補正書】特許法第184条の8第1項 【提出日】平成10年8月20日(1998.8.20) 【補正内容】 偏差しているかどうか、が検査される。この偏差が十分に小さければ、この潜在 的訓練データベクトルは訓練に使用される。この方法では予め設定される目標値 が必要であり、この目標値はしばしば動的システムでは既知ではない。従って、 この方法はとりわけいわゆるオンライン学習では使用できない。 [9]には、ニューラルネットワークの訓練のための方法が記述されており、 この方法では訓練の際にニューラルネットワークのニューロン重みの有意味な変 化をもたらす訓練データを多数の訓練データの中からこのニューラルネットワー クの訓練のために選択する。 [7]にはニューラルネットワークの訓練データのクラスタリングのための方 法が記述されている。 [10]には訓練データセットの拡大が実施される、ニューラルネットワーク の訓練データの算出のための方法が記述されている。 訓練可能なニューラルネットワークを実現するための装置は[5]に記述され ている。 本発明の課題はニューラルネットワークのための訓練データを選択することで ある。 上記課題は請求項1記載の方法及び請求項2記載の方法によって解決される。 請求項1記載の方法では、少なくとも1つの読み込まれる新しい訓練データベ クトルに対してこの訓練デ ータベクトルの情報量が決定される。この訓練データベクトルの情報量は以前訓 練フェーズにおいて考慮された訓練データベクトルに関連付けられている。訓練 データベクトルの情報量が十分に大きい場合にのみ、すなわち所定の閾値よりも 大きい場合にのみ、検査された訓練データベクトルが実際にニューラルネットワ ークの訓練に使用される。 請求項2記載の方法では、複数の訓練データベクトルが読み込まれ、これら複 数の訓練データベクトルは複数のクラスタにグループ分けされる。これらクラス タの少なくとも一部分に対してこのクラスタの情報量 れは図5にも示されている。 このことは次のことを意味している。すなわち、この数値例では0.15より も大きい情報量N(P)を有する全ての訓練データベクトルTDVがニューラル ネットワークNNの訓練のために考慮された、ということを意味している。 しかし、一般的には第1の閾値S1も第2の閾値S2も完全に自由に選択可能 であり、適用事例固有の要求に依存する。 この明細書の枠内では以下の刊行物を引用した。 [1]G.Deco und D.Obradovic,An Information-Theoretic Approach to Neura l Computing,Springer Verlag,B,1.Auflage,ISBN 0-387-94666-7,p.23-37 ,1995 [2] G.Deco und D.Obradovic,An Information-Theoretic Approach to Neu ral Computing,Springer Verlag,B,1.Auflage,ISBN 0-387-94666-7,p.187- 217,1995 [3]米国特許5359699号明細書 [4]米国特許5355434号明細書 [5]米国特許5283838号明細書 [6]Byoung-Tak Zhang,et al.,Focused incrimental learning for improved generalization with reduced training sets,Artifical neural networks,P roceedings of the 1991 international conference ICANN-91,ESPOO,Finland,24.-28.June 1991,ISBN 0-444-89178-1,1991,Am sterdam,Netherlands [7]Wann,M.,et al.,The influence of training sets on generalization in feed-forward neural networks,International Joint conference on neura l networks(IJCNN),San Diego,17.-21.June 1990,Bd.Vol.3,17.June 1990 ,Institute of electrical and electronics engineers [8]ヨーロッパ特許0528399号公開公報 [9]Hunt,S.D.,et al.,Training of feedforward artifical neural network s using selective updating,Proceedings of the midwest symposium on circ uits and systems,Detroit,16.-18.August 1993,Bd.Vol.2,No.Symp.36.,1 6.August 1993,Institute of electrical and electronics engineers [10]Cheung,R.K.M.,et al.,Relative effectiveness of training set pat terns for back propagation,International Joint coference on neural netw orks(IJCNN),San Diego,17.-21.June 1990,Bd.Vol.1,17.June 1990,Insti tute of electrical and electronics engineers 【手続補正書】特許法第184条の8第1項 【提出日】平成10年11月13日(1998.11.13) 【補正内容】 明細書 ニューラルネットワークの訓練データを選択するためのコンピュータ支援された 方法 例えばニューラルネットワークを使用するプロセス工学的プロセスのデータ駆 動型パラメトリックモデリングの場合、このプロセス工学的プロセスに対する測 定データが継続的に測定される。いわゆるニューラルネットワークのオンライン 学習においては、もとめられた測定データは適応のための訓練データとして、つ まりこのニューラルネットワークの重みの適応のための訓練データとして使用さ れる。従って、プロセス工学的プロセスの全測定データは訓練データとして使用 される。このためオンライン学習の実施のためには計算能力への極めて高い要求 が出される。というのも、新しい各訓練データ毎に重みの適応が実施されなけれ ばならないからである。 さらに、著しく重複する複数の訓練データに対するニューラルネットワークの 重みの適応の際には、これらの訓練データに所属する状態空間領域における絶え 間ない適応が行われる。これによりこれらの領域におけるニューラルネットワー クの過適応が起こる。しかし、このことは、まったく訓練データが測定されない か乃至は著しく少ない訓練データしか測定されない他 の領域にとっては不利となる。従って、これら他の領域は、適応の際に、すなわ ち近似すべき関数を近似する際に「忘れ去られて」しまう。 文献[1]からニューラルネットワークに関する基礎が周知である。 さらに文献[2]から、以前考慮された訓練データベクトルを基準にして、訓 練データベクトルに対してこの訓練データベクトルの情報量を算出することが周 知である。さらに[2]にはオンライン学習の枠内で訓練データのアクテイブな 選択を行えることが記述されている。 [3]から、部分的に少数の訓練データベクトルによってのみ表される状態を 分類するためのニューラルネットワークの訓練データベクトルの人工的な生成の 方法が周知である。この方法では、訓練データベクトルが生成され、これら訓練 データベクトルに対してそれぞれの訓練データベクトルの適正な分類に関する信 頼度がもとめられる。この信頼度が十分に高い場合、この訓練データベクトルは 訓練に使用される。この方法によってはニューラルネットワークによるシステム のとりわけ実行時間中の非線形システム特性の近似は不可能である。 [4]及び[8]にはニューラルネットワークの訓練のための方法が記述され ている。この方法では、潜在的訓練データベクトルに対して所与の所属の目標値 によって、この潜在的訓練データベクトルに対するニューラルネットワークの出 力値の偏差がこの目標値からあからさまに偏差しているかどうかが検査される。 この偏差が十分に小さければ、この潜在的訓練データベクトルは訓練に使用され る。この方法では予め設定される目標値が必要であり、この目標値はしばしば動 的システムでは既知ではない。従って、この方法はとりわけいわゆるオンライン 学習では使用できない。 [6]にはニューラルネットワークの訓練のための別の方法が記述されている 。反復的方法の枠内で、各反復ステップにおいてニューラルネットワークの訓練 を実施し、この際、瞬時の反復ステップの訓練に対して、このニューラルネット ワークの訓練のために使用可能な多数の訓練データから訓練データペアを選択す る。 [9]には、ニューラルネットワークの訓練のための方法が記述されており、 この方法では訓練の際にニューラルネットワークのニューロン重みの有意味な変 化をもたらす訓練データを多数の訓練データの中からこのニューラルネットワー クの訓練のために選択する。 [7]にはニューラルネットワークの訓練データのクラスタリングのための方 法が記述されている。 [10]には訓練データセットの拡大が実施される、ニューラルネットワーク の訓練データの算出のため の方法が記述されている。 訓練可能なニューラルネットワークを実現するための装置は[5]に記述され ている。 本発明の課題はニューラルネットワークのための訓練データを選択することで ある。 上記課題は請求項1記載の方法及び請求項2記載の方法によって解決される。 請求項1記載の方法では、少なくとも1つの読み込まれる新しい訓練データベ クトルに対してこの訓練データベクトルの情報量が決定される。この訓練データ ベクトルの情報量は以前訓練フェーズにおいて考慮された訓練データベクトルに 関連付けられている。訓練データベクトルの情報量が十分に大きい場合にのみ、 すなわち所定の閾値よりも大きい場合にのみ、検査された訓練データベクトルが 実際にニューラルネットワークの訓練に使用される。 請求項2記載の方法では、複数の訓練データベクトルが読み込まれ、これら複 数の訓練データベクトルは複数のクラスタにグループ分けされる。これらクラス タの少なくとも一部分に対してこのクラスタの情報量 低減が達成される。 本発明の有利な実施形態は従属請求項から得られる。 図面に本発明の実施例を示し、この実施例をよりくわしく説明する。 図1a〜1cは、近似すべき関数、ニューラルネットワークによって形成され る写像関数ならびに多数の訓練データベクトルを表す図であり、これら図面によ って本発明の方法の原理が示されている。 図2は、請求項1記載の本発明の方法の個々の方法ステップを示すフローチャ ートである。 図3は、請求項2記載の本発明の方法の個々の方法ステップを示すフローチャ ートである。 図4は、本発明の方法が実施される、測定機器を有するコンピュータ装置の概 略図である。 図5は、請求項1記載の方法による数値例の結果を示す線図である。 図1aには写像関数f()が図示されている。この写像関数f()はニュ ーラルネットワークNNによって実現される。さらに図1aにはニューラルネッ トワークNNによって近似される関数RFが図示されている。このニューラルネ ットワークNNに印加される入力ベクトルに対して写像関数f()により出 力ベクトルが形成される。この写像関数f()は訓練フェーズにおいて所定 の個数の訓練データベクト ルTDVAによって形成される。これら訓練データベクトルTDVAは訓練方法 、例えば勾配降下法、例えばバックプロパゲーション法で適応される。 図1bにはこのニューラルネットワークNNの訓練のためにさらに別の新たな 訓練データベクトルTDVを使用した場合によく見られる問題をはらんだ状況を 示している。通常、再び新たな各訓練データベクトルTDV毎に訓練方法が実施 される。すなわち、各訓練データベクトルTDVは写像関数f()の適応のた めに、つまりこのニューラルネットワークNNの重みベクトルの重みwiの適 応において考慮される。 不利なケースがこの簡単な実施例において図1bに示されている。この図1b では、近似すべき関数RFが非常に規則的に、つまりほぼリニアな経過を有する 第1の領域B1において非常に多数の訓練データベクトルTDVが測定される。 公知の方法の場合、訓練データベクトルTDVは通常は全てニューラルネットワ ークNNの訓練の際に考慮される。かなり不規則性を有する第2の領域B2では この実施例の場合ほんの僅かな訓練データベクトルTDVのみが測定され、よっ てこの領域ではほんの僅かな訓練データベクトルTDVのみがニューラルネット ワークNNの重みベクトルの重みwiの適応のためのこのニューラルネットワ ークNNの訓練の際に考慮される。 このことは公知の方法では次のことを引き起こす。 すなわち、第1の領域B1では不必要な程に多数の訓練データベクトルTDVが ニューラルネットワークNNの訓練において考慮される、ということを引き起こ す。このことは、すでに説明したように、この方法をコンピュータによって実施 するために本来は不必要な多大な計算を要求することになる。 図1bには、公知の訓練方法を使用した場合に写像関数f()は第2の領域 B2において滑らかな経過を有することが示されている。従って、近似すべき関 数RFの近似はまったく失敗している。これは次のことに起因する。すなわち、 第1の領域B1では多数の訓練データベクトルTDVが考慮されているが、しか し第2の領域B2においては比較的少数の訓練データベクトルTDVのみが考慮 されていることに起因する。 図1cには本発明の方法の利点が示されている。本発明の方法によれば、すで に説明したように、各訓練データベクトルTDVに対してこれら各訓練データベ クトルTDVの情報量N(P)が算出され、訓練データベクトルTDVに依存し てこの訓練データベクトルTDVがニューラルネットワークNNの訓練において 考慮されるか否かが決まる。 このことによりこの簡単な原理的な実施例では訓練データベクトルTDVは第 1の領域B1では考慮されず、これに対して訓練データベクトルTDVは第2の 請求の範囲 1. ニューラルネットワーク(NN)の訓練データを選択するためのコンピ ュータ支援された方法であって、 少なくとも1つの訓練データベクトル(TDV)を読み込み(201)、 前記訓練データ、ベクトル(TDV)に対して該訓練データベクトル(TDV )の情報量N(P)を決定し(202)、 前記訓練データベクトル(TDV)に対する前記情報量N(P)の決定を、以 前訓練フェーズで考慮された訓練データベクトル(TDV)を使用して行う、ニ ューラルネットワーク(NN)の訓練データを選択するためのコンピュータ支援 された方法において、 前記訓練データベクトル(TDV)の情報量N(P)が予め設定可能な第1の 閾値(S1)よりも大きい場合には(203)、前記訓練データベクトル(TD V)を前記ニューラルネットワーク(NN)の訓練のために使用し(204)、 前記訓練データベクトル(TDV)の情報量N(P)が予め設定可能な第1の 閾値(S1)よりも大きくない場合には(203)、前記訓練データベクトル( TDV)を前記ニューラルネットワーク(NN)の訓練のために使用しない(2 05)ことを特徴とする、 ニューラルネットワーク(NN)の訓練データを選択するためのコンピュータ支 援された方法。 2. ニューラルネットワーク(NN)の訓練データを選択するためのコンピ ュータ支援された方法において、 複数の訓練データベクトル(TDV)を読み込み(301)、 前記訓練データベクトル(TDV)を複数のクラスタにグループ分けし(30 2)、 前記クラスタの少なくとも一部分に対して前記クラスタの情報量N(P)を決 定し(303)、 各クラスタの情報量N(P)の決定を、以前訓練フェーズで考慮された訓練デ ータベクトル(TDV)を使用して行い、 各クラスタの情報量N(P)が予め設定可能な第2の閾値(S2)よりも大き い場合には(304)、各クラスタの少なくとも1つの訓練データベクトル(T DV)を前記ニューラルネットワーク(NN)の訓練のために使用し(305) 、 各クラスタの情報量N(P)が予め設定可能な第2の閾値(S2)よりも大き くない場合には(304)、各クラスタの訓練データベクトル(TDV)を前記 ニューラルネットワーク(NN)の訓練のために使用しない(306)、ニュー ラルネットワーク(NN)の訓練データを選択するためのコンピュータ支援され た方法。

Claims (1)

  1. 【特許請求の範囲】 1. ニューラルネットワーク(NN)の訓練データを選択するためのコンピ ュータ支援された方法において、 少なくとも1つの訓練データベクトル(TDV)を読み込み(201)、 前記訓練データベクトル(TDV)に対して該訓練データベクトル(TDV) の情報量N(P)を決定し(202)、 前記訓練データベクトル(TDV)に対する前記情報量N(P)の決定を、以 前訓練フェーズで考慮された訓練データベクトル(TDV)を基準にして行い、 前記訓練データベクトル(TDV)の情報量N(P)が予め設定可能な第1の 閾値(S1)よりも大きい場合には(203)、前記訓練データベクトル(TD V)を前記ニューラルネットワーク(NN)の訓練のために使用し(204)、 前記訓練データベクトル(TDV)の情報量N(P)が予め設定可能な第1の 閾値(S1)よりも大きくない場合には(203)、前記訓練データベクトル( TDV)を前記ニューラルネットワーク(NN)の訓練のために使用しない(2 05)、ニューラルネットワーク(NN)の訓練データを選択するためのコンピ ュータ支援された方法。 2. ニューラルネットワーク(NN)の訓練データを選択するためのコンピ ュータ支援された方法において、 複数の訓練データベクトル(TDV)を読み込み(301)、 前記複数の訓練データベクトル(TDV)を複数のクラスタにグループ分けし (302)、 前記クラスタの少なくとも一部分に対して該クラスタの情報量N(P)を決定 し(303)、 各クラスタの情報量N(P)の決定を、以前訓練フェーズで考慮された訓練デ ータベクトル(TDV)を基準にして行い、 各クラスタの情報量N(P)が予め設定可能な第2の閾値(S2)よりも大き い場合には(304)、各クラスタの少なくとも1つの訓練データベクトル(T DV)を前記ニューラルネットワーク(NN)の訓練のために使用し(305) 、 各クラスタの情報量N(P)が予め設定可能な第2の閾値(S2)よりも大き くない場合には(304)、各クラスタの訓練データベクトル(TDV)を前記 ニューラルネットワーク(NN)の訓練のために使用しない(306)、ニュー ラルネットワーク(NN)の訓練データを選択するためのコンピュータ支援され た方法。 3. 各クラスタ毎にクラスタ中心ベクトルをもと め、 該クラスタ中心ベクトルの情報量N(P)をもとめる、請求項2記載の方法。 4. 訓練データベクトル(TDV)の情報量N(P)乃至はクラスタの情報 量N(P)を次式 によって算出し、この式において、 はニューラルネットワーク(NN)の重みベクトルを示し、該重みベクトル は要素として前記ニューラルネットワーク(NN)の重み iを有し、 (P)は訓練データセットを示し、該訓練データセットは以前考慮された訓 練データベクトル(TDV)を含み、 (P+1)は拡大された訓練データセットを示し、該拡大された訓練データ セットは前記以前考慮された訓練データベクトル(TDV)及び前記訓練データ べクトル(TDV)を含み、 p(.|.)はそれぞれ条件付き確率を示す、請求項1〜3までのうちの1項記 載の方法。 5. 訓練データベクトル(TDV)の情報量N(P)乃至はクラスタの情報 量N(P)を次式によって算出し、この式において、 はそれぞれニューラルネットワーク(NN)の入力ベクトルを示し、 piはそれぞれ前記ニューラルネットワーク(NN)の重みベクトルを示し、 fi(.)は前記ニューラルネットワーク(NN)の出力ベクトルの要素yi に対して前記ニューラルネットワーク(NN)により実現される写像関数を示し 、 nは任意の自然数を示し、 Mは前記ニューラルネットワーク(NN)の各出力ベクトルの次元を示し、 iは前記ニューラルネットワーク(NN)の出力ベクトルの要素yiを一意 的に識別するための第1のィンデックスを示し、 qは考慮された各訓練データベクトル(TDV)を一意的に識別するための第 2のインデックスを示し、 Sは以前考慮された訓練データベクトル(TDV)の個数を示す、請求項1〜 3までのうちの1項記載の方法。
JP10509280A 1996-08-09 1997-07-24 ニューラルネットワークの訓練データを選択するためのコンピュータ支援された方法 Pending JP2000516739A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19632245 1996-08-09
DE19632245.6 1996-08-09
PCT/DE1997/001567 WO1998007100A1 (de) 1996-08-09 1997-07-24 Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz

Publications (1)

Publication Number Publication Date
JP2000516739A true JP2000516739A (ja) 2000-12-12

Family

ID=7802277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10509280A Pending JP2000516739A (ja) 1996-08-09 1997-07-24 ニューラルネットワークの訓練データを選択するためのコンピュータ支援された方法

Country Status (5)

Country Link
US (1) US5887694A (ja)
EP (1) EP0978052B1 (ja)
JP (1) JP2000516739A (ja)
DE (1) DE59705226D1 (ja)
WO (1) WO1998007100A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343124A (ja) * 2005-06-07 2006-12-21 Keio Gijuku 複数の化学物質の測定方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4163293B2 (ja) * 1998-07-15 2008-10-08 本田技研工業株式会社 車両用自動変速機の制御装置
US6941287B1 (en) * 1999-04-30 2005-09-06 E. I. Du Pont De Nemours And Company Distributed hierarchical evolutionary modeling and visualization of empirical data
US7393304B2 (en) * 2003-05-15 2008-07-01 Grand Haven Stamped Products Shifter with gear position indicator
US20060000304A1 (en) * 2004-06-17 2006-01-05 Deere & Company, A Delaware Corporation Control lever with partially enclosed rotary wheel
EP3779797A1 (de) * 2019-08-14 2021-02-17 Siemens Aktiengesellschaft Verfahren zur rechnergestützten vorausschauenden instandhaltung eines technischen systems
CN114667537A (zh) * 2019-09-11 2022-06-24 西门子股份公司 利用指定的标量值分析图像信息的方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE729325C (de) * 1941-05-16 1942-12-14 Ernst Otto Fehrer Kombinierter Schalt- und Handbremshebel fuer Kraftfahrzeuge
US3901097A (en) * 1974-03-25 1975-08-26 Gen Motors Corp Control mechanism
US3979967A (en) * 1975-07-30 1976-09-14 California Traders Shift control device
US4104982A (en) * 1977-10-11 1978-08-08 Allis-Chalmers Corporation Transmission gear ratio indicator
FR2587944B1 (fr) * 1985-06-28 1990-03-09 Renault Dispositif de commande couplee de boite de vitesses et de frein a main
FR2664220B1 (fr) * 1990-07-09 1992-10-23 Peugeot Levier de frein a main notamment pour vehicule automobile.
US5355434A (en) * 1991-08-19 1994-10-11 Toyoda Koki Kabushiki Kaisha Method and apparatus for performing learning in a neural network
FR2724618B1 (fr) * 1994-09-20 1997-01-03 Peugeot Commande d'un frein de stationnement et d'une boite de vitesses de vehicule

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343124A (ja) * 2005-06-07 2006-12-21 Keio Gijuku 複数の化学物質の測定方法
JP4635220B2 (ja) * 2005-06-07 2011-02-23 学校法人慶應義塾 複数の化学物質の測定方法

Also Published As

Publication number Publication date
WO1998007100A1 (de) 1998-02-19
DE59705226D1 (de) 2001-12-06
EP0978052B1 (de) 2001-10-31
EP0978052A1 (de) 2000-02-09
US5887694A (en) 1999-03-30

Similar Documents

Publication Publication Date Title
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
WO2020176994A1 (en) Legendre memory units in recurrent neural networks
JP2000516739A (ja) ニューラルネットワークの訓練データを選択するためのコンピュータ支援された方法
Li et al. Neural input selection—A fast model-based approach
Yalsavar et al. Kernel parameter optimization for support vector machine based on sliding mode control
JP2000517447A (ja) ニューラルネットワーク用の少なくとも1つの人工的トレーニングデータベクトルをコンピュータ支援により生成するための方法及び装置
CN116134521A (zh) 用于更新模拟交叉型阵列的稀疏可修改比特长度确定性stic脉冲生成
CN116542328B (zh) Ctr预测模型的知识蒸馏方法及装置
US20220027739A1 (en) Search space exploration for deep learning
Leng et al. A hybrid learning algorithm with a similarity-based pruning strategy for self-adaptive neuro-fuzzy systems
Mao et al. Nonlinear system identification using BBO-based multilayer perceptron network method
Ben Halima Abid et al. An Improved Method for Stochastic Nonlinear System’s Identification Using Fuzzy‐Type Output‐Error Autoregressive Hammerstein–Wiener Model Based on Gradient Algorithm, Multi‐Innovation, and Data Filtering Techniques
US20220019876A1 (en) Pulse generation for updating crossbar arrays
May et al. Learning in fully recurrent neural networks by approaching tangent planes to constraint surfaces
Suarin et al. Performance evaluation of PID controller parameters gain optimization for wheel mobile robot based on bat algorithm and particle swarm optimization
JP2722906B2 (ja) 未知数量推定方法およびその装置
Ab Malek et al. Evolutionary tuning method for PID controller parameters of a cruise control system using metamodeling
Gobbi et al. Global approximation: performance comparison of different methods, with an application to road vehicle system engineering
Li et al. A Fractional Order Controller Design of Gyro Stabilized Platform
Sabahi Introducing convex BiLSTM-based controller applied to 3-PSP spatial parallel robot manipulator
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
KR102714239B1 (ko) 아날로그 크로스바 어레이들을 업데이트하기 위한 희소 수정가능 비트 길이 결정 펄스 생성
JP3175567B2 (ja) ニューロ素子
Zupan et al. Framework for developing neural network regression models predicting the influence of EMI on integrated circuits
JPH0949869A (ja) 目標追尾制御装置