JP2000507376A - コンピュータを用いてニューラルネットワークから除くべき重みを求める方法 - Google Patents

コンピュータを用いてニューラルネットワークから除くべき重みを求める方法

Info

Publication number
JP2000507376A
JP2000507376A JP9533925A JP53392597A JP2000507376A JP 2000507376 A JP2000507376 A JP 2000507376A JP 9533925 A JP9533925 A JP 9533925A JP 53392597 A JP53392597 A JP 53392597A JP 2000507376 A JP2000507376 A JP 2000507376A
Authority
JP
Japan
Prior art keywords
variable
neural network
weight
weights
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9533925A
Other languages
English (en)
Other versions
JP3935211B2 (ja
Inventor
トレスプ フォルカー
ツィンマーマン ハンス―ゲオルク
ノインアイアー ラルフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2000507376A publication Critical patent/JP2000507376A/ja
Application granted granted Critical
Publication of JP3935211B2 publication Critical patent/JP3935211B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 トレーニングフェーズにて最小化されるべき誤差関数が最小値になる前に、ニューラルネットワーク(NN)のトレーニングフェーズをストップする(301)。例えば、Optimal Brain Damage(最適脳損傷ダメージ)(OBD)又はOptimal Brain Surgeon(最適脳外科医)(OBS)法により、誤差関数が最小値に達しているとの仮定のもとで、第1の変量(EG)を求める、ないし、規定する。更に、第2変量(ZG)を求め、ないし、規定し、該第2変量(ZG)により、ニューラルネットワーク(NN)から重み(Wi)を除く際どの程度誤差関数の値が重み(Wi)の変化のとき変化するかが求められる、ないし、規定される。第1変量(EG)及び第2変量(ZG)を用いて、重み(Wi)は、ニューラルネットワーク(NN)からの除くのに適する、または不適であるものと判定、分類される。

Description

【発明の詳細な説明】 コンピュータを用いてニューラルネットワーク から除くべき重みを求める方法 近似されるべきトレーニングデータに関し、たんにわずかな情報内容を有する 重みを除くことによりそれのディメンション次元性の点で低減されたニューラル ネットワークの一般化ないし汎化特性が著しく改善される。更に、低減縮小され たニューラルネットワークをトレーニングするため必要とされるトレーニングデ ータの数もわずかである。亦、テストフェーズにおける学習及び分類の速度も増 大される。 ニューラルネットワークの重みを除くことはプルーニング(Pruning) と称される。 種々のプルーニング(Pruning)方法が公知である。例えば文献〔1〕 から所謂Optimal Brain Damage(最適脳損傷ダメージ)( OBD)法が公知である。この方法では、ニューラルネットワークの個個、個別 の重みに基づき除くべき重みを選択するため、誤差関数の2次導関数が使用され る。この方法の欠点とするところは、次のような前提のもとでしか、動作、実施 できないことである、即ち、トレーニングフェーズが収束しているという前提の もとでのみ動作実施できる、換言すれば、トレーニン グフェーズ中最小化される誤差関数が当該誤差関数のローカル局所的最小値又は グローバル大域的最小値に達しているとの前提下でのみ動作実施できないことで ある。ここで、前記の公知方法の欠点とするところは、就中、当該の方法におい て大抵は単に著しくオーバートレーニングされたニューラルネットワークのみし か除くべき重みに関して調べることができないことである。 トレーニングフェーズの収束性の同一前提、従って、亦同一の欠点を、同様に 文献〔1〕にて記載された方法も有する。この方法は、Optimal Bra in Surgeon(最適脳外科医)(OBS)法として知られている。 更に、公知の方法では、誤差関数が最小値に達する前に、トレーニングフェー ズはストップされる。この手法は、早期ストップ(Eealy Stoppin g)法と称され、例えば、文献〔2〕に記載されている。そこには、除くのに適 する重みの評価のためのOBD法も提案されているが、但し、誤差関数が最小値 に達している場合しか重み評価が可能でない(参照775頁第2番目最終段落) 。 プルーニング(Pruning)が〔3〕及び〔4〕から公知であり、ここで はニューラルネットワークからの重み(Wi)を除く際どの程度誤差関数の値が 変化するかを記述、表示する評価量が利用される。 本発明の基礎を成す課題、問題とするところは、コンピュータを用いてニュー ラルネットワークから除くのに適する重みを求めることにある。 前記課題、問題は、請求の範囲1の方法により、解決される。 Optimal Brain Damage(最適脳損傷ダメージ)(OBD )又はOptimal Brain Surgeon(最適脳外科医)(OBS )法の公知方法により求められ、ないし、規定される第1変量を基にして、各被 検重みに対して第2変量が求められ、ないし、規定され、、該第2変量により、 当該の重みの変化の際誤差関数がどのくらい変化するかを記述、表示するもので ある。従って、第2変量を次のような補正項と見なすことができる、即ち、それ により、トレーニングフェーズの終了を誤差関数が最小値に到達する前に補正す る補正項と見なすことができる。今や第1の変量及び第2の変量から、基準判定 量が形成され、該基準判定量により、重みに対してその都度、当該の重みがニュ ーラルネットワークから除くのに適するか否かが調べられる。 前述のような方法での第2変量の形成により基準判定量が著しく改善され、該 基準判定量を用いて、或1つの重みがニューラルネットワークから除くのに適す るか否かの判定がなされる。それにより、実際に次のような重みが、除くのに適 するものとして分類される 、即ちトレーニングデータに関して最も少ない情報内容を有し、従って、相当に 必要とされる情報を失うことなく除くことができる重みとして分類される。それ により、ニューラルネットワークのテストフェーズにおける一般化特性の著しい 改善、大した情報損失なしでのトレーニングフェーズの加速、及びテストフェー ズにおける著しく一層高速の分類が達成される。 本発明の方法の更なる利点とするところは、Early Stoppingに 関連して使用されることである。このことは、Optimal Brain D amage(最適脳損傷ダメージ)(OBD)及びOptimal Brain Surgeon(最適脳外科医)(OBS)の手法にとって可能でない。要す るに、本発明の方法により、ニューラルネットワークの自由度の低減のための2 つの有利な方法を相互に組み合わせることが可能である。 本発明の有利な発展形態が従属形請求項形、引用請求項形の請求範囲に示され ている。 請求の範囲9による方法の発展形態により、次のような場合、1度除かれた重 みを再び挿入することが可能になる、即ち、更に継続されたトレーニングの枠内 で、除かれた重みの情報内容が未だ除かれていない重みより大であることが明ら かになった場合、当該の重みの再挿入が可能である。既に除かれた重みを再びニ ューラルネットワーク中に挿入できるような前記の手 法により、当該方法は、そのフレキシビリティが増大され、従って、或る時間の 後重みを除いたことが不都合であると明らかになった場合、当該の方法プロセス 過程は、再び覆すことが可能、ないし、元に戻すことができる。前記の特性によ り、公知方法により可能であった場合におけるより最終的に一層最適に形成され たニューラルネットワークの構造が得られる。 本発明の1実施例を図示してあり、以下詳述する。 図1a及び1bは、重みを除く前(図1a)及び重みを除いた後(図1b)の 重み及びニューロンを有するニューラルネットワークを示す。 図2は、Pruning手法を必要に応じて実施するため使用されるコンピュ ータを表すブロックダイヤグラムを示す。 図3は、本発明の方法の個々の方法ステップを含むシーケンスダイヤグラムを 示す。 図1aには、ニューラルネットワークNNが示してあり、該ニューラルネット ワークNNは、本実施例では、10のニューロンNE−これらは、3つの層に分 類分布されている−を有する。個々の10のニューロンNEは、本事例ではそれ ぞれ直ぐ後続する層のすべてのニューロンに結合されている。当該の結合部は、 それぞれ重みWiで重み付けられている、換言すれば、1つのニューロンNEの 1つの出力信号がそれぞれ、結合部に対応付けられた重みWiと乗算されて入力 信号として、直ぐ後続する層の相応のニューロンNEに供給される。ここで、イ ンデックスiは、ニューラルネットワークNNの各重みWiを一義的に表わし、 1とoとの間の自然数である。ここで、oは、ニューラルネットワークNNのす べての重みWiの数を表す。 図1bには、幾つかの重みWiを本発明の方法によりニューラルネットワーク NNから除いた後の低減縮小されたニューラルネットワークNNPを示す。 図1a及び図1bに示すニューラルネットワークNNの構造は、何らの限定を しているものではない。たんに簡単な分かり易い例に即して本発明の方法におけ る手段を示すものである。 図2には、コンピュータRを示してあり、該コンピュータRにより、本発明の 方法が必然的に実施される。 ニューラルネットワークNNは、トレ−ニングフェーズにてトレーニングデー タセットTDSを使用してトレーニングされる。トレーニングデータセットTD Sはトレーニングデータ及び所属の設定値Ykのデータセット(Tupel)を 有する。ニューラルネットワークNNに対するトレーニングフェーズの通常の目 標とするところは、誤差関数−これは、印加されたトレーニングデータXkに対 する設定値YKの差を記述、表示する−を最小化することである。ここで当業者 に 極めて様々の方法例えばバックプロパケーションが公知である。更なる手法、方 法を当該の本発明の方法にて制約を受けずに使用できる。 コンピュータRではトレーニングフェーズにてトレーニングデータセットTD S及びニューラルネットワークNNから図1bに示す低減縮小されたニューラル ネットワークNNPが求められる。 図3には、本発明の方法の個々の方法ステップをシーケンスダイヤグラムの形 で示す。誤差関数がローカル又はグローバルな最小値に収束する前にトレーニン グフェーズがストップされる。 誤差関数がローカル最小値に収束されているとの仮定のもとで、第1変量EG が、例えば、Optimal Brain Surgeon(最適脳外科医)( OBS)法又はOptimal Brain Damage(最適脳損傷ダメー ジ)(OBD)〔1〕の使用下でニューラルネットワークNNの各々の考慮され るべき重みWiに対して求められ、ないし、規定される(302)。 ニューラルネットワークNNのすべての重みWiをそのようにして調べるよう に設計されている。本発明の方法のバリエーションによれば、ただ、ニューラル ネットワークの重みWiの任意の所定数を考慮するものである。 各々の考慮される重みWiに対して、第2変量ZG が求められ、ないし、規定される(303)。当該の第2変量ZGによりそれぞ れの重みWiの変化の際の誤差関数が記述、表示される。 第2の変量ZGは、例えば、下記関係式から求めることができる、即ち、 但し、 kは、第1のインデックスを表わし、該第1のインデックスにより、一義的に それぞれニューラルネットワークのトレーニングデータが表されるものであり、 Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つの トレーニングデータを表わし、 NN(Xk)は、トレーニングデータXKの印加の際生じるニューラルネットワ ーク(NN)の出力値を表わし、 Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)への トレーニングデータXKの印加の際得られるべきものであり、 ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされて いる重みに基づく関数の偏 導関数を表わし、 Mは、所定の自然数を表わし、 mは、所定の自然数を表わし、 1は、所定の偶数の自然数を表わし、 ここで、曲率カーブ変量(Ai)は、下記関係式から得られる、即ち 又は から得られるようにしたのである。 更に、第2変量を例えば、次のようにして求めることもできる、即ち、 第2の変量ZGは、下記関係式から得られる、即ち、 但し、 sは、所定の自然数を表わすのである。 少なくとも第1変量ZG及び第2変量ZGから、基準判定量KGが更なるステ ップ(304)で求められ、ないし、規定される。 最終ステップ305にてその都度調べられる重みWiが、ニューラルネットワ ークNNからの除くのに適する重みWi−それぞれの重みWiの情報内容がわず かである故に−又はニューラルネットワークNNからの除くのに不適当な重みに 分類される。 本発明の方法の発展形態では、第3の変量KGが考慮され、当該の第3の変量 KGは、下記の規定関係式により形成される:即ち、 従って、基準判定量KGは、(6)又は(7)から得られる、即ち、 KG=EG+ZG (6)又は KG=EG+ZG+DG (7)から得られる。 明確に考察すると、前記手段が、意味するところによれば、そこにて、トレー ニングフェーズがストップされた点から出発して、誤差関数の点と、誤差関数の 局所最小値との間の間隔が推定される。次のような重みがニューラルネットワー クNNからの除くのに適するものと分類される、即ち、それにより、局所的最小 値への誤差関数の近似を行ない得ない、又は、たんに わずかな近似しか行ない 得ないようにする重みが前述のようにニューラルネットワークNNからの除くの に適するものと分類される。 除くのに適うないし不適の重みへのそれぞれの重みWiの分類(305)を種 々の要領で行うことができる。 当該の分類の手法によれば、基準判定量KGに対して、基準判定量KGが第1 の所定の限界値を下回る値を有するか、否かが調べられる。その通りである場合 には、重みWiは、除くのに適する重みであると分類され、そして、そうでない 場合には除くのに適しない重みであると分類される。 本発明の方法のバリエーションによれば、トレーニングデータに関して重みW iの絶対的内容を記述、表示する絶対的限界値でなく、所定数の重みWiがニュ ーラルネットワークNNから除かれるべきものであり、ここで勿論、できるだけ わずかな情報損失を達成すべきである。この場合において、第1の所定の限界値 が次のようにした形成される、即ち、すべての考慮される重みWiに対して基準 判定量KGが相互に比較され、次のような重みWiを除く、即ち、それの基準判 定量KGの値が最も小さい重みWiを除くのである。 除くのに適う重みWiを今やニューラルネットワークNNから除くと良い(P runing)。 本発明の方法の発展形態によれば、重みWiを除くべきであるとされた判定が 、トレーニングフェーズないしテストフェーズの更なる経過にて不都合であると 判明し得るようにし、及び/又は、既に除かれた重み Wiよりわずかな情報内容を有する重みが求められ、ないし、規定されるように することが可能である。この場合に対して、本発明の発展形態では、重みWiを 除くことについての判定を覆す、ないし、元に戻すことができ、ここで、各々の 除かれた重みWiに対して少なくとも第2変量ZG又は基準判定量KGが記憶さ れるのである。重みWiを再び導入しようとする場合、既に除かれた重みWiの なかから次のような重みWiが再び導入される、即ち、それの第2変量ZGが所 定の第2限界値を越える重みWiが再び導入される。前記の第2の限界値は、先 に述べた第1の限界値と同様求めることができ、例えば、所定の百分率により、 再び挿入されるべき重みWiを求め得る。この場合に対して、すべての除かれた 重みWiに対して、第2変量ZGが相互に比較され、そして、そのつど、最大の 値を有する第2変量ZGが再びニューラルネットワークNNの構造内へとり込ま れる。 本発明の方法及びそれのすべての発展形態を所謂オフラインラーニングにおい ても所謂オンラインラーニングにおいても使用できる。 本明細書中下記刊行物文献が引用されている。 〔1〕 A.Zell,Neuronaler Netze[Simulati on of neural networks],Addison−Wesle y2,1st Edition,ISBN 3−89319−554−8,pages319−328 1994 〔2〕 W.Finnoff et al.,Improving Model Selection by Nonconvrgent Methods,N eural Networks,Vol.6,pages 771 to 78 3,1993 〔3〕 R.Reed,Pruning Algorithms−A Surv ey,In:IEEEE Transactions on Neural N etworks,Vol.4,No.5,pages 740−747,Sep tember 1993 〔4〕 E,D Karnin,A,Simple Procedue for Pruning Back−Propagation Trained Ne ural Networks,Vol.1,No.2,pages 239−2 42,June 1990

Claims (1)

  1. 【特許請求の範囲】 1. コンピュータを用いてニューラルネットワーク(NN)から除くのに適する それの重み(Wi)を求める方法において、 −トレーニングフェーズにて最小化されるべき誤差関数が最小値(301) に達する前に、ニューラルネットワーク(NN)のトレーニングフェーズをスト ップし、 −誤差関数が最小値に達しているとの仮定のもとで、ニューラルネットワー ク(NN)の少なくとも1つの重み(Wi,i=1…0)に対して第1の変量( EG)を求め、ないし、規定し、、該第1の変量(EG)により、ニューラルネ ットワーク(NN)から前記の少なくとも1つの重み(Wi)を除くことに関し て当該の少なくとも1つの重み(Wi)の評価が記述、表示されるようにし(3 02)、 −重み(Wi)に対して、第2変量(ZG)を求め、ないし、規定し、、該 第2変量(ZG)により、どの程度誤差関数の値が重み(Wi)の変ったとき変 化するかが記述、表示されるようにし(303)、 −少なくとも第1変量(EG)及び第2変量(ZG)から、重み(Wi)に 対する基準判定量(KG)が求められ、ないし、規定され、該基準判定量に より誤差関数の値が、ニューラルネットワーク(NN)から重み(Wi)を除 いたときどの程度変化するかが記述、表示されるようにし(304)、 −重み(Wi)は、次のような場合、除くのに適する重み(Wi)として分 類されるようにする、即ち、当該の重み(Wi)を除くと所定の第1の限界値を 下回る値だけ誤差関数の値が変化されることが当該の基準判定量(KG)から明 らかになった場合、除くのに適する重み(Wi)として分類されるようにする( 305)ことを特徴とする、コンピュータを用いてニューラルネットワークから 除くのに適する重みを求める方法。 2. 第1の変量(EG)を最適脳損傷ダメージOptimal Brain D amage(最適脳損傷ダメージ)(OBD)の手法で求めることを特徴とする 請求の範囲1記載の方法。 3. 第1の変量(EG)をOptimal Brain Surgeon(最適 脳外科医)(OBS)の手法で求めることを特徴とする請求の範囲1記載の方法 。 4. 第2の変量(ZG)は、下記関係式から得られる、即ち、 但し、 kは、第1のインデックスを表わし、該第1のインデックスにより、一義的に それぞれニューラルネットワークのトレーニングデータが表されるものであり、 Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つの トレーニングデータを表わし、 NN(Xk)は、トレーニングデータXKの印加の際生じるニューラルネットワ ーク(NN)の出力値を表わし、 Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)への トレーニングデータXKの印加の際得られるべきものであり、 ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされて いる重みに基づく関数の偏導関数を表わし、 Mは、所定の自然数を表わし、 mは、所定の自然数を表わし、 1は、所定の偶数の自然数を表わし、 ここで、曲率カーブ変量(Ai)は、下記関係式から得られる、即ち 又は から得られるようにしたことを特徴とする請求の範囲1から3までのうちいず れか1項記載の方法。 5. 第2の変量(ZG)は、下記関係式から得られる、即ち、 但し、 kは、第1のインデックスを表わし、該第1のインデックスにより、一義的 にそれぞれニューラルネットワークのトレーニングデータが表されるものであり 、 Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つ のトレーニングデータを表わし、 NN(Xk)は、トレーニングデータXKの印加の 際生じるニューラルネットワーク(NN)の出力値を表わし、 Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)へ のトレーニングデータXKの印加の際得られるべきものであり、 ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされ ている重みに基づく関数の偏導関数を表わし、 Mは、所定の自然数を表わし、 mは、所定の自然数を表わし、 sは、所定の自然数を表わし、 ここで、曲率カーブ変量(Ai)は、下記関係式から得られる、即ち 又は から得られるようにしたことを特徴とする請求の範囲1から3までのうちいず れか1項記載の方法。 6. 第3の変量(DG)を下記の規定関係式により形成する、即ち、 但し、 kは、第1のインデックスを表わし、該第1のインデックスにより、一義的 にそれぞれニューラルネットワークのトレーニングデータが表されるものであり 、 Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つ のトレーニングデータを表わし、 NN(Xk)は、トレーニングデータXKの印加の際生じるニューラルネット ワーク(NN)の出力値を表わし、 Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)へ のトレーニングデータXKの印加の際得られるべきものであり、 ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされ ている重みに基づく関数の偏導関数を表わし、 mは、所定の自然数を表わし、 −第3の変量(DG)を基準判定量(KG)にお いて考慮することを特徴とする請求の範囲1から5までのうちいずれか1項記載 の方法 7. 選択可能な第1の限界値は、除くべき重みの所定 の百分率から得られ、 −重み(Wi)は、次のような場合、除くのに適 する重み(Wi)として 分類されるようにする、即 ち、重み(Wi)に対する基準判定量(KG)が他 の重み(Wi)の、所定の百分率の数の基準判定量 (KG)を下回る場合、 除くのに適する重み(Wi )として分類されるようにしたことを特徴とする請 求の範囲1から6までのうちいずれか1項記載の方 法。 8. 除くのに適する重み(Wi)がニューラルネットワーク(NN)から除かれ るようにしたことを特徴とする請求の範囲1から7までのうちいずれか1項記載 の方法。 9. −少なくとも、除かれた重み(Wi)の第2変量 (ZG)を記憶し、 −所定数の再び導入されるべき既に除かれた重み を再び導入し、ここで、 再挿入されるべき重みが次 のような重みから得られる、ないし、それに由来す る、即ち、所定の第2の限界値より大である記憶さ れた第2の変量(ZG) の値を有する重みから得ら れる、ないし、それに由来するようにしたことを特 徴とする請求の範囲8記載の方法。 10.−選択可能な第2の限界値が再挿入されるべき重みの所定の百分率から得ら れ、 −重みを次のような場合再挿入するようにし、即 ち、重み(Wi)に対する少なくとも第2の変量( ZG)が他の重み(Wi )の所定の百分率の数の少 なくとも第2の変量(ZG)の値を越える場合当該 の重み再挿入を行うようにしたことを特徴とする請 求の範囲9記載の方法。 11.基準判定量(KG)が第1変量(EG)と第2変量(ZG)との和から得ら れるようにしたことを特徴とする請求の範囲1項から10項までのうち何れか1 項記載の方法。 12.基準判定量(KG)は、第1変量(EG)と第2変量(ZG)との和と第3 変量(DG)との差から得られるようにしたことを特徴とする請求の範囲6記載 の方法。
JP53392597A 1996-03-25 1997-03-11 低減縮小されたニューラルネットワーク Expired - Fee Related JP3935211B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19611732.1 1996-03-25
DE19611732A DE19611732C1 (de) 1996-03-25 1996-03-25 Verfahren zur Ermittlung von zur Entfernung geeigneten Gewichten eines neuronalen Netzes mit Hilfe eines Rechners
PCT/DE1997/000473 WO1997036248A1 (de) 1996-03-25 1997-03-11 Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners

Publications (2)

Publication Number Publication Date
JP2000507376A true JP2000507376A (ja) 2000-06-13
JP3935211B2 JP3935211B2 (ja) 2007-06-20

Family

ID=7789341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53392597A Expired - Fee Related JP3935211B2 (ja) 1996-03-25 1997-03-11 低減縮小されたニューラルネットワーク

Country Status (5)

Country Link
US (1) US6311172B1 (ja)
EP (1) EP0890153B1 (ja)
JP (1) JP3935211B2 (ja)
DE (2) DE19611732C1 (ja)
WO (1) WO1997036248A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106181A (ja) * 2017-12-12 2019-06-27 三星電子株式会社Samsung Electronics Co.,Ltd. 神経網及びそのウェートをプルーニングする方法
WO2020217571A1 (ja) * 2019-04-23 2020-10-29 Dmg森精機株式会社 工作機械における変動量推定装置、及び補正量算出装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001283397A1 (en) * 2000-08-16 2002-02-25 Research Foundation Of State University Of New York Neural network device for evolving appropriate connections
DE10345440A1 (de) 2003-09-30 2005-05-12 Siemens Ag Verfahren, Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Analyse von Einflussgrößen auf einen Brennvorgang in einer Brennkammer unter Verwendung eines trainierbaren, statistischen Modells
DE102007008514A1 (de) * 2007-02-21 2008-09-04 Siemens Ag Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung
DE102010011221B4 (de) * 2010-03-12 2013-11-14 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102011076969B4 (de) * 2011-06-06 2015-01-08 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
US11315018B2 (en) 2016-10-21 2022-04-26 Nvidia Corporation Systems and methods for pruning neural networks for resource efficient inference
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5288645A (en) * 1992-09-04 1994-02-22 Mtm Engineering, Inc. Hydrogen evolution analyzer
US5819226A (en) * 1992-09-08 1998-10-06 Hnc Software Inc. Fraud detection using predictive modeling
US5559929A (en) * 1994-07-29 1996-09-24 Unisys Corporation Method of enhancing the selection of a training set for use in training of a neural network

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106181A (ja) * 2017-12-12 2019-06-27 三星電子株式会社Samsung Electronics Co.,Ltd. 神経網及びそのウェートをプルーニングする方法
JP7273489B2 (ja) 2017-12-12 2023-05-15 三星電子株式会社 神経網及びそのウェートをプルーニングする方法
WO2020217571A1 (ja) * 2019-04-23 2020-10-29 Dmg森精機株式会社 工作機械における変動量推定装置、及び補正量算出装置
JP2020179429A (ja) * 2019-04-23 2020-11-05 Dmg森精機株式会社 工作機械における変動量推定装置、及び補正量算出装置
US12117795B2 (en) 2019-04-23 2024-10-15 Dmg Mori Co., Ltd. Fluctuation amount estimation device in machine tool and correction amount calculation device

Also Published As

Publication number Publication date
EP0890153B1 (de) 2001-05-23
EP0890153A1 (de) 1999-01-13
WO1997036248A1 (de) 1997-10-02
DE59703599D1 (de) 2001-06-28
JP3935211B2 (ja) 2007-06-20
US6311172B1 (en) 2001-10-30
DE19611732C1 (de) 1997-04-30

Similar Documents

Publication Publication Date Title
Karayiannis Reformulated radial basis neural networks trained by gradient descent
KR101075824B1 (ko) 신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치
US4914603A (en) Training neural networks
Paris et al. Applying boosting techniques to genetic programming
JP2000507376A (ja) コンピュータを用いてニューラルネットワークから除くべき重みを求める方法
US5255344A (en) Inference rule determining method and inference device
CN115131347A (zh) 一种用于锌合金零件加工的智能控制方法
CN112580728A (zh) 一种基于强化学习的动态链路预测模型鲁棒性增强方法
US6505181B1 (en) Recognition system
KR20230068941A (ko) 딥러닝 학습 기법을 이용하는 유사도 기반 클러스터링 장치 및 그 방법
JP7073171B2 (ja) 学習装置、学習方法及びプログラム
JPH0540497A (ja) 話者適応音声認識装置
JPWO2019240047A1 (ja) 行動学習装置
JPH09204310A (ja) 判断規則修正装置と判断規則修正方法
Denton et al. A comparison of nonlinear optimization methods for supervised learning in multilayer feedforward neural networks
JPH0991263A (ja) ニューラルネットワーク構造最適化装置ならびに方法
Woodland Weight limiting, weight quantisation and generalisation in multi-layer perceptrons
US20030026497A1 (en) Scalable expandable system and method for optimizing a random system of algorithms for image quality
US20030144974A1 (en) Self organizing learning petri nets
CN114418013A (zh) 基于数据分布的分层加权抗噪深度度量学习方法
JP2002222409A (ja) ニューラルネットワークの最適化学習方法
Looney Neural networks as expert systems
EP0567983B1 (en) Learning type waveform recognizer
WO2023188286A1 (ja) 学習装置、推定装置、学習方法および記録媒体
JPH05242063A (ja) ニューラルネットワークシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060310

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees