JP3935211B2 - 低減縮小されたニューラルネットワーク - Google Patents

低減縮小されたニューラルネットワーク Download PDF

Info

Publication number
JP3935211B2
JP3935211B2 JP53392597A JP53392597A JP3935211B2 JP 3935211 B2 JP3935211 B2 JP 3935211B2 JP 53392597 A JP53392597 A JP 53392597A JP 53392597 A JP53392597 A JP 53392597A JP 3935211 B2 JP3935211 B2 JP 3935211B2
Authority
JP
Japan
Prior art keywords
neural network
reduced
variable
training data
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP53392597A
Other languages
English (en)
Other versions
JP2000507376A (ja
Inventor
トレスプ フォルカー
ツィンマーマン ハンス―ゲオルク
ノインアイアー ラルフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2000507376A publication Critical patent/JP2000507376A/ja
Application granted granted Critical
Publication of JP3935211B2 publication Critical patent/JP3935211B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

近似されるべきトレーニングデータに関し、たんにわずかな情報内容を有する重みを除くことによりそれのディメンション次元性の点で低減されたニューラルネットワークの一般化ないし汎化特性が著しく改善される。更に、低減縮小されたニューラルネットワークをトレーニングするため必要とされるトレーニングデータの数もわずかである。亦、テストフェーズにおける学習及び分類の速度も増大される。
ニューラルネットワークの重みを除くことはプルーニング(Pruning)と称される。
種々のプルーニング(Pruning)方法が公知である。例えば文献〔1〕から所謂Optimal Brain Damage(最適脳損傷ダメージ)(OBD)法が公知である。この方法では、ニューラルネットワークの個別の重みに基づき除くべき重みを選択するため、誤差関数の2次導関数が使用される。この方法の欠点とするところは、次のような前提のもとでしか、動作、実施できないことである、即ち、トレーニングフェーズが収束しているという前提のもとでのみ動作実施できる、換言すれば、トレーニングフェーズ中最小化される誤差関数が当該誤差関数のローカル局所的最小値又はグローバル大域的最小値に達しているとの前提下でのみ動作実施できないことである。ここで、前記の公知方法の「欠点とするところは、就中、当該の方法において大抵は単に著しくオーバートレーニングされたニューラルネットワークのみしか除くべき重みに関して調べることができないことである。
トレーニングフェーズの収束性の同一前提、従って、亦同一の欠点を、同様に文献〔1〕にて記載された方法も有する。この方法は、Optimal Brain Surgeon(最適脳外科医)(OBS)法として知られている。
更に、公知の方法では、誤差関数が最小値に達する前に、トレーニングフェーズはストップされる。この手法は、早期ストップ(Eealy Stopping)法と称され、例えば、文献〔2〕に記載されている。そこには、除くのに適する重みの評価のためのOBD法も提案されているが、但し、誤差関数が最小値に達している場合しか重み評価が可能でない(参照775頁第2番目最終段落)。
プルーニング(Pruning)が〔3〕及び〔4〕から公知であり、ここではニューラルネットワークからの重み(Wi)を除く際どの程度誤差関数の値が変化するかを記述、表示する評価量が利用される。
本発明の基礎を成す課題、問題とするところは、コンピュータを用いてニューラルネットワークから除くのに適する重みを求める手段を有する低減縮小されたニューラルネットワークを提供することにある。
前記課題、問題は、ニューラルネットワークとニューラルネットワークをトレーニングフェーズにおいてトレーニングするコンピュータとコンピュータに、ニューラルネットワークをトレーニングするためトレーニングデータと所属の設定値とから成るトレーニングデータセットを供給する手段とを具備し、コンピュータは、トレーニングデータセットを用いてニューラルネットワークのトレーニングフェーズを実施する手段と、トレーニングフェーズにおいて、供給されたトレーニングデータに対する設定値の差を表す誤差関数が最小値に達する前にニューラルネットワークに対するトレーニングフェーズをストップする手段と、誤差関数が最小値に達しているとの仮定のもとで、ニューラルネットワークの少なくとも1つの重みに対して、少なくとも1つの重みを除くことによる評価を表す第1の変量を求める手段と、重みに対して、重みの変ったとき誤差関数の値が変化する程度を表す第2変量を求める手段と、少なくとも第1変量及び第2変量から、ニューラルネットワークから少なくとも1つの重みを除いたとき、どの程度誤差関数が変化するかを表す基準判定量を求める手段と、基準判定量が所定の第1の限界値を下回る場合、ニューラルネットワークから、当該重みを除くのに適していると判断する手段とを有していることによって解決される。
Optimal Brain Damage(最適脳損傷ダメージ)(OBD)又はOptimal Brain Surgeon(最適脳外科医)(OBS)法の公知方法により求められ、ないし、規定される第1変量を基にして、各被検重みに対して第2変量が求められ、ないし、規定され、該第2変量により、当該の重みの変化の際誤差関数がどのくらい変化するかを記述、表示するものである。従って、第2変量を次のような補正項と見なすことができる、即ち、それにより、トレーニングフェーズの終了を誤差関数が最小値に到達する前に補正する補正項と見なすことができる。今や第1の変量及び第2の変量から、基準判定量が形成され、該基準判定量により、重みに対してその都度、当該の重みがニューラルネットワークから除くのに適するか否かが調べられる。
前述のような方法での第2変量の形成により基準判定量が著しく改善され、該基準判定量を用いて、或1つの重みがニューラルネットワークから除くのに適するか否かの判定がなされる。それにより、実際に次のような重みが、除くのに適するものとして分類される、即ちトレーニングデータに関して最も少ない情報内容を有し、従って、相当に必要とされる情報を失うことなく除くことができる重みとして分類される。それにより、ニューラルネットワークのテストフェーズにおける一般化特性の著しい改善、大した情報損失なしでのトレーニングフェーズの加速、及びテストフェーズにおける著しく一層高速の分類が達成される。
本発明の低減縮小されたニューラルネットワークの更なる利点とするところは、Early Stoppingに関連して使用されることである。このことは、Optimal Brain Damage(最適脳損傷ダメージ)(OBD)及びOptimal Brain Surgeon(最適脳外科医)(OBS)の手法にとって可能でない。要するに、本発明の低減縮小されたニューラルネットワークにより、ニューラルネットワークの自由度の低減のための2つの有利な方法を相互に組み合わせることが可能である。
本発明の有利な発展形態が従属形請求項形、引用請求項形の請求範囲に示されている。
請求の範囲9による低減縮小されたニューラルネットワークの発展形態により、次のような場合、1度除かれた重みを再び挿入することが可能になる、即ち、更に継続されたトレーニングの枠内で、除かれた重みの情報内容が未だ除かれていない重みより大であることが明らかになった場合、当該の重みの再挿入が可能である。既に除かれた重みを再びニューラルネットワーク中に挿入できるような前記の手法により、当該方法は、そのフレキシビリティが増大され、従って、或る時間の後重みを除いたことが不都合であると明らかになった場合、当該の方法プロセス過程は、再び覆すことが可能、ないし、元に戻すことができる。前記の特性により、公知方法により可能であった場合におけるより最終的に一層最適に形成されたニューラルネットワークの構造が得られる。
本発明の1実施例を図示してあり、以下詳述する。
図1a及び1bは、重みを除く前(図1a)及び重みを除いた後(図1b)の重み及びニューロンを有するニューラルネットワークを示す。
図2は、Pruning手法を必要に応じて実施するため使用されるコンピュータを表すブロックダイヤグラムを示す。
図3は、本発明の低減縮小されたニューラルネットワークの個々の手段を示す。
図1aには、ニューラルネットワークNNが示してあり、該ニューラルネットワークNNは、本実施例では、10のニューロンNE−これらは、3つの層に分類分布されている−を有する。個々の10のニューロンNEは、本事例ではそれぞれ直ぐ後続する層のすべてのニューロンに結合されている。当該の結合部は、それぞれ重みWiで重み付けられている、換言すれば、1つのニューロンNEの1つの出力信号がそれぞれ、結合部に対応付けられた重みWiと乗算されて入力信号として、直ぐ後続する層の相応のニューロンNEに供給される。ここで、インデックスiは、ニューラルネットワークNNの各重みWiを一義的に表わし、1とoとの間の自然数である。ここで、oは、ニューラルネットワークNNのすべての重みWiの数を表す。
図1bには、幾つかの重みWiを本発明の手段によりニューラルネットワークNNから除いた後の低減縮小されたニューラルネットワークNNPを示す。
図1a及び図1bに示すニューラルネットワークNNの構造は、何らの限定をしているものではない。たんに簡単な分かり易い例に即して本発明の低減縮小されたニューラルネットワークのプロシージャを示すものである。
図2には、コンピュータRを示してあり、該コンピュータRにより、本発明の低減縮小されたニューラルネットワークが必然的に実施される。
ニューラルネットワークNNは、トレーニングフェーズにてトレーニングデータセットTDSを使用してトレーニングされる。トレーニングデータセットTDSはトレーニングデータ及び所属の設定値Ykのデータセット(Tupel)を有する。ニューラルネットワークNNに対するトレーニングフェーズの通常の目標とするところは、誤差関数−これは、印加されたトレーニングデータXkに対する設定値Ykの差を記述、表示する−を最小化することである。ここで当業者に極めて様々の方法、例えばバックプロパゲーションが公知である。更なる手法、手段を当該の本発明の低減縮小されたニューラルネットワークにて制約を受けずに使用できる。
コンピュータRではトレーニングフェーズにてトレーニングデータセットTDS及びニューラルネットワークNNから図1bに示す低減縮小されたニューラルネットワークNNPが求められる。
図3には、本発明の低減縮小されたニューラルネットワークの個々の手段を示す。誤差関数がローカル又はグローバルな最小値に収束する前にトレーニングフェーズがストップされる。
誤差関数がローカル最小値に収束されているとの仮定のもとで、第1変量EGが、例えば、Optimal Brain Surgeon(最適脳外科医)(OBS)法又はOptimal Brain Damage(最適脳損傷ダメージ)(OBD)〔1〕の使用下でニューラルネットワークNNの各々の考慮されるべき重みWiに対して求められ、ないし、規定される(302)。
ニューラルネットワークNNのすべての重みWiをそのようにして調べるように設計されている。本発明の低減縮小されたニューラルネットワークのバリエーションによれば、ただ、ニューラルネットワークの重みWiの任意の所定数を考慮するものである。
各々の考慮される重みWiに対して、第2変量ZGが求められ、ないし、規定される(303)。当該の第2変量ZGによりそれぞれの重みWiの変化の際の誤差関数が記述、表示される。
第2の変量ZGを、例えば、下記関係式から求める手段が設けられる、即ち、
Figure 0003935211
但し、
kは、第1のインデックスを表わし、該第1のインデックスにより、一義的にそれぞれニューラルネットワークのトレーニングデータが表されるものであり、
Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つのトレーニングデータを表わし、
NN(Xk)は、トレーニングデータXkの印加の際生じるニューラルネットワーク(NN)の出力値を表わし、
Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)へのトレーニングデータXKの印加の際得られるべきものであり、
∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされている重みに基づく関数の偏導関数を表わし、
Mは、所定の自然数を表わし、
mは、所定の自然数を表わし、
1は、所定の偶数の自然数を表わし、
ここで、曲率カーブ変量(Ai)は、下記関係式から得られる、即ち
Figure 0003935211
又は
Figure 0003935211
から得られる。
更に、第2変量を例えば、次のようにして求める手段が設けられる、即ち、第2の変量ZGは、下記関係式から得られる、即ち、
Figure 0003935211
但し、
sは、所定の自然数を表わすのである。
少なくとも第1変量ZG及び第2変量ZGから、基準判定量KGが更なる手段(304)で求められ、ないし、規定される。
最終手段305にてその都度調べられる重みWiが、ニューラルネットワークNNからの除くのに適する重みWi−それぞれの重みWiの情報内容がわずかである故に−又はニューラルネットワークNNからの除くのに不適当な重みに分類される。
本発明の低減縮小されたニューラルネットワークの発展形態では、第3の変量KGが考慮され、当該の第3の変量KGを、下記の規定関係式により形成する手段が設けられる:即ち、
Figure 0003935211
従って、基準判定量KGは、(6)又は(7)から得られる、即ち、
KG=EG十ZG (6)又は
KG=EG+ZG+DG (7)から得られる。
明確に考察すると、前記手段が、意味するところによれば、そこにて、トレーニングフェーズがストップされた点から出発して、誤差関数の点と、誤差関数の局所最小値との間の間隔が推定される。次のような重みがニューラルネットワークNNからの除くのに適するものと分類される、即ち、それにより、局所的最小値への誤差関数の近似を行ない得ない、又は、たんにわずかな近似しか行ない得ないようにする重みが前述のようにニューラルネットワークNNからの除くのに適するものと分類される。
除くのに適うないし不適の重みへのそれぞれの重みWiの分類(305)を種々の要領で行うことができる。
当該の分類の手段によれば、基準判定量KGに対して、基準判定量KGが第1の所定の限界値を下回る値を有するか、否かが調べられる。その通りである場合には、重みWiは、除くのに適する重みであると分類され、そして、そうでない場合には除くのに適しない重みであると分類される。
本発明の低減縮小されたニューラルネットワークのバリエーションによれば、トレーニングデータに関して重みWiの絶対的内容を記述、表示する絶対的限界値でなく、所定数の重みWiがニューラルネットワークNNから除かれるべきものであり、ここで勿論、できるだけわずかな情報損失を達成すべきである。この場合において、第1の所定の限界値が次のようにした形成される、即ち、すべての考慮される重みWiに対して基準判定量KGが相互に比較され、次のような重みWiを除く、即ち、それの基準判定量KGの値が最も小さい重みWiを除くのである。
除くのに適う重みWiを今やニューラルネットワークNNから除くと良い(Pruning)。
本発明の低減縮小されたニューラルネットワークの発展形態によれば、重みWiを除くべきであるとされた判定が、トレーニングフェーズないしテストフェーズの更なる経過にて不都合であると判明し得るようにし、及び/又は、既に除かれた重みWiよりわずかな情報内容を有する重みが求められ、ないし、規定されるようにすることが可能である。この場合に対して、本発明の発展形態では、重みWiを除くことについての判定を覆す、ないし、元に戻すことができ、ここで、各々の除かれた重みWiに対して少なくとも第2変量ZG又は基準判定量KGが記憶されるのである。重みWiを再び導入しようとする場合、既に除かれた重みWiのなかから次のような重みWiが再び導入される、即ち、それの第2変量ZGが所定の第2限界値を越える重みWiが再び導入される。前記の第2の限界値は、先に述べた第1の限界値と同様求めることができ、例えば、所定の百分率により、再び挿入されるべき重みWiを求め得る。この場合に対して、すべての除かれた重みWiに対して、第2変量ZGが相互に比較され、そして、そのつど、最大の値を有する第2変量ZGが再びニューラルネットワークNNの構造内へとり込まれる。
本発明の低減縮小されたニューラルネットワーク及びそれのすべての発展形態を所謂オフラインラーニングにおいても所謂オンラインラーニングにおいても使用できる。
本明細書中下記刊行物文献が引用されている。
〔1〕 A.Zell, Neuronaler Netze[Simulation of neural networks], Addison−Wesley2, lst Edition, ISBN 3−89319−554−8,pages319−328 1994
〔2〕 W. Finnoff et al., Improving Model Selection by Nonconvrgent Methods,Neural Networks,Vol.6,pages 771 to 783,1993
〔3〕 R. Reed, Pruning Algorithms−A Survey, In: IEEEE Transactions on Neural Networks, Vo1.4, No.5,pages 740−747, September 1993
〔4〕 E,D Karnin,A, Simple Procedue for Pruning Back−Propagation Trained Neural Networks, Vol.1,No.2, pages 239−242, June 1990

Claims (12)

  1. ューラルネットワーク(NN)
    該ニューラルネットワーク(NN)をトレーニングフェーズにおいてトレーニングするコンピュータと
    該コンピュータに、前記ニューラルネットワークをトレーニングするためトレーニングデータ(Xk)と所属の設定値(Yk)とから成るトレーニングデータセット(TDS)を供給する手段とを具備し、
    前記コンピュータは、前記トレーニングデータセットを用いて前記ニューラルネットワークのトレーニングフェーズを実施する手段と、
    前記トレーニングフェーズにおいて、前記供給されたトレーニングデータ(Xk)に対する設定直(Yk)の差を表す誤差関数が最小値に達する前に前記ニューラルネットワーク(NN)に対するトレーニングフェーズをストップする手段と、
    前記誤差関数が最小値に達しているとの仮定のもとで、前記ニューラルネットワーク(NN)の少なくとも1つの重み(Wi,i=1…0)に対して、前記少なくとも1つの重み(Wi)を除くことによる評価を表す第1の変量(EG)を求める手段と、
    前記重み(Wi)に対して、重み(Wi)の変ったとき前記誤差関数の値が変化する程度を表す第2変量(ZG)を求める手段と、
    少なくとも前記第1変量(EG)及び前記第2変量(ZG)から、前記ニューラルネットワーク(NN)から前記少なくとも1つの重み(Wi)を除いたとき、どの程度誤差関数が変化するかを表す基準判定量(KG)を求める手段と、
    前記基準判定量(KG)が所定の第1の限界値を下回る場合、前記ニューラルネットワークから、当該重み(Wi)を除くのに適していると判断する手段とを有していることを特徴とする低減縮小されたニューラルネットワーク
  2. 第1の変量(EG)を最適脳損傷ダメージOptimal Brain Damage(最適脳損傷ダメージ)(OBD)の手法で求める手段を有することを特徴とする請求の範囲1記載の低減縮小されたニューラルネットワーク
  3. 第1の変量(EG)をOptimal Brain Surgeon(最適脳外科医)(OBS)の手法で求める手段を有することを特徴とする請求の範囲1記載の低減縮小されたニューラルネットワーク
  4. 第2の変量(ZG)、下記関係式から得る手段を有する、即ち、
    Figure 0003935211
    但し、
    kは、第1のインデックスを表わし、該第1のインデックスにより、一義的にそれぞれニューラルネットワークのトレーニングデータが表されるものであり、
    Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つのトレーニングデータを表わし、
    NN(Xk)は、トレーニングデータXkの印加の際生じるニューラルネットワーク(NN)の出力値を表わし、
    Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)へのトレーニングデータXkの印加の際得られるべきものであり、
    ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされている重みに基づく関数の偏導関数を表わし、
    Mは、所定の自然数を表わし、
    mは、所定の自然数を表わし、
    1は、所定の偶数の自然数を表わし、
    ここで、曲率カーブ変量(Ai)は、下記関係式から得られる、即ち
    Figure 0003935211
    又は
    Figure 0003935211
    から得られる、手段を有することを特徴とする請求の範囲1から3までのうちいずれか1項記載の低減縮小されたニューラルネットワーク
  5. 第2の変量(ZG)、下記関係式から得る手段を有する、即ち、
    Figure 0003935211
    但し、
    kは、第1のインデックスを表わし、該第1のインデックスにより、一義的にそれぞれニューラルネットワークのトレーニングデータが表されるものであり、
    Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つのトレーニングデータを表わし、
    NN(Xk)は、トレーニングデータXKの印加の際生じるニューラルネットワーク(NN)の出力値を表わし、
    Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)へのトレーニングデータXKの印加の際得られるべきものであり
    ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされている重みに基づく関数の偏導関数を表わし、
    Mは、所定の自然数を表わし、
    mは、所定の自然数を表わし、
    sは、所定の自然数を表わし、
    ここで、曲率カーブ変量(Ai)は、下記関係式から得られる、即ち
    Figure 0003935211
    又は
    Figure 0003935211
    から得られる、手段を有することを特徴とする請求の範囲1から3までのうちいずれか1項記載の低減縮小されたニューラルネットワーク
  6. 第3の変量(DG)を下記の規定関係式により形成する手段を有する、即ち、
    Figure 0003935211
    但し、
    kは、第1のインデックスを表わし、該第1のインデックスにより、一義的にそれぞれニューラルネットワークのトレーニングデータが表されるものであり、
    Kは、考慮されるトレーニングデータの数を表わし、Xkは、それぞれ1つのトレーニングデータを表わし、
    NN(Xk)は、トレーニングデータXKの印加の際生じるニューラルネットワーク(NN)の出力値を表わし、
    Ykは、設定値を表わし、該設定値は、ニューラルネットワーク(NN)へのトレーニングデータXKの印加の際得られるべきものであり、
    ∂/∂wiは、それぞれ第2インデックス(i)により指定マーキングされている重みに基づく関数の偏導関数を表わし、
    mは、所定の自然数を表わし、
    第3の変量(DG)を基準判定量(KG)において考慮する、手段を有することを特徴とする請求の範囲1から5までのうちいずれか1項記載の低減縮小されたニューラルネットワーク。
  7. 選択可能な第1の限界値は、除くべき重みの所定の百分率から得られ、
    重み(Wi)は、重み(Wi)に対する基準判定量(KG)が他の重み(Wi)の、所定の百分率の数の基準判定量(KG)を下回る場合、除くのに適する重み(Wi)として分類されるようにする手段を有することを特徴とする請求の範囲1から6までのうちいずれか1項記載の低減縮小されたニューラルネットワーク
  8. 除くのに適する重み(Wi)がニューラルネットワーク(NN)から除かれるようにする手段を有することを特徴とする請求の範囲1から7までのうちいずれか1項記載の低減縮小されたニューラルネットワーク
  9. 少なくとも除かれた重み(Wi)の第2変量(ZG)を記憶し、
    所定数の再び導入されるべき既に除かれた重みを再び導入し、ここで、再挿入されるべき重み次のような重みから得る、即ち、所定の第2の限界値より大である記憶された第2の変量(ZG)の値を有する重みから得る手段を有することを特徴とする請求の範囲8記載の低減縮小されたニューラルネットワーク
  10. 選択可能な第2の限界値再挿入されるべき重みの所定の百分率から得
    み(Wi)に対する少なくとも第2の変量(ZG)が他の重み(Wi)の所定の百分率の数の少なくとも第2の変量(ZG)の値を越える場合、前記重み(Wi)を再挿入する手段を有することを特徴とする請求の範囲9記載の低減縮小されたニューラルネットワーク
  11. 基準判定量(KG)第1変量(EG)と第2変量(ZG)との和から得る手段を有することを特徴とする請求の範囲1項から10項までのうち何れか1項記載の低減縮小されたニューラルネットワーク
  12. 基準判定量(KG)、第1変量(EG)と第2変量(ZG)との和と第3変量(DG)との差から得る手段を有することを特徴とする請求の範囲6記載の低減縮小されたニューラルネットワーク
JP53392597A 1996-03-25 1997-03-11 低減縮小されたニューラルネットワーク Expired - Fee Related JP3935211B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19611732.1 1996-03-25
DE19611732A DE19611732C1 (de) 1996-03-25 1996-03-25 Verfahren zur Ermittlung von zur Entfernung geeigneten Gewichten eines neuronalen Netzes mit Hilfe eines Rechners
PCT/DE1997/000473 WO1997036248A1 (de) 1996-03-25 1997-03-11 Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners

Publications (2)

Publication Number Publication Date
JP2000507376A JP2000507376A (ja) 2000-06-13
JP3935211B2 true JP3935211B2 (ja) 2007-06-20

Family

ID=7789341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53392597A Expired - Fee Related JP3935211B2 (ja) 1996-03-25 1997-03-11 低減縮小されたニューラルネットワーク

Country Status (5)

Country Link
US (1) US6311172B1 (ja)
EP (1) EP0890153B1 (ja)
JP (1) JP3935211B2 (ja)
DE (2) DE19611732C1 (ja)
WO (1) WO1997036248A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001283397A1 (en) * 2000-08-16 2002-02-25 Research Foundation Of State University Of New York Neural network device for evolving appropriate connections
DE10345440A1 (de) 2003-09-30 2005-05-12 Siemens Ag Verfahren, Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Analyse von Einflussgrößen auf einen Brennvorgang in einer Brennkammer unter Verwendung eines trainierbaren, statistischen Modells
DE102007008514A1 (de) * 2007-02-21 2008-09-04 Siemens Ag Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung
DE102010011221B4 (de) * 2010-03-12 2013-11-14 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102011076969B4 (de) * 2011-06-06 2015-01-08 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
US11315018B2 (en) 2016-10-21 2022-04-26 Nvidia Corporation Systems and methods for pruning neural networks for resource efficient inference
US11250325B2 (en) * 2017-12-12 2022-02-15 Samsung Electronics Co., Ltd. Self-pruning neural networks for weight parameter reduction
JP6743238B1 (ja) * 2019-04-23 2020-08-19 Dmg森精機株式会社 工作機械における変動量推定装置、及び補正量算出装置
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5288645A (en) * 1992-09-04 1994-02-22 Mtm Engineering, Inc. Hydrogen evolution analyzer
US5819226A (en) * 1992-09-08 1998-10-06 Hnc Software Inc. Fraud detection using predictive modeling
US5559929A (en) * 1994-07-29 1996-09-24 Unisys Corporation Method of enhancing the selection of a training set for use in training of a neural network

Also Published As

Publication number Publication date
US6311172B1 (en) 2001-10-30
DE19611732C1 (de) 1997-04-30
JP2000507376A (ja) 2000-06-13
DE59703599D1 (de) 2001-06-28
EP0890153B1 (de) 2001-05-23
WO1997036248A1 (de) 1997-10-02
EP0890153A1 (de) 1999-01-13

Similar Documents

Publication Publication Date Title
US5168549A (en) Inference rule determining method and inference device
US5729662A (en) Neural network for classification of patterns with improved method and apparatus for ordering vectors
CN107729999A (zh) 考虑矩阵相关性的深度神经网络压缩方法
CN107689224A (zh) 合理使用掩码的深度神经网络压缩方法
CN112529153B (zh) 基于卷积神经网络的bert模型的微调方法及装置
Hoffmann et al. Comparing a genetic fuzzy and a neurofuzzy classifier for credit scoring
EP1224562A2 (en) Robust modeling
JP3935211B2 (ja) 低減縮小されたニューラルネットワーク
CN113158024B (zh) 一种纠正推荐系统流行度偏差的因果推理方法
US5802507A (en) Method for constructing a neural device for classification of objects
CN104679868B (zh) 一种基于数据间关联关系的遗漏数据填补方法
US20200184383A1 (en) User intent classification using a multi-agent reinforcement learning framework
EP0694192B1 (en) Recognition system and method
Pendharkar et al. A misclassification cost‐minimizing evolutionary–neural classification approach
US20220122626A1 (en) Accoustic model learning apparatus, accoustic model learning method, and program
JPH0991263A (ja) ニューラルネットワーク構造最適化装置ならびに方法
CN116186384A (zh) 一种基于物品隐含特征相似度的物品推荐方法及系统
CN110415081A (zh) 一种基于内容的用户个性化产品的匹配推荐方法
JP7073171B2 (ja) 学習装置、学習方法及びプログラム
Szczuka Refining classifiers with neural networks
JP2907486B2 (ja) ニューラルネットワーク装置
CN114444654A (zh) 一种面向nas的免训练神经网络性能评估方法、装置和设备
AU2005203266A1 (en) Artificial neural network guessing method and game
Hassan et al. Rough neural classifier system
JP2021081930A (ja) 学習装置、情報分類装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060310

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees