JP2005516282A - 学習レートの非単調変化による性能の改善を伴う自己組織化特徴マップ - Google Patents

学習レートの非単調変化による性能の改善を伴う自己組織化特徴マップ Download PDF

Info

Publication number
JP2005516282A
JP2005516282A JP2003562812A JP2003562812A JP2005516282A JP 2005516282 A JP2005516282 A JP 2005516282A JP 2003562812 A JP2003562812 A JP 2003562812A JP 2003562812 A JP2003562812 A JP 2003562812A JP 2005516282 A JP2005516282 A JP 2005516282A
Authority
JP
Japan
Prior art keywords
learning rate
training
value
function
generated according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003562812A
Other languages
English (en)
Inventor
ヴィ アール ギュッタ,スリニヴァス
フィロミン,ヴァサント
トライコヴィッチ,ミロスラフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2005516282A publication Critical patent/JP2005516282A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Character Discrimination (AREA)
  • Measurement Of Resistance Or Impedance (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Feedback Control In General (AREA)

Abstract

自己順序付け特徴マップの重みを更新するために用いられる学習レートは、各々のトレーニングエポックに伴い単純に単調に減少されるように、その値にある種類の摂動を与えるプロセスにより決定される。例えば、学習レートは擬似ランダムプロセスに従って生成されることが可能である。結果的に、シナプス重みの速い収束が得られる。

Description

本発明は、位相幾何学的制限を条件とする一次元又は二次元離散マップに任意次元の入力を変換するニューラルネットワークである自己組織化特徴マップ(SOFM)に関し、特に、重みベクトルの初期値がランダムであるSOFMに関する。
ニューラルネットワークは、人工知能における研究の大きな分野を占めている。人工ニューラルネットワークは、相互接続された、動物の脳の平行構造体から発想を得た情報処理装置である。人工ニューラルネットワークは、適合性生物学的学習に対する神経システム及びアナロジーの観測特性の一部をエミュレートする数学モデルの収集を有するソフトウェア又はハードウェアネットワークの方式をとる。一般に、人工ニューラルネットワークは、動物の脳の神経に類似するソフトウェア又はハードウェアにおいて実現することができる多数の相互接続された処理要素を有する。これら処理要素間の接続は、シナプスに類似すると考えられる方式で重み付けされる。
ニューラルネットワークのトレーニングは、ニューロン間に存在する“シナプス”接続に対する調整(即ち、重み値)を行うことを有する。トレーニングは、トレーニングアルゴリズムが接続重みを繰り返して調整する、入力/出力データの集合への露光により実行される。これらの接続重みは、特定の問題点を解決するために必要な知識を記憶する。
ニュートラルネットワークは、極めて多くの実際の問題点に適用され、非常に複雑な問題点を有する。ニューラルネットワークはパターン認識と、音声認識、文字認識及び信号認識、並びに物理プロセスが理解できない又は非常に複雑である場合の関数予測及びシステムモデル化とに特に適している。
多くの種類のニューラルネットワークが存在する。一部の良く知られているものは、誤差アルゴリズムのバックプロパゲーション、学習ベクトル量子化、動径基底関数、ホップフィールド及びSOFMを用いてトレーニングする多層パーセプトロンを有する。データがどのよういネットワークにおいて処理されるかに依存して、一部はフィードフォワードとして分類され、他はする反復(即ち、フィードバックの実行)として分類される。ニューラルネットワークの他の特徴は、トレーニングされる機構である。一部は、スーパーバイズ式トレーニングと呼ばれる技術である一方、他の一部は、非スーパーバイズ式又は自己組織化と呼ばれる。スーパーバイズ式トレーニングにおいて、ネットワークは指示プロセスにより導かれる一方、非スーパーバイズ式アルゴリズムにおいて、データは、そのアルゴリズムに入力を提供する寄与に基づいて、類似するグループにクラスタ化される。
SOFM又はKohonen人工ニューラルネットワークは、非スーパーバイズドニューラルネットワークの一種である。非スーパーバイズド学習において、非トレーニングニューラルネットワークは、例に対して露出され、調整される内部パラメータとベクトルを入力する。SOFMにおいて、ネットワークのニューロン全てが同じ入力を受け取る。自己学習プロセスの各々の段階において隣接ノードと競争を行い、最も活性を有するノードが“勝利する”。学習は、勝者のニューロンの概念に基づいている。
非スーパーバイズ式学習は、n次元のハイパースペース(ここで、nは変数の数であるか又は各々の対象に関してなされた観測である)において知覚された近さに基づいて対象を共にグループ化することを可能にする。それ故、そのような方法は、一部の量子化の意味において、それらの主要な目的は対象又は母集団を単に区別することであるため、定性的であるとして認識される。
図1を参照するに、SOFMは、人口ニューロンの自己組織化ネットワークによりデータを分類する客観的方法を提供する。入力層110と競合層100の2つの層がある。入力層の各々のノードは、競合層におけるノードの集合に入るために接続される(コネクタ120により表されている)。例に示した構成において、各々のニューロンは、グリッドにおける8つの最近接ニューロンに接続されることが可能である。それらニューロンは、データにおける1つの入力に対応する各々のニューロンの重み(重みベクトル)の集合を記憶する。Kohonenネットワークの目的は、任意の次元であるが、代表的には一又は二次元の競合層にある離散マップに任意の次元の入力ベクトル(パターン)をマッピングすることである。入力空間において互いに近いパターンは、マップにおいて互いに近い必要がある。それらは、位相幾何学的に順序付けられる必要がある。
学習プロセスは次のようなものである。先ず、各々の出力ユニットの重みが、代表的には、開始のランダム値に初期設定される。重み変化が無視できるときに終了するインタラクティブプロセスが実行される。各々の多数の入力パターンに対して、勝利する出力ノード及び勝者の近傍のユニット全ては特定され、これらのノードの全てについての重みベクトルは更新される。勝利出力ユニットは、単純に、入力パターンに対して最小のユークリッド距離を有する重みベクトルを伴うユニットである。ユニットの近傍は、マップにおける(重み空間においてではなく)そのユニットのある距離の領域内にある全てのユニットを定義される。近傍の距離が1であって、全てのユニットの距離が僅かに1である場合、いずれのユニットからの水平方向又は垂直方向において、その近傍は領域内に含まれる。勝利ユニットの近傍(勝利ユニットそれ自身を含む)における全てのユニットの重みは、近傍における各々のユニットが入力パターンのより近くに移動されるように、更新される。その反復が実行されるにつれて、学習レートは減少する。パラメータがうまく選択される場合、最後のネットワークは入力データにおける自然クラスタを捕捉する必要がある。
重み変更の大きさを支配する係数は、学習レートとして知られている。重みベクトルにおける各々のアイテムへの調整は、次式に従って行われ、
ΔWi,j=α(I−Wi,j)sind/(2d)
ここで、Wi,jはi番目のノードのj番目の重みであり、αは学習レートであり、Iは入力ベクトルのj番目のベクトルであり、dは現在のノードと勝者との間の距離である。上記の式は先行技術において周知である数の1つであり、次のセクションで説明する本発明はそれを使用すること又は他を使用することが可能である。上記のように、トレーニングのプロセスは、重みにおける変化が連続的反復におけるある所定値の領域内に入るまで継続する。
“学習ルール(重み更新アルゴリズム)”の効果は、トレーニングセットが存在するn次元空間の領域に亘って、ニューロンを一様に分布することである。所定の入力パターンに最も近い重みベクトルを有するニューロンは、そのパターンに対して及び最も近いいずれの他の入力パターンに対して勝利することとなる。勝利することを可能にし、次いで、同じグループにあると判断される入力パターンは、それらの関係のマップが描かれるとき、1つのラインがそれらを取り囲む。結果として得られたマップにおいて、トレーニングセットにおけるアイテム間の関係を綿密に検査し、高次元入力空間における複雑な構造に対してさえ、これらの関係を視覚化することが可能である。
解を生成するプロセスに対して2つのフェーズがある。最初の第1段階において、先行技術にあっては、学習レートは1に近い大きい値から始まり、次第に単調に減少する。その減少レートは、指数関数的、線形的又はその他に従って減少することが可能であるが、先行技術に従って、特定のパターンは、一般に、特に重要であるとはみなされなかった。長い収束フェーズが続き、このフェーズはマップの微調整に関連している。学習レートは小さい値(例えば、0.1より十分小さい)において保たれ、各々の反復により単調に且つ次第に減少する。
いずれの所定の問題に対するSOFMの解の品質は、決して確実なものではない。入力ベクトルが高次元且つ複雑である場合、反復して結果を得るのに非常に長い時間を要し、悪い最終結果を得ることにもなりかねない。
SOFMにおいて、反復プロセスの進行の間に、学習レートが単調に減少するのではなく、学習レートはランダムな又は散発的な方式で選択される。これは、多くの例において、収束レートを増加させることが、実験的に見出された。先行技術に従うと、学習レートは時間変化し、単調に減少する必要がある。しかしながら、特に高次元の入力空間の場合の少なくともあるコンテキストにおいて、少なくとも初期状態の間の学習レートの散発的な変化は性能の改善につながる。
本発明について、更によく理解されるように、参照図面を参照しながら、特定の好適な実施形態と関連して説明することとする。図を参照することにより、詳細は、例を用いて、本発明の好適な実施形態のみについての例証としての説明を目的として示され、本発明の概念的特徴及び原理についての説明を容易に理解され、最も有用であるとして考えられることを提供する。この点で、本発明の構造的詳細については、本発明の基本的理解のために必要であること以上について更に詳細に示すことはせず、本発明の幾つかの形態をどのように実際に実施することが可能であるかを当業者が理解できる図面を用いて説明を行う。
図2を参照するに、本発明を実施するためのアルゴリズムは、段階S10における重みベクトルの初期設定から始まる。重みベクトル全てのためのランダム値は代表的選択である。段階S20において、サンプル入力ベクトルは、SOFMをトレーニングするために用いられる入力ベクトルのプールからランダムに取り出される。選択されたベクトルは入力ノードに適用され、勝利競合層ノードは、最小ユークリッド距離値
Figure 2005516282
に従って、段階30において特定され、ここで、Wi,jはi番目のノードのj番目の重みであり、Iは入力ベクトルのj番目の成分であり、Dはi番目のノードの距離である。最小距離値を有するノードは勝者である。段階S40において、学習レートノランダム値が生成される。この学習レートは、勝者ノード及び隣接ノードの重みを更新するために用いられる。段階S50において、勝者ノード及び全ての近傍ノードは、次いで、次式に従って更新される。
ΔWi,j=α(I−Wi,j)sind/(2d)
ここで、Wi,jはi番目のノードのj番目の重み、αはランダム学習レート、Iは入力ベクトルのj番目の成分、そしてdは現在のノードと勝者との間の距離である。上記のように、このトレーニングのプロセスは、連続的反復において重みの変化がある所定値以内に入るまで続けられる。このテストは段階S60においてなされる。
上記の式は、実施形態の説明を目的とする例であることに留意されたい。重みを更新するために用いられることが可能である他の式が存在し、本発明はいずれの特定の式に限定されるものではない。
ここで、図3を参照するに、学習レートの連続的値の生成は、本発明と整合性を有する種々の方法において実行されることができる。好適には、ランダムレートが値域を定める値は、シミュレーションが進行するにつれて、小さくなる必要がある。図3に示す一実施形態において、学習レートは、トレーニングプロセスが進行するにつれて次第に減少する境界線161及び162間のランダム値である。これは、図3の160に示すように、領域の単調減少である必要はないが、好適には、シミュレーションが進行するにつれ、学習レートは値がより小さくなり、より小さい領域において値域を定める。他の実施形態においては、学習レートは、より小さい領域160において変化するが、周期的に又は擬似ランダムに変化する。好適には、学習レートは、最初は1のあたりで変化し、大きさがすうオーダー小さくなり、0近くの値に減少する。
図4を参照するに、又、他の代替の生成方法は、トレーニングの順序付けフェーズの間に、学習レートノランダム変化(参照符号170において示される)と収束フェーズに対して学習レートの単調な減少(参照符号180において示される)への切り替えとを可能にする。
本発明の特定な実施形態について図を参照しながら説明したが、本発明が好適な実施形態に限定されることを意図するものではないことは理解されるであろうし、本発明の範囲及び主旨から逸脱することなく、種々の変更及び修正を実施することが可能であることは当業者には明白であろう。従って、本発明は、本発明の範囲及び主旨の範囲内に含むことが可能である、変更、修正及び相当をカバーすることを意図されている。
先行技術に従い且つ本発明の実施形態と整合する自己順序付け特徴マップの図である。 本発明の実施形態に従った本発明を実施するためのアルゴリズムを示すフロー図である。 SOFMのトレーニングの進行に伴う、学習レートパラメータの選択的ランダム生成を示す図である。 SOFMのトレーニングの進行に伴う、学習レートパラメータの選択的ランダム生成の他の方法を示す図である。

Claims (14)

  1. 自己順序付けマップをトレーニングするための方法であって:
    自己順序付けマップの重みの集合を初期設定する段階;並びに
    多くのトレーニングエポックに亘る前記重みを繰り返してトレーニングする段階;
    を有する方法であり、
    少なくとも多くの前記トレーニングエポックのために、単調以外の方式でトレーニングエポックに伴う減少値を変化させる関数に従って生成される学習レートに基づいて、前記繰り返してトレーニングする段階は前記重みを更新する手順を有する;
    ことを特徴とする方法。
  2. 請求項1に記載の方法であって、前記繰り返してトレーニングする段階は、ランダム又は擬似ランダム関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  3. 請求項2に記載の方法であって、前記繰り返してトレーニングする段階は、前記学習レートにおける値がトレーニングエポックに伴い領域を減少させることが可能であるような
    関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  4. 請求項2に記載の方法であって、前記繰り返してトレーニングする段階は、前記学習レートにおける値がトレーニングエポックに伴い減少する傾向にあるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  5. 請求項1に記載の方法であって、前記繰り返してトレーニングする段階は、前記学習レートにおける値がトレーニングエポックに伴い領域を減少させることが可能であるような
    関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  6. 請求項5に記載の方法であって、前記繰り返してトレーニングする段階は、前記学習レートにおける値がトレーニングエポックに伴い減少する傾向にあるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  7. 請求項1に記載の方法であって、前記繰り返してトレーニングする段階は、前記学習レートにおける値がトレーニングエポックに伴い減少する傾向にあるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  8. 自己順序付け特徴マップをトレーニングする方法であって:
    初めの重みベクトルのためにランダム値を選択する段階;
    トレーニングサンプルベクトルの集合からサンプルを取り出し、そのサンプルを前記自己順序付け特徴マップのノードに適用するようにする段階;
    少なくとも距離基準に従って前記自己順序付けマップの勝利競合ノードを特定する段階;並びに
    少なくとも前記勝利ノードのシナプス重みを調整する段階であって、トレーニングエポックに伴い単調である1以外の関数に基づく前記シナプス重みを更新するために用いられる学習レートのための値を選択する手順を含む、段階;
    を有する方法であって、
    前記サンプルを取り出す段階、前記特定する段階及び前記調整する段階を反復して繰り返す;
    ことを特徴とする方法。
  9. 請求項8に記載の方法であって、前記調整する段階は、ランダム又は擬似ランダム関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  10. 請求項9に記載の方法であって、前記調製する段階は、前記学習レートにおける値がトレーニングエポックに伴い領域を減少させることが可能であるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  11. 請求項9に記載の方法であって、前記調製する段階は、前記学習レートにおける値がトレーニングエポックに伴い減少する傾向にあるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  12. 請求項8に記載の方法であって、前記調製する段階は、前記学習レートにおける値がトレーニングエポックに伴い領域を減少させることが可能であるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  13. 請求項12に記載の方法であって、前記調製する段階は、前記学習レートにおける値がトレーニングエポックに伴い減少する傾向にあるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
  14. 請求項8に記載の方法であって、前記調製する段階は、前記学習レートにおける値がトレーニングエポックに伴い減少する傾向にあるような関数に従って生成される学習レートに基づいて前記重みを更新する手順を有する、ことを特徴とする方法。
JP2003562812A 2002-01-22 2003-01-21 学習レートの非単調変化による性能の改善を伴う自己組織化特徴マップ Withdrawn JP2005516282A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/055,352 US6965885B2 (en) 2002-01-22 2002-01-22 Self-organizing feature map with improved performance by non-monotonic variation of the learning rate
PCT/IB2003/000170 WO2003063017A2 (en) 2002-01-22 2003-01-21 Self-organizing feature map with improved performance by non-monotonic variation of the learning rate

Publications (1)

Publication Number Publication Date
JP2005516282A true JP2005516282A (ja) 2005-06-02

Family

ID=21997266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003562812A Withdrawn JP2005516282A (ja) 2002-01-22 2003-01-21 学習レートの非単調変化による性能の改善を伴う自己組織化特徴マップ

Country Status (8)

Country Link
US (1) US6965885B2 (ja)
EP (1) EP1485814A2 (ja)
JP (1) JP2005516282A (ja)
KR (1) KR20040075101A (ja)
CN (1) CN1623169A (ja)
AU (1) AU2003201125A1 (ja)
TW (1) TW200304096A (ja)
WO (1) WO2003063017A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162898A (ja) * 2004-12-06 2006-06-22 Sony Corp 学習装置および学習方法、認識装置および認識方法、生成装置および生成方法、並びにプログラム
EP3968088A2 (en) 2020-09-10 2022-03-16 Shin-Etsu Chemical Co., Ltd. Substrate with multilayer reflection film for euv mask blank, manufacturing method thereof, and euv mask blank
EP3968087A1 (en) 2020-09-10 2022-03-16 Shin-Etsu Chemical Co., Ltd. Substrate with multilayer reflection film for euv mask blank, manufacturing method thereof, and euv mask blank

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280054A (ja) * 2006-04-06 2007-10-25 Sony Corp 学習装置および学習方法、並びにプログラム
JP4201012B2 (ja) * 2006-04-06 2008-12-24 ソニー株式会社 データ処理装置、データ処理方法、およびプログラム
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
EP2472440B1 (en) 2011-01-04 2014-06-25 Siemens Aktiengesellschaft Method and system for diagnosis of plant status
CN103455843B (zh) * 2013-08-16 2016-03-02 华中科技大学 一种反馈型人工神经网络训练方法及计算系统
US10769545B2 (en) * 2014-06-17 2020-09-08 D-Wave Systems Inc. Systems and methods employing new evolution schedules in an analog computer with applications to determining isomorphic graphs and post-processing solutions
US10460237B2 (en) 2015-11-30 2019-10-29 International Business Machines Corporation Neuron-centric local learning rate for artificial neural networks to increase performance, learning rate margin, and reduce power consumption
US10599976B2 (en) * 2016-11-07 2020-03-24 International Business Machines Corporation Update of attenuation coefficient for a model corresponding to time-series input data
US11322073B2 (en) * 2018-09-21 2022-05-03 Dell Products, Lp Method and apparatus for dynamically optimizing gamma correction for a high dynamic ratio image
US11074344B2 (en) * 2018-12-19 2021-07-27 Intel Corporation Methods and apparatus to detect side-channel attacks
CN110705645A (zh) * 2019-10-09 2020-01-17 重庆医药高等专科学校 一种基于sofm神经网络的英语教学质量评估方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5398302A (en) * 1990-02-07 1995-03-14 Thrift; Philip Method and apparatus for adaptive learning in neural networks
FR2668625A1 (fr) * 1990-10-30 1992-04-30 Thomson Csf Procede d'apprentissage automatique et reseau connexionniste multi-couches pour la mise en óoeuvre de ce procede.
US5235673A (en) * 1991-04-18 1993-08-10 International Business Machines Corporation Enhanced neural network shell for application programs
JPH05346915A (ja) * 1992-01-30 1993-12-27 Ricoh Co Ltd 学習機械並びにニューラルネットワークおよびデータ分析装置並びにデータ分析方法
US6173275B1 (en) * 1993-09-20 2001-01-09 Hnc Software, Inc. Representation and retrieval of images using context vectors derived from image information elements
US5819245A (en) * 1995-09-05 1998-10-06 Motorola, Inc. Method of organizing data into a graphically oriented format
US5809490A (en) * 1996-05-03 1998-09-15 Aspen Technology Inc. Apparatus and method for selecting a working data set for model development
JP3647584B2 (ja) * 1996-12-26 2005-05-11 富士通株式会社 学習型自己定位装置
US20010034686A1 (en) * 1997-12-10 2001-10-25 Eder Jeff Scott Method of and system for defining and measuring the real options of a commercial enterprise
US5933818A (en) * 1997-06-02 1999-08-03 Electronic Data Systems Corporation Autonomous knowledge discovery system and method
DE69826298T2 (de) * 1998-12-29 2005-11-17 International Business Machines Corp. Verfahren und Vorrichtung zur Klassifikation von Netzwerkeinheiten in virtuellen LANs
US6477469B2 (en) * 2001-01-08 2002-11-05 Halliburton Energy Services, Inc. Coarse-to-fine self-organizing map for automatic electrofacies ordering

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162898A (ja) * 2004-12-06 2006-06-22 Sony Corp 学習装置および学習方法、認識装置および認識方法、生成装置および生成方法、並びにプログラム
JP4639784B2 (ja) * 2004-12-06 2011-02-23 ソニー株式会社 学習装置および学習方法、並びにプログラム
EP3968088A2 (en) 2020-09-10 2022-03-16 Shin-Etsu Chemical Co., Ltd. Substrate with multilayer reflection film for euv mask blank, manufacturing method thereof, and euv mask blank
EP3968087A1 (en) 2020-09-10 2022-03-16 Shin-Etsu Chemical Co., Ltd. Substrate with multilayer reflection film for euv mask blank, manufacturing method thereof, and euv mask blank
US11835851B2 (en) 2020-09-10 2023-12-05 Shin-Etsu Chemical Co., Ltd. Substrate with multilayer reflection film for EUV mask blank, manufacturing method thereof, and EUV mask blank
US11860529B2 (en) 2020-09-10 2024-01-02 Shin-Etsu Chemical Co., Ltd. Substrate with multilayer reflection film for EUV mask blank, manufacturing method thereof, and EUV mask blank

Also Published As

Publication number Publication date
WO2003063017A3 (en) 2004-07-01
TW200304096A (en) 2003-09-16
US6965885B2 (en) 2005-11-15
US20030140019A1 (en) 2003-07-24
CN1623169A (zh) 2005-06-01
AU2003201125A1 (en) 2003-09-02
KR20040075101A (ko) 2004-08-26
EP1485814A2 (en) 2004-12-15
WO2003063017A2 (en) 2003-07-31

Similar Documents

Publication Publication Date Title
Sarkar et al. A clustering algorithm using an evolutionary programming-based approach
US5832466A (en) System and method for dynamic learning control in genetically enhanced back-propagation neural networks
JP4710933B2 (ja) 学習装置、学習方法、およびプログラム
JP2005516282A (ja) 学習レートの非単調変化による性能の改善を伴う自己組織化特徴マップ
WO2007071070A1 (en) Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
CN117642753A (zh) 神经网络模型的低秩适应
Yang et al. A robust evolutionary algorithm for training neural networks
CN110929798A (zh) 基于结构优化稀疏卷积神经网络的图像分类方法及介质
Bullinaria Self organizing maps: fundamentals
CN110837891A (zh) 基于simd架构的自组织映射方法及系统
Kothari et al. Neural networks for pattern recognition
Tusar et al. Neural networks and modelling in chemistry
Pal et al. Fuzzy versions of Kohonen's net and MLP-based classification: performance evaluation for certain nonconvex decision regions
Quintana-Pacheco et al. Growing Neural Gas approach for obtaining homogeneous maps by restricting the insertion of new nodes
Rizzo et al. A comparison between habituation and conscience mechanism in self-organizing maps
Boniecki The Kohonen neural network in classification problems solving in agricultural engineering
Yip et al. Growing neural networks using guided evolutionary simulated annealing
US20230289563A1 (en) Multi-node neural network constructed from pre-trained small networks
Fall et al. Neural networks with dynamic structure using a GA-based learning method
Lee et al. Global optimization of radial basis function networks by hybrid simulated annealing
Ryland Modeling Integrated Cortical Learning: Explorations of Cortical Map Development, Unit Selectivity, and Object Recognition
Naval Jr et al. An evolutionary multi-objective neural network optimizer with bias-based pruning heuristic
Lari et al. A new approach to find optimum architecture of ANN and tuning it's weights using krill-herd algorithm
CN118505550A (zh) 一种基于混沌映射和自适应策略改进蜣螂算法的图像去噪方法
CA3206072A1 (en) Method and system for solving qubo problems with hybrid classical-quantum solvers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060119

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060317