JP2002509303A - 等化直交マッピングによる多次元データの視覚化および自己組織化 - Google Patents

等化直交マッピングによる多次元データの視覚化および自己組織化

Info

Publication number
JP2002509303A
JP2002509303A JP2000539447A JP2000539447A JP2002509303A JP 2002509303 A JP2002509303 A JP 2002509303A JP 2000539447 A JP2000539447 A JP 2000539447A JP 2000539447 A JP2000539447 A JP 2000539447A JP 2002509303 A JP2002509303 A JP 2002509303A
Authority
JP
Japan
Prior art keywords
output
layer
node
input
data pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000539447A
Other languages
English (en)
Other versions
JP3520048B2 (ja
Inventor
パオ,ヨー−ハン
モン,ズゥオ
Original Assignee
コンピュータ アソシエイツ シンク,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コンピュータ アソシエイツ シンク,インコーポレイテッド filed Critical コンピュータ アソシエイツ シンク,インコーポレイテッド
Publication of JP2002509303A publication Critical patent/JP2002509303A/ja
Application granted granted Critical
Publication of JP3520048B2 publication Critical patent/JP3520048B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • G06F18/21355Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)
  • Feedback Control In General (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】 本システムは、パターン・データの縮小次元マッピングを提供する。マッピングは、非線形ニューロンによる従来の単一隠れ層フィードフォワード・ニューラル・ネットワークによって適用される。本発明の1つの態様によれば、システムは、出力信号の共分散行列を対角行列すなわち定数×単位行列の形に縮小することよって、より低い次元の出力信号を等化し直交させるはたらきをする。本発明は、複雑な多次元データの大きな集合体を比較的「位相的に正しい」低次元近似で視覚化し、類似の目的を果たす他の方法に伴う不規則性を減少させ、同時にマッピングの高い計算効率を維持することができる。

Description

【発明の詳細な説明】
【0001】 <関連出願> 本出願は、1995年9月29日に出願された同時係属中の米国特許出願第0
8/536,059号の一部継続出願(CIP)である。
【0002】 <発明の背景> 本出願は、人工知能の技術に関し、より詳細には、パターン・データの大きな
集合体を組織化してその特徴の理解を容易にするための組織化システムに関する
【0003】 本システムは、特に化学特性情報などの獲得した実験的データの分析に適用さ
れ、特にそのような実験的データの分析に関して説明する。しかしながら、本シ
ステムは、構成要素の視覚化および理解を可能にするために、任意の関連データ
の集合の分析にも適切に適応できることを理解されたい。
【0004】 多くの特徴を持つパターン・データの大きな集合体の意味を理解することは困
難である。実際は、大きなデータの集合体でなく、各々が6つの特徴を含む40
0パターンの集合体でも「理解」はまったく困難である。自己組織化の概念は、
そのような状況で行わなければならず、その作業を行う主に2つのアプローチに
よって理解することができる。1つのケースでは、パターン空間内にデータがど
のように分布しているかを発見し、パターンの大きな集合体を多次元クラスター
やその他の分布でより簡潔に記述しようとするものである。これは、適応共鳴理
論 (ART:Adaptive Resonance Theory)やその他のクラスター分析手法の基礎と なる重要なことである。
【0005】 もう1つのケースでは、次元を縮小することに努力が払われる。これに対応す
る概念は、元の表現が多数の特徴を有し、冗長であり、いくつかの特徴が互いに
似た繰り返しであるというものである。そのような状況では、主要な特徴を抽出
し、次元縮小(dimension reduction)を行うことにより、各パターンと全てのパ ターンの記述を単純化することができる。次に、その縮小次元空間で内クラスタ
ー化が適切に行われる。カルフーネンレーブ(K−L)変換、K−L変換のニュ
ーラルネット・インプリメンテーション、および自動連想マッピング法(auto-a
ssociative mapping approach)はすべて、主成分分析(PCA)、特徴抽出お よび次元縮小に関するものである。
【0006】 実際には、2つの作業の流れは、完全に独立しているわけではない。たとえば
、ART法は、クラスターの形成において強力な「勝者独り占め」機構を有する
。これは、主要なプロトタイプを「抽出」し、その少数の主要なプロトタイプに
よって縮小した描写を形成するものとして見るのが適切である。特徴マップ法は
、横方向の刺激(excitation)−抑制(inhibition)によって、類似の特徴を持
つパターンが縮小次元特徴マップ内の連続領域にマップされるように類似パター
ンを集めることを目的としている。この方法は、次元をクラスター化し縮小する
。共通の目的は、データをより単純な表現に自己組織化することである。
【0007】 本明細書では、これと同じ自己組織化を行うための新しい手法について説明す
る。その概念は、データを元の表現から縮小次元の1つに非線形マッピングする
ことである。そのようなマッピングは、多層フィードフォワード・ニューラルネ
ットよって実施するのが適切である。パターンの記述における全変動(total va
riance)の保存の原理に基づいて、ネット・パラメータが教師なしに学習される
【0008】 次元縮小の概念は、それ自体、多少奇妙なものである。パターン・データの集
合体の次元を縮小した記述で、元のデータの集合体を表すことを可能にする。こ
れに対応する答えは、線形のケースでは分かっているが、一般的な非線形のケー
スでは詳しく説明するのはより困難である。
【0009】 本発明に至る発展の始まりは、カルフーネンレーブ(K−L)変換に基づく主
成分分析(PCA)の概念である。データ共分散行列の固有ベクトルは、関連デ
ータの非相関表現の基準を提供する。主成分は、大きい固有値、すなわちパター
ンによって大きく変化する特徴(変換された表現において)を有するものである
。大きい固有値が少数しかない場合は、縮小次元表現は、その少数の対応する固
有ベクトルによって適切に作成され、データ内のほぼ全ての情報が保存されたま
まになる。PCAにカルフーネンレーブ変換を利用することは、多くの非自明な
問題を扱うのに有効であることが分かっている。しかし、パターン認識では、保
存されるものが必ずしもクラス間の区別に役立つものではない限り、欠陥がある
【0010】 次のある程度関連した進歩は、PCAとK−L変換と線形ニューラル・ネット
ワークの概念を結合しようとしたことである。その取り組みでは、重みを学習す
るバックプロバゲーション・アルゴリズムまたは一般化へブ学習アルゴリズムを
使用して完全に接続された多層フィードフォワード・ネットによるニューラルネ
ット計算によって線形K−L変換を達成しようとした。このシステムでは、正確
な目標関数が与えられた場合、隠れ層の何れかのノードへの線形リンクの重みは
、共分散行列の固有ベクトルの成分であることが分かる。また、初期の研究は、
主成分を順番にどのように見つけることができ、またその手法により、きわめて
大きい共分散行列の全ての要素を評価する退屈な作業をどのように回避できるか
について述べている。
【0011】 初期の研究は、ネットワーク内のニューロンが非線形でもよい場合に何が達成
できるかという疑問を巧みに避けていた。この疑問は、他の取り組みにおいて検
討された。ひとつのケースでは、元のデータ・パターン・ベクトルは、非線形内
部層ノードを有する多層フィードフォワード・ネット内の多くの変換層によって
処理される。そのようなネットの出力層には入力層と同じ数のノードがあり、目
的は、全ての入力に対して、出力層が入力を再生できるようにネットを訓練する
ことである。これにより、いわゆる自動連想学習構成が実現される。さらに、内
部層のうちの1つは、おそらくノードの数を大幅に減少させたボトルネック層と
してはたらく。その減少した数のノードからの出力が、全ての場合において入力
を厳密に再生することができるので、ボトルネック層のノードは、主成分の集合
体と見なすことができる。これは、そのような学習で得られる解は唯一のもので
なく、初期状態と学習段階でデータ・パターンが提示される順序によって極端に
異なる点を除き、許容できる見方であることが分かる。結果は興味深いが、主成
分の唯一の集合はない。
【0012】 もう1つの初期の特徴マップの手法では、次元縮小がさらに別の方法で達成さ
れる。縮小次元空間は、2次元として定義されるのが適切である。その場合、縮 小次元空間には、点の格子が広がっており、パターン・ベクトルは、そのような
格子点の各々に結合する。そのようなパターン・ベクトルは、問題のものと同じ
パターン領域からランダムに選択される。次に、問題のパターン・ベクトルは、
格子に結合した基準ベクトルとの類似度に基づいて縮小次元空間の格子点に割り
当てられる。これは、その手続きの生物学の影響を受けた面すなわち横方向の刺
激−抑制をもたらす。パターン・ベクトルが格子点に割り当てられるとき、最初
は本質的にランダムになる。これは、その格子点が偶然パターン・ベクトルと最
も類似した基準ベクトルを有することがあるためである。しかし、割り当てられ
た後、基準ベクトルは、入力パターン・ベクトルのものとさらに似るように修正
され、横方向に接近した格子点の全ての基準ベクトルも、その入力パターンとも
っと似るように修正される。このようにして、偶然に生じものはすぐになくなり
、実際上、元のパターン空間内において類似したパターンが縮小次元空間内に集
められる。偶然により、もし事態が少し違うように進行した場合には、連続した
領域に帰属されるパターンについて、2以上の全く異なるゾーンが作られること
がある。一方、そのような性質による結果は、計算作業の目的を損なわないであ
ろう。
【0013】 データの自己組織化を行うART手法をこの文脈で説明することができる。何
故なら、MAX−NETがクラスターを作成する際に勝者ひとり占め手法を実施
し、クラスター空間におけるクラスター中心間の距離と関連しないが、実際の横
方向の抑制があるためである。データの圧縮はあるが次元縮小はない。
【0014】 本発明の第1の態様によれば、上記その他の問題は、きわめて効率の高いシス
テムを使用して、パターン次元データを十分に明白な2次元表現に自律的に縮小
するシステムを提供することで解決できる。
【0015】 エンジニアリングにおける多くの作業が、組織化されていない生データから有
益な情報を抽出するプロセスを含むことが分かる。しかしながら、前述のように
、大きな組の多次元データの意味を理解することは困難な作業である。その難し
さは、主に、パターン間の関係を容易に把握できない点によるものである。視覚
的表示は、この種の分析を導くのに最も便利なツールの1つであった。残念なが
ら、3次元よりも高い次元に関しては、意味のある形で実現することは直接的に
は不可能である。
【0016】 前述のように、生データの意味を理解するためには、生データの複雑さを減少
させなければならない。この問題に取り組むために、一般に、2つの大きなカテ
ゴリーの手法が使用される。第1のカテゴリーでは、クラスター化やコホネンの
自己組織化マップ(SOM)などの方法を利用し、データ・パターン間のユーク
リッド距離などの情報を使用して多次元空間内にデータ・パターンがどのように
分布しているかを推論する。そのような方法の重要な点は、クラスター属性や他
の分布によって大量のデータ・パターンをより簡潔に説明することである。
【0017】 第2のカテゴリーの手法は、次元の縮小に重点を置いたものである。すなわち
データ・パターンの各々と全てを説明するのに必要な特徴の数を少なくすること
に重点を置いたものである。この概念は、おそらく元のデータ空間の次元が互い
に独立でない、すなわちそれらの次元が、必ずしも既知の次元のものである必要
はないが、ほんの少数の独立した固有次元(inherent dimension)の少し複雑な関
数であることがあるというものである。したがって、目的は、この縮小次元空間
を使用してパターンを示すことである。このカテゴリーに属するいくつかの方法
は、カルフーネンレーブ(K−L)変換による線形主成分分析(PCA)、PC
Aのニューラル・ネットワーク・インプリメンテーション、自動連想マッピング
法、および非線形分散保存(NLVC)マッピングである。これらの方法は、一
般に、高次元の空間を低次元の空間にマッピングしようとするものである。また
、その逆を行う方法もある。その一例は、C.M.Bishop、M.SvensenおよびC.K.I.W
illiamsによる「GTM: The generative topographic mapping」と題する論文に記
載された生成トポグラフィック・マッピング(GTM)である。
【0018】 しかしながら、前述の2つのカテゴリーが完全に別々のものではないことを理
解されたい。データをさらに理解しやすくするために、引き続き縮小次元空間内
でクラスター化を使用することができる。SOM法は、縮小次元特徴マップにお
ける横方向の刺激−抑制により類似パターンを収集する。したがって、SOMは
、次元を縮小しクラスター化する。
【0019】 線形的な性質によって既に制限されている線形PCA法を除く前述の他の方法
は、高次元データを低次元空間内の個別の格子点にマッピングする。即ち、低次
元マップの外観は、マッピング・パラメータの最初の(通常はランダムな)選択
にきわめて依存する。
【0020】 格子点マップは、通常、元のデータ空間内の近くにある点がマップ内でも近く
にある限り、データ点の厳密な相対位置があまり重要でないような分類や符号化
などの用途に有効である。たとえば、GTM法は、低次元空間内に均一に分布し
た放射方向に(radially)対称なガウス分布であると仮定した1組の非線形基本
関数と低次元の点の格子とで始まる。低次元から高次元への格子点のマッピング
は、線形に重みつけしたそのような基本関数の合計であると仮定される。その場
合、高い次元の確率密度は、高い次元にマッピングされた格子点に中心を有する
放射対称のガウス分布によって作ることが提案される。GTMに関するビショッ
プの研究では、ベイズの法則を使用して、マッピングを反転させ、高い次元の空
間内の分布に対する各格子点のレスポンシビリティを評価することができると仮
定している。次に、レスポンシビリティ情報によって、高次元でのデータ点の類
似度を再評価することができる。この結果を最適化して高い次元での既知のデー
タ点の分布を与えることによって、マッピングの重みパラメータおよび密度分布
をなすガウス分布の幅パラメータを対話式に学習する方法が得られる。学習が集
束すると、表示のためのデータ点の低次元マップをレスポンシビリティ情報によ
って生成することができる。マッピング関数が滑らかで連続している場合は、低
い次元において隣り合った点は、高い次元において隣り合った点に対応する。し
かし、その逆は正しいとは限らない。何故なら、高い次元におけるあるデータ点
では、マッピング関数によって生成されるマニホールドの形によって格子点上の
ガウス分布のレスポンシビリティが多重モード(multi-modal)になることがあ るためである。データ点は、1つの格子点または隣り合った少数の格子点のレス
ポンシビリティではなく、低い次元のマップ上の離間したいくつかの格子点のレ
スポンシビリティである場合がある。そのようなマップは、分類などの目的には
有効であるが、そのようなマップ上の格子点間の補間の解釈が難しいため、この
種のマップを最適化に使用するのは不適切である。また、SOMによって得られ
るような他の格子点マップには、格子点間の補間の解釈において同様の難しさが
ある。
【0021】 自動連想マッピングやNLVCマッピングなどの非線形PCA形マッピングに
は補間の難しさはないが、低次元マップの外観は、通常、初期パラメータの選択
によって決まる。この依存について、例としてNLVCマッピングを使用して以
下に説明する。データ点分布が適切なマップを得るためには、満足なものが見つ
かるまで多くの回数のトライアルが必要であろう。
【0022】 本発明の第2の態様により、前述の複雑さを減少させる問題とその他の問題に
取り組む。これに関して、本明細書では、等化直交マッピング(EOM:Equaliz
ed Orthogonal Mapping)と呼ばれる手法を説明する。この手法は、第2のカテ ゴリーに分類され、補間機能を考慮し初期パラメータへの依存性の減少を念頭に
置いて開発される。
【0023】 BOM法は、バックプロバゲーション学習法によって実現することができる。
この方法の詳しい方程式を後で導出し説明する。また。縮小次元マップを得る際
のEOMの使用例と、SOM法、NLVC法との比較について説明する。さらに
、2つの状態についての結果を示す。あるケースでは、入力データは、表面上は
5次元であるが、実際の性質は2次元である。別のケースでは、マッピングをガ
ソリン混合データの集合体に適用し、得られたマップを最適化のために使用でき
ることを示す。
【0024】 本発明の以下の説明は、縮小次元表現が、表現が視覚化しやすい2次元の場合
のマッピングを対象とするが、本発明は、他の次元にも適していることを理解さ
れたい。
【0025】 <発明の要約> 本発明により、ニューラル・ネットワークを含む、多次元パターン・データを
次元表現に組織化するシステムが提供される。ニューラル・ネットワークは、ニ
ューラル・ノードの層からなる。これらの層は、入力層と出力層、およびその間
に配置された1つまたは複数の隠れ層を含む。出力層は、共通の内部ネットワー
ク表現を共有する第1と第2の非線形ノードからなる。多次元パターン・データ
は、ニューラル・ネットワークの入力層に受け取られる。このシステムは、ニュ
ーラル・ネットワークの出力層において、受け取った多次元パターンに対応する
出力信号を生成する。
【0026】 本発明のもう1つの態様によれば、ニューラル・ネットワークの重みの教師あ
り学習を完成させるシステムをさらに含むように、多次元パターン・データの2
次元表現への組織化が提供される。
【0027】 本発明のさらに他の態様によれば、ニューラル・ネットワーク内に多次元パタ
ーン・データを受け取る段階と、バックプロパゲーションによって訓練されたニ
ューラル・ネットワークを介して出力信号を出力する段階とを含む、多次元パタ
ーン・データを2次元表現に組織化する方法が提供される。出力信号は、共通の
内部ネットワーク表現を共有する第1と第2の非線形ノードからなる出力層によ
って生成される。
【0028】 本発明の方法のさらに限定された態様によれば、前述の方法を達成するために
ニューラル・ネットワークの訓練を完成させる段階が提供される。
【0029】 本発明のさらにもう1つの態様によれば、多次元パターン・データの次元縮小
マッピングを行う新しい手法が提供される。この手法は、非線形ニューロンを有
する従来の単一隠れ層フィードフォワード・ニューラル・ネットワークによるマ
ッピングに適用されるが、機能評価に使用される従来のネットのように出力を指
定するのではなく、出力の共分散行列を対角行列すなわち定数×単位行列の形に
縮小することによって低次元出力を等化し直交させるという異なった目標機能を
ネットワークは有する。このマッピングには属性情報が使用されないので、本質
的に教師なしの学習手順である。本明細書で、そのようなマッピングの詳細なバ
ックプロバゲーション学習手順を説明する。
【0030】 本発明のもう1つの態様によれば、複雑な多次元データの大きな集合体を、比
較的「位相的に正しい」な低次元近似で視覚化して、類似の目的を果たす他の方
法と関連する不規則性を減少させ、同時にマッピングの計算効率を高く維持する
方法が提供される。本明細書では、意味のある2次元マップを得る際のこの手法
の使用法の例と、自己組織化マッピング(SOM)、非線形分散保存(NLVC
)マッピングの手法との比較について説明する。
【0031】 本発明の利点は、パターン・データの2次元表現の自動作成を可能にするニュ
ーラル・ネットワークを提供できることである。
【0032】 本発明のさらにもう1つの利点は、特徴を人間が見て分類できるようにパター
ン・データ内にある関連した特徴を明白な形で分離するパターン・データの2次
元表現を作成できることである。
【0033】 さらに、本発明のもう1つ利点は、従来の処理ハードウェアを用いて実時間計
算を可能にするためにパターン・データを効率よく組織化するニューラル・ネッ
トワークを提供できることである。
【0034】 本発明のさらにもう1つの利点は、分散(variance)を制御することによって
パターン・データの次元を縮小するシステムを提供できることである。
【0035】 本発明のさらにもう1つの利点は、出力の分散行列を対角行列すなわち定数×
単位行列の形に縮小することによってパターン・データの次元を縮小するシステ
ムを作成できることである。
【0036】 本発明のさらに他の長所および利点は、以下の詳細な説明を読み理解すること
により当業者には明らかになる。
【0037】 <好ましい実施形態の詳細な説明> 以下図面を参照するが、図面は本発明の好ましい実施形態を示す目的であって
本発明を制限するものではない。図1は、部分(a)において、自動連想法を示
し、一方、部分(b)は、好ましい実施形態によって提供されるような次元縮小
による非線形分散保存マッピングを示す。これらの2を別々に説明する。並べて
図示したのは、従前の手法(a)とこの好ましい実施形態のアーキテクチャとの
間のアーキテクチャ上の長所と違いを示すためである。
【0038】 部分(a)において、ニューラル・ネットワーク10は、入力層12と出力層
14を有する。部分(a)の図において、入力層12は、5つのノード20、2
2、24、26、および28を含み、各ノードは、関連した入力を有する。また
、出力層14は、5つのノード30、32、34、36および38からなるよう
に示されている。入力層12と出力層14の各々に示されたノードの数は、5つ
に制限されない。これらの層のノード数は任意(複数)に選択することができ、
その値は同じでなくてもよい。ノードの具体的な数は、用途に大きく依存する。
ニューラル・ネットワーク内に配置された任意の内部層40は、2つの内部ノー
ド42と44に狭ばめられている。したがって、提供される全てのパターン・デ
ータが図示の層40によって集中、即ちネッキングされることが図から理解され
よう。
【0039】 次に、好ましい実施形態の部分(b)を参照すると、ニューラル・ネットワー
ク100は、入力層102を含む。入力層102は、例示に過ぎないが、5つの
入力ニューロン110、112、114、116および118として構成された
複数の入力を含む。開示したニューラル・ネットワーク100のアーキテクチャ
は、部分(a)によって提供された内部層40と類似のものを内部に含まないこ
とを理解されよう。
【0040】 (b)のアーキテクチャは、第1とニューロン132と第2のニューロン13
4からなる出力層130を提供する。好ましい実施形態の例として、2つのニュ
ーロンが、出力層130において選択される。この選択により、パターン・デー
タを2次元的に実現し視覚化することができる。以下の説明から、好ましい実施
形態の出力層全体が、共通の内部ネットワーク表現を共有する非線形ノードから
なることを理解されよう。(a)の説明と同じように、入力層102を構成する
ノードの数は、特定の用途とハードウェアの選択によって選択されることを理解
されたい。
【0041】 次に、例示として、5次元から2次元への次元縮小を考える。自動連想法では
、図1(a)に示したようなネットが使用され、このネットは、恒等オペレータ
(identity operator)としてはたらくように訓練される。ネットの出力ベクトル は、常に、入力パターン・ベクトルとほとんど同じになる。データの固有次元数
が2次元よりも高い場合、ネットは恒等オペレータとは多少異なったものになる
ことが理解されよう。ネットは、時として自己教師法(self-supervised manner
)と呼ばれる方法で訓練される。
【0042】 この新しい手法に使用されるネットは、あまり複雑ではない。目的は、5次元
ではなく2次元の表現によってできるだけ多くのデータ情報を保存することであ
る。2次元表現を計算するためのネットは、図1(b)に示したものだけであり
、2次元表現における分散が5次元表現の分散とほぼ同じであるという基準で訓
練される。この手法において、出力ノードは非線形であり、共通の内部ネットワ
ーク表現を共有することが不可欠である。
【0043】 {xp},p=1,2,...Pを、データ・パターン・ベクトルの集合とす る。なお、Pは、正の整数として定義され、データ・パターン・ベクトルの集合
は、次の式で与えられる全変動を有する。
【0044】
【数29】 (式1) ここで、最初、次元S=5である。
【0045】 表記<>は、示した各成分についての入力データ・パターン・ベクトルの集合
全体の平均を示し(すなわち、<xi>は、データ・パターン・ベクトルの集合 全体のxipの平均値を表す)、xipは、入力データ・パターン・ベクトルの集合
のp番目の構成要素であるxpのi番目の成分である。
【0046】 全変動の「大きさ(measure)」が、全変動の線形関数または非線形関数であ ることを理解されたい 。
【0047】 図1(b)に示したネットは、同じ組のデータ・パターン・ベクトルの縮小次
元表現で計算された分散ができるだけVに近くなるように訓練される。 訓練にバックプロパゲーション・アルゴリズムを使用して、出力ノードの重み
を漸進的に変化させる次の式は、通常と同じである。
【0048】
【数30】 (式2) ここで、記号はすべて、その通常の意味を有する。
【0049】 Opjは、p番目のデータ・パターンによる出力層の直前の層のj番目のノード
からの出力信号であり、ηは、効率的に集束させるが発振の発生を防ぐように選
択された適切な値の定数であり、δpkは、p番目の入力データ・パターンについ
ての出力層のk番目のノードの出力による誤差Eへの奇与に比例する値(すなわ
ち、分散の感度の大きさ)である。
【0050】 このケースと、ニューラル・ネット計算の通常の教師あり学習タスクとの差は
、このケース(すなわち、シグモイド)では次の式によって与えられるδpkの式
に現れる。
【0051】
【数31】 (式3)
【0052】 式(3)において、Vは、訓練用入力データ・パターンの集合について計算し
た分散であり、鉤括弧内の二重和により、同じデータの縮小次元の出力表現につ
いての分散が得られる。学習手順の効果は、元の分散と縮小次元分散との差をで
きるだけ最小にしながらデルタ値を小さくすることである。
【0053】 図1の説明から、隠れノードがネットワーク100の領域150に表示される
ことを想起されよう。前と同じように、隠れ層ノードについては、そのようなノ
ードの重みを漸進的に改善する式は、次の通りである。
【0054】
【数32】 (式4A) 又は
【数33】 (式4B) ここで、Opjは、p番目の入力データ・パターンのj番目の層の直前の層のi
番目のノードについての出力信号である。
【0055】 「隠れ層」は、 放射式関数アーキテクチャや機能リンクにおいて実施される ような非線形機能変換層でもよいことを理解されたい。
【0056】 データ・パターンは、パターン空間におけるベクトルと見なすことができ、そ
の成分は、それらを記述するために使用される座標系、すなわちその空間を張る
ために使用される基底ベクトルによって値が変化する。
【0057】 データ共分散行列のトレースは、事実、パターン空間を張る基底ベクトルの一
次変換に関して変化しない。この手法は、変換が非線形であることを可能にする
が、全変動を保存しようとする。
【0058】 式(3)と式(4A,4B)で規定された学習手順においていくつかの簡略化
を行うことができる。様々なパターンの相対位置に関心があるので、元の完全次
元表現における各特徴の平均値は重要でない。それらの値は、式(3)において
ゼロに設定することができる。
【0059】 これにより、結果的に、パターン・ベクトルの分布全体が1つの剛体としてそ
のままずれることになり、相対位置の情報は失われない。
【0060】 同様に式(3)において、パターン・ベクトルの縮小次元分布がゼロ平均とな
ることが前もって適切に決定される。これにより、学習が進むにつれて常に変化
する平均を計算する多少面倒な段階がなくなる。学習の条件として平均を設定す
ることにより、相対的分布全体がずれることになる。
【0061】 式(3)はそのように維持されるが、分散の制約は、実際に信号強度の制約に
なる。学習は、全てのパターン・ベクトルを同じ方法でマッピングする重みの単
一集合を学習し、縮小次元空間内の各特徴値をできるだけゼロに近くづけ、さら
に全体の信号強度すなわち(ゼロ平均)分散を保存するように努力することを含
む。
【0062】 更なる理論的研究が進められているが、理論によってではなく結果によって本
発明の実施が動機づけされ、正当化されると考えるべきである。 いくつかの典型的な結果を、この考察のこの節と次の節に提示する。
【0063】 この節では、3次元データを2次元に縮小する縮小次元自己組織化の3つの異
なる手法の結果を示す。当然ながら、データが本質的に3次元の場合にはこれら
の手法を用いることは奇妙である。一方、ほとんどの場合、本質的な次元は一般
に未知であり、したがってこの簡単で十分に制御された練習(exercise)は、新
しい表現の次元数が本質的な次元数よりも少ないときに何が起きるかに関する洞
察を提供する。
【0064】 3次元螺旋に沿った点を「自己組織化された」2次元表現で示されると、その
表現はどのように見えるだろうか。すなわち、どの情報が廃棄されどの情報が保
存されるだろうか。
【0065】 図2に、螺旋に沿ったデータ点を示す。図3に、そのデータの2次元自己組織
化したK−L描画を示し、図4に、自動連想マッピングで得られたものを示し、
図5に、この手法で得られた2次元表現を示す。
【0066】 少なくともこの特定のケースでは、この非線形分散保存(NLVC)法で得ら
れた縮小次元表現は、自動連想方法で得られたものに比べて曖昧さが少ない。
【0067】 この作業は、パターン相互の差に関する情報をできるだけ多く維持しながら次
元縮小を実現する。K−L法、自動連想法、および非線形分散保存法の長所と短
所は、次の通りである。
【0068】K−L変換法 長所−理論的根拠が十分に分かっている。 短所−共分散行列の計算に時間がかかる。次元縮小が大きいときに線形制約によ
って情報が失われる。
【0069】自動連想法 長所−理論的根拠が妥当である。必要は場合は非線形とすることができる。 短所−訓練時間が長く、誤解を生じるマッピングを行うように過度に訓練されや
すい。
【0070】非線形分散制限法 長所−概念的に妥当で、計算効率が高く、大きな歪を伴うことなく次元縮小が可
能。 短所−手法を一般化し、マッピングが「位相的」に正しいことを明らかにするた
めに追加の理論的研究が必要で、計算結果はすべて、順序がある程度非自明的に
保存されるが、現時点よりも正確にすることは難しいことを示している。
【0071】 文献には、クラスター化または分類の手順の効率を評価するために様々な調査
者が使用したガソリン混合データがある。そのようなデータの例を、表1(図1
1)に示し、この表で、各々のガソリン混合物は、その5つの成分の量と調査オ
クタン価によって説明される。この5次元データの集合体は、このNLVC法を
使用して2次元空間上にマッピングされた。得られたデータの集合体は、図6に
示したように容易に2次元で表示して見ることができ、データが意味することを
理解するのに非常に有益である。
【0072】 そのようなグラフは、図6に描かれた線で示されるように、メモリならびに分
類規則表現装置として適切に機能する。図6の線は、高オクタンの混合物を低オ
クタンの混合物から分離している。さらに、そのグラフにおいて、混合物のうち
の3つが、示した「規則」に従わないことが容易に分かる。同様の規則違反は、
K−L法と自動連想法により得られたマッピングでも観察されたことは興味深い
【0073】 元の5次元空間での変化に対する2次元空間での点の位置の感度は、容易に探
索することができ、そのいくつかの表れを図7に示す。そのような情報は、様々
な異なる組成領域において改良された他の混合物を考え出す方法を導くことがで
きる。
【0074】 本NLVC次元縮小システムは、また、複雑な時間依存センサ出力プロファイ
ルを2次元空間内の点にマッピングするために適切に使用される。さらに、プロ
ファイルの性質の変化を縮小次元空間内の点の動きとして検出することができる
【0075】 ある工業設備では、プロセスの状態がセンサによって監視されており、時間依
存センサ出力プロファイルを使用して、動作が「故障」状態かまたはそれに近い
かどうかに関する情報を提供することができる。この研究では、1つのセンサか
らのプロファイルがそれぞれ、表2(図12)に示したような5つの特徴のパタ
ーンに縮小された。そのようなデータの集合体は2つ作成された。その1つの集
合体は、解釈モードを「訓練」し、もう1つは解釈機構の有用性を試験するもの
である。
【0076】 各プロファイル・パターンは、NLVCマッピングを使用して2次元の点に縮
小されており、訓練セット・プロファイルの集合全体を、図8に示したような単
一の2次元グラフで示すことができる。
【0077】 いわゆる「訓練」の動作は、結果として、2次元空間内の各点について分かっ
ていること、センサ出力プロファイルを表すその点が、「故障」または「無故障
」状態と関連付けられているかどうかを示すことになる。
【0078】 処理したデータについて、プロファイルが確かに「故障」または「無故障」状
態を表していることが分かる。図8のグラフでは、2種類のプロファイルを表す
点が、確かに、線形ではないがはっきりと分かれる。そのような環境では、新し
いプロファイルを「故障」または「無故障」として分類する規則を容易に決める
ことができる。図9に示したように、そのような規則は、プロファイルの試験セ
ットからの点によって十分に正しいことが確認された。
【0079】 表3(図13)に、いくつかの半導体材料の代表的な4つの結晶構造パラメー
タの値をリストする。また、そのような材料の電子帯における「バンドギャップ
」の値をリストする。
【0080】 4特徴結晶構造パターンのNLVCマッピングにより、図9に示したマップが
得られた。低バンドギャップ材料は、マップの左上部分の方にあるように見え、
その分布を調べることによって、結晶構造のどの組合せが低バンドギャップに関
係している可能性があるかに関するヒントが得られる。
【0081】 本システムは、特に理解が容易な2次元表示に重点をおいて開示されている。
3次元表示も人間に適している。しかし、それよりも高い次元での表示はすべて
、視覚化し「理解」することが困難である。
【0082】 この新しい方法は、特に、計算効率が高い。実験結果は、強力で魅力的な方式
において「位相的に正しい」ことを示す。
【0083】 本システムは、縮小次元空間に非線形マッピングを行いながら元の分散をすべ
て保存しようとする。前述の方法で得られたマップは、様々な作業に適切に使用
され、対象および対象の進化の時間的履歴の類似した記述を関連した形で記憶す
るのに適した視覚的連想記憶としても使用することができ、その結果、新しい対
象をメモリの領域にマッピングすることにより、気付くべき他の事柄に関するヒ
ントが提供される。
【0084】 分散に基づく手法では、目的は、データの分散の多くを保存し、新しい表現で
のデータ・パターン・ベクトルの成分ができるだけ多く相関がないようにするデ
ータの縮小次元マッピングを見つけることである。
【0085】 この手法により、興味深い形で特徴マップ法と類似の結果が得られることが分
かる。2次元縮小次元マッピングにおいて、類似のリサーチ・オクタン価を有す
るパターンが連続領域に自動的にマッピングされることが偶然に起こる。クラス
ターは考慮しない。その代わりに、かなり一般的なカテゴリー識別規則を容易に
作ることができる。しかしながら、縮小次元マップは、改良した混合物を考えだ
す手引きとなる。
【0086】 この方法を複雑なセンサ・データに適用すると、この場合も、故障状態を表す
パターンが、「無故障」状態を表すパターンと異なる2次元マップの明らかに自
己組織化された領域内にあることが分かる。
【0087】 前述のケースでは、カテゴリーまたは特性値がパターン記述と強く関連付けら
れていなければならなかった。縮小次元マッピングは、その環境をより明らかに
し容易に視覚化されるようにするだけである。さらに別のケースでは、この同じ
手法は、多数の標本を含まないという意味でまばらで、また多くの特徴値が欠け
ているという意味でまばらなデータの集合体に適用され、その結果実際にこの訓
練に小さい特徴のサブセットしか利用できない。データは、半導体の結晶構造パ
ラメータの集合体であり、結晶構造「空間」のある領域が低バンドギャップと関
連しているかどうかを確認することに関心があった。縮小した2次元マップは、
さらに詳しい探索にどの領域が役立つかのヒントを提供した。
【0088】 次に、図14〜図22を参照して、本発明の第2の態様すなわち等化直交マッ
ピング(EOM))について説明する。EOMの意図は、データの位相をできる
だけ多く保存するマッピングにより、データ・パターン間のパターン間の関係を
見つけて示すことである。これは、学習プロセスにおいて出力の分散行列の要素
の値を制限することによって達成される。訓練の終わりに、出力の分散行列は、
定数×単位行列の形に縮小される。これにより、縮小次元が等しく重要で互いに
直交することが保証される。
【0089】 図14に示したように、EOM法は、1つの隠れ層を含む従来の3層フィード
フォワード・ネットNによって達成することができる。ネットNは、入力層、隠
れ層、および出力層を含む等化直交マッピングのためのネットワーク構造を示す
。ノード間の線は、隣接した層のノード間の「リンク」を表す。前述のように、
「隠れ層」は、機能的リンクや放射式アーキテクチャで実施されるような非線形
機能的変換層でもよい。
【0090】 ネットNは、バックプロバゲーション・アルゴリズムを使用して訓練される。
最初に、ネットの重みが、区間[−W、W]内でランダムに生成される。これら
の重みは、学習プロセスによって繰り返し調整される。
【0091】 {xp}、p=1,2,...,Pを、S次元の入力データ・パターン・ベク トルの集合とする。これらのデータ・パターン・ベクトルの全ての次元の平均分
散は、次の式で与えられる。
【0092】
【数34】 (式5)
【0093】 ここで、「<>」は、示した各成分についての入力データ・パターン・ベクト
ルの全ての平均を示し(すなわち、<xi>は、データ・パターン・ベクトルの 集合から求めたxipの平均値を示す)、xipは、データ・パターン・ベクトルの
集合のp番目の構成要素であるxpのi番目の成分である。
【0094】 考察の一般性を維持するために、縮小次元表現においてKの次元があると仮定
する。したがって、出力の共分散行列は、KxK行列である。出力(すなわち、
出力信号)の分散行列の各要素は、次のように表すことができる。
【0095】
【数35】 (式6)
【0096】 ここで、 p=1,2,...,P Okipは、p番目の入力データ・パターン・ベクトルの出力層のk1番目のノー
ドの出力信号である。◎ Ok2pは、p番目の入力データ・パターン・ベクトルの出力層のk2番目のノー
ドの出力信号である。◎ <Ok1>は、入力データ・パターン・ベクトルの集合から求めたOk1pの平均 である。 <Ok2>は、入力データ・パターン・ベクトルの集合から求めたOk2pの平均 である。 k1=1〜K k2=1〜K Kは、縮小次元表現の次元数である。 <>は、示された各成分ごとの入力データ・パターン・ベクトルの集合から求
めた平均を示す。
【0097】 分散行列の対称性のため、行列の上側三角形内の項を検討するだけでよい。目
的は、次の式で示される誤差Eを最小にすることである。
【0098】
【数36】 (式7) ここで、Ek1k2は、要素が主対角線上にあるかどうかによって、次の式で与え
られる。
【0099】
【数37】
【0100】 rkkが、訓練速度を高める効果を有する正の定数であり、rk1k2が、訓練速度
を高める効果を有する正の定数であることを理解されたい。さらに、上記の誤差
関数を最小にすることによって、出力の分散行列が、定数×対角行列の望ましい
形になり、定数×単位行列が実施する上でのオプションであることを理解された
い。
【0101】 定数Vout,kkは、平均入力分散Vinに比例することが目標とされる。式(8)
の定数rは、通常1よりも小さい緩和因子(relaxation factor)である。これ は、各次元の出力分散を減少させることによって訓練をさらに高速化するために
導入される。主として二次式項からの情報からなる分散が、システムのエネルギ
ーに類似しているため、したがって分散の減少は、各次元のエネルギー要件の緩
和に対応する。これにより、ネットが要求される許容誤差を達成するのに必要な
繰返し数が減少する。また、分散がデータのパターン間の関係を捉えるため、こ
の方法は、各出力次元の分散を入力分散に比例させることによって、できるだけ
多くの相対位置情報を保存しようとする。指定された誤差目標が入力分散の値に
依存しなくなるように、正規化のために分母(denominator)が導入される。
【0102】 重みを対話式に更新する式は、その重みに関する誤差Eの導関数をとることに
よって得ることができる。k番目とj番目の層の間の重みは、隠れ(j番目)層
と出力(k番目)層の両方にシグモイドニューロンを使用することによって、次
の式で与えられる。
【0103】
【数38】 (式9)
【0104】 ここで、Δwkj,1は、対角線上の項からの奇与率であり、Δwkj,2は、k番目
の行の対角線上にない項からの奇与であり、Δwkj,3は、k番目の列の対角線上
にないの項からの寄与率である。これらの3つの項の式は、次の通りである。
【0105】
【数39】
【0106】 ここで、δkpは、p番目の入力データ・パターン・ベクトルについての出力層
のk番目ノードの出力による誤差Eへの寄与率に比例した値であり、δkp,1、δ kp,2 、δkp,3は、δkpの構成要素である。(シグモイド関数についての)δkp,1 、δkp,2、δkp,3は、次の式でて与えられる。
【0107】
【数40】
【0108】 ここで、Okpは、p番目の入力データ・パターン・ベクトルについての出力層
におけるk番目のノードからの出力信号であり、<Okp>は、入力データ・パタ
ーン・ベクトルの集合から求めたOkpの平均であり、Ojpは、p番目の入力デー
タ・パターン・ベクトルについての出力層の直前の層におけるi番目のノードか
らの出力信号である。
【0109】 表記を簡略化するために、式(13)、(14)および(15)を組み合わせ
て、次のように表す。
【0110】
【数41】 (式16) この場合、式(7)を、よく知られた一般化されたデルタ規則の形で書き直す
ことができる。
【0111】
【数42】 (式17) j番目とi番目の層の間の重みへの誤差のさらなるバックプロバゲーションは
、従来のネットと同じであり、式は、次の通りである。
【0112】
【数43】 (式18)
【0113】 ここで、δjpは、次の式で与えられる。
【数44】 (式19)
【0114】 EOM法は、NLVCマッピング法から発展させたものである。NLVCマッ
ピングでは、学習の目的は、データ・パターンの記述内の全変動を保存すること
であり、すなわちネットの重みを学習し、その結果、出力の全変動と入力の全変
動との差が一定の規定された制限の範囲内になり、NLVCの誤差関数は、単に
次のような式になる。
【0115】
【数45】 (式20)
【0116】 ここで、Voutは、次の式で与えられる。
【数46】 (式21)
【0117】 また、Vinは、式(5)と同じである。全く同じネット構造とバックプロバゲ
ーション学習アルゴリズムを使用して、パラメータδkpは、次の式で与えられる
【0118】
【数47】 (式22)
【0119】 ネットワークの重みを繰り返し更新する式は、式(17)〜(19)と同じ形
である。
【0120】 NLVC法は、きわめて計算効率が高く、得られる縮小次元マップは、分類、
類別、監視、最適化などの用途に有用なことが分かった。
【0121】 NLVC法の効率が高い1つの理由は、分散保存の制約がやや緩いことである
。実際に、式(22)で与えられる制約は、式(13)だけのものよりも弱い。
しかし、これには副次的作用もある。異なる乱数シードによってランダムに生成
された異なる初期重みの集合がネットに与えられた場合、同じ入力に得られるマ
ップは、まったく異なっているように見え、マップ上の点の分布が、縮小次元間
の強い相関を有する不均一なものとなることがある。点の分布が不均一なマップ
からでも定性的情報を得ることはできるが、通常、点が適切に分布したマップを
得るためにいくつかの試みを行う必要がある。
【0122】 縮小次元間の相関を減少させる適切な方法は、マッピングの学習中にネットの
出力を直交させることである。この目的を達成するためには、開始する固有の点
(natural point)が、ネットの出力の分散行列の要素の値に制約を加えること である。対角線上にないの全てのエントリが消えた場合、出力は互いに直角であ
る。対角線上にないの全ての項がゼロに減少した場合、分散行列の主対角線上の
全ての要素を等しい値に設定することによって、簡単に全ての縮小次元を同じよ
うに優勢にすることができる。これは、分散行列を等しい固有値にし、各縮小次
元の分散を同じにする。マッピング中にできるだけ多くの位相情報を保存するた
めに、緩和因子により全ての入力次元についての入力分散の平均に関連付けられ
た値に主対角線上の各要素を割り当てることができる。これは、まさにEOM法
が行うことである。
【0123】 この手法は、NLVC法に比べて、学習手順にかなり強い制約をかける。しか
し、効率の低下はかなり小さい。たとえば、縮小次元が、視覚的表示に最も有効
な2次元(K=2)のとき、出力の分散行列は2x2行列であり、両方の手法に
よって計算しなければならない対角線上の項が2つあるのに対して、計算しなけ
ればならない対角線上にない項は1つしかない。訓練の各繰返しごとに、これに
より、EOMを使用するΔwkjの計算に、NLVCを使用する場合の約50%の
オーバヘッドが導入される。Δwjiの計算は、両方の手法で同じである。
【0124】 次に、図15〜図22を参照して、SOMおよびNLVCと比較したEOMの
使用法の例を説明する。EOMとNLVCでは、隠れ層と出力層の両方にシグモ
イドニューロンが使用される。得られたマップを視覚化するために、出力ニュー
ロンの数を2に選択した。実際の多次元データの場合は、固有次元が任意の単純
な物理量に対応しないことがあり、データ点の相対位置にのみ関心があるため、
2つの縮小次元の絶対目盛は重要ではない。したがって、出力は、512x51
2ピクセルの像に線形にマッピングされ、2つの軸にラベルは付けられていない
【0125】 理論的解は知られているため、最初の試験として、2つの固有次元を有する以
下の単純な5次元関数を使用する。
【0126】
【数48】 (式23) 式(23)において、5つの変数はすべて独立しているわけではなく、次のよ
うに関連している。
【0127】 x=t,x=2t−1,x=1−t,x=t,x=1−2t ここで、t1とt2は、関数の2つの固有次元を表し、区間[0,1]の範囲内
にある。100のデータ・パターンを所定の範囲内でランダムに生成し、生デー
タセットとして使用した。
【0128】 図15に、2つの軸としてt1とt2を使用して、分析的に生成した2次元マッ
プを示す。各ラベルの四角形内に示したグレー・レベルは、(t1,t2)の対応
する対のz値を表す。これらのデータ点のz値の範囲は256のグレー・レベル
に線形にマッピングされ、白は最小を表し、黒は最大を表す。
【0129】 図16〜図18は、SOM、NLVC法、およびEOM法のマッピング結果を
示す。同じ4つの乱数シードによって4つのマップが得られる。SOMの場合は
、20x20の格子が使用され、近傍(横方向の刺激)関数としてガウス関数を
使用した。マッピングの学習中に、学習速度因子α(t)は、0.9から0に直
線的に減少し、近傍カーネルσ(t)の幅は、マップの辺の長さの半分から格子
点間の1単位長に直線的に減少する。
【0130】 NLVCとEOMの場合は、隠れニューロンの数が15であった。初期ネット
ワーク重みパラメータは、これらの2つの方法で同じである。EOMマップでは
、緩和因子γが0.1になるように選択された。
【0131】 図16A、16B、16Cおよび16Dは、SOMによって得られた式(23
)に示された関数の縮小次元マップを示し、ここで、それぞれシード=7、シー
ド=8、シード=4、シード=3の場合である。「シード」は、初期基準ベクト
ルを生成するために使用されるパラメータである。
【0132】 図17A、17B、17Cおよび17Dは、NLVC法によって得られた式(
23)に示された関数の縮小次元マップを示し、ここで、それぞれシード=7、
シード=8、シード=4、シード=3の場合である。「シード」は、初期ネッ トワーク重みを生成するために使用されるパラメータである。
【0133】 図18A、18B、18Cおよび18Dは、EOM法によって得られた式(2
3)に示した関数の縮小次元マップを示し、ここで、それぞれシード=7、シー
ド=8、シード=4、シード=3の場合である。「シード」は、初期ネットワー
ク重みを生成するために使用されるパラメータである。
【0134】 SOMによって得られたマップでは黒い点と白い点が分離する傾向があるが、
これらのマップは、ほとんど理論マップ(theoretical map)のようには見えず、 互いに似ているようにも見えないことを理解されたい。データ点がマップ上の格
子点上に制限されるため、分析的に生成されたマップ上に示されたようなデータ
点の細かい相対位置に関する情報は失われる。乱数シードによって、得られるマ
ップが異なって見える。しかしながら、SOMマップは、通常、マップ領域の適
切な有効範囲(coverage)を与えるが、これは、格子点に制限される。
【0135】 NLVC法によって得られた4つのマップの見かけ上の違いから、初期重みの
選択とマッピングの結果との間に強い依存性があることが分かる。しかしながら
、4つの各々のマップと分析的に生成したマップを厳密に比較すると、4つのマ
ップが見かけ上異なるにもかかわらず、それらのマップを、回転と反射と圧縮の
組合せによって分析的に生成されたマップから変換できることが分かる。すなわ
ち、これらのマップにおいて、分析的に生成されたマップに比べてデータ点の分
布は全体として様々な程度に変形されるが、これらのマップにデータ点の相対位
置は保存されているようである。換言すると、データ点の位相は、これらのマッ
プになんらかの局所的な形で保存されるようである。しかしながら、図17B、
図17C、図17Dのマップに示され、図17Aにはこれらの図よりも低い程度
で示された対角線ベルト状分布は、2つの縮小次元間の強い相関を暗黙的に示す
。その結果、これらのマップは、縮小次元の全能力を利用することができない。
これらのマップは、データ点の相対位置に関して位相的に正確であるが、図17
Dのマップは事実上役に立たず、図17Bと図17Cのマップは、データ点の一
部の定性的記述にしか使用できない。図17Aのマップだけが、最適化のような
定量的作業に使用できるデータ点の比較的良好な分布を示す。これらの4つのマ
ップは、マップを位相的に正確に維持するだけでなく、マッピングの不規則性を
減少させ、縮小次元を十分に利用できるより良いマッピング手法の必要性を示す
よい例となる。
【0136】 一方、EOM法によって得られた4つのマップは、それら相互の間、及び分析
的に生成されたマップ対して著しい類似性を示す。像を適合させるために自動的
に行われた倍率の違い、回転、及び反射は別として、4つのマップはすべて、分
析的に生成されたマップと本質的に等しい。これは、様々な初期条件を扱う際の
EOM法の強固さを示す。注意すべき1つの小さいことは、これらのマップの回
転角度が約45°か0°であることである。理論的にはデータ点の分布は方形領
域を形成し、そのような2つの角度の方形が2つの次元を等しく優勢にするため
、この観測によって、EOM法が縮小次元を最大限に利用するという目標を達成
できることがあらためて保証される。
【0137】 計算効率に関しては、乱数シードとして7を使用するケースが、実験的比較の
例として使用される。EOM法は、178回の繰り返しで集束するために最大6
秒かかる。NLVC法は、12回の繰り返しで集束するため最大2秒かかり、S
OM法は、100回の繰り返しに117秒かかる。SOMに対しての効率改善は
非常に大きい。EOMは、個別のNLVCの実行よりも長くかかるが、NLVC
の最初の数回の試みで満足できるマップが得られない場合は勝利者となることが
ある。
【0138】 文献にガソリン混合データの集合体があり、属性が全て分かっているもののサ
ブセットを図11の表に示す。このデータの集合体は、自動連想法とNLVC法
の両方を使用した2次元への次元縮小を行った場合、100よりも大きいオクタ
ン価のパターンと100よりも小さいオクタン価のパターンの2つのほとんど別
個の領域に「自己組織化」することを示していた。
【0139】 図19A〜図19Dは、それぞれシード=7、シード=8、シード=4、シー
ド=3の場合における、SOMによって得られた図11の表に示したガソリン混
合データの縮小次元マップを示す。図20A〜図20Dは、それぞれシード=7
、シード=8、シード=4、シード=3の場合における、NLVC法によって得
られた図11の表に示したガソリン混合データの縮小次元マップを示す。 図2 1A〜図21Dは、それぞれシード=7、シード=8、シード=4、シード=3
の場合における、EOM法によって得られた図11の表に示したガソリン混合デ
ータの縮小次元マップを示す。図22Aと図22Bは、高オクタン価の6つのガ
ソリン混合データ・パターンに基づいた縮小次元マップを示す。図22Aは、E
OM法によって得られた6つのパターンのマップを示し、図22Bは、その領域
のモデル値を示す。
【0140】 SOMの場合、10x10格子が使用され、選択肢α(t)およびσ(t)は
前述のものと同じであった。NLVCとEOMでは、縮小次元マップを得るため
にまったく同じネット・アーキテクチャを使用した。乱数シードも同じものを使
用した。図19〜図21は、SOM、NLVC法、およびEOM法のマッピング
の結果を示す。各ラベルの四角形内のグレー・レベルは、そのパターンのオクタ
ン価を示し、オクタン価が高いほど明るくなる。パターンが26しかないため、
パターン番号も示す。
【0141】 この場合も、SOMマップは、オクタン価に基づいてデータ点が多少分離して
いることを示し、図19Aのマップが最良の結果を提供している。この場合も、
マップがまったく異なるため、初期パラメータへの依存は明らかである。
【0142】 NLVCマップの場合も、相関関係があることを示すデータ点のベルト状分布
を示す。しかしそれにもかかわらず、4つの全てのマップは、マップ領域の妥当
な有効範囲を示しており、これらは少なくとも定性的な考察のために利用できる
。ラベルの四角形のグレー・レベルを調べることにより、4つの全てのマップが
、明るい点と暗い点が多少分離していることが分かる。なお、図20Bのマップ
が最良の結果を提供している。これは、様々なマップを使用する前のNLVCの
結果と一致する。
【0143】 EOMマップは、予想通り、マップ領域のより良い有効範囲を示す。高オクタ
ン・データ点と低オクタン・データ点が分離していることは、これらのマップ上
でも明らかである。しかしながら、NLVC法とEOM法の両方を使用して得ら
れたマップでは、これらの4つのマップ内のデータ点の相対位置が、特にマップ
に示されたように互いに近い点の場合には、数学的な例の場合と同じに維持され
ず、EOMマップはNLVCマップよりも少ない変動を示すことは明らかである
。これはしかし、これらのマップが、データセットの位相を保存できなかったこ
とを意味するのではなく、データセットの固有次元が実際に2よりも高いことを
示す。1つの2次元マップでは、それよりも高い固有次元のデータセットの全て
の位相情報を示すことができないため、各々のマップはそれぞれ異なる「角度」
からの投影だけを表す。これは、一部分の位相を示すために3方からの投影を必
要とする部分の青写真と似ている。しかし、これらの次元縮小マップでは投影プ
ロセスは非線形のものである。
【0144】 EOM法は、2つの固有次元を有するデータについてはマップ不変性を本質的
に維持することが数学的な例によって実証されているため、様々な初期重みから
得られたマップ内の回転と反射以外の変化は、データセットの固有次元がマップ
の次元よりも高いことを示している。しかしながら、いくつかの変化が明らかな
場合でも、そのような変化が完全に支配的でない場合は、得られたマップが必ず
しも無駄にならない。データセットの様々な固有次元が同じように重要ではない
ことがあるため、多くの情報を集めることができる。これは、まさに、ガソリン
混合データのケースである。EOM法によって得られた4つのマップを比較する
と、高オクタン価のパターン2、3、13、14、16および22が、4つ全て
のマップにおいて別のグループを作ることが分かる。さらに、パターン13以外
の上記の全てのパターンは、マップの縁に少なくとも一回現われる。これは、そ
れまでの最も高いオクタン価を示すパターン13が、5つの高いオクタン価パタ
ーンによって取り囲まれ、この領域にさらに高いオクタン価を持つ混合物が発見
されるであろうことを示す。これは、最初のネットワーク・パラメータによるひ
ずみによりNLVCマップではあまり明らかではない。
【0145】 これらの6つのパターンは集合の残りの部分と分離され、EOMマップがその
パターンのために生成された。これを図22Aに示す。オクタンの範囲に対する
濃さの独立したマッピングにより、6つのパターンの正確な明暗の度合いは図2
1のものと異なる。マップは、実際に、パターン13が他の5つのパターンによ
って囲まれていることを示す。
【0146】 機能的リンク・ネットのランダム・ベクトル・バージョンを使用して、2次元
関数のモデルを学習した。このモデルは、図22Aに示した領域におけるオクタ
ン価を予測するために使用された。この結果を図22Bに示す。この図は、さら
に高いオクタン価の点が、次の場所にあることを示す。 d1=85.51,d2=173.5. これに対応する予想オクタン価は、次の通りである。 z=102.4 別のランダム・ベクトル機能的リンク・ネットによって、値(d1、d2)を元
の5次元空間に逆にマッピングすることができる。結果は、次の通りである。 x1=0.226、x2=0.096、x3=0.058、x4=0.022、x5=0.599 ネットワーク・モデルの構成に使用可能なパターンの数が制限されているため
、上記の結果は正確な予測を提供するものではなく、将来の組成決定に役立つも
のである。
【0147】 本発明は、多次元データ・パターンを視覚化するのに役立つ位相的に正確な縮
小次元マップを得る新しくかつ独特な手法を提供する。この手法は、類似の目的
を有する他の手法で問題となる、初期ネットワーク重みの選択の違いから生じる
得られるマップ内の不規則性を減少できることが実証された。さらに、この手法
は、異なる初期重みを選択することによって縮小次元マップを使用して元のデー
タセットを十分に示すことができるかどうかを容易に示すことができる。この手
法によって得られたマップは、マップ領域を十分に利用し、様々な用途において
、類似の目的を果たす他の手法を使用することによって得られるマップに置き換
えることができる。
【0148】 本発明を好ましい実施形態に関して説明した。本明細書を読みまた理解するこ
とによって修正および変更を行い得ることは明らかである。添付の請求の範囲ま
たはその均等の範囲内に含まれる限り、そのような修正および変更は全て本発明
に包含される。
【図面の簡単な説明】
本発明は、いくつかの部分および部分の配列において物理的形態を取ることが
でき、その好ましい実施形態および方法は、本明細書に詳細に記載され明細書の
一部を構成する添付図面に示される。
【図1】 本発明の好ましい実施形態によって使用される次元縮小による本非
線形分散保存(NLVC)マッピングと対比させて従前の自動連想ネットワーク
を示す。
【図2】 81の点でプロットした螺旋の2つの区間の3次元グラフを示す。
【図3】 螺旋のカルフーネンレーブ(K−L)変換の2次元表現を示す。
【図4】 自動連想マッピングによる螺旋の2次元表現を示す。
【図5】 非線形分散保存マッピングによる螺旋の2次元表現を示す。
【図6】 非線形分散保存マッピングによるガソリン混合データの2次元表現
を示す。
【図7】 イソペンタン、接触分解ガソリン、および改質油の成分レベルに対
する混合物の位置の感度を示す。
【図8】 非線形分散保存マッピングによるセンサ・データの2次元表現を示
す。
【図9】 「無故障」から「故障」までを監視する連続センサ・プロファイル
のトレースを示す。
【図10】 非線形分散保存マッピングによるバンドギャップ・データの2次
元表現を提供する。
【図11】 ベンチマーク・ガソリン混合データの表を示す。
【図12】 時間依存センサ・データ・プロファイルの表を示す。
【図13】 半導体結晶構造パラメータとバンドギャップの表を提供す。
【図14】 等化直交マッピング(EOM)のためのネットワーク構造を示す
【図15】 2つの固有次元を有する5次元関数の解を提供する式の理論的2
次元マップを示す。
【図16A〜図16D】 自己組織化マッピング(SOM)によって得られた
5次元関数の縮小次元マップを2つの固有次元で示す。
【図17A〜図17D】 非線形分散保存(NLVC)マッピングによって得
られた、同じ5次元関数の縮小次元マップを示す。
【図18A〜図18D】 等化直交マッピング(EOM)によって得られた同
じ5次元関数の縮小次元マップを示す。
【図19A〜図19D】 SOMによって得られた、図11に示したガソリン
混合データの縮小次元マップを示す。
【図20A〜図20D】 NLVCによって得られた、図11に示したガソリ
ン混合データの縮小次元マップを示す。
【図21A〜図21D】 EOMによって得られた、図11に示したガソリン
混合データの縮小次元マップを示す。
【図22A】 EOMによって得られた6つのパターンの縮小次元マップを示
す。
【図22B】 図22Aに示した領域のモデル値を示す。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GE,GH,GM,HR ,HU,ID,IL,IN,IS,JP,KE,KG, KP,KR,KZ,LC,LK,LR,LS,LT,L U,LV,MD,MG,MK,MN,MW,MX,NO ,NZ,PL,PT,RO,RU,SD,SE,SG, SI,SK,SL,TJ,TM,TR,TT,UA,U G,UZ,VN,YU,ZW

Claims (29)

    【特許請求の範囲】
  1. 【請求項1】 多次元パターン・データを縮小次元表現に組織化するシステ
    ムであって、 複数の入力ノードからなる入力層と、隠れ層と、入力ノードの数よりも数が少
    ない複数の非線形出力ノードからなる出力層とを含むノードの複数の層からなる
    ニューラル・ネットワークと、 ニューラル・ネットワークの入力層に多次元パターン・データを受け取る受取
    り手段と、 ニューラル・ネットワークの出力層の各出力ノードごとに、受け取った多次元
    パターン・データに対応する出力信号を生成する出力手段と、 ニューラル・ネットワークの訓練を完成させる訓練手段とを含み、訓練手段が
    、出力信号の分散行列を対角行列の形に減少させることによって出力ノードの出
    力信号を等化し直交させる手段を含むシステム。
  2. 【請求項2】 前記訓練手段が、バックプロバゲーションを使用して隣り合
    った層のノード間のリンクの重みを繰り返し更新する請求項1に記載のシステム
  3. 【請求項3】 前記重みが、区間(W,−W)でランダムに生成される請求
    項2に記載のシステム。
  4. 【請求項4】 多次元パターン・データの全ての次元の平均化された分散が
    、次の式で表され、 【数1】 出力ノードの出力信号の共分散行列の要素が、次の式によって定義され、 【数2】 ここで、p=1,2,...Pであり、 Ok1pは、p番目の入力データ・パターン・ベクトルの出力層のk1番目のノー
    ドの出力信号であり、 Ok2pは、p番目の入力データ・パターン・ベクトルの出力層のk2番目のノー
    ドの出力信号であり、 <Ok1>は、入力データ・パターン・ベクトルの集合から求めたOk1pの平均 であり、 <Ok2>は、入力データ・パターン・ベクトルの集合から求めたOk2pの平均 であり、 k1=1〜Kであり、 k2=1〜Kであり、 Kは、縮小次元表現での次元数であり、 <>は、示された各成分に関して入力データ・パターン・ベクトルの集合から
    求めた平均を示す請求項3に記載のシステム。
  5. 【請求項5】 隠れ層と出力層の間の重みΔwkjが、次の式に従って繰り返
    し更新され、 【数3】 ここで、ηは、効率の高い集束を実現するが発振を回避するように選択された
    適切な値の定数であり、 Opは、p番目の入力データ・パターン・ベクトルにより出力層の直前の層内 のj番目のノードからの出力信号であり、 Eは、次の式で表される誤差であり、 【数4】 ここで、k1=k2=k、k=1,...,Kであり、rkkは、訓練速度を高め
    る効果を有する正の定数であり、 【数5】 ここで、k2>k1、k1=1,...,K−1、k2=k1+1,...,Kで あり、rk1k2は、訓練速度を高める効果を有する正の定数であり、 δkp=δkp,1+δkp,2+δkp,3であり、ここで、δkpは、p番目の入力データ
    ・パターン・ベクトルに関して、出力層のk番目ノードの出力による誤差Eへの
    寄与率に比例する値であり、δkp,1,δkp,2,およびδkp,3は、δkpの成分であ
    る請求項4に記載のシステム。
  6. 【請求項6】 【数6】 ここで、Δwkj,1は、出力の共分散行列の対角線上の項からの寄与率であり、 Δwkj,2は、k番目の行内の対角線上にないの項からの寄与率であり、 Δwkj,3は、k番目の列内の対角線上にないの項からの寄与率であり、 Ojpは、p番目の入力データ・パターン・ベクトルの出力層の直前の層におけ
    るj番目のノードからの出力信号である請求項5に記載のシステム。
  7. 【請求項7】 【数7】 ここで、Okpは、p番目の入力データ・パターン・ベクトルについての出力層
    におけるk番目のノードからの出力信号であり、 <Okp>は、入力データ・パターン・ベクトルの集合から求めたOkpの平均で
    ある請求項6に記載のシステム。
  8. 【請求項8】 ノードの層におけるj番目のノードとその直前の層における
    i番目のノードとの間の重みΔwjiへの誤差のバックプロパゲーションが、次の
    式で表され、 【数8】 ここで、δjpは、次の式によって与えられる請求項5に記載のシステム。 【数9】
  9. 【請求項9】 複数の入力ノードからなる入力層と、隠れ層と、複数の非線
    形の出力ノードからなる出力層とを有するニューラル・ネットワークを使用して
    多次元パターン・データの縮小次元表現への組織化を達成する方法であって、非
    線形の出力ノードの数が、入力ノードの数よりも少なく、 ニューラル・ネットワークの入力層に多次元パターン・データを受け取る段階
    と、 ニューラル・ネットワークの各出力ノードごとに、受け取った多次元パターン
    ・データに対応する出力信号を生成する段階と、 出力信号の共分散行列を対角行列の形に縮小し、出力ノードの出力信号を等化
    し直交させることによってニューラル・ネットワークを訓練する段階と、 を含む方法。
  10. 【請求項10】 訓練の前記段階が、隣り合った層のノードの間のリンクの
    重みを繰り返し更新するためにバックプロバゲーションを含む請求項9に記載の
    方法。
  11. 【請求項11】 前記重みが、区間(W、−W)でランダムに生成される請
    求項10に記載の方法。
  12. 【請求項12】 多次元パターン・データの全ての次元の平均分散が、次の
    式で示され、 【数10】 出力ノードの出力信号の共分散行列の要素が、次の式で示され、 【数11】 ここで、p=1,2,...,Pであり、 Okjpは、p番目の入力データ・パターン・ベクトルの出力層のk1番目のノー
    ドの出力信号であり、 Ok2pは、p番目の入力データ・パターン・ベクトルの出力層のk2番目のノー
    ドの出力信号であり、 <Okip>は、入力データ・パターン・ベクトルの集合から求めたOk1pの平均
    であり、 <Ok2p>は、入力データ・パターン・ベクトルの集合から求めたOk2pの平均
    であり、 k1=1〜Kであり、 k2=1〜Kであり、 Kは、縮小次元表現の次元数であり、 <>は、示された各要素の入力データ・パターン・ベクトルの集合から求めた
    平均を表す請求項に記載の11に記載の方法。
  13. 【請求項13】 隠れ層と出力層の間の重みΔwkjが、次の式に従って繰り
    返し更新され、 【数12】 ここで、ηは、効率の高い集束を実現するが発振を回避するように選択された
    適切な値の定数であり、 Ojpは、p番目の入力データ・パターン・ベクトルによる出力層の直前の層に
    おけるj番目のノードからの出力信号であり、 Eは、次の式で表される誤差であり、 【数13】 ここで、k1=k2=k、k=1,...,Kであり、rkkは、訓練速度を高め
    る効果を有する正の定数であり、 【数14】 ここで、k2>k1、k1=1,...,K−1、k2=k1+1,...,Kで あり、rk1k2は、訓練速度を高める効果を有する正の定数であり、 δkp=δkp,1+δkp,2+δkp,3であり、ここで、δkpは、p番目の入力データ
    ・パターン・ベクトルに関する出力層のk番目のノードの出力による誤差Eへの
    寄与率に比例する値であり、δkp,1,δkp,2,およびδkp,3は、δkpの成分であ
    る請求項12に記載の方法。
  14. 【請求項14】 【数15】 ここで、Δwkj,1は、対角線上の項からの寄与率であり、 Δwkj,2は、k番目の行の対角線上にないの項からの寄与率であり、Δwkj,3 は、k番目の列の対角線上にないの項からの寄与率である請求項13に記載の方
    法。
  15. 【請求項15】 δkp,1、δkp,2、およびδkp,3が、次の式で与えられ、 【数16】 ここで、 Okpは、p番目の入力データ・パターン・ベクトルの出力層の直前の層におけ
    りk番目のノードからの出力信号であり、 <Okp>は、入力データ・パターン・ベクトルの集合から求めたOkpの平均で
    ある請求項14に記載の方法。
  16. 【請求項16】 ノードの層におけるj番目のノードとその直前の層におけ
    るi番目のノードとの間の重みΔjiへの誤差のバックプロパゲーションが、次の
    式で表され、 【数17】 ここで、δjpが、次の式で与えられる請求項13に記載の方法。 【数18】
  17. 【請求項17】 多次元パターン・データを縮小次元表現に組織化するシス
    テムであって、 複数の入力ノードからなる入力層と、 入力ノードよりも数が少ない複数の非線形出力ノードからなる出力層と、 を含む複数のノード層からなるニューラル・ネットワークと、 多次元パターン・データをニューラル・ネットワークの入力層に受け取る受取
    り手段と、 ニューラル・ネットワークの出力層に、受け取った多次元パターン・データに
    対応する出力信号を生成する出力手段と、 ニューラル・ネットワークの訓練を完成させるための訓練手段とを含み、訓練
    手段が、出力ノードの全変動の大きさ(measure)を保存し、出力ノードの全変 動が、次のように定義され、 【数19】 {xp}が、次のようなデータ・パターン・ベクトルの集合であり、 p=1,2,...,P Pは、正の整数として定義され、 <xi>は、データ・パターン・ベクトルの集合から求めたxipの平均値を示 し、 Sは、次元数であり、 xipは、データ・パターン・ベクトルの集合のp番目の構成要素xpのi番目 の成分であるシステム。
  18. 【請求項18】 前記訓練手段が、出力ノードの重みを漸進的に変化させる
    ためにバックプロバゲーションによってニューラル・ネットワークの訓練を完成
    させる請求項17に記載のシステム。
  19. 【請求項19】 前記訓練手段が、さらに、 バックプロバゲーションによって、次の式にしたがってニューラル・ネットワ
    ークの出力層における重みwkjを漸進的に変化させることによりニューラル・ネ
    ットワークを訓練する手段を含み、 【数20】 ここで、Opjは、p番目のデータ・パターンにより出力層の直前の層における
    j番目のノードからの出力信号であり、 ηは、効率的な集束を実現するか発振を回避するように選択された適切な値の
    定数であり、 δpkは、p番目の入力データ・パターンについての出力層のk番目のノードの
    出力による誤差Eへの寄与率に比例した値である請求項18に記載のシステム。
  20. 【請求項20】 δpkが、次の式で表される請求項19に記載のシステム。 【数21】
  21. 【請求項21】 前記ニューラル・ネットワークが、さらに、隠れノードか
    らなる少なくとも1つの隠れ層を含み、各々の隠れノードの適応重みwjiが、次
    の式にしたがって漸進的に改善され、 【数22】 ここで、Opiは、p番目の入力データ・パターンのj番目の層の直前の層にお
    けるi番目のノードの出力信号である請求項19に記載のシステム。
  22. 【請求項22】 Opiが、次のような式で表される請求項21に記載のシス
    テム。 【数23】
  23. 【請求項23】 複数の入力ノードからなる入力層と複数の非線形の出力ノ
    ードからなる出力層とを有するニューラル・ネットワークを使用して多次元パタ
    ーン・データの縮小次元表現への組織化を達成する方法であって、非線形出力ノ
    ードの数が、入力ノードの数よりも少なく、 ニューラル・ネットワークの入力層に1集合{xp}のデータ・パターン・ベ クトルを受け取る段階を含むとともに、p=1,2,...,Pであり、Pは、
    正の整数として定義され、データ・パターン・ベクトルの集合が、次のように定
    義された全変動を有し、 【数24】 ここで、{xp}は、データ・パターン・ベクトルの集合であり、 p=1,2,...,Pであり、 Pは、正の整数として定義され、 <xi>は、データ・パターン・ベクトルの集合から求めたxipの平均値を示 し、 Sは、次元数であり、 xjpは、データ・パターン・ベクトルの集合のp番目の構成要素xpのi番目 の成分であり、 バックプロバゲーションによってニューラル・ネットワークを訓練する段階と
    、 ニューラル・ネットワークの出力層からの多次元出力信号を表示する段階と、 を含む方法。
  24. 【請求項24】 バックプロパゲーションによってニューラル・ネットワー
    クを訓練する前記段階が、次の式にしたがってニューラル・ネットワークの出力
    層における重みwkjを漸進的に変化させる段階を含み、 【数25】 pjが、p番目のデータ・パターンによる出力層の直前の層におけるj番目の
    ノードからの出力信号であり、 ηは、効率的な集束を実現するか発振を回避するように選択された適切な値の
    定数であり、 δpkは、p番目の入力データ・パターンの出力層のk番目のノードの出力によ
    る誤差Eへの寄与率に比例した値である請求項23に記載の方法。
  25. 【請求項25】 δpkが、次の式で表される請求項24に記載のシステム。 【数26】
  26. 【請求項26】 前記ニューラル・ネットワークが、さらに、隠れノードか
    らなる少なくとも1つの隠れ層を含み、各々の隠れノードの適応重みwが、次の
    式にしたがって漸進的に改善され、 【数27】 piが、p番目の入力データ・パターンのj番目の層の直前の層におけるi番
    目のノードの出力信号である請求項23に記載の方法。、
  27. 【請求項27】 δpjが、次の式で表される請求項26に記載の方法。 【数28】
  28. 【請求項28】 前記多次元の出力信号が、2次元出力信号である請求項2
    3に記載の方法。
  29. 【請求項29】 前記2次元出力信号が、2次元軸に対してプロットするデ
    ータ点を含む請求項23に記載の方法。
JP2000539447A 1997-12-15 1998-12-14 等化直交マッピングによる多次元データの視覚化および自己組織化 Expired - Fee Related JP3520048B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/991,031 1997-12-15
US08/991,031 US6134537A (en) 1995-09-29 1997-12-15 Visualization and self organization of multidimensional data through equalized orthogonal mapping
PCT/US1998/026477 WO1999031624A1 (en) 1997-12-15 1998-12-14 Visualization and self-organization of multidimensional data through equalized orthogonal mapping

Publications (2)

Publication Number Publication Date
JP2002509303A true JP2002509303A (ja) 2002-03-26
JP3520048B2 JP3520048B2 (ja) 2004-04-19

Family

ID=25536780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000539447A Expired - Fee Related JP3520048B2 (ja) 1997-12-15 1998-12-14 等化直交マッピングによる多次元データの視覚化および自己組織化

Country Status (12)

Country Link
US (3) US6134537A (ja)
EP (1) EP1038261B1 (ja)
JP (1) JP3520048B2 (ja)
KR (1) KR100343533B1 (ja)
CN (1) CN1165869C (ja)
AT (1) ATE368904T1 (ja)
AU (1) AU737276B2 (ja)
BR (1) BR9813585A (ja)
CA (1) CA2312902C (ja)
DE (1) DE69838181T2 (ja)
IL (1) IL136524A (ja)
WO (1) WO1999031624A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152262A (ja) * 2006-12-15 2008-07-03 Samsung Electronics Co Ltd 音声特徴ベクトル変換方法及び装置
JP2010515181A (ja) * 2007-01-02 2010-05-06 シーメンス アクチエンゲゼルシヤフト 計算機支援による技術システムの開ループ制御および/または閉ループ制御のための方法

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134537A (en) * 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
US6993186B1 (en) * 1997-12-29 2006-01-31 Glickman Jeff B Energy minimization for classification, pattern recognition, sensor fusion, data compression, network reconstruction and signal processing
US6526168B1 (en) * 1998-03-19 2003-02-25 The Regents Of The University Of California Visual neural classifier
US6717589B1 (en) * 1999-03-17 2004-04-06 Palm Source, Inc. Computerized help system with modal and non-modal modes
US6671661B1 (en) * 1999-05-19 2003-12-30 Microsoft Corporation Bayesian principal component analysis
US6606624B1 (en) * 1999-08-13 2003-08-12 The Regents Of The University Of California Apparatus and method for recommending to an individual selective information contained within a computer network
US6556960B1 (en) * 1999-09-01 2003-04-29 Microsoft Corporation Variational inference engine for probabilistic graphical models
US7039621B2 (en) * 2000-03-22 2006-05-02 Johnson & Johnson Pharmaceutical Research & Development, L.L.C. System, method, and computer program product for representing object relationships in a multidimensional space
US6694301B1 (en) * 2000-03-31 2004-02-17 Microsoft Corporation Goal-oriented clustering
US6989843B2 (en) * 2000-06-29 2006-01-24 Sun Microsystems, Inc. Graphics system with an improved filtering adder tree
SE519507C2 (sv) * 2000-10-31 2003-03-04 Goesta Granlund Metod och apparat för träning av associativa nät för artificiellt seende
US20020099702A1 (en) * 2001-01-19 2002-07-25 Oddo Anthony Scott Method and apparatus for data clustering
US7308417B1 (en) 2001-03-12 2007-12-11 Novell, Inc. Method for creating and displaying a multi-dimensional business model comparative static
US7653646B2 (en) * 2001-05-14 2010-01-26 Ramot At Tel Aviv University Ltd. Method and apparatus for quantum clustering
GB0113212D0 (en) * 2001-05-31 2001-07-25 Oxford Biosignals Ltd Patient condition display
US20030093162A1 (en) * 2001-11-13 2003-05-15 Koninklijke Philips Electronics N.V. Classifiers using eigen networks for recognition and classification of objects
FI20020414A (fi) * 2002-03-04 2003-09-05 Nokia Oyj Mekanismi valvomatonta klusterointia varten
KR100442434B1 (ko) * 2002-03-07 2004-07-30 엘지전자 주식회사 학습된 신경망 설계를 위한 어레이 구조 연산 방법
GB0205336D0 (en) * 2002-03-07 2002-04-24 Univ Manchester Data dimension reduction
US7777743B2 (en) * 2002-04-19 2010-08-17 Computer Associates Think, Inc. Viewing multi-dimensional data through hierarchical visualization
EP1504412B1 (en) * 2002-04-19 2018-04-11 CA, Inc. Processing mixed numeric and/or non-numeric data
US7483868B2 (en) * 2002-04-19 2009-01-27 Computer Associates Think, Inc. Automatic neural-net model generation and maintenance
US7444310B2 (en) * 2002-04-19 2008-10-28 Computer Associates Think, Inc. Automatic model maintenance through local nets
US20040052412A1 (en) * 2002-05-10 2004-03-18 Large Scale Biology Corporation Satellite image enhancement and feature identification using information theory radial-basis bio-marker filter
US7046247B2 (en) * 2002-05-15 2006-05-16 Hewlett-Packard Development Company, L.P. Method for visualizing graphical data sets having a non-uniform graphical density for display
US20040119712A1 (en) * 2002-12-19 2004-06-24 Kenknight Bruce H. System and method for representing multi-dimensional patient health
US7496546B2 (en) * 2003-03-24 2009-02-24 Riken Interconnecting neural network system, interconnecting neural network structure construction method, self-organizing neural network structure construction method, and construction programs therefor
US7313279B2 (en) 2003-07-08 2007-12-25 Computer Associates Think, Inc. Hierarchical determination of feature relevancy
US7092922B2 (en) * 2003-05-23 2006-08-15 Computer Associates Think, Inc. Adaptive learning enhancement to automated model maintenance
EP1494127A1 (en) * 2003-07-01 2005-01-05 Semeion Method, computer program and computer readable means for projecting data from a multidimensional space into a space having less dimensions and to carry out a cognitive analysis on said data.
GB2403636A (en) * 2003-07-02 2005-01-05 Sony Uk Ltd Information retrieval using an array of nodes
EP1649627A4 (en) * 2003-07-11 2010-07-07 Computer Ass Think Inc PROCESS AND DEVICE FOR PLAN PRODUCTION
JP4074564B2 (ja) * 2003-07-30 2008-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーション コンピュータ実行可能な次元削減方法、該次元削減方法を実行させるためのプログラム、次元削減装置および該次元削減装置を使用した検索エンジン装置
US20060003204A1 (en) * 2004-07-01 2006-01-05 Callahan Christopher W Controlling fuel cell fuel purge in response to recycle fuel blower operating conditions
CN101272734B (zh) * 2005-03-02 2011-05-04 太空实验室健康护理有限公司 病人健康趋势显示仪
US8956292B2 (en) * 2005-03-02 2015-02-17 Spacelabs Healthcare Llc Trending display of patient wellness
KR101317176B1 (ko) * 2005-03-11 2013-10-15 프랑스 텔레콤 서버와 적어도 하나의 클라이언트 단말 사이의 컨텐츠디스플레이 데이터 전송 방법 및 대응하는 서버, 터미널그리고 컴퓨터 프로그램
US8768664B2 (en) * 2005-03-18 2014-07-01 CMC Solutions, LLC. Predictive emissions monitoring using a statistical hybrid model
US7421348B2 (en) * 2005-03-18 2008-09-02 Swanson Brian G Predictive emissions monitoring method
JP4646681B2 (ja) * 2005-04-13 2011-03-09 キヤノン株式会社 色処理装置及びその方法
US7536364B2 (en) * 2005-04-28 2009-05-19 General Electric Company Method and system for performing model-based multi-objective asset optimization and decision-making
US20060247798A1 (en) * 2005-04-28 2006-11-02 Subbu Rajesh V Method and system for performing multi-objective predictive modeling, monitoring, and update for an asset
US20070030287A1 (en) * 2005-08-04 2007-02-08 Honeywell International Inc. Visual comparison of data set with data subset
US8301576B2 (en) * 2005-10-27 2012-10-30 Ca, Inc. Weighted pattern learning for neural networks
US20080221930A1 (en) 2007-03-09 2008-09-11 Spacelabs Medical, Inc. Health data collection tool
US8117183B2 (en) * 2008-05-28 2012-02-14 Xerox Corporation Accurate content-based indexing and retrieval system
US20100067800A1 (en) * 2008-09-17 2010-03-18 Microsoft Corporation Multi-class transform for discriminant subspace analysis
US9604020B2 (en) 2009-10-16 2017-03-28 Spacelabs Healthcare Llc Integrated, extendable anesthesia system
MX2012004462A (es) 2009-10-16 2012-06-27 Spacelabs Healthcare Llc Tubo de flujo de luz mejorado.
US20110175905A1 (en) * 2010-01-15 2011-07-21 American Propertunity, LLC. Infoshape: displaying multidimensional information
GB2491086B (en) 2010-03-21 2016-10-05 Spacelabs Healthcare Llc Multi-display bedside monitoring system
US9047747B2 (en) 2010-11-19 2015-06-02 Spacelabs Healthcare Llc Dual serial bus interface
US9629566B2 (en) 2011-03-11 2017-04-25 Spacelabs Healthcare Llc Methods and systems to determine multi-parameter managed alarm hierarchy during patient monitoring
US8874498B2 (en) 2011-09-16 2014-10-28 International Business Machines Corporation Unsupervised, supervised, and reinforced learning via spiking computation
US8738554B2 (en) 2011-09-16 2014-05-27 International Business Machines Corporation Event-driven universal neural network circuit
US8626684B2 (en) 2011-12-14 2014-01-07 International Business Machines Corporation Multi-modal neural network for universal, online learning
US10037121B2 (en) 2012-10-09 2018-07-31 Paypal, Inc. Visual mining of user behavior patterns
CN103793713B (zh) * 2012-10-31 2017-09-15 中国科学院沈阳自动化研究所 低秩约束的在线自监督学习的场景分类方法
US9710695B2 (en) 2013-03-15 2017-07-18 Sony Corporation Characterizing pathology images with statistical analysis of local neural network responses
US10987026B2 (en) 2013-05-30 2021-04-27 Spacelabs Healthcare Llc Capnography module with automatic switching between mainstream and sidestream monitoring
US9460366B2 (en) 2014-02-19 2016-10-04 Nant Holdings Ip, Llc Invariant-based dimensional reduction of object recognition features, systems and methods
EP3483795B1 (en) 2015-01-28 2021-03-10 Google LLC Batch normalization layers
WO2017012677A1 (en) * 2015-07-23 2017-01-26 Toyota Motor Europe Nv/Sa System and computer-based method for simulating a human-like control behaviour in an environmental context.
US11062226B2 (en) 2017-06-15 2021-07-13 Microsoft Technology Licensing, Llc Determining a likelihood of a user interaction with a content element
US10805317B2 (en) * 2017-06-15 2020-10-13 Microsoft Technology Licensing, Llc Implementing network security measures in response to a detected cyber attack
US10922627B2 (en) 2017-06-15 2021-02-16 Microsoft Technology Licensing, Llc Determining a course of action based on aggregated data
US10503580B2 (en) 2017-06-15 2019-12-10 Microsoft Technology Licensing, Llc Determining a likelihood of a resource experiencing a problem based on telemetry data
US20190272466A1 (en) * 2018-03-02 2019-09-05 University Of Southern California Expert-driven, technology-facilitated intervention system for improving interpersonal relationships
JP6778708B2 (ja) * 2018-03-14 2020-11-04 日本電信電話株式会社 解析装置、方法、及びプログラム
CN112613536A (zh) * 2020-12-08 2021-04-06 燕山大学 一种基于smote和深度学习的近红外光谱柴油牌号识别方法
CN114897154A (zh) * 2022-03-23 2022-08-12 阿里巴巴(中国)有限公司 数据预测方法及装置
CN114994547B (zh) 2022-08-05 2022-11-18 中汽研新能源汽车检验中心(天津)有限公司 基于深度学习和一致性检测的电池包安全状态评估方法
CN117574244B (zh) * 2024-01-15 2024-04-02 成都秦川物联网科技股份有限公司 基于物联网的超声波水表故障预测方法、装置及设备

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5003490A (en) 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US5255342A (en) * 1988-12-20 1993-10-19 Kabushiki Kaisha Toshiba Pattern recognition system and method using neural network
DE69031866T2 (de) * 1990-03-30 1998-06-18 Koninkl Philips Electronics Nv Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation
US5113483A (en) 1990-06-15 1992-05-12 Microelectronics And Computer Technology Corporation Neural network with semi-localized non-linear mapping of the input space
US5218529A (en) 1990-07-30 1993-06-08 University Of Georgia Research Foundation, Inc. Neural network system and methods for analysis of organic materials and structures using spectral data
JP3329806B2 (ja) 1990-11-09 2002-09-30 株式会社日立製作所 ニューラルネット構築装置
US5634087A (en) * 1991-02-28 1997-05-27 Rutgers University Rapidly trainable neural tree network
JP2979711B2 (ja) * 1991-04-24 1999-11-15 日本電気株式会社 パターン認識方式および標準パターン学習方式
US5263120A (en) * 1991-04-29 1993-11-16 Bickel Michael A Adaptive fast fuzzy clustering system
IL98622A (en) 1991-06-25 1996-10-31 Scitex Corp Ltd Method and device for using neural networks in figure work
US5293456A (en) 1991-06-28 1994-03-08 E. I. Du Pont De Nemours And Company Object recognition system employing a sparse comparison neural network
US5335291A (en) 1991-09-20 1994-08-02 Massachusetts Institute Of Technology Method and apparatus for pattern mapping system with self-reliability check
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
WO1993020530A1 (de) 1992-04-06 1993-10-14 Siemens Aktiengesellschaft Strukturierung von neuronalen netzen durch regelbasiertes wissen
US5311600A (en) * 1992-09-29 1994-05-10 The Board Of Trustees Of The Leland Stanford Junior University Method of edge detection in optical images using neural network classifier
US5432864A (en) * 1992-10-05 1995-07-11 Daozheng Lu Identification card verification system
US5337372A (en) * 1992-10-13 1994-08-09 At&T Bell Laboratories Method and apparatus for symbol recognition using multidimensional preprocessing at multiple resolutions
DE4243882C1 (de) * 1992-12-23 1994-01-05 Baleanu Michael Alin Verfahren und Einrichtung zur Überwachung eines technischen Prozesses
US5649065A (en) * 1993-05-28 1997-07-15 Maryland Technology Corporation Optimal filtering by neural networks with range extenders and/or reducers
US5963929A (en) * 1993-05-28 1999-10-05 Maryland Technology Corporation Recursive neural filters
DE9320530U1 (de) * 1993-09-16 1994-10-13 Rottefella As Langlauf- oder Tourenskibindung für Langlaufskischuhe
US5619709A (en) * 1993-09-20 1997-04-08 Hnc, Inc. System and method of context vector generation and retrieval
JP2690027B2 (ja) * 1994-10-05 1997-12-10 株式会社エイ・ティ・アール音声翻訳通信研究所 パターン認識方法及び装置
US5812992A (en) * 1995-05-24 1998-09-22 David Sarnoff Research Center Inc. Method and system for training a neural network with adaptive weight updating and adaptive pruning in principal component space
US5642431A (en) * 1995-06-07 1997-06-24 Massachusetts Institute Of Technology Network-based system and method for detection of faces and the like
US5687082A (en) * 1995-08-22 1997-11-11 The Ohio State University Methods and apparatus for performing combustion analysis in an internal combustion engine utilizing ignition voltage analysis
US5734796A (en) * 1995-09-29 1998-03-31 Ai Ware, Inc. Self-organization of pattern data with dimension reduction through learning of non-linear variance-constrained mapping
US6134537A (en) * 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
CA2216224A1 (en) * 1997-09-19 1999-03-19 Peter R. Stubley Block algorithm for pattern recognition
US5967995A (en) * 1998-04-28 1999-10-19 University Of Pittsburgh Of The Commonwealth System Of Higher Education System for prediction of life-threatening cardiac arrhythmias

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008152262A (ja) * 2006-12-15 2008-07-03 Samsung Electronics Co Ltd 音声特徴ベクトル変換方法及び装置
US8838446B2 (en) 2006-12-15 2014-09-16 Samsung Electronics Co., Ltd. Method and apparatus of transforming speech feature vectors using an auto-associative neural network
JP2010515181A (ja) * 2007-01-02 2010-05-06 シーメンス アクチエンゲゼルシヤフト 計算機支援による技術システムの開ループ制御および/または閉ループ制御のための方法
US8566264B2 (en) 2007-01-02 2013-10-22 Siemens Aktiengesellschaft Method for the computer-assisted control and/or regulation of a technical system

Also Published As

Publication number Publication date
AU1912699A (en) 1999-07-05
IL136524A0 (en) 2001-06-14
DE69838181T2 (de) 2008-04-30
CA2312902A1 (en) 1999-06-24
EP1038261B1 (en) 2007-08-01
US20010032198A1 (en) 2001-10-18
CN1165869C (zh) 2004-09-08
JP3520048B2 (ja) 2004-04-19
AU737276B2 (en) 2001-08-16
US6212509B1 (en) 2001-04-03
KR100343533B1 (ko) 2002-07-20
CN1282435A (zh) 2001-01-31
US6907412B2 (en) 2005-06-14
KR20010033181A (ko) 2001-04-25
WO1999031624A1 (en) 1999-06-24
BR9813585A (pt) 2001-12-26
EP1038261A1 (en) 2000-09-27
DE69838181D1 (de) 2007-09-13
IL136524A (en) 2004-06-01
US6134537A (en) 2000-10-17
CA2312902C (en) 2005-02-08
ATE368904T1 (de) 2007-08-15

Similar Documents

Publication Publication Date Title
JP2002509303A (ja) 等化直交マッピングによる多次元データの視覚化および自己組織化
Mao et al. Artificial neural networks for feature extraction and multivariate data projection
US5734796A (en) Self-organization of pattern data with dimension reduction through learning of non-linear variance-constrained mapping
Miljković Brief review of self-organizing maps
Bruske et al. Dynamic cell structure learns perfectly topology preserving map
Nowlan Maximum likelihood competitive learning
Baraldi et al. A survey of fuzzy clustering algorithms for pattern recognition. I
Edelman et al. A self-organizing multiple-view representation of 3D objects
US7567889B2 (en) Method, data processing device and computer program product for processing data
Pedrycz et al. Linguistic interpretation of self-organizing maps
Mitra et al. Fuzzy self-organization, inferencing, and rule generation
Araujo et al. Self-organizing maps with a time-varying structure
Ajjimarangsee et al. Neural network model for fusion of visible and infrared sensor outputs
CN108280485B (zh) 一种基于谱图小波描述子的非刚性三维模型检索方法
FAKHOURI et al. Towards a new approach to improve the classification accuracy of the kohonen’s self-organizing map during learning process
Kubat et al. Unsupervised learning
Bai Analysis on various approaches to visualize and interpret convolution neural network
US11908193B2 (en) Obtaining custom artificial neural network architectures
Kamimura Supposed maximum information for comprehensible representations in SOM
Akilan et al. A Hybrid Learner for Simultaneous Localization and Mapping
Jia et al. Self-organizing sparse codes
Törmä Kohonen self-organizing feature map in pattern recognition
Kamimura Mutual information maximization by free energy-based competitive learning for self-organizing maps
Groß et al. Image Analysis and Neural Networks
Whittington et al. Visualisation of artificial neural networks to assist in application development

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040130

LAPS Cancellation because of no payment of annual fees