JPH04330556A - 信号データ処理方法及び装置 - Google Patents
信号データ処理方法及び装置Info
- Publication number
- JPH04330556A JPH04330556A JP3087349A JP8734991A JPH04330556A JP H04330556 A JPH04330556 A JP H04330556A JP 3087349 A JP3087349 A JP 3087349A JP 8734991 A JP8734991 A JP 8734991A JP H04330556 A JPH04330556 A JP H04330556A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- estimate
- output
- input
- another
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title 1
- 239000013598 vector Substances 0.000 claims abstract description 269
- 239000011159 matrix material Substances 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims abstract description 37
- 230000006870 function Effects 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 21
- 238000000354 decomposition reaction Methods 0.000 claims description 15
- 238000000513 principal component analysis Methods 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 abstract description 3
- 239000000306 component Substances 0.000 description 27
- 230000009466 transformation Effects 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000010276 construction Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000012804 iterative process Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000000946 synaptic effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 3
- 238000013144 data compression Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 101000582320 Homo sapiens Neurogenic differentiation factor 6 Proteins 0.000 description 1
- 102100030589 Neurogenic differentiation factor 6 Human genes 0.000 description 1
- ZVQOOHYFBIDMTQ-UHFFFAOYSA-N [methyl(oxido){1-[6-(trifluoromethyl)pyridin-3-yl]ethyl}-lambda(6)-sulfanylidene]cyanamide Chemical compound N#CN=S(C)(=O)C(C)C1=CC=C(C(F)(F)F)N=C1 ZVQOOHYFBIDMTQ-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Optimization (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Complex Calculations (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【0001】
【産業上の利用分野】本発明は、ベクトル空間中に表現
される信号データに係わる共分散行列の統計的シグニフ
ィカンス最大の固有ベクトルの近似値を決定することを
含むところの、主コンポネント解析に基づく信号データ
を処理する方法、及び同方法を実行する装置に関する。
される信号データに係わる共分散行列の統計的シグニフ
ィカンス最大の固有ベクトルの近似値を決定することを
含むところの、主コンポネント解析に基づく信号データ
を処理する方法、及び同方法を実行する装置に関する。
【0002】主コンポネント解析(Principal
ComponentAnalysis −略してPC
A)というのは、信号の統計的性質に基礎を置く戦術、
すなわち例えば画像パターンや音声パターンのようなコ
ヒレント(coherent)なデータ表現のことであ
る。一般的には、いわゆる共分散行列(covaria
nce matrix) を用いて表されるそのような
データは、相互に強く相関がある。定義により、この共
分散行列は正対称である。従って当然一組の相互に直交
する固有ベクトル(主コンポネント)が存在する。その
固有ベクトル(eigenvector) により基礎
的に定まる共分散行列の表現は対角行列であって、対角
線上のコンポネントが該固有ベクトルのそれぞれの固有
値であり、対角線上にないコンポネントは0である。そ
の固有ベクトルの基礎上への共分散行列の写像は通常、
主コンポネント変換(Principal Compo
nent Transform) とか固有ベクトル変
換(Eigenvector Transform)
とか Hotelling変換(Hotelling
Transform) とか Karhunen−Lo
eve 変換(Karhunen−Loeve Tra
nsform)等と呼ばれる(R.C.Gonzale
z 及びP.Wintz 著 Digital Ima
ge Processing 第2版1987年 Ad
dison−Wesley Publishing C
ompany発行、の第 122−130 頁参照)。
ComponentAnalysis −略してPC
A)というのは、信号の統計的性質に基礎を置く戦術、
すなわち例えば画像パターンや音声パターンのようなコ
ヒレント(coherent)なデータ表現のことであ
る。一般的には、いわゆる共分散行列(covaria
nce matrix) を用いて表されるそのような
データは、相互に強く相関がある。定義により、この共
分散行列は正対称である。従って当然一組の相互に直交
する固有ベクトル(主コンポネント)が存在する。その
固有ベクトル(eigenvector) により基礎
的に定まる共分散行列の表現は対角行列であって、対角
線上のコンポネントが該固有ベクトルのそれぞれの固有
値であり、対角線上にないコンポネントは0である。そ
の固有ベクトルの基礎上への共分散行列の写像は通常、
主コンポネント変換(Principal Compo
nent Transform) とか固有ベクトル変
換(Eigenvector Transform)
とか Hotelling変換(Hotelling
Transform) とか Karhunen−Lo
eve 変換(Karhunen−Loeve Tra
nsform)等と呼ばれる(R.C.Gonzale
z 及びP.Wintz 著 Digital Ima
ge Processing 第2版1987年 Ad
dison−Wesley Publishing C
ompany発行、の第 122−130 頁参照)。
【0003】対角線形式は、対角線上以外のコンポネン
トが0に等しいのだから、それで変換されたデータには
相関がないという事実を表す。この変換は特にデータ圧
縮、特性抽出、符号化に応用される。統計的シグニフィ
カンス(significance)の減少する一組の
相関のないコンポネントにデータを分解することにより
、データ圧縮は統計的シグニフィカンスが最大のコンポ
ネントを選択してそれ以外を棄てれば完遂される。この
変換のまた別の応用は、例えば画像処理中の像の回転の
実行である(前掲書第 125−130 頁参照)。
トが0に等しいのだから、それで変換されたデータには
相関がないという事実を表す。この変換は特にデータ圧
縮、特性抽出、符号化に応用される。統計的シグニフィ
カンス(significance)の減少する一組の
相関のないコンポネントにデータを分解することにより
、データ圧縮は統計的シグニフィカンスが最大のコンポ
ネントを選択してそれ以外を棄てれば完遂される。この
変換のまた別の応用は、例えば画像処理中の像の回転の
実行である(前掲書第 125−130 頁参照)。
【0004】
【従来の技術】主コンポネント解析は、例えば、国際学
会”IEEE andINNS Internatio
nal Joint Conference on N
eural Nets,1989”の予稿集第I373
−I405頁所載、Y.Chauvinによる”Pri
ncipal Component Analysis
by Gradient Descent on a
constrainedlinear Hebbia
n Cell”という文献で取り扱われている。この先
行技術では、線形計算ユニットの行動が、分散最大化項
(variance maximization te
rm)と加重正規化項(weight normali
zation term) との和に等しい原価関数(
cost function)の勾配下降(gradi
ent descent)による学習中に試験される。 この原価関数は、線形計算ユニットに入力されたパター
ンの主コンポネントと同一線上のグローバル最小値(g
lobal minimum)を持つ。学習軌道(le
arning trajectory) は、いくつか
の特定の条件が満たされればこのグローバル最小値に向
かって収束する。更にまた、有効性(validity
)を保証するために設けられた仮定の1つは、共分散行
列が明確な固有値を持つことである。
会”IEEE andINNS Internatio
nal Joint Conference on N
eural Nets,1989”の予稿集第I373
−I405頁所載、Y.Chauvinによる”Pri
ncipal Component Analysis
by Gradient Descent on a
constrainedlinear Hebbia
n Cell”という文献で取り扱われている。この先
行技術では、線形計算ユニットの行動が、分散最大化項
(variance maximization te
rm)と加重正規化項(weight normali
zation term) との和に等しい原価関数(
cost function)の勾配下降(gradi
ent descent)による学習中に試験される。 この原価関数は、線形計算ユニットに入力されたパター
ンの主コンポネントと同一線上のグローバル最小値(g
lobal minimum)を持つ。学習軌道(le
arning trajectory) は、いくつか
の特定の条件が満たされればこのグローバル最小値に向
かって収束する。更にまた、有効性(validity
)を保証するために設けられた仮定の1つは、共分散行
列が明確な固有値を持つことである。
【0005】
【発明が解決しようとする課題】この勾配下降中に実行
される繰り返しは多大な計算を必要とする。従って本発
明の目的は、より僅かな且つより簡単な計算しか繰り返
し毎に必要としない、そして一方では固有値の退化(d
egenerate eigenvalue) を許容
する主コンポネント解析を実行することである。
される繰り返しは多大な計算を必要とする。従って本発
明の目的は、より僅かな且つより簡単な計算しか繰り返
し毎に必要としない、そして一方では固有値の退化(d
egenerate eigenvalue) を許容
する主コンポネント解析を実行することである。
【0006】
【課題を解決するための手段】この目的のために、本発
明は、上記近似値を決定することが次の各ステップ、す
なわち、上記ベクトル空間中の初期ベクトルを1番目の
推定値として採るステップと、各その次の推定値として
、先行の推定値と上記ベクトル空間中の次のベクトルと
の線形結合を決定し、該次のベクトルは、次の推定値の
コンポネントを先行の推定値の方向に高めるために、こ
の先行の推定値と該次のベクトルとの内積に依存する因
数で加重されるものとするステップと、次の推定値を決
定することを終了するに当たって、上記近似値を最後に
得られた推定値に平行に採るステップとを有することを
特徴とする。
明は、上記近似値を決定することが次の各ステップ、す
なわち、上記ベクトル空間中の初期ベクトルを1番目の
推定値として採るステップと、各その次の推定値として
、先行の推定値と上記ベクトル空間中の次のベクトルと
の線形結合を決定し、該次のベクトルは、次の推定値の
コンポネントを先行の推定値の方向に高めるために、こ
の先行の推定値と該次のベクトルとの内積に依存する因
数で加重されるものとするステップと、次の推定値を決
定することを終了するに当たって、上記近似値を最後に
得られた推定値に平行に採るステップとを有することを
特徴とする。
【0007】その次の推定値を先行の推定値の方向に高
めることにより、推定値は最もシグニフィカントな(m
ost significant)固有ベクトルすなわ
ち最大の固有値を伴う固有ベクトルの方向に展開する。 更に次の固有ベクトルの近似値を定めるために、原理的
には上述と同じステップを、但し茲では以前に計算され
たそれぞれの固有ベクトルの近似値に直交する部分空間
(subspace)内のベクトルを用いて、繰り返す
ことができる。反復の度に内積計算(inproduc
t calculation),スカラー・ベクトル乗
算(scalar vector multiplic
ation)及びベクトル加算(vector add
ition)が必要とされる。固有値退化(eigen
value−degeneracy) が生じた場合、
直交部分空間構造が付随する固有ベクトルの近似の見出
されることを保証する。 一般的には、固有ベクトルは本発明により統計的シグニ
フィカンスが減少する順序すなわち固有値の減少する順
序で近似される。
めることにより、推定値は最もシグニフィカントな(m
ost significant)固有ベクトルすなわ
ち最大の固有値を伴う固有ベクトルの方向に展開する。 更に次の固有ベクトルの近似値を定めるために、原理的
には上述と同じステップを、但し茲では以前に計算され
たそれぞれの固有ベクトルの近似値に直交する部分空間
(subspace)内のベクトルを用いて、繰り返す
ことができる。反復の度に内積計算(inproduc
t calculation),スカラー・ベクトル乗
算(scalar vector multiplic
ation)及びベクトル加算(vector add
ition)が必要とされる。固有値退化(eigen
value−degeneracy) が生じた場合、
直交部分空間構造が付随する固有ベクトルの近似の見出
されることを保証する。 一般的には、固有ベクトルは本発明により統計的シグニ
フィカンスが減少する順序すなわち固有値の減少する順
序で近似される。
【0008】好適には、共分散行列のまた別の固有ベク
トルの更に近似を定めるために、本発明の方法は、次の
各ステップすなわち、予め定められたそれぞれの値より
も小さい各以前に定められたそれぞれの近似値を伴う内
積絶対値を持つところのベクトルにより決定されるベク
トル空間の領域中に在る更にもう1つの初期ベクトルを
、最初の更にもう1つの推定値として採るステップと、
各その次の更にもう1つの推定値として、先行の更にも
う1つの推定値と次の更にもう1つの領域ベクトルとの
線形結合を決定し、該次の更にもう1つの領域ベクトル
は、次の更にもう1つの推定値を先行の更にもう1つの
推定値の方向に高めるために、因数推定値と次の更にも
う1つのベクトルとで加重されるものとするステップと
、次の更にもう1つの推定値を決定することを終了する
に当たって、最後に得られた更にもう1つの推定値を各
以前に定められた近似値に関して直交化するステップと
、更にもう1つの近似値を、上記直交化されたところの
最後に得られた更にもう1つの推定値に平行に採るステ
ップとを含むことを特徴とする。
トルの更に近似を定めるために、本発明の方法は、次の
各ステップすなわち、予め定められたそれぞれの値より
も小さい各以前に定められたそれぞれの近似値を伴う内
積絶対値を持つところのベクトルにより決定されるベク
トル空間の領域中に在る更にもう1つの初期ベクトルを
、最初の更にもう1つの推定値として採るステップと、
各その次の更にもう1つの推定値として、先行の更にも
う1つの推定値と次の更にもう1つの領域ベクトルとの
線形結合を決定し、該次の更にもう1つの領域ベクトル
は、次の更にもう1つの推定値を先行の更にもう1つの
推定値の方向に高めるために、因数推定値と次の更にも
う1つのベクトルとで加重されるものとするステップと
、次の更にもう1つの推定値を決定することを終了する
に当たって、最後に得られた更にもう1つの推定値を各
以前に定められた近似値に関して直交化するステップと
、更にもう1つの近似値を、上記直交化されたところの
最後に得られた更にもう1つの推定値に平行に採るステ
ップとを含むことを特徴とする。
【0009】その次の各ベクトルを既に得られた近似に
関して直交化する代わりに、茲では最後に得られた推定
値に対してのみ直交化を実行し、それにより計算時間を
大幅に節減する。それ以外の利点として、ベクトルの内
積値及び以前に定められ正規化された近似値の各々は、
付随する固有値を生成するためにいずれにしても必要と
されるので、従って効率的な戦術がもたらされるのであ
る。
関して直交化する代わりに、茲では最後に得られた推定
値に対してのみ直交化を実行し、それにより計算時間を
大幅に節減する。それ以外の利点として、ベクトルの内
積値及び以前に定められ正規化された近似値の各々は、
付随する固有値を生成するためにいずれにしても必要と
されるので、従って効率的な戦術がもたらされるのであ
る。
【0010】その次のベクトル又は更にその次のベクト
ルに加重するための因数は、符号関数(sign−fu
nction) が負(マイナス)を示す場合に反転を
起こすだけの内積に作用する符号関数であるのを好適と
する。その次の推定値又は更にその次の推定値を定める
のに実際に貢献するベクトルのみを考慮するためには、
該因数は、0の周りの予め定められた区間の外にある値
を内積が持つときには内積に作用する符号関数とし、該
区間の内部の値を内積が持つときには0に等しいとする
のが好適である。 このこともまた、不十分な内積値の故に前段の近似決定
に際して棄てられたベクトルの選択により達成されたの
である。
ルに加重するための因数は、符号関数(sign−fu
nction) が負(マイナス)を示す場合に反転を
起こすだけの内積に作用する符号関数であるのを好適と
する。その次の推定値又は更にその次の推定値を定める
のに実際に貢献するベクトルのみを考慮するためには、
該因数は、0の周りの予め定められた区間の外にある値
を内積が持つときには内積に作用する符号関数とし、該
区間の内部の値を内積が持つときには0に等しいとする
のが好適である。 このこともまた、不十分な内積値の故に前段の近似決定
に際して棄てられたベクトルの選択により達成されたの
である。
【0011】付随する固有値は、特定の固有ベクトルに
関連して最後に得られた推定値を単位量の上に正規化す
ることと、各それぞれの内積が正規化された推定値とそ
れぞれのベクトルとに関わりがあるものであり、それぞ
れの推定値を生成するために用いられる内積の自乗の総
和を定め且つ総和の結果を平均することとにより、見出
される。
関連して最後に得られた推定値を単位量の上に正規化す
ることと、各それぞれの内積が正規化された推定値とそ
れぞれのベクトルとに関わりがあるものであり、それぞ
れの推定値を生成するために用いられる内積の自乗の総
和を定め且つ総和の結果を平均することとにより、見出
される。
【0012】
【作用】この方法を(ディジタル)ニューラル・ネット
状の構造上に実行することは、所要の演算(内積、スカ
ラー・ベクトル乗算及びベクトル加算)がシナプス係数
(synaptic coefficient)を更新
する(updating)ための計算の大多数の構成要
素となるものだから、特に大きな利点がある。
状の構造上に実行することは、所要の演算(内積、スカ
ラー・ベクトル乗算及びベクトル加算)がシナプス係数
(synaptic coefficient)を更新
する(updating)ための計算の大多数の構成要
素となるものだから、特に大きな利点がある。
【0013】これらの規約を概括すれば、次の2つの式
:
:
【数1】
Cij(新) =Cij(現在)+Δi Vj
(
b)とすることが出来る。式(a) は、シナプス係数
行列Cの第i行(i−th row)とベクトルVとの
ベクトル内積上のニューロンiの出力Si の非線形従
属性を表し、そのコンポネントはシナプス係数Cijと
交わるニューロンiの入力と結合するニューロンjの出
力から成っている。式(b) は、ニューロン出力Vj
と相関因数Δi とを含む各シナプス係数の、ある一
般的な型式の学習規約に従う更新を示している。例えば
、最も勾配の急な下降戦術は式(b) による一般的な
更新規約に従う。指数iか指数j又はその双方に関して
並列に実行される時には、式(b) はベクトル加算を
示す。
(
b)とすることが出来る。式(a) は、シナプス係数
行列Cの第i行(i−th row)とベクトルVとの
ベクトル内積上のニューロンiの出力Si の非線形従
属性を表し、そのコンポネントはシナプス係数Cijと
交わるニューロンiの入力と結合するニューロンjの出
力から成っている。式(b) は、ニューロン出力Vj
と相関因数Δi とを含む各シナプス係数の、ある一
般的な型式の学習規約に従う更新を示している。例えば
、最も勾配の急な下降戦術は式(b) による一般的な
更新規約に従う。指数iか指数j又はその双方に関して
並列に実行される時には、式(b) はベクトル加算を
示す。
【0014】〔特異値分解への応用〕上に述べた本発明
の方法は、特異値分解に係わる信号データを具体化して
好結果を得ることができる。「特異値分解」(Sing
ular Value Decomposition
−略してSVD)という用語は、上述の正方データ行列
に対する固有ベクトル・固有値表現の一般化を指すもの
である。行列の理論によれば、各矩形m×n行列に対し
て、一般化された(generalized) 対角線
上ではいわゆる特異値を表すコンポネントを持ち一般化
された対角線以外では0に等しいコンポネントを持つ一
般化された対角行列を生成するところの変換行列が存在
する。信号処理の分野内でも、特異値分解は、適応濾波
(adaptive filtering), 線形予
想推定(linear prediction est
imation), 多重シヌソイド信号(multi
ple−sinusoid signal)を取り扱う
様式解析(modal analysis), 適応モ
デル化(adaptive modelling)等々
に応用される。これら多数の技術的応用が North
−Holland社1988年発行 Ed.F.Dep
rettere編”SVD andSignal Pr
ocessing: Algorithms,Appl
ications and Architecture
s”なる文献に広汎に検討されている。
の方法は、特異値分解に係わる信号データを具体化して
好結果を得ることができる。「特異値分解」(Sing
ular Value Decomposition
−略してSVD)という用語は、上述の正方データ行列
に対する固有ベクトル・固有値表現の一般化を指すもの
である。行列の理論によれば、各矩形m×n行列に対し
て、一般化された(generalized) 対角線
上ではいわゆる特異値を表すコンポネントを持ち一般化
された対角線以外では0に等しいコンポネントを持つ一
般化された対角行列を生成するところの変換行列が存在
する。信号処理の分野内でも、特異値分解は、適応濾波
(adaptive filtering), 線形予
想推定(linear prediction est
imation), 多重シヌソイド信号(multi
ple−sinusoid signal)を取り扱う
様式解析(modal analysis), 適応モ
デル化(adaptive modelling)等々
に応用される。これら多数の技術的応用が North
−Holland社1988年発行 Ed.F.Dep
rettere編”SVD andSignal Pr
ocessing: Algorithms,Appl
ications and Architecture
s”なる文献に広汎に検討されている。
【0015】今考えている信号データ処理システムから
SVDに従って情報を抽出するためには、それは線形
モデルによって良く記述されているものと仮定する。す
なわち該システムは入出力関係として線形変換を含んで
いる。この線形変換を具体化する行列はしばしば未知で
ある。茲ではさらに、この行列に係わる情報はシステム
の特定の入力ベクトルとそれに関連する出力ベクトルと
の測定から得られるものと仮定する。
SVDに従って情報を抽出するためには、それは線形
モデルによって良く記述されているものと仮定する。す
なわち該システムは入出力関係として線形変換を含んで
いる。この線形変換を具体化する行列はしばしば未知で
ある。茲ではさらに、この行列に係わる情報はシステム
の特定の入力ベクトルとそれに関連する出力ベクトルと
の測定から得られるものと仮定する。
【0016】本発明による手順は次のように進められる
。入力ベクトルの集合は入力空間内で無作為且つ均一の
分布を持つとして確立される、すなわちその入力共分散
行列は単位行列である。このことは、出力空間内の出力
ベクトルの出力共分散行列が、求めようとする行列に係
わるコンポネントのみを有することを意味する。主コン
ポネント解析を用いて上述の方法で出力共分散行列を対
角線化すれば、最初の変換行列を定義する出力空間内の
一組の基礎ベクトルが導かれる。入力空間での基礎ベク
トルをもつ関連の2番目の変換行列もそれと並列に定め
られる。これらの変換行列は、基礎ベクトルと以下に述
べる測定との双方から推論できる一般化された固有値の
集合とともに特異値分解を定義する。
。入力ベクトルの集合は入力空間内で無作為且つ均一の
分布を持つとして確立される、すなわちその入力共分散
行列は単位行列である。このことは、出力空間内の出力
ベクトルの出力共分散行列が、求めようとする行列に係
わるコンポネントのみを有することを意味する。主コン
ポネント解析を用いて上述の方法で出力共分散行列を対
角線化すれば、最初の変換行列を定義する出力空間内の
一組の基礎ベクトルが導かれる。入力空間での基礎ベク
トルをもつ関連の2番目の変換行列もそれと並列に定め
られる。これらの変換行列は、基礎ベクトルと以下に述
べる測定との双方から推論できる一般化された固有値の
集合とともに特異値分解を定義する。
【0017】
【実施例】次に、図面を引用し、実施例を用いて本発明
を説明する。
を説明する。
【0018】〔ガウスの確率密度(Gaussian
Probability Density)〕図1は確
率変数(stochastic variables)
x及びyのガウスの確率密度関数の一例を示し、その期
待値又は平均値は E(x) 及び E(y) とする
。閉じた輪郭線は一定の確率密度を表す曲線である。変
数x及びyが x−y平面の特定の領域に属する値をと
る確率はその領域でのfの積分に等しい。これらの確率
変数の期待値 E(x) 及び E(y) に関する偏
差すなわち x−E(x)及び y−E(y) は相互
に、図1から理解されるような相関がある。この実例で
は x−E(x) の値の増加は統計的に y−E(y
) の値の増加の傾向をもたらす。この従属性すなわち
相関を表す量が、該確率密度に亙って平均した積 (x
−E(x))(y−E(y)) の値で定義されるとこ
ろのx,yの共分散 cov(x,y) である。 c
ov(x,x) 及び cov(y,y) はそれぞれ
x, yのいわゆる分散又は標準偏差であって、それぞ
れが各々の平均値 E(x), E(y) からの2次
偏差に対する期待値の測度(measures)である
。分散が小さければ小さいほど、平均値の近傍の確率密
度ははっきりしている。
Probability Density)〕図1は確
率変数(stochastic variables)
x及びyのガウスの確率密度関数の一例を示し、その期
待値又は平均値は E(x) 及び E(y) とする
。閉じた輪郭線は一定の確率密度を表す曲線である。変
数x及びyが x−y平面の特定の領域に属する値をと
る確率はその領域でのfの積分に等しい。これらの確率
変数の期待値 E(x) 及び E(y) に関する偏
差すなわち x−E(x)及び y−E(y) は相互
に、図1から理解されるような相関がある。この実例で
は x−E(x) の値の増加は統計的に y−E(y
) の値の増加の傾向をもたらす。この従属性すなわち
相関を表す量が、該確率密度に亙って平均した積 (x
−E(x))(y−E(y)) の値で定義されるとこ
ろのx,yの共分散 cov(x,y) である。 c
ov(x,x) 及び cov(y,y) はそれぞれ
x, yのいわゆる分散又は標準偏差であって、それぞ
れが各々の平均値 E(x), E(y) からの2次
偏差に対する期待値の測度(measures)である
。分散が小さければ小さいほど、平均値の近傍の確率密
度ははっきりしている。
【0019】以下の記述中、ベクトルを表す記号として
「→」を用いることにする。(ベクトルを表す記号とし
て通常は、文字等の上にバー“ ̄”を付けて表示するこ
とが多いが、本明細書の本文中では、極く一部の例外を
除いて、文字等の左に“→”を付ける。但し図面中では
ベクトルを表示するのに“ ̄”を用いているが、同じも
のを指すと理解されたい。)順序のある対(x,y)
が、単位ベクトルを→ex 及び→ey とするベクト
ル→vと見做されるときは、共分散行列は E((→v−E(→v))(→v) −E(→v))で
定義され、その対角線上のコンポネントは cov(x
,x) 及び cov(y,y) であり、対角線外の
コンポネントは cov(x,y)及び cov(y,
x) である。
「→」を用いることにする。(ベクトルを表す記号とし
て通常は、文字等の上にバー“ ̄”を付けて表示するこ
とが多いが、本明細書の本文中では、極く一部の例外を
除いて、文字等の左に“→”を付ける。但し図面中では
ベクトルを表示するのに“ ̄”を用いているが、同じも
のを指すと理解されたい。)順序のある対(x,y)
が、単位ベクトルを→ex 及び→ey とするベクト
ル→vと見做されるときは、共分散行列は E((→v−E(→v))(→v) −E(→v))で
定義され、その対角線上のコンポネントは cov(x
,x) 及び cov(y,y) であり、対角線外の
コンポネントは cov(x,y)及び cov(y,
x) である。
【0020】この共分散行列は正対称だから、これは、
→ex 及び→ey に基づいて表現することのできる
各ベクトル又は行列をそれで表現するための、もう1つ
別の単位ベクトル→ep 及び→eq を定義する一組
の直交固有ベクトルを持つ。固有ベクトルに基づいて写
像されたときには、共分散行列は対角行列の形を採る、
すなわちそのとき対角線外のコンポネントは0である。
→ex 及び→ey に基づいて表現することのできる
各ベクトル又は行列をそれで表現するための、もう1つ
別の単位ベクトル→ep 及び→eq を定義する一組
の直交固有ベクトルを持つ。固有ベクトルに基づいて写
像されたときには、共分散行列は対角行列の形を採る、
すなわちそのとき対角線外のコンポネントは0である。
【0021】共分散行列のこの対角線表現は、こうして
変換されたベクトル→vの表現が新しい確率変数p及び
qに係わるものであって、この新しい確率変数p及びq
は変数x及びyの線形の組合せであり且つ今や相関はな
いという事実を、目に見える形で示している。そればか
りでなく、該共分散行列は正対称だから、共分散行列の
固有値である対角線上のコンポネントは今や、それぞれ
の分散 cov(p,p) 及びcov(q,q) で
あって、それは一般にはそれぞれσp 2 及びσq
2 とされるものである。
変換されたベクトル→vの表現が新しい確率変数p及び
qに係わるものであって、この新しい確率変数p及びq
は変数x及びyの線形の組合せであり且つ今や相関はな
いという事実を、目に見える形で示している。そればか
りでなく、該共分散行列は正対称だから、共分散行列の
固有値である対角線上のコンポネントは今や、それぞれ
の分散 cov(p,p) 及びcov(q,q) で
あって、それは一般にはそれぞれσp 2 及びσq
2 とされるものである。
【0022】前にも述べたように共分散行列を対角線化
する変換は、主コンポネント変換とか Hotelli
ng変換とか固有値変換とかKarhunen−Loe
ve変換という名称で既知である。信号処理の過程では
この変換は、例えば、符号化の目的で信号中の従属性に
係わる冗長性を除去するためや、データ圧縮に有利に用
いることができるように信号エネルギーを小さい数の係
数に圧縮するために使用される。更に、変換というのは
実際には回転であるから、画像処理で回転を実行するの
にも使用できる。
する変換は、主コンポネント変換とか Hotelli
ng変換とか固有値変換とかKarhunen−Loe
ve変換という名称で既知である。信号処理の過程では
この変換は、例えば、符号化の目的で信号中の従属性に
係わる冗長性を除去するためや、データ圧縮に有利に用
いることができるように信号エネルギーを小さい数の係
数に圧縮するために使用される。更に、変換というのは
実際には回転であるから、画像処理で回転を実行するの
にも使用できる。
【0023】〔ガウスの公式(Gaussian Fo
rmulae) 〕実行上は、しばしば未知の確率関数
が、級数展開中の1次の項と見做すことのできるガウス
関数によって良く近似されるものと仮定される。ガウス
密度は、共分散行列と確率変数の平均値とによって完全
に定義される。のみならず、確率密度のガウス特性は線
形変換によって影響されない。N次元ガウス確率密度の
一般的表現は、図2の式(i) で与えられる。但し茲
で、Nは確率ベクトル空間(stochastic−v
ector space) の次元数を示し、Cは該当
する共分散行列を表し、|C|と表記されるCの行列式
が0にはならないと仮定してC−1はCの逆行列を表す
ものとする(CとC−1は共に対称である)。ベクトル
→x及びベクトル→μはそれぞれ、確率ベクトル(st
ochastic vector) 及びその期待値を
表す。
rmulae) 〕実行上は、しばしば未知の確率関数
が、級数展開中の1次の項と見做すことのできるガウス
関数によって良く近似されるものと仮定される。ガウス
密度は、共分散行列と確率変数の平均値とによって完全
に定義される。のみならず、確率密度のガウス特性は線
形変換によって影響されない。N次元ガウス確率密度の
一般的表現は、図2の式(i) で与えられる。但し茲
で、Nは確率ベクトル空間(stochastic−v
ector space) の次元数を示し、Cは該当
する共分散行列を表し、|C|と表記されるCの行列式
が0にはならないと仮定してC−1はCの逆行列を表す
ものとする(CとC−1は共に対称である)。ベクトル
→x及びベクトル→μはそれぞれ、確率ベクトル(st
ochastic vector) 及びその期待値を
表す。
【0024】図2の式(i) では、指数関数の偏角は
2次関数 (→x−→μ).C−1.(→x−→μ)を含む。C−
1が(そして結果的にはCが)対角線形となる単位ベク
トル系上へのベクトル →x−→μ の写像は、該
偏角を同次2次項の和に変換する。指数関数の特性によ
り、合同確率密度(joint probabilit
y density) は今や因数に分離され、その各
々が図2の式(ii)で与えられる形の1次元ガウス確
率密度を表し、またその各々が分散σi 2 及び平均
値μi を持つ。
2次関数 (→x−→μ).C−1.(→x−→μ)を含む。C−
1が(そして結果的にはCが)対角線形となる単位ベク
トル系上へのベクトル →x−→μ の写像は、該
偏角を同次2次項の和に変換する。指数関数の特性によ
り、合同確率密度(joint probabilit
y density) は今や因数に分離され、その各
々が図2の式(ii)で与えられる形の1次元ガウス確
率密度を表し、またその各々が分散σi 2 及び平均
値μi を持つ。
【0025】主コンポネント変換は、幾何学的には(→
x−→μ).C−1.(→x−→μ) が一定値をとる
面の、対称軸が(新しい)座標軸に一致する方向への回
転を表す。これもまた、それが上記2次式そのものの関
数だから、ガウス密度関数に関し妥当性を保ち続ける。
x−→μ).C−1.(→x−→μ) が一定値をとる
面の、対称軸が(新しい)座標軸に一致する方向への回
転を表す。これもまた、それが上記2次式そのものの関
数だから、ガウス密度関数に関し妥当性を保ち続ける。
【0026】〔幾何学的な構造(Geometric
Construction)〕次に本発明は、共分散行
列の固有ベクトル及び固有値の近似を、統計的シグニフ
ィカンス(統計的有効性− statistical
significance)が小さくなる順序で求める
方法を提案する。これは図3を用いて説明する。図3中
の輪郭線(contours)もまた、共分散行列に係
わる2次式と従ってガウス確率密度とが一定値である面
を指す。座標軸x及びyの原点は、図1の平均値E(x
)、E(y)の位置に既に移動している。それ故、以下
に説明するベクトル加算による構築は、原点として平均
値の位置を採る間に実行されるものである。茲での目的
は、座標系x及びyに関係するものとして2次関数の、
従ってガウス密度関数の、p及びqで示される対称軸の
方向の近似を見出すことである。これは次のようにして
達成される。
Construction)〕次に本発明は、共分散行
列の固有ベクトル及び固有値の近似を、統計的シグニフ
ィカンス(統計的有効性− statistical
significance)が小さくなる順序で求める
方法を提案する。これは図3を用いて説明する。図3中
の輪郭線(contours)もまた、共分散行列に係
わる2次式と従ってガウス確率密度とが一定値である面
を指す。座標軸x及びyの原点は、図1の平均値E(x
)、E(y)の位置に既に移動している。それ故、以下
に説明するベクトル加算による構築は、原点として平均
値の位置を採る間に実行されるものである。茲での目的
は、座標系x及びyに関係するものとして2次関数の、
従ってガウス密度関数の、p及びqで示される対称軸の
方向の近似を見出すことである。これは次のようにして
達成される。
【0027】固有ベクトルに対する最初の推定値→c1
として、ある判断基準に基づいて或いは無作為に、初
期ベクトル→θ1 が選定される。二番目の推定値→c
2 は、先ず2番目のベクトル→θ2 を選定してから
、最初の推定値→c1 と、この2番目のベクトル→θ
2 に内積:(→c1.→θ2)上で作用する符号関数
(sign−function)に等しい因数で加重さ
れたものとを、線形に組合せることにより構築される。 所与の実例では、このことは→c2 を生成するために
最初の推定値→c1 にマイナス→θ2 というベクト
ルをを加算することを意味する。三番目の推定値→c3
及び四番目の推定値→c4 も同様にして、それぞれ
3番目のベクトル→θ3 及び4番目のベクトル→θ4
を選定して構築される。上述の構築を要約した公式が
図4に示されている。
として、ある判断基準に基づいて或いは無作為に、初
期ベクトル→θ1 が選定される。二番目の推定値→c
2 は、先ず2番目のベクトル→θ2 を選定してから
、最初の推定値→c1 と、この2番目のベクトル→θ
2 に内積:(→c1.→θ2)上で作用する符号関数
(sign−function)に等しい因数で加重さ
れたものとを、線形に組合せることにより構築される。 所与の実例では、このことは→c2 を生成するために
最初の推定値→c1 にマイナス→θ2 というベクト
ルをを加算することを意味する。三番目の推定値→c3
及び四番目の推定値→c4 も同様にして、それぞれ
3番目のベクトル→θ3 及び4番目のベクトル→θ4
を選定して構築される。上述の構築を要約した公式が
図4に示されている。
【0028】次の推定値→ck+1 の各々が、p軸す
なわち最大固有値に付随する固有ベクトルに平行な方向
を持つ軸となす角が前のに比べて段々小さくなる傾向が
あることは、図3の概略図から推定できる。この固有ベ
クトルは、統計的有効性が最大の固有ベクトル(sta
tistically most significa
nt eigenvector)と名付けられる。 (それぞれの固有値間の比は描かれた輪郭線のそれぞれ
の主軸の長さの比に対応することに留意すべきである。 )こうして、上記内積上で作用する符号関数による加重
因数を用いて次の推定値→ck+1 の各々を先行の推
定値→ck の方向に寄せることによって、次の推定値
→ck+1 はさらに主軸の方向に展開する。この繰り
返し過程の終了に当たり最後に得られた推定値が有効性
最大の固有ベクトルの近似値として採用される。以上は
数学的に厳密な証明を与えてはいないが、考え方として
は正しい。
なわち最大固有値に付随する固有ベクトルに平行な方向
を持つ軸となす角が前のに比べて段々小さくなる傾向が
あることは、図3の概略図から推定できる。この固有ベ
クトルは、統計的有効性が最大の固有ベクトル(sta
tistically most significa
nt eigenvector)と名付けられる。 (それぞれの固有値間の比は描かれた輪郭線のそれぞれ
の主軸の長さの比に対応することに留意すべきである。 )こうして、上記内積上で作用する符号関数による加重
因数を用いて次の推定値→ck+1 の各々を先行の推
定値→ck の方向に寄せることによって、次の推定値
→ck+1 はさらに主軸の方向に展開する。この繰り
返し過程の終了に当たり最後に得られた推定値が有効性
最大の固有ベクトルの近似値として採用される。以上は
数学的に厳密な証明を与えてはいないが、考え方として
は正しい。
【0029】その他の固有ベクトルの近似に対しては、
考慮の対象になるベクトル→θk が既に得られた近似
と直交する部分空間内になければならない、すなわちオ
ーソプリメント(orthoplement)でなけれ
ばならない。従って選定されたベクトル→θk は、既
に得られた近似が跨いでいる他の部分空間にあるコンポ
ネントを取り除かれる。
考慮の対象になるベクトル→θk が既に得られた近似
と直交する部分空間内になければならない、すなわちオ
ーソプリメント(orthoplement)でなけれ
ばならない。従って選定されたベクトル→θk は、既
に得られた近似が跨いでいる他の部分空間にあるコンポ
ネントを取り除かれる。
【0030】提案された方法のもう1つの変形では、繰
り返し過程中で用いられるベクトル→θk は、予め定
められた上限より小さい既に得られ且つ正規化された近
似値を持つ内積絶対値を有するのを好適とする。従って
直交化は最後の推定値が得られるまで遅らせられる。こ
うして、上述のコンポネントの除去は、最終ステップ以
外の各繰り返しステップでは避けられる。内積の計算を
考慮に入れなければならないかどうかを決定するために
、各ベクトル→θk に対してそこで内積の計算が実行
されなければならない。のみならず、これらの内積の計
算結果は各近似に付帯する分散の計算に好適に用いられ
、こうして既に決定された結果が別の目的にも有効に利
用されることになり、それについては図8を用いて説明
される。
り返し過程中で用いられるベクトル→θk は、予め定
められた上限より小さい既に得られ且つ正規化された近
似値を持つ内積絶対値を有するのを好適とする。従って
直交化は最後の推定値が得られるまで遅らせられる。こ
うして、上述のコンポネントの除去は、最終ステップ以
外の各繰り返しステップでは避けられる。内積の計算を
考慮に入れなければならないかどうかを決定するために
、各ベクトル→θk に対してそこで内積の計算が実行
されなければならない。のみならず、これらの内積の計
算結果は各近似に付帯する分散の計算に好適に用いられ
、こうして既に決定された結果が別の目的にも有効に利
用されることになり、それについては図8を用いて説明
される。
【0031】このやり方で上記の戦術は、固有ベクトル
の近似値を、順次にすなわち統計的有効性(stati
stical significance)が小さくな
る順序で生成する。
の近似値を、順次にすなわち統計的有効性(stati
stical significance)が小さくな
る順序で生成する。
【0032】ある特定の固有ベクトルに属する固有値の
近似値は、よく知られている統計学の規約に従って決定
される。すなわち、平均値原点に係わるある特定の固有
ベクトルに付帯する分散σ2 の近似値としての標本分
散s2 は図5の公式によって、但し→θk は、その
特定の固有ベクトルを決定するために上述のように導入
された図4の公式中のk番目のベクトルを毎回指すもの
として、与えられる。
近似値は、よく知られている統計学の規約に従って決定
される。すなわち、平均値原点に係わるある特定の固有
ベクトルに付帯する分散σ2 の近似値としての標本分
散s2 は図5の公式によって、但し→θk は、その
特定の固有ベクトルを決定するために上述のように導入
された図4の公式中のk番目のベクトルを毎回指すもの
として、与えられる。
【0033】〔内積因数 (Inproduct Fa
ctors)〕内積inp 上に作用して加重因数 w
f を生成するために(2値の)符号関数(図6(a)
)を用いる代わりに図6(b)の(3値の)変形符号関
数が、当面の推定値の本質的改善をもたらすようなベク
トルのみを考慮するために用いられることは好適であり
、こうして動作の数が少なくなる。換言すれば、予め定
められた下限Bより大きい絶対値を持つ内積をもたらす
それらのベクトルのみが当面の近似に関係すると考えら
れるのである。ある特定の固有ベクトルの近似値を決定
する当面の過程中で、いくつかのベクトル→θが、この
過程ではその内積が小さ過ぎてこれを用いることは展開
を遅くするという理由で、棄てられる。しかしこれらの
棄てられたベクトル→θは、更に別の固有ベクトルの近
似を展開する過程で用いられる時には、重要な内積値を
もたらすベクトル→θを与えるようなベクトル空間の領
域内に在るのである。
ctors)〕内積inp 上に作用して加重因数 w
f を生成するために(2値の)符号関数(図6(a)
)を用いる代わりに図6(b)の(3値の)変形符号関
数が、当面の推定値の本質的改善をもたらすようなベク
トルのみを考慮するために用いられることは好適であり
、こうして動作の数が少なくなる。換言すれば、予め定
められた下限Bより大きい絶対値を持つ内積をもたらす
それらのベクトルのみが当面の近似に関係すると考えら
れるのである。ある特定の固有ベクトルの近似値を決定
する当面の過程中で、いくつかのベクトル→θが、この
過程ではその内積が小さ過ぎてこれを用いることは展開
を遅くするという理由で、棄てられる。しかしこれらの
棄てられたベクトル→θは、更に別の固有ベクトルの近
似を展開する過程で用いられる時には、重要な内積値を
もたらすベクトル→θを与えるようなベクトル空間の領
域内に在るのである。
【0034】図7は、特定の主コンポネントすなわち固
有ベクトルに対する推定値を順次決定するための信号デ
ータ処理装置 (70) の一番目の実施例の概略図を
表す。
有ベクトルに対する推定値を順次決定するための信号デ
ータ処理装置 (70) の一番目の実施例の概略図を
表す。
【0035】該装置70はベクトル→θk を順次生成
するためのベクトル生成器72を有する。k=1 に対
して生成されたベクトル→θ1 は経路指定器74を経
由してメモリ76に送られて、そこで有効性最大の(m
ost significant)固有ベクトルの近似
の1番目の推定値として記憶される。次々に生成される
ベクトル→θk+1 の各々は、経路指定器74を経由
してレジスタ78に送られて、そこで記憶される。レジ
スタ78に記憶されたベクトル及びメモリ76に記憶さ
れた先行の推定値→ck が、内積の値を計算するため
に内積手段80に与えられる。計算された内積の値が、
例えば図6(a)による符号関数又は図6(b)による
変形符号関数を用いて、関数手段82により操作される
。関数手段82の出力が、レジスタ78に記憶された当
面のベクトル→θk+1 に加重するための因数を与え
る。そのために、乗算手段84は該因数と当面のベクト
ル→θk+1 との両方を受け取って加重ベクトルを生
成し、これを加算器86内で、メモリ76に記憶されて
いた先行の推定値→ck に加算する。加算結果→ck
+1 はメモリ72に記憶され、前の推定値→ckと置
き換える。内積手段80の中での内積操作、乗算手段8
4の中での乗算操作及び加算器86の中での加算操作の
各々は、当該ベクトル・コンポネントに関し並列に実行
されるのが好適である。メモリ76は該ベクトル・コン
ポネントを並列に書き込み及び並列に読み出しを許すタ
イプであることを好適とする。
するためのベクトル生成器72を有する。k=1 に対
して生成されたベクトル→θ1 は経路指定器74を経
由してメモリ76に送られて、そこで有効性最大の(m
ost significant)固有ベクトルの近似
の1番目の推定値として記憶される。次々に生成される
ベクトル→θk+1 の各々は、経路指定器74を経由
してレジスタ78に送られて、そこで記憶される。レジ
スタ78に記憶されたベクトル及びメモリ76に記憶さ
れた先行の推定値→ck が、内積の値を計算するため
に内積手段80に与えられる。計算された内積の値が、
例えば図6(a)による符号関数又は図6(b)による
変形符号関数を用いて、関数手段82により操作される
。関数手段82の出力が、レジスタ78に記憶された当
面のベクトル→θk+1 に加重するための因数を与え
る。そのために、乗算手段84は該因数と当面のベクト
ル→θk+1 との両方を受け取って加重ベクトルを生
成し、これを加算器86内で、メモリ76に記憶されて
いた先行の推定値→ck に加算する。加算結果→ck
+1 はメモリ72に記憶され、前の推定値→ckと置
き換える。内積手段80の中での内積操作、乗算手段8
4の中での乗算操作及び加算器86の中での加算操作の
各々は、当該ベクトル・コンポネントに関し並列に実行
されるのが好適である。メモリ76は該ベクトル・コン
ポネントを並列に書き込み及び並列に読み出しを許すタ
イプであることを好適とする。
【0036】関数手段82が符号関数操作を実行する場
合に、ベクトル→θk+1 は乗算手段84で単に反転
するだけであるか又は直接そのまま加算器86に与えら
れるかのいずれかであることに留意すべきである。この
場合、乗算手段はレジスタ78の内容を反転する単一反
転器である。 ある特定の固有ベクトルの近似値を計算するために各繰
り返し過程で生成されたベクトル→θは、既に定められ
た近似値と直交するものでなければならない。
合に、ベクトル→θk+1 は乗算手段84で単に反転
するだけであるか又は直接そのまま加算器86に与えら
れるかのいずれかであることに留意すべきである。この
場合、乗算手段はレジスタ78の内容を反転する単一反
転器である。 ある特定の固有ベクトルの近似値を計算するために各繰
り返し過程で生成されたベクトル→θは、既に定められ
た近似値と直交するものでなければならない。
【0037】〔2番目の典型的装置例(Second
Exemplary Apparatus)〕図8には
、本発明による装置の2番目の実施例の概略図が示され
る。図7の装置のものと同一の部分又は対応する部分に
は同じ番号が付けてある。この図に示す装置90は、図
7の装置70に判断手段100 を付け加えて拡張した
もので、この判断手段100 は、ベクトル生成器72
により生成された当面のベクトル→θk+1 が図3に
よるベクトル構築中に、関連の固有ベクトルの近似に向
けて誘導する役割を果たすべきかどうかを判断するため
のものである。最高ランクの固有ベクトル(有効性最大
の固有ベクトル)の近似値を定めるためには、判断手段
100 は考慮の対象外に置き、装置90は前の図7の
装置70と同様な動作をする。1番目の固有ベクトルの
最後に得られた推定値が決定されたら、それは単位の大
きさに正規化されて、1番目のベース・ベクトルとして
ベース・メモリ102 に記憶される。
Exemplary Apparatus)〕図8には
、本発明による装置の2番目の実施例の概略図が示され
る。図7の装置のものと同一の部分又は対応する部分に
は同じ番号が付けてある。この図に示す装置90は、図
7の装置70に判断手段100 を付け加えて拡張した
もので、この判断手段100 は、ベクトル生成器72
により生成された当面のベクトル→θk+1 が図3に
よるベクトル構築中に、関連の固有ベクトルの近似に向
けて誘導する役割を果たすべきかどうかを判断するため
のものである。最高ランクの固有ベクトル(有効性最大
の固有ベクトル)の近似値を定めるためには、判断手段
100 は考慮の対象外に置き、装置90は前の図7の
装置70と同様な動作をする。1番目の固有ベクトルの
最後に得られた推定値が決定されたら、それは単位の大
きさに正規化されて、1番目のベース・ベクトルとして
ベース・メモリ102 に記憶される。
【0038】その次の近似値を定めるために、装置90
は次のように動作する。生成された1番目のベクトル→
θ1 が、ベクトル構築のために考慮にいれるのに十分
なほどに小さいところの以前に定められたベース・ベク
トルをもつ内積の値に向かっているかどうかを決定する
ために判断手段100 で試験される。
は次のように動作する。生成された1番目のベクトル→
θ1 が、ベクトル構築のために考慮にいれるのに十分
なほどに小さいところの以前に定められたベース・ベク
トルをもつ内積の値に向かっているかどうかを決定する
ために判断手段100 で試験される。
【0039】内積の値が十分小さい場合には、ベクトル
→θ1 は経路指定器74を経由してメモリ76に直接
に与えられる。ベクトル→θ1 が試験に通らなければ
ベクトル構築用としては棄てられて、次のベクトルが生
成される。次に生成され試験に通ったベクトル→θk+
1 の各々がレジスタ78に搭載され、それ以後の過程
は図7の処で説明したように進行する。当面の固有ベク
トルの最終推定値が得られたら、それはメモリ102
に記憶されたベース・ベクトルに関して直交化され、メ
モリ102 に記憶するために単位の大きさに正規化さ
れる。
→θ1 は経路指定器74を経由してメモリ76に直接
に与えられる。ベクトル→θ1 が試験に通らなければ
ベクトル構築用としては棄てられて、次のベクトルが生
成される。次に生成され試験に通ったベクトル→θk+
1 の各々がレジスタ78に搭載され、それ以後の過程
は図7の処で説明したように進行する。当面の固有ベク
トルの最終推定値が得られたら、それはメモリ102
に記憶されたベース・ベクトルに関して直交化され、メ
モリ102 に記憶するために単位の大きさに正規化さ
れる。
【0040】ベクトル生成器72により生成された一組
のベクトル→θが関連の近似へ向けての各繰り返し過程
で異なる場合には、図5の公式による分散が、該特定の
一組をたった今決定された関連ベース・ベクトルと共に
内積手段104 に再導入される。自乗部106 の入
力点は、各内積値を自乗するために、内積手段104
の出力点に結合している。そこで、これらの自乗値は合
計され、繰り返し過程で生成されたベクトル→θk の
数すなわちベクトル構築用に考慮にいれたものも過小な
内積値の故に除外されたものも共に数えた数を除数とし
て割り算される。
のベクトル→θが関連の近似へ向けての各繰り返し過程
で異なる場合には、図5の公式による分散が、該特定の
一組をたった今決定された関連ベース・ベクトルと共に
内積手段104 に再導入される。自乗部106 の入
力点は、各内積値を自乗するために、内積手段104
の出力点に結合している。そこで、これらの自乗値は合
計され、繰り返し過程で生成されたベクトル→θk の
数すなわちベクトル構築用に考慮にいれたものも過小な
内積値の故に除外されたものも共に数えた数を除数とし
て割り算される。
【0041】各繰り返し過程に対して同じ一組のベクト
ルが使われる場合には、内積値の試験及び分散の計算に
関係するいくつかの操作が次のように交互に行われる。
ルが使われる場合には、内積値の試験及び分散の計算に
関係するいくつかの操作が次のように交互に行われる。
【0042】内積値の試験は、内積手段104 と自乗
部106 と比較器108 とによって進められる。自
乗された内積値は分散の計算で使うために補助メモリ(
図示してない)に記憶される。各繰り返し過程では新し
い内積値のみが計算される筈である、換言すれば最後に
得られたベース・ベクトルに係わる内積値のみが決定さ
れる。これらの結果が補助メモリ(図示してない)に記
憶されている値と一緒に、当面のベクトル→θがベクト
ル構築段階に進んで宜しいかどうかを決定するための判
定基準(criteria)を確立する。しかし、これ
ら新しい内積値は正に、以前に(最後に)得られたベー
ス・ベクトルに付随する分散の計算に必要とされるもの
そのものである。従って、ベース・ベクトル→ck に
付随する分散は、ベース・ベクトル→ck+1のための
ベクトル構築段階で決定される。その次のベース・ベク
トルの探究の終了に当たってのみ、得られた最後のもの
が付随する分散を生成するために内積手段104 に再
導入されなければならない。
部106 と比較器108 とによって進められる。自
乗された内積値は分散の計算で使うために補助メモリ(
図示してない)に記憶される。各繰り返し過程では新し
い内積値のみが計算される筈である、換言すれば最後に
得られたベース・ベクトルに係わる内積値のみが決定さ
れる。これらの結果が補助メモリ(図示してない)に記
憶されている値と一緒に、当面のベクトル→θがベクト
ル構築段階に進んで宜しいかどうかを決定するための判
定基準(criteria)を確立する。しかし、これ
ら新しい内積値は正に、以前に(最後に)得られたベー
ス・ベクトルに付随する分散の計算に必要とされるもの
そのものである。従って、ベース・ベクトル→ck に
付随する分散は、ベース・ベクトル→ck+1のための
ベクトル構築段階で決定される。その次のベース・ベク
トルの探究の終了に当たってのみ、得られた最後のもの
が付随する分散を生成するために内積手段104 に再
導入されなければならない。
【0043】〔特異値分解(Singular Val
ue Decomposition)〕今までに取り扱
った主コンポネント解析(PCA) を具体化する本発
明の方法によるm×nデータ行列の特異値分解(SVD
) をこれから説明する。既にこれまでに述べたように
、信号処理の分野の内部では多数の応用が SVDを利
用していることを心に留めて置かなければならない。
ue Decomposition)〕今までに取り扱
った主コンポネント解析(PCA) を具体化する本発
明の方法によるm×nデータ行列の特異値分解(SVD
) をこれから説明する。既にこれまでに述べたように
、信号処理の分野の内部では多数の応用が SVDを利
用していることを心に留めて置かなければならない。
【0044】最初に取り上げる関係式は、図9の (i
)式であって、茲で→xはn次元入力空間の入力ベクト
ルとし、それはm次元出力空間の出力ベクトル→yを生
じさせるものとし、該出力ベクトル→yは行列Aによる
線形変換により→xに関係付けられるものである。
)式であって、茲で→xはn次元入力空間の入力ベクト
ルとし、それはm次元出力空間の出力ベクトル→yを生
じさせるものとし、該出力ベクトル→yは行列Aによる
線形変換により→xに関係付けられるものである。
【0045】行列Aは一般的には未知であるから、入力
ベクトル
ベクトル
【数2】
とこれに付随する出力ベクトル
【数3】
とを組合せた典型的なベクトル対
【数4】
を生成するための測定が行われる。ここで、典型的な入
力ベクトル
力ベクトル
【数5】
は、ランクの異なる入力ベクトル・コンポネントには相
関が無く、付随する分散は単位量(unity) に等
しい入力空間内の領域に、無作為に且つ一様に分布して
いるものと仮定する。この性質は図9の(ii)式に表
現されている。此処で入力共分散行列<→(xx)>は
単位対角行列の形を採る。従って、出力共分散行列<→
(yy)>は図9の (iii)式の形を採る。すなわ
ち<→(yy)>は、行列Aとその転置行列AT との
行列積である対称行列AAT に等しい。
関が無く、付随する分散は単位量(unity) に等
しい入力空間内の領域に、無作為に且つ一様に分布して
いるものと仮定する。この性質は図9の(ii)式に表
現されている。此処で入力共分散行列<→(xx)>は
単位対角行列の形を採る。従って、出力共分散行列<→
(yy)>は図9の (iii)式の形を採る。すなわ
ち<→(yy)>は、行列Aとその転置行列AT との
行列積である対称行列AAT に等しい。
【0046】この対称行列は、その列(columns
) が対称行列の固有ベクトル→vの表現を構成すると
ころの変換行列V1 を用いて対角線化される(図9の
(iv)式)。ここで、行列AAT の固有ベクトル→
vは出力空間内にある。行列AAT はランクrである
、すなわちそれは0より大きいr個の固有値を多数持つ
。同じ事が入力空間内で対角線化される対称行列AT
Aについても云える、但し今度は入力空間内のAT A
の固有ベクトル→uから成るn×r変換行列U1を経由
して対角線形式が得られると理解するのである(図9の
(v)式)。行列Aは図9の(vi)式の右辺のよう
に書くことが出来るものと推定し得る。行列Σ1 は、
Σ12に編入された固有値に関連するいわゆる特異値を
有する。図9の (v)式は通常、特異値分解と呼ばれ
る。
) が対称行列の固有ベクトル→vの表現を構成すると
ころの変換行列V1 を用いて対角線化される(図9の
(iv)式)。ここで、行列AAT の固有ベクトル→
vは出力空間内にある。行列AAT はランクrである
、すなわちそれは0より大きいr個の固有値を多数持つ
。同じ事が入力空間内で対角線化される対称行列AT
Aについても云える、但し今度は入力空間内のAT A
の固有ベクトル→uから成るn×r変換行列U1を経由
して対角線形式が得られると理解するのである(図9の
(v)式)。行列Aは図9の(vi)式の右辺のよう
に書くことが出来るものと推定し得る。行列Σ1 は、
Σ12に編入された固有値に関連するいわゆる特異値を
有する。図9の (v)式は通常、特異値分解と呼ばれ
る。
【0047】こうして、測定に基づいて、対称であり且
つ今考えているシステムの想定された直線性に関する情
報を含む出力共分散行列が構築される。図3を用いての
既述の方法によれば、この対称行列の固有ベクトルは順
次近似され、その正規化された形は変換行列V1 の列
を構成する。しかし、図9の (vii)式で視覚でき
るように、出力空間のある特定の固有ベクトル→vの次
の推定値を生成するための各繰り返しステップでは、関
連の入力ベクトルは入力空間内の付随する固有ベクトル
→uを結局は生成するように変換されなければならない
。典型的入力ベクトルの分布の一様性によって入力共分
散行列は既に対角線形式上にある(図9の(ii)式)
ことに留意すべきである。結果として入力空間内のいか
なる追加ベースも入力共分散行列を単位対角線形式に保
持するであろう。しかし、図9の (vii)式は入力
空間ベースを選択するための制限を表す。
つ今考えているシステムの想定された直線性に関する情
報を含む出力共分散行列が構築される。図3を用いての
既述の方法によれば、この対称行列の固有ベクトルは順
次近似され、その正規化された形は変換行列V1 の列
を構成する。しかし、図9の (vii)式で視覚でき
るように、出力空間のある特定の固有ベクトル→vの次
の推定値を生成するための各繰り返しステップでは、関
連の入力ベクトルは入力空間内の付随する固有ベクトル
→uを結局は生成するように変換されなければならない
。典型的入力ベクトルの分布の一様性によって入力共分
散行列は既に対角線形式上にある(図9の(ii)式)
ことに留意すべきである。結果として入力空間内のいか
なる追加ベースも入力共分散行列を単位対角線形式に保
持するであろう。しかし、図9の (vii)式は入力
空間ベースを選択するための制限を表す。
【0048】ある特定の出力固有ベクトル→v及び付随
する入力固有ベクトル→uを順次評価するための上記の
構造は、図10に掲げる式で示される。但し茲で、記号
→ck は出力固有ベクトル→vのk番目の推定値を、
また記号→bk は関連の入力固有ベクトル→uの付随
するk番目の推定値を表すものとする。
する入力固有ベクトル→uを順次評価するための上記の
構造は、図10に掲げる式で示される。但し茲で、記号
→ck は出力固有ベクトル→vのk番目の推定値を、
また記号→bk は関連の入力固有ベクトル→uの付随
するk番目の推定値を表すものとする。
【0049】すべての典型的な入力、出力の対に対して
、入力ベクトル→xk と関連の出力ベクトル→yk
との間の線形関係を反映して(i)式の関係は有効であ
る。 →vに対する最初の推定値→c1 として、ある特定の
出力ベクトル→yk が選ばれ、また→uに対する最初
の推定値として関連の入力ベクトル→x1 が選ばれる
。次の推定値→ck+1 の各々の偏差は図10の (
iii)式で表され、図4で説明した偏差と類似である
。図10の(iv)式の関係すなわち図9の (vii
)式で正当化した対応する推定値間の関係を維持するた
めに、その次の推定値→bk+1 が図10の (v)
式により決定される。内積上に作用する符号関数も図6
で説明した変形符号関数に置き換えることができる。
、入力ベクトル→xk と関連の出力ベクトル→yk
との間の線形関係を反映して(i)式の関係は有効であ
る。 →vに対する最初の推定値→c1 として、ある特定の
出力ベクトル→yk が選ばれ、また→uに対する最初
の推定値として関連の入力ベクトル→x1 が選ばれる
。次の推定値→ck+1 の各々の偏差は図10の (
iii)式で表され、図4で説明した偏差と類似である
。図10の(iv)式の関係すなわち図9の (vii
)式で正当化した対応する推定値間の関係を維持するた
めに、その次の推定値→bk+1 が図10の (v)
式により決定される。内積上に作用する符号関数も図6
で説明した変形符号関数に置き換えることができる。
【0050】繰り返し過程の終了に当たり、各推定値→
ck+1 及び→bk+1 は、それぞれの単位長ベー
ス・ベクトルを表すために単位量(unity) 上に
正規化される。特異値それ自体は図11の公式を用いて
これから説明するようにして決定される。図11の(i
)式では、入力ベクトル→xと出力ベクトル→yとの間
の線形関係はインデクス記法で書いてある。インデクス
記法というのはある特定の項中に2回現れるインデクス
はすべてこのインデクスについての総和を表すものとす
るである。
ck+1 及び→bk+1 は、それぞれの単位長ベー
ス・ベクトルを表すために単位量(unity) 上に
正規化される。特異値それ自体は図11の公式を用いて
これから説明するようにして決定される。図11の(i
)式では、入力ベクトル→xと出力ベクトル→yとの間
の線形関係はインデクス記法で書いてある。インデクス
記法というのはある特定の項中に2回現れるインデクス
はすべてこのインデクスについての総和を表すものとす
るである。
【0051】図11の(ii)式は図9の(vi)式を
このインデクス記法で書き直したものであって、
このインデクス記法で書き直したものであって、
【数6】
はそれぞれ行列V1 と行列U1 のそれぞれのコンポ
ネントである。図11の(ii)式を図11の (i)
式に代入すると、図11の (iii)式が得られて、
この右辺は今やベクトル→x及びランクlの単位長入力
ベース・ベクトル→ul を含む内積を有している。こ
の両辺に単位長出力ベース・ベクトル→vl を乗算す
ると、付随する特異値σ1 が内積((→y).(→v
l ))と内積((→y).(→ul ))の商により
決定される。すべての典型的な対に亙って平均すれば、
究極的に固有値σ1 の近似が図11の(iv)式に示
すように与えられる。
ネントである。図11の(ii)式を図11の (i)
式に代入すると、図11の (iii)式が得られて、
この右辺は今やベクトル→x及びランクlの単位長入力
ベース・ベクトル→ul を含む内積を有している。こ
の両辺に単位長出力ベース・ベクトル→vl を乗算す
ると、付随する特異値σ1 が内積((→y).(→v
l ))と内積((→y).(→ul ))の商により
決定される。すべての典型的な対に亙って平均すれば、
究極的に固有値σ1 の近似が図11の(iv)式に示
すように与えられる。
【0052】〔3番目の典型的装置例 (Third
Exemplary Apparatus)〕実際に
SVDの出力ベース・ベクトルは PCAの固有ベクト
ルと同じやり方で計算される。従って PCAを実行す
るために提案された装置は SVDを実行する装置と合
体する。これに従って入力ベース・ベクトルを計算し、
特異値を計算する更に別の計算手段がそれから付加され
る。これが図12に示す装置である。茲に示す典型的な
装置120 が上述の SVDを実行する。この目的の
ためにそれは、各出力ベクトル→yとそれぞれの入力ベ
クトル→xとが線形関係にあるところの出力ベクトル→
y及び入力ベクトル→xを生成するベクトル生成器12
2 を含む。それぞれの出力ベクトル→yは、例えば図
7又は図8中に示され既に説明されているような出力ベ
ース計算器124 に与えられる。出力ベース計算器1
24 は、それぞれの出力ベース・ベクトルすなわち図
9の(vi)式中の行列V1 の各列を計算する。入力
ベクトル→xは、入力ベース・ベクトルすなわち図9の
(vi)式中の行列U1 の各列を計算するために、入
力計算器126 に与えられる。
Exemplary Apparatus)〕実際に
SVDの出力ベース・ベクトルは PCAの固有ベクト
ルと同じやり方で計算される。従って PCAを実行す
るために提案された装置は SVDを実行する装置と合
体する。これに従って入力ベース・ベクトルを計算し、
特異値を計算する更に別の計算手段がそれから付加され
る。これが図12に示す装置である。茲に示す典型的な
装置120 が上述の SVDを実行する。この目的の
ためにそれは、各出力ベクトル→yとそれぞれの入力ベ
クトル→xとが線形関係にあるところの出力ベクトル→
y及び入力ベクトル→xを生成するベクトル生成器12
2 を含む。それぞれの出力ベクトル→yは、例えば図
7又は図8中に示され既に説明されているような出力ベ
ース計算器124 に与えられる。出力ベース計算器1
24 は、それぞれの出力ベース・ベクトルすなわち図
9の(vi)式中の行列V1 の各列を計算する。入力
ベクトル→xは、入力ベース・ベクトルすなわち図9の
(vi)式中の行列U1 の各列を計算するために、入
力計算器126 に与えられる。
【0053】入力計算器126 のそれぞれの部分には
図7及び図8中で用いたのと同じ引用番号が与えられ、
前に述べたのと同じ役割を務める。こうして、ある特定
の入力ベース・ベクトルを計算するために、最初の推定
値→x1が経路指定器74を経由してメモリ76に搭載
される。 各その次の推定値に対し、次の入力ベクトル→xk+1
が、出力ベース計算器124 から受け取った関連の
因数を乗算するために経路指定器74を経由して乗算手
段84に入力される。そこで乗算結果はメモリ76に記
憶されている先行の推定値に加算するために加算器86
に搭載される。該特定の入力ベース・ベクトルに係わる
繰り返し過程の終了に当たり、最後に得られた推定値が
、それぞれのベース・ベクトルとして用いられるために
単位量(unity) 上に正規化される。
図7及び図8中で用いたのと同じ引用番号が与えられ、
前に述べたのと同じ役割を務める。こうして、ある特定
の入力ベース・ベクトルを計算するために、最初の推定
値→x1が経路指定器74を経由してメモリ76に搭載
される。 各その次の推定値に対し、次の入力ベクトル→xk+1
が、出力ベース計算器124 から受け取った関連の
因数を乗算するために経路指定器74を経由して乗算手
段84に入力される。そこで乗算結果はメモリ76に記
憶されている先行の推定値に加算するために加算器86
に搭載される。該特定の入力ベース・ベクトルに係わる
繰り返し過程の終了に当たり、最後に得られた推定値が
、それぞれのベース・ベクトルとして用いられるために
単位量(unity) 上に正規化される。
【0054】〔4番目の典型的装置例(Fourth
Exemplary Apparatus)〕本発明に
よる装置中では、次の部分すなわち経路指定器74、乗
算手段84、加算器86は、出力評価の計算と入力評価
の計算との両方に使うために、特に設けられていること
もある、ということに留意すべきである。このことは図
13にその概略が示されている。
Exemplary Apparatus)〕本発明に
よる装置中では、次の部分すなわち経路指定器74、乗
算手段84、加算器86は、出力評価の計算と入力評価
の計算との両方に使うために、特に設けられていること
もある、ということに留意すべきである。このことは図
13にその概略が示されている。
【0055】図13は本発明による4番目の典型的装置
例130 を示す。引用番号は図7、図8、図12と同
じものが使われる。例えば図8の72と100 とを組
合わせたものを含むベクトル生成器122 はベクトル
を経路指定器74に与え、該経路指定器74は、それぞ
れの出力ベクトル→yを図7及び図8で説明したように
メモリ76又はレジスタ78のいずれかに直接送り、ま
たそれぞれの入力ベクトル→xを図12で説明したよう
にメモリ76又は乗算手段84のいずれかに直接送るの
である。
例130 を示す。引用番号は図7、図8、図12と同
じものが使われる。例えば図8の72と100 とを組
合わせたものを含むベクトル生成器122 はベクトル
を経路指定器74に与え、該経路指定器74は、それぞ
れの出力ベクトル→yを図7及び図8で説明したように
メモリ76又はレジスタ78のいずれかに直接送り、ま
たそれぞれの入力ベクトル→xを図12で説明したよう
にメモリ76又は乗算手段84のいずれかに直接送るの
である。
【図1】図1は、2つの相関のある確率変数の、ガウス
の確率密度関数の一例を視覚化した図である。
の確率密度関数の一例を視覚化した図である。
【図2】図2は図1の図形に係わる数式的表現である。
【図3】図3は、固有ベクトルを生成するための順次推
定値の構造を視覚化した図である。
定値の構造を視覚化した図である。
【図4】図4は図3で視覚化した構造に係わる数式的表
現である。
現である。
【図5】図5は固有ベクトルを決定するための数式を示
す図である。
す図である。
【図6】図6は、内積に従属する因数を決定するための
加重関数の例を示す図である。
加重関数の例を示す図である。
【図7】図7は、本発明による装置の1番目の実施例を
示す図である。
示す図である。
【図8】図8は、本発明による装置の2番目の実施例を
示す図である。
示す図である。
【図9】図9は、特異値分解(SVD) に係わる数式
的表現である。
的表現である。
【図10】図10は、SVD での一部の役割を務める
固有ベクトルに対する順次推定値を決定するための数式
を示す図である。
固有ベクトルに対する順次推定値を決定するための数式
を示す図である。
【図11】図11は、近似された特異値を決定するため
の数式を示す図である。
の数式を示す図である。
【図12】図12は、本発明による3番目の典型的装置
例の概略を示す図である。
例の概略を示す図である。
【図13】図13は、本発明による4番目の典型的装置
例の概略を示す図である。
例の概略を示す図である。
70 信号データ処理装置の1番目の実施例72,1
22 ベクトル生成器 74 経路指定器 76 メモリ 78 レジスタ 80,104 内積手段 82 関数手段 84 乗算手段 86 加算器 90 信号データ処理装置70を拡張した2番目の実
施例100 判断手段 102 ベース・メモリ 106 自乗部 108 比較器 120 特異値分解を実行する典型的な装置例(3
番目の実施例) 124 出力ベース計算器 126 入力計算器 130 本発明の4番目の実施例
22 ベクトル生成器 74 経路指定器 76 メモリ 78 レジスタ 80,104 内積手段 82 関数手段 84 乗算手段 86 加算器 90 信号データ処理装置70を拡張した2番目の実
施例100 判断手段 102 ベース・メモリ 106 自乗部 108 比較器 120 特異値分解を実行する典型的な装置例(3
番目の実施例) 124 出力ベース計算器 126 入力計算器 130 本発明の4番目の実施例
Claims (18)
- 【請求項1】 ベクトル空間中に表現される信号デー
タに係わる共分散行列の統計的シグニフィカンス最大の
固有ベクトルの近似値を決定することを含むところの、
主コンポネント解析に基づく信号データを処理する方法
において、該近似値を決定することは次の各ステップ、
すなわち上記ベクトル空間中の初期ベクトルを1番目の
推定値として採るステップと、各その次の推定値として
、先行の推定値と上記ベクトル空間中の次のベクトルと
の線形結合を決定し、該次のベクトルは、次の推定値を
先行の推定値の方向に高めるために、この先行の推定値
と該次のベクトルとの内積に依存する因数で加重される
ものとするステップと、次の推定値を決定することを終
了するに当たって、上記近似値を最後に得られた推定値
に平行に採るステップとを有することを特徴とする信号
データ処理方法。 - 【請求項2】 共分散行列の更にもう1つの固有ベク
トルの更にもう1つの近似値を決定することは、次の各
ステップ、すなわち上記ベクトル空間の、以前に決定さ
れたそれぞれの固有ベクトルに直交するところの部分空
間中に在る更にもう1つの初期ベクトルを、最初の更に
もう1つの推定値として採るステップと、各その次の更
にもう1つの推定値として、先行の更にもう1つの推定
値と上記部分空間中の次の更にもう1つのベクトルとの
線形結合を決定し、該次の更にもう1つのベクトルは、
次の更にもう1つの推定値のコンポネントを先行の更に
もう1つの推定値の方向に高めるために、この先行の更
にもう1つの推定値と該次の更にもう1つのベクトルと
の内積に依存する因数で加重されるものとするステップ
と、次の更にもう1つの推定値を決定することを終了す
るに当たって、更にもう1つの近似値を最後に得られた
更にもう1つの推定値に平行に採るステップとを含むこ
とを特徴とする請求項1に記載の方法。 - 【請求項3】 共分散行列の更にもう1つの固有ベク
トルの更にもう1つの近似値を決定することは、次の各
ステップ、すなわち予め定められたそれぞれの値よりも
小さい各以前に定められたそれぞれの近似値を伴う内積
絶対値を持つところのベクトルにより決定されるベクト
ル空間の領域中に在る更にもう1つの初期ベクトルを、
最初の更にもう1つの推定値として採るステップと、各
その次の更にもう1つの推定値として、先行の更にもう
1つの推定値と次の更にもう1つの領域ベクトルとの線
形結合を決定し、該次の更にもう1つの領域ベクトルは
、次の更にもう1つの推定値を先行の更にもう1つの推
定値の方向に高めるために、因数推定値と次の更にもう
1つのベクトルとで加重されるものとするステップと、
次の更にもう1つの推定値を決定することを終了するに
当たって、最後に得られた更にもう1つの推定値を各以
前に定められた近似値に関して直交化するステップと、
更にもう1つの近似値を、上記直交化されたところの最
後に得られた更にもう1つの推定値に平行に採るステッ
プとを含むことを特徴とする請求項1に記載の方法。 - 【請求項4】 特異値分解を用いて信号データを処理
する方法であって、該信号データは、入力ベクトル空間
内の入力ベクトルと出力ベクトル空間内の出力ベクトル
とにより表され、各出力ベクトルはそれぞれの入力ベク
トルとほぼ線形に関係付けられている信号データ処理方
法において、該方法は次の各ステップ、すなわち初期出
力ベクトルを、最初の出力ベース・ベクトルに対する最
初の出力推定値として採るステップと、上記出力ベクト
ルに関係する初期入力ベクトルを、最初の入力ベース・
ベクトルに対する最初の入力推定値として採るステップ
と、各その次の出力推定値として、先行の出力推定値と
次の出力ベクトルとの線形結合を決定し、該次の出力ベ
クトルは、次の出力推定値を先行の出力推定値の方向に
高めるために、この先行の出力推定値と該次の出力ベク
トルとの内積に依存する因数で加重されるものとするス
テップと、各その次の入力推定値として、先行の入力推
定値と次の入力ベクトルとの線形結合を決定し、該次の
入力ベクトルは、次の出力ベクトルを次の入力ベクトル
とほぼ線形に関係付けることを維持するために、上記因
数で加重されるものとするステップと、次の出力推定値
と次の入力推定値とを決定することを終了するに当たっ
て、最後に得られた出力推定値と最後に得られた入力推
定値とを、最初の出力ベース・ベクトルと最初の入力ベ
ース・ベクトルとをそれぞれ生成するために、単位長の
上に正規化するステップとを含むことを特徴とする信号
データ処理方法。 - 【請求項5】 更にもう1つの出力ベース・ベクトル
と、これに関係する更にもう1つの入力ベース・ベクト
ルとを決定することは、次の各ステップ、すなわち以前
に定められた出力ベース・ベクトルに直交する上記出力
空間内の部分空間中に在る更にもう1つの初期出力ベク
トルを、最初の更にもう1つの出力推定値として採るス
テップと、上記更にもう1つの初期出力ベクトルに関係
する更にもう1つの初期入力ベクトルを、最初の更にも
う1つの入力推定値として採るステップと、各その次の
更にもう1つの出力推定値として、先行の更にもう1つ
の出力推定値と次の更にもう1つの上記部分空間の出力
ベクトルとの線形結合を決定し、該次の更にもう1つの
出力ベクトルは、次の更にもう1つの推定値を先行の更
にもう1つの出力推定値の方向に高めるために、この先
行の更にもう1つの出力推定値と該次の更にもう1つの
出力ベクトルとの内積に依存する次の因数で加重される
ものとするステップと、各その次の更にもう1つの入力
推定値として、先行の更にもう1つの入力推定値と、次
の更にもう1つの出力ベクトルに関係する次の更にもう
1つの入力ベクトルとの線形結合を決定し、該次の更に
もう1つの入力ベクトルは、次の更にもう1つの出力ベ
クトルを次の更にもう1つの入力ベクトルとほぼ線形に
関係付けることを維持するために、上記次の因数で加重
されるものとするステップと、次の更にもう1つの出力
推定値と次の更にもう1つの入力推定値とを決定するこ
とを終了するに当たって、最後に得られた出力推定値と
最後に得られた入力推定値とを、更にもう1つの出力ベ
ース・ベクトルと更にもう1つの入力ベース・ベクトル
とをそれぞれ生成するために、単位長の上に正規化する
ステップとを含むことを特徴とする請求項4に記載の方
法。 - 【請求項6】 更にもう1つの出力ベース・ベクトル
と、これに関係する更にもう1つの入力ベース・ベクト
ルとを決定することは、次の各ステップ、すなわち予め
定められたそれぞれの値よりも小さい各以前に定められ
たそれぞれの出力ベース・ベクトルを伴う内積絶対値を
持つところの出力ベクトルにより決定される出力ベクト
ル空間の領域中に在る更にもう1つの初期出力ベクトル
を、最初の更にもう1つの出力推定値として採るステッ
プと、上記更にもう1つの初期出力ベクトルに関係する
更にもう1つの初期入力ベクトルを、最初の更にもう1
つの入力推定値として採るステップと、各その次の更に
もう1つの出力推定値として、先行の更にもう1つの出
力推定値と次の更にもう1つの上記領域の出力ベクトル
との線形結合を決定し、該次の更にもう1つの出力ベク
トルは、次の更にもう1つの出力推定値を先行の更にも
う1つの出力推定値の方向に高めるために、この先行の
更にもう1つの出力推定値と該次の更にもう1つの出力
ベクトルとの内積に依存する次の因数で加重されるもの
とするステップと、各その次の更にもう1つの入力推定
値として、先行の更にもう1つの入力推定値と、次の更
にもう1つの出力ベクトルに関係する次の更にもう1つ
の入力ベクトルとの線形結合を決定し、該次の更にもう
1つの入力ベクトルは、次の更にもう1つの出力ベクト
ルを次の更にもう1つの入力ベクトルとほぼ線形に関係
付けることを維持するために、上記次の因数で加重され
るものとするステップと、次の更にもう1つの出力推定
値と次の更にもう1つの入力推定値とを決定することを
終了するに当たって、最後に得られた更にもう1つの出
力推定値と最後に得られた更にもう1つの入力推定値と
を、更にもう1つの出力ベース・ベクトルと更にもう1
つの入力ベース・ベクトルとをそれぞれ生成するために
、単位長の上に正規化するステップとを含むことを特徴
とする請求項4に記載の方法。 - 【請求項7】 上記因数は、当該内積に対し作用する
符号関数であることを特徴とする請求項1ないし6のう
ちのいずれか1項に記載の方法。 - 【請求項8】 上記因数は、内積が0の周りの予め定
められた間隔より外側の値を持つ時は、当該内積に対し
作用する符号関数であり、また内積が該間隔の内部にあ
る値を持つ時は0に等しいことを特徴とする請求項1な
いし6のうちのいずれか1項に記載の方法。 - 【請求項9】 各その次のベクトル又は各その次の更
にもう1つのベクトルに関わりのある内積は、予め定め
られた0ではない下限よりも大きい絶対値を持つことを
特徴とする請求項7に記載の方法。 - 【請求項10】 共分散行列のある特定の固有ベクト
ルに関連する固有値を近似することを含む請求項1ない
し3のうちのいずれか1項に記載の方法において、該近
似することは、次の各ステップ、すなわち特定の固有ベ
クトルに関連して最後に得られた推定値を単位量の上に
正規化するステップと、各それぞれの内積は正規化され
た推定値とそれぞれのベクトルとに関わりがあるもので
あり、それぞれの推定値を生成するために用いられる内
積の自乗の総和を定め且つ総和の結果を平均するステッ
プとを含むことを特徴とする方法。 - 【請求項11】 特定の出力ベース・ベクトルとこれ
に関係する特定の入力ベース・ベクトルとに係わる特異
値を決定することを含む請求項4ないし6のうちのいず
れか1項に記載の方法において、該方法は、次の各ステ
ップ、すなわち特定の出力ベース・ベクトルを生成する
特定の繰り返し中に考慮されるところの、各それぞれの
出力ベクトルを伴う該特定の出力ベース・ベクトルのそ
れぞれの最初の内積値を決定するステップと、考慮され
ているそれぞれの出力ベクトルに関係する各それぞれの
入力ベクトルを伴う該特定の入力ベース・ベクトルのそ
れぞれの2番目の内積値を決定するステップと、最初の
内積値を関連する2番目の内積値で割り算した商に対し
平均値を計算するステップとを含むことを特徴とする方
法。 - 【請求項12】 ベクトル空間中に表現される信号デ
ータに係わる共分散行列の統計的シグニフィカンス最大
の固有ベクトルの近似値を少なくとも決定するための、
主コンポネント解析に基づく信号データ処理装置におい
て、該ベクトル空間の初期ベクトルを、当面の推定値と
して記憶するためのメモリと、当面の推定値と上記その
次のベクトルとの内積を計算するための内積手段と、上
記その次のベクトルに、該内積により定められる加重を
乗算する乗算手段と、加算結果を当面の推定値の方向に
高めるために、上記加重を乗じられたその次のベクトル
を当面の推定値に加算し、またその加算結果を当面の推
定値として上記メモリ中に記憶するための加算手段とを
含むことを特徴とする信号データ処理装置。 - 【請求項13】 上記メモリ及び上記レジスタに接続
しているところの、生成された固有ベクトルの近似値に
直交するベクトルを生成するためのベクトル生成器を持
つことを特徴とする請求項12に記載の装置。 - 【請求項14】 メモリ又はレジスタにベクトルを、
以前に得られている正規化され、相互に直交する近似値
を伴うそれらに関連するそれぞれの内積値に基づいて、
選択的に導入する判断手段を持つことを特徴とする請求
項12に記載の装置。 - 【請求項15】 信号データはその各々がそれぞれの
入力ベクトルに関係付けられる出力ベクトルにより表現
されているところの、特異値分解に基づく信号データ処
理装置において、初期出力ベクトルを、当面の出力推定
値として記憶するための1番目のメモリと、当面の出力
推定値と上記その次の出力ベクトルとの内積を計算する
ための内積手段と、上記その次のベクトルに、該内積に
より定められる加重を乗算する1番目の乗算手段と、上
記加重を乗じられたその次の出力ベクトルを当面の出力
推定値に加算し、またこの加算結果を当面の出力推定値
として上記1番目のメモリ中に記憶するための1番目の
加算手段と、初期出力ベクトルに関係付けられた初期入
力ベクトルを、当面の入力推定値として記憶するための
2番目のメモリと、上記その次の出力ベクトルに関係付
けられたその次の入力ベクトルに、上記加重を乗算する
2番目の乗算手段と、上記加重を乗じられたその次の入
力ベクトルを当面の入力推定値に加算し、またこの加算
結果を当面の入力推定値として上記2番目のメモリ中に
記憶するための2番目の加算手段とを含むことを特徴と
する信号データ処理装置。 - 【請求項16】 信号データはその各々がそれぞれの
入力ベクトルに関係付けられる出力ベクトルにより表現
されているところの、特異値分解に基づく信号データ処
理装置において、当面の入力推定値と当面の出力推定値
とを記憶するためのメモリと、出力ベクトルを記憶する
ためのレジスタと、レジスタに接続するベクトル入力点
と、その次の出力ベクトル及び当面の出力推定値に関わ
りのある内積を計算するためのメモリに結合する更にも
う1つの入力点とを持つ内積手段と、該内積手段の出力
点に結合し、上記レジスタに結合するベクトル入力点を
持つ乗算手段と、それぞれの出力ベクトルとそれぞれの
入力ベクトルとを受け取り、それぞれの出力ベクトルを
直接上記メモリへか又はレジスタへかのいずれかに経路
指定し、また、それぞれの入力ベクトルを直接上記メモ
リへか又は乗算手段のベクトル入力点へかのいずれかに
経路指定するための経路指定器と、上記乗算手段に結合
する1番目の入力点とメモリに結合する2番目の入力点
とを持ち、またメモリに結合する出力点を持つ加算器と
を含むことを特徴とする信号データ処理装置。 - 【請求項17】 次の諸デバイス、すなわち関連する
推定値コンポネントをその中に平行して書き込むための
メモリ、その次のベクトル・コンポネントを平行して書
き込むためのレジスタ、コンポネントの乗算を平行して
実行するための内積手段、その次のベクトル・コンポネ
ントに上記加重を平行して乗算するための乗算手段、及
び加重されたその次のベクトル・コンポネントを相互に
等しいランクの当面の推定値コンポネントに平行して加
算するための加算手段、のうちの少なくとも1つのデバ
イスは、ベクトル・コンポネントに関してそれらの関連
する動作を平行して実行することを特徴とする請求項1
2、15又は16に記載の装置。 - 【請求項18】 符号関数と、内積結果の絶対値が予
め定められた下限より大きい場合には符号関数であり、
そうでなければゼロ関数である関数とのうちの一方を内
積結果に適用するために、関数手段が、内積手段の出力
点と上記乗算手段の加重入力点との間に結合しているこ
とを特徴とする請求項12、15又は16に記載の装置
。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP90400875A EP0448890B1 (en) | 1990-03-30 | 1990-03-30 | Method of processing signal data on the basis of prinicipal component transform, apparatus for performing the method |
FR90400875.2 | 1990-03-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04330556A true JPH04330556A (ja) | 1992-11-18 |
Family
ID=8205694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3087349A Pending JPH04330556A (ja) | 1990-03-30 | 1991-03-28 | 信号データ処理方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US5379352A (ja) |
EP (1) | EP0448890B1 (ja) |
JP (1) | JPH04330556A (ja) |
DE (1) | DE69031866T2 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69031866T2 (de) * | 1990-03-30 | 1998-06-18 | Koninkl Philips Electronics Nv | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation |
US5719024A (en) * | 1993-08-18 | 1998-02-17 | Applied Spectral Imaging Ltd. | Method for chromosome classification by decorrelation statistical analysis and hardware therefore |
FR2690771A1 (fr) * | 1992-04-29 | 1993-11-05 | Philips Electronique Lab | Processeur neuronal muni de moyens pour normaliser des données. |
US6009123A (en) * | 1994-04-01 | 1999-12-28 | Fujitsu Limited | Process and system for transferring vector signal with precoding for signal power reduction |
US5680409A (en) * | 1995-08-11 | 1997-10-21 | Fisher-Rosemount Systems, Inc. | Method and apparatus for detecting and identifying faulty sensors in a process |
US6134537A (en) * | 1995-09-29 | 2000-10-17 | Ai Ware, Inc. | Visualization and self organization of multidimensional data through equalized orthogonal mapping |
DE19609859C1 (de) * | 1996-03-13 | 1997-07-24 | Siemens Ag | Verfahren zur Bildung einer Bild-Transformationsmatrix für ein beliebig geformtes Bildsegment eines digitalen Bildes, durch einen Rechner |
US5887074A (en) * | 1996-12-13 | 1999-03-23 | Siemens Corporate Research, Inc. | Local principal component based method for detecting activation signals in functional MR images |
US5995927A (en) * | 1997-03-14 | 1999-11-30 | Lucent Technologies Inc. | Method for performing stochastic matching for use in speaker verification |
US7085393B1 (en) | 1998-11-13 | 2006-08-01 | Agere Systems Inc. | Method and apparatus for regularizing measured HRTF for smooth 3D digital audio |
AUPQ136299A0 (en) * | 1999-07-02 | 1999-07-22 | Microsystem Controls Pty Ltd | Coin validation |
KR100316720B1 (ko) * | 2000-01-20 | 2001-12-20 | 윤종용 | 통계적 기법을 이용하여 데이터를 압축 및 재현하는 방법 |
JP3672234B2 (ja) * | 2000-06-12 | 2005-07-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | データベースからのドキュメントのリトリーブ・ランク付け方法、コンピュータシステム、および記録媒体 |
US6675106B1 (en) | 2001-06-01 | 2004-01-06 | Sandia Corporation | Method of multivariate spectral analysis |
US6584413B1 (en) | 2001-06-01 | 2003-06-24 | Sandia Corporation | Apparatus and system for multivariate spectral analysis |
WO2004061702A1 (en) | 2002-12-26 | 2004-07-22 | The Trustees Of Columbia University In The City Of New York | Ordered data compression system and methods |
WO2004063964A2 (en) * | 2003-01-07 | 2004-07-29 | Hach Company | Classification of deviations in a process |
US7400772B1 (en) * | 2003-05-20 | 2008-07-15 | Sandia Corporation | Spatial compression algorithm for the analysis of very large multivariate images |
WO2004111930A2 (en) * | 2003-05-30 | 2004-12-23 | Rabinovich Andrew M | Color unmixing and region of interest detection in tissue samples |
US7523076B2 (en) | 2004-03-01 | 2009-04-21 | Tokyo Electron Limited | Selecting a profile model for use in optical metrology using a machine learning system |
US7280229B2 (en) | 2004-12-03 | 2007-10-09 | Timbre Technologies, Inc. | Examining a structure formed on a semiconductor wafer using machine learning systems |
US7421414B2 (en) | 2005-03-31 | 2008-09-02 | Timbre Technologies, Inc. | Split machine learning systems |
US20070230774A1 (en) * | 2006-03-31 | 2007-10-04 | Sony Corporation | Identifying optimal colors for calibration and color filter array design |
US8761248B2 (en) * | 2006-11-28 | 2014-06-24 | Motorola Mobility Llc | Method and system for intelligent video adaptation |
US7949618B2 (en) | 2007-03-28 | 2011-05-24 | Tokyo Electron Limited | Training a machine learning system to determine photoresist parameters |
US7372583B1 (en) | 2007-04-12 | 2008-05-13 | Tokyo Electron Limited | Controlling a fabrication tool using support vector machine |
US7483809B2 (en) | 2007-04-12 | 2009-01-27 | Tokyo Electron Limited | Optical metrology using support vector machine with profile parameter inputs |
US7511835B2 (en) | 2007-04-12 | 2009-03-31 | Tokyo Electron Limited | Optical metrology using a support vector machine with simulated diffraction signal inputs |
US20100231725A1 (en) * | 2009-03-16 | 2010-09-16 | Sony Corporation, A Japanese Corporation | Illuminant independent color calibration using colored rays approach |
US8530838B2 (en) * | 2009-12-29 | 2013-09-10 | Saint-Gobain Ceramics & Plastics, Inc. | Radiation detection system and method of indicating presence of radiation |
JP5524692B2 (ja) * | 2010-04-20 | 2014-06-18 | 富士フイルム株式会社 | 情報処理装置および方法ならびにプログラム |
US10341555B2 (en) * | 2011-12-02 | 2019-07-02 | Chromologic Llc | Characterization of a physical object based on its surface roughness |
US20150120392A1 (en) * | 2013-10-25 | 2015-04-30 | Cellco Partnership (D/B/A Verizon Wireless) | Ranking of Store Locations Using Separable Features of Traffic Counts |
CN106297820A (zh) * | 2015-05-14 | 2017-01-04 | 杜比实验室特许公司 | 具有基于迭代加权的源方向确定的音频源分离 |
EP3418831B1 (en) * | 2017-06-19 | 2023-08-16 | C.R.F. Società Consortile per Azioni | A method for performing a noise removal operation on a signal acquired by a sensor and system therefrom |
US11131607B2 (en) | 2019-05-02 | 2021-09-28 | Caterpillar Inc. | Modal analysis for damage rate measurement and prediction |
US11740327B2 (en) * | 2020-05-27 | 2023-08-29 | Qualcomm Incorporated | High resolution and computationally efficient radar techniques |
WO2022167658A1 (en) * | 2021-02-05 | 2022-08-11 | Deepmind Technologies Limited | Determining principal components using multi-agent interaction |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3754128A (en) * | 1971-08-31 | 1973-08-21 | M Corinthios | High speed signal processor for vector transformation |
US4945502A (en) * | 1988-12-27 | 1990-07-31 | Eastman Kodak Company | Digital image sharpening method using SVD block transform |
DE69031866T2 (de) * | 1990-03-30 | 1998-06-18 | Koninkl Philips Electronics Nv | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation |
-
1990
- 1990-03-30 DE DE69031866T patent/DE69031866T2/de not_active Expired - Fee Related
- 1990-03-30 EP EP90400875A patent/EP0448890B1/en not_active Expired - Lifetime
-
1991
- 1991-03-28 JP JP3087349A patent/JPH04330556A/ja active Pending
-
1993
- 1993-05-24 US US08/066,406 patent/US5379352A/en not_active Expired - Fee Related
-
1994
- 1994-08-31 US US08/298,920 patent/US5583951A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0448890B1 (en) | 1997-12-29 |
US5379352A (en) | 1995-01-03 |
EP0448890A1 (en) | 1991-10-02 |
DE69031866D1 (de) | 1998-02-05 |
US5583951A (en) | 1996-12-10 |
DE69031866T2 (de) | 1998-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH04330556A (ja) | 信号データ処理方法及び装置 | |
Williams | Computation with infinite neural networks | |
Evensen et al. | Rank issues | |
US20090028455A1 (en) | High-speed high-accuracy matrix singular value decomposition method, program, and device | |
Yang et al. | Complexity issues in natural gradient descent method for training multilayer perceptrons | |
Chan et al. | Galerkin projection methods for solving multiple linear systems | |
Hyvärinen et al. | Emergence of topography and complex cell properties from natural images using extensions of ICA | |
Krämer et al. | Stable implementation of probabilistic ODE solvers | |
Ballard et al. | A generalized randomized rank-revealing factorization | |
Drmac | Accurate computation of the product-induced singular value decomposition with applications | |
Romor et al. | Multi‐fidelity data fusion for the approximation of scalar functions with low intrinsic dimensionality through active subspaces | |
Meier et al. | Randomized algorithms for Tikhonov regularization in linear least squares | |
Ding et al. | Periodic Eigendecomposition and Its Application to Kuramoto--Sivashinsky System | |
Heersink et al. | Dynamic mode decomposition for interconnected control systems | |
Kuti et al. | Generalization of tensor product model transformation for control design | |
Oliveira | On the convergence rate of a preconditioned subspace eigensolver | |
Graff et al. | Reduced-order modeling using dynamic mode decomposition and least angle regression | |
Yang et al. | Natural gradient descent for training multi-layer perceptrons | |
Shirai et al. | Efficient pixel-wise SVD required for image processing using the color line feature | |
Moraru | An algorithm for solving quadratic programming problems | |
Ferng et al. | Nonequivalence transformation of λ‐matrix eigenproblems and model embedding approach to model tuning | |
Song et al. | Modal Analysis of Spatiotemporal Data via Multi-fidelity Multi-variate Gaussian Processes | |
Gould | Lecture Notes on Differentiable Optimisation in Deep Learning | |
Kilmer et al. | Subspace Recycling for Sequences of Shifted Systems with Applications in Image Recovery | |
Dryuchenko et al. | Interpolation and masking effects of heteroassociative compressive transformations |