JP3583484B2 - Information processing equipment - Google Patents

Information processing equipment Download PDF

Info

Publication number
JP3583484B2
JP3583484B2 JP24405494A JP24405494A JP3583484B2 JP 3583484 B2 JP3583484 B2 JP 3583484B2 JP 24405494 A JP24405494 A JP 24405494A JP 24405494 A JP24405494 A JP 24405494A JP 3583484 B2 JP3583484 B2 JP 3583484B2
Authority
JP
Japan
Prior art keywords
vector
input
information
inner product
norm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24405494A
Other languages
Japanese (ja)
Other versions
JPH08106505A (en
Inventor
寺島幹彦
武 橋本
白谷文行
福島郁俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP24405494A priority Critical patent/JP3583484B2/en
Publication of JPH08106505A publication Critical patent/JPH08106505A/en
Application granted granted Critical
Publication of JP3583484B2 publication Critical patent/JP3583484B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、情報処理装置に関し、特に、内積演算を用いてある距離基準を満たす処理素子を決定し、その勝利素子及びその勝利素子によって決められる素子に対し、何らかの操作を施すことによって、位相保存写像やパターン認識のための競合学習を行う情報処理装置に関する。
【0002】
【従来の技術】
ある距離基準を満たす勝利素子を決定し、その勝利素子及びその勝利素子によって決められる素子に対し、何からの操作を施すことによって、位相保存写像やパターン認識を行う競合学習アルゴリズムがよく知られている(T.Kohonen,”Self−Organization and Associative Memory,Third Edition,Springer−Verlag,Berlin,1989.)。
【0003】
これらのアルゴリズムは、何れも、ユークリッド距離、マンハッタン距離、内積等の距離基準を用い、ある入力に対し、その基準を満たす勝利素子を選ぶ競合過程を有している。通常のコンピュータ上でプログラムを作成しアルゴリズムを実行する場合、何れの距離基準も容易に用いることができる。そこで、距離基準として一般に性能が良いと報告されているユークリッド距離がよく用いられている。
【0004】
ところが、ハードウエア上でユークリッド距離計算を行う場合は、差分回路、二乗回路、総和回路を必要とし、実現が困難になっている。そこで、内積の距離基準を用いることが多い。特に光学を用いて実現する際、内積演算は光の並列性から最も実現しやすい。光学を用いた内積演算を有する競合学習を行う情報処理装置がいくつか報告されている(Taiwei et al.,”Self−organizing optical neural network for unsupervised learning”,Opt.Eng.,VOL.29,No.9,1990.;J.Duvillier et al.,”All−optical implementation of a self−organizing map”,Appl.Opt.Vol.33,No.2,1994. )。
【0005】
【発明が解決しようとする課題】
内積演算を用いて勝利素子を選ぶ競合を行う場合、データを規格化する必要がある。このことを図1を用いて説明する。入力データを2次元ベクトルX、競合の候補である素子群のもつ重みベクトルを2次元ベクトルm(iは素子番号を示す。)とする。図1に示すように、2次元ベクトルXが入力され、その候補の重みベクトルとしてm、mがあったとする。ユークリッド距離を用いる場合、ベクトル間の距離が最も近いものが勝利素子となるので、d<dより、mが勝利素子となる。一方、内積演算を用いる場合、内積値の最も大きいものが入力ベクトルに最も類似していることに相当し、勝利素子となる。内積値は、図1において、mのXへの正射影DとXのノルムの積で表される。したがって、Dの大小を比較すれば、内積の大小を比較でき、この場合、mが勝利素子となる。競合学習では、入力データと重みベクトル間のユークリッド距離及びそれに準ずるマンハッタン距離等における類似度を比較し、最も似ている重みベクトルを持つ素子を選ぶ。ところが、上記のように内積演算を用いると、ノルムの大きい重みベクトルが、ユークリッド距離は離れていても、内積値が大きくなり、勝者になりやすくなる。つまり、内積演算における類似度は、ユークリッド距離の大小ではなく、ベクトルのノルムに依存してしまう。よって有効な競合学習ができない。
【0006】
そこで、内積演算によって有効な競合学習を行わせるには、入力データ及び重みデータは規格化していなければならない。このとき、図2のように、d<d、D>Dとなり、ユークリッド距離を用いても、内積演算を用いても、mが勝利素子となる。したがって、内積演算を用いても有効な競合学習を行うことができる。
【0007】
ところが、上記のような規格化を行うことにより、入力データのノルム情報が失われることになる。つまり、例えば図3に示すような2次元ベクトルデータの一様分布があったとき、規格化を行うと、図4のような単位半径の曲線上の点が入力となる。つまり、原点Oとデータ点を結ぶ方向上の点は全て曲線上の一点になり、入力データのノルム情報は失われ、方向情報のみが残ることになる。ベクトルデータの方向のみの競合学習の場合は、データのノルム情報は失われてもよいが、ベクトルのノルムも考慮する競合学習では、ノルム情報を失うことはできない。
【0008】
以上の課題を整理すると、本発明の情報処理装置に求められる条件は、以下の通りである。
A−1)距離基準として、ハードウエア化に適した内積演算を用いる競合学習を行う。
A−2)入力データのノルム情報を失わない競合学習ができる。
【0009】
本発明は上記のような状況に鑑みてなされたものであり、その目的は、上記A−1)、A−2)の条件を満たし、距離基準としてハードウエア化に適した内積演算を用いて競合学習を行い、入力データのノルム情報を失わない競合学習が可能な情報処理装置を提供することである。
【0010】
【課題を解決するための手段】
上記目的を達成する本発明の情報処理装置は、入力ベクトルを重みベクトル群の各ベクトルと内積をとることによって重みベクトル群の何れかのベクトルへ対応させる情報処理装置において、内積をとる前に入力ベクトルのノルムに関する情報を抽出して該入力ベクトルの成分に付加するノルム抽出・付加手段を有することを特徴とするものである。
【0011】
この場合、上記の内積をとる前に前記のノルムに関する情報を付加した入力ベクトルを正規化する入力ベクトル正規化手段を有することが望ましい。また、上記の内積をとる前に重みベクトル群の各ベクトルを正規化する重みベクトル群正規化手段を有することが望ましい。これらの正規化は、電気信号により行うようにしても、また、光学的に行うようにしてもよい。
【0012】
【作用】
以下、上記のような構成を採用する理由と作用について説明する。
距離基準として内積演算を用いて(A−1))、入力データのノルム情報を失わない競合学習ができる(A−2))ためには、どのようなアルゴリズムにすればよいかを、理論的に図5から図11を用いて説明する。
【0013】
前述のように、内積演算を用いて類似度を判別する場合、データを規格化する必要がある。このとき、ベクトルをそのノルムで割り、単位ベクトルとするため、従来は、元のノルム情報が失われてしまっていた。元のノルム情報を失わないために、本発明においては、入力ベクトルの1つの成分に、ノルムを示す成分を加えることを考える。例えば、入力データを2次元ベクトルX=(x,y)とする。ノルムはD=(x+y1/2 である。これを規格化すると、X/|X|=(x/D,y/D)となる。これが、従来、内積演算を用いて類似度を判別するとき用いていた入力ベクトルである。このベクトルにノルムを示す成分を加えて、X’=(x/D,y/D,f(D))を作成する。次に、X’を規格化して、X”=X’/|X’|を作成し、これをXの代わりに入力データとする。
【0014】
すなわち、
X=(x,y)、D=(x+y1/2 ・・・(1)
X’=(x/D,y/D,f(D)) ・・・(2)
X”=X’/|X’| ・・・(3)
X”は規格化してあるので、内積演算を用いて類似度の判別をすることができる。かつ、X”のベクトル成分にノルムの情報Dが含まれているので、規格化しても、入力ベクトルの方向情報だけでなく、ノルムの情報も残ることになる。したがって、X=(x,y)の代わりにX”を入力データとすれば、距離基準として内積演算を用いても、入力データのノルム情報を失われない競合学習が可能である。
【0015】
入力データの2次元ベクトルと、そのベクトルにノルムを示す成分を加えた3次元ベクトルとの対応関係を様々なf(D)について調べる。まず、簡単に考えられる場合として、a)f(D)=D,b)f(D)=1/Dを選び、図5に示す2次元平面上のXの各点A、B、A、Bがどのような3次元空間上のX”の各点に変換されるかを示したのが、それぞれ図6、図7である。図6、図7の何れの場合も1対1の対応関係はできており、また、点A、B、A、Bの順が崩れる捩じれのようなことはない。ただし、入力データの位相をより良く保存しているのは、b)の場合である。この理由を以下に述べる。
【0016】
図5に示す2次元平面上で、AとBの距離、AとBの距離を比較すると、AとBの方がより近い。これを変換した各点を3次元空間上で比べると、図6では、AとBに対応する点A”、B”が、AとBに対応する点A”、B”よりも近くなっているが、図7では、その逆になっている。したがって、図7では、2次元平面上の相対的な遠近関係も反映でき、入力データの位相をより良く保存しているのである。
【0017】
入力データの位相をより良く保存しているかの優劣をさらに明確にするために、実験例を示す。競合学習の例として、自己組織化特徴マップ(T.Kohonen,”Self−Organization and Associative Memory,Third Edition,Springer−Verlag,Berlin,1989., 以下、SOMと呼ぶ。)を用いて位相保存写像を行った。以下、SOMについて簡単に説明する。
【0018】
SOMは、図8に示すように、2次元に並ぶ素子群の層(以下、マップ層MLと表記する。)とデータを入力する入力層IPから構成される。このマップ層MLは、図8では2次元に並ぶ素子を示したが、1次元に並ぶ素子を用いてもよい。入力層IPはマップ層MLの全ての素子と結合しており、入力データをマップ層MLの全ての素子に与えることができる。入力データは、スカラーでもベクトルでもよいが、ここでは、一般的にベクトルX(n次元)と置く。マップ層MLの素子i(iはマップ上の順番とし、全素子数をk個とする。)は全て重みベクトルm(n次元)を持つことにする。SOMのアルゴリズムは、入力ベクトルXと各素子の重みベクトルmとの類似性から、更新すべき重みベクトルを決定する<類似性マッチング>と、その重みベクトルmを入力ベクトルXの方に近付ける<更新>とに分けられる。そして、両者の作用を繰り返すことにより、入力ベクトルXの分布を反映する重みベクトルm(1≦i≦k)が生成する。上記<類似性マッチング>と<更新>の具体的な表式を以下に示す。
【0019】
<類似性マッチング>

Figure 0003583484
<更新>
Figure 0003583484
ここで、|X−m|はXとmのユークリッド距離、Cはその距離が最も小さかった素子(勝利素子)、Nはその勝利素子Cのマップ層MLでの近傍、α(t)は正の定数、tは時刻を示す。更新を繰り返しながら、Nとα(t)の大きさは徐々に小さくする。また、α(t)は勝利素子Cから離れるに従い、小さくなるように選ぶこともできる。
【0020】
以上のアルゴリズムでは、<類似性マッチング>でユークリッド距離を用いているので、Xもmも規格化する必要がない。本発明のように、<類似性マッチング>で内積演算を用いる場合、SOMアルゴリズムの<類似性マッチング>と<更新>の具体的な表式は次のようになる。
【0021】
<類似性マッチング>
Figure 0003583484
<更新>
Figure 0003583484
ここで、Xは規格化してあるとする。mも更新後に規格化してある。
【0022】
入力ベクトルXの集合からランダムにXを選んで逐次入力し、重みベクトルmの更新を繰り返すことにより、入力ベクトルXの分布を反映する重みベクトルm(1≦i≦k)が生成する。すなわち、重みベクトルm(1≦i≦k)が入力ベクトルの分布のプロトタイプになっている。そして、ある素子の重みベクトルを入力ベクトルに近付けるように更新するとき、マップ上のその素子の近傍の素子も同様に更新するので、マップ上で隣接する素子同志は、それぞれ入力ベクトルの空間上でも近いベクトルに対応するようになる。したがって、SOMアルゴリズムは、入力データ空間の位相を反映したプロトタイプの集合を作成することができる。SOMアルゴリズムには、次のような特長がある。
【0023】
B−1)重みベクトルm(1≦i≦k)の初期状態によらずに、適正なマップが作成できる。
B−2)入力ベクトルXの入力順によらずに、適正なマップが作成できる。
【0024】
B−3)マップが1次元か2次元であるので、入力データの位相を視覚的に見ることができる。
B−4)<類似性マッチング>と<更新>と言う単純な操作の繰り返しなので、アルゴリズムが簡単である。
【0025】
以上、SOMについて説明した。このSOMにおいて、前記のf(D)の取り方を変えてX”を用いた内積演算を行う。そして、f(D)の取り方による入力データの位相保存状況の優劣を比較する。
【0026】
SOMにおいて、素子は10×10個の2次元格子状の配列、入力データは、正方形内に一様に分布する2次元ベクトル群X=(x,y),{0≦x≦1,0≦y≦1}とする。入力データの位相をより良く保存しているかどうかは、正方形内の2次元ベクトル群X=(x,y)を、そのデータが対応する素子毎に区別して表示し、各領域の形を調べることによって行う。なお、データが対応する素子毎に区別しやすいように、2次元格子状で隣接する素子を白と黒に分けて表示してある。
【0027】
通常、SOMでは、X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いる。その場合の結果を図9(a)、(b)に示す。図9(b)は、各素子の重みベクトルを隣接する素子同志結んだ図、図9(a)は、その素子が対応する領域を示す図(以後は、領域図と呼ぶ。)である。正方形内の2次元ベクトル群Xを2次元格子状に分けているので、このように各領域は小正方形格子が規則正しく並んだ構造を持つ。X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いれば、最も良く入力データの位相を保存できる。この結果を標準結果と呼ぶことにする。X”を入力して、内積演算で競合学習を行う場合は、この標準結果に近い程、入力データの位相をより良く保存していると言えることになる。
【0028】
そこで、前記したa)f(D)=D,b)f(D)=1/Dの場合につき、内積演算のSOMを行った。その領域図をそれぞれ図10(a)、(b)に示す。図10(b)では領域が格子状に広がっているのに対し、図10(a)では領域が乱れ、特に左上の原点近くで放射状に分布している。したがって、明らかに(b)の場合の方がより良く入力データの位相を保存していると言える。なお、分布が放射状になるのは、X=(x,y)の角度依存性が強いことを示している。この理由は、前述の図6について説明したように、2次元平面では近いはずの原点付近のA、Bが3次元空間では相対的に離れてしまい、角度の情報がノルムの情報より強調されるためと解釈できる。
【0029】
補足実験として、大きさ情報を用いず、X=(x,y)を規格化しただけで入力し、内積演算のSOMを行った。このときの領域図を図10(c)に示す。前記の〔発明が解決しようとする課題〕で述べたように、規格化によって入力データのノルム情報は失われる。したがって、全領域が角度情報のみに依存した放射状の分布となり、素子のノルムに関する識別能力は失われてしまう。前述の図10(a)の場合、図10(b)に比べて領域は乱れているが、ノルムに関する識別能力は残っていることが、図10(c)と比較すると分かる。
【0030】
さて、a)f(D)=D,b)f(D)=1/Dの場合では、b)の方がより良く入力データの位相を保存していると言えたが、さらに良く入力データの位相を保存するためには、どのようなf(D)を選べばよいかを調べる。換言すれば、どのようなf(D)を選べば、X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いた場合と同じ結果を得ることができるかを調べる。なお、完全に入力データの位相が保存できるかどうかは、SOM自体の持つ問題である。本発明の説明において、最も良く入力データの位相を保存することは、競合学習の距離基準としてユークリッド距離を用いた場合と同じ結果を得ることに相当し、完全に入力データの位相を保存することではないことに注意する。このことに留意した上で、X=(x,y)をそのまま入力し、ユークリッド距離を用いた場合と同じ結果を得るための条件を求める。
【0031】
再び図5における4点A、B、A、Bを考える。ユークリッド距離を用いた場合と同じ結果を得るためには、2次元平面における線分の比が3次元空間においても保存されなければならない。この条件を式で表す。
【0032】
まず、4点A、B、A、Bの座標、及び、ノルムD、Dはそれぞれ(8)式のようになる。
=(r cosθ,r sinθ),
=(r cosθ,r sinθ),
=(r cosθ,r sinθ),
=(r cosθ,r sinθ),
=r,D=r ・・・(8)
これらの座標が前記の入力ベクトルX=(x,y)に相当する。このベクトルを規格化し、さらに、ノルムを示す成分を加えたX’=(x/D,y/D,f(D))は(9)式のようになる。
【0033】
’=( cosθ, sinθ,f(D)),
’=( cosθ, sinθ,f(D)),
’=( cosθ, sinθ,f(D)),
’=( cosθ, sinθ,f(D)) ・・・(9)
これを規格化したX”は(10)式のようになる。
【0034】
Figure 0003583484
3次元空間のx+y+z=1面上での弧A,B間の長さと、弧A,B間の長さは、それぞれ(11)、(12)式で与えられる(弧は、〈A〉のように表す。)。ここで、A、B、A、Bの位置ベクトルを考えることとする(ベクトルは、 のように表す。)。
【0035】
Figure 0003583484
2次元平面における線分Aと線分Aの長さの比は(13)式で与えられる。
【0036】
|A−B|:|A−B|=r:r=D:D ・・(13)
(14)式のように、線分Aと線分Aの長さの比が、〈A”B”〉と〈A”B”〉の長さの比と等しいとき、(14)式に示す条件が成立する。
【0037】
|A−B|/|A−B|=〈A”B”〉/〈A”B”〉・・・(14)
(14)式に(11)、(12)、(13)式を代入すると、(15)式のようになる。
【0038】
Figure 0003583484
(15)式は、比例定数k(k≠0)を用いて(16)式のように書ける。
【0039】
kD= cos−1[{ cosΔθ+f(D}/{1+f(D}](i=1,2)・・・(16)
これをf(D)に関して解くと、(17)式のようになる。
【0040】
f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 (i=1,2)・・・(17)
ここで、諸量の定義及び根号内が正であるために、次の制限条件(18)式がある。
【0041】
coskD− cosΔθ>0,0<kD<π/2 (=1,2)・・・(18)
式(17)、(18)の意味は以下のようになる。2次元平面でΔθをなすある2点を上述のような規則で3次元空間に変換するとき、(17)式のようなf(D)の式を用いれば、2次元平面のそのような2点間の線分同志の比は、対応する3次元空間のx+y+z=1面上の点間の長さの比と等しい。
【0042】
(18)式によれば、ある比例定数kを決めると、Dはk及びΔθで決まる量より大きくならないことが分かる。これを定性的に説明する。
が大きくなると、2次元平面では2点間の距離はいくらでも大きくなるが、対応する3次元空間のx+y+z=1面上の裾野の点間の長さは、裾野の幅より大きくなれない。よって、Dが大きくなると、条件を満たすのが難しくなるのである。
【0043】
f(D)を(17)式のように選んだ場合の効果を調べるため、前述のような内積演算のSOMを行った。f(D)のパラメータは、(18)式を満たすように、k=0.3,Δθ=π/3と選んだ。(18)式はあるΔθにおける式である。競合学習では、様々な入力ベクトルがあるので、Δθはそれに応じて様々な値をとるが、実際にシミュレーションする際は、(18)式が満たされるように、Dの最大値を考慮してk及びΔθを予め適当に決めておくことになる。領域図の結果を見れば分かるが、k及びΔθを固定しておいて問題はない。
【0044】
(17)式を用いた場合の領域図を図11に示す。図11によれば、図9(a)と同様に、小正方形格子が規則正しく並んだ構造を持っている。これは、f(D)=1/Dを選んだ場合より良く整列している。このことは、縦横の小領域数が10個であることからも分かる。
【0045】
したがって、この実験より、(17)式で与えられるf(D)を用いれば、X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いた場合と同じ結果を得ることが可能であり、最も良く入力データの位相を保存する写像を実現できることが分かる。
【0046】
次に、(14)、(15)式について補足する。(14)、(15)式は、厳密な条件であるが、両辺の分母分子の大小関係を保存するのみであれば、f(D)がDに関して減少する関数であればよいことが、関数の性質を考慮すると分かる。つまり、f(D)=Dとf(D)=1/Dを比較して、f(D)=1/Dの方の結果が良かったのは、f(D)=1/DはDに関して減少関数であったからと言える。
【0047】
もちろん、関数は、f(D)=1/Dに限定されるものではない。位相を良く保存するために、Dに関して任意の減少関数を選んでよい。また、Dに関して減少関数以外の関数を取ったときでも、位相の保存はし難くなるが、ノルム情報を失わないある程度の学習は可能であることは、前述した通りである。
【0048】
以上、距離基準として内積演算を用い、入力データのノルム情報を失わない競合学習ができるためには、どのようなアルゴリズムにすればよいかを理論的に説明した。簡単にまとめると、以下のようになる。
C−1)内積演算を距離基準とする競合学習において、2次元ベクトルX=(x,y)を入力とするとき、(1)〜(3)式のような変換を行い、X”を入力とすれば、内積演算のための規格化によってノルムの情報を失うことがない。
【0049】
X=(x,y)、D=(x+y1/2 ・・・(1)
X’=(x/D,y/D,f(D)) ・・・(2)
X”=X’/|X’| ・・・(3)
C−2)f(D)は、様々な関数を用いることができるが、Dに関して増加関数と減少関数では、減少関数の方が位相を良く保存できる。例えば、f(D)=Dとf(D)=1/Dでは、後者の方が良い。
【0050】
C−3)f(D)を(17)’式のようにすれば、さらに位相を良く保存できる。
f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 ・・・(17)’
なお、(17)’式では、一般的に記述するため、Dのiを削除した。
【0051】
以上の議論及びまとめでは、図に示すのが容易なため、入力として2次元ベクトルX=(x,y)を取り扱ってきたが、n次元ベクトルX=(x,x・・・,x)、(n=1,2,3・・・)の場合でも全く同様に成り立つ。このとき(1)、(2)、(3)式は、以下の式になる。
【0052】
X=(x,x・・,x),D=(x +x +・・x 1/2 ・・・(19)
X’=(x/D,x/D,・・,x/D,f(D))・・(20)
X”=X’/|X’| ・・・(21)
また、(8)式において、n次元空間の4点A、B、A、Bの座標及びノルムD、Dを、(22)式のように、方向余弦を用いて表せば、(17)式と全く同じ式が導ける。
【0053】
=(rcosθA1,rcosθA2,・・,rcosθAn),
=(rcosθA1,rcosθA2,・・,rcosθAn),
=(rcosθB1,rcosθB2,・・,rcosθBn),
=(rcosθB1,rcosθB2,・・,rcosθBn),
=r,D=r ・・・(22)
ここで、( cosθA1, cosθA2,・・, cosθAn)はA及びAの方向余弦、( cosθB1, cosθB2,・・, cosθBn)はB及びBの方向余弦を示す。n次元の場合は、(17)式のΔθは、この2つの方向余弦のなす角に相当する。n次元ベクトルの場合でnを2と選べば、これまでの2次元ベクトルの議論と一致することが分かる。
以上のことから、前記の議論及びまとめは、2次元ベクトルに限定されず、多次元ベクトルに拡張できることは明らかである。
【0054】
最後に、n次元ベクトルの場合としてまとめておく。
D−1)内積演算を距離基準とする競合学習において、n次元ベクトルX(n=1,2,3,・・)を入力とするとき、(19)〜(21)式のような変換を行い、X”を入力とすれば、内積演算のための規格化によってノルムの情報を失うことがない。
【0055】
X=(x,x・・,x),D=(x +x +・・x 1/2 ・・・(19)
X’=(x/D,x/D,・・,x/D,f(D))・・(20)
X”=X’/|X’| ・・・(21)
D−2)f(D)は、様々な関数を用いることができるが、Dに関して増加関数と減少関数を比較すると、減少関数の方が位相を良く保存できる。例えば、f(D)=Dとf(D)=1/Dでは、後者の方が良い。
【0056】
D−3)f(D)を(17)’式のようにすれば、さらに位相を良く保存できる。
f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 ・・・(17)’
以上、距離基準として内積演算を用い、入力データのノルム情報を失わない競合学習ができるためには、どのようなアルゴリズムにすればよいかを理論的に説明し、まとめた。
以上の議論をふまえた本発明は、以下のような情報処理装置である。
【0057】
〔1〕入力ベクトルを重みベクトル群の各ベクトルと内積をとることによって重みベクトル群の何れかのベクトルへ対応させる情報処理装置において、内積をとる前に入力ベクトルのノルムに関する情報を抽出して該入力ベクトルの成分に付加するノルム抽出・付加手段を有することを特徴とする情報処理装置。
【0058】
〔2〕前記の内積をとる前に前記のノルムに関する情報を付加した入力ベクトルを正規化する入力ベクトル正規化手段を有する上記〔1〕記載の情報処理装置。
〔3〕前記の内積をとる前に前記重みベクトル群の各ベクトルを正規化する重みベクトル正規化手段を有する上記〔1〕記載の情報処理装置。
【0059】
〔4〕前記の正規化を電気信号により行うようにした上記〔2〕又は〔3〕記載の情報処理装置。
【0060】
〔5〕前記の正規化を光学的に行うようにした上記〔2〕又は〔3〕記載の情報処理装置。
【0061】
上記の本発明の情報処理装置は、次のA−1)、A−2)の条件を満たす。
【0062】
A−1)距離基準として、ハードウエア化に適した内積演算を用いる。
【0063】
A−2)入力データのノルム情報を失わない競合学習ができる。
【0064】
【実施例】
以下に、本発明の情報処理装置の好適な第1、第2実施例について説明する。その説明に先立って、これらの実施例で用いる光学的な内積演算装置の原理を
説明する。
【0065】
簡単のため、内積をとるベクトルを4次元(2×2)とし、入力ベクトルX(x,x,x,x)と、9個の重みベクトル群m(mi1,mi2,mi3,mi4)(i=1〜9;3×3)の全てと内積をとるものとする。まず、図12は、第1実施例に用いられる内積演算光学系(Taiwei et al.,”Self−organizing optical neural network for unsupervised learning”,Opt.Eng.,VOL.29,No.9,pp.1107−1113,1990.)の原理を示す図であり、2つの液晶テレビ101、102が用いられ、第2液晶テレビ101には2×2のXの成分(x,x,x,x)が図のような順で表示される。また、第1液晶テレビ102には2×2のサブマトリックスmが3×3に配置され、各サブマトリックスmにmの成分(mi1,mi2,mi3,mi4)図のような順で表示される。Xとmのベクトル成分の表示の配置順は、一方が他方の倒立像の関係にある。光学系は、光軸方向に配置された、第1液晶テレビ102と、第1液晶テレビ102の3×3のサブマトリックスm配置に対応した3×3個のレンズLからなるレンズアレー105と、第2液晶テレビ101と、結像レンズ106と、第1液晶テレビ102の3×3のサブマトリックスm配置及びレンズアレー105の3×3のレンズL配置に対応した3×3個の受光領域を有するCCDカメラ107とからなる。
【0066】
そして、第1液晶テレビ102の2×2に領域分けされてmの成分(mi1,mi2,mi3,mi4)が表示されている1個のサブマトリックスmの像が、レンズアレー105の対応する位置のレンズLによって、ベクトルの成分同士を対応させながら、第2液晶テレビ101上に結像されるように光学配置されており、さらに、第2液晶テレビ101は結像レンズ106の入射瞳位置に配置され、結像レンズ106は、レンズアレー105の3×3の各レンズLの瞳をCCDカメラ107の3×3個の受光領域上に結像するような光学配置になっている。
【0067】
したがって、CCDカメラ107のi番目(i=1〜9)の受光領域には、レンズアレー105の対応する位置のレンズLを通った全光量が入射する。このレンズLを通った全光量とは、図の光路からも明らかなように、第1液晶テレビ102の2×2のサブマトリックスmの成分(mi1,mi2,mi3,mi4)と第2液晶テレビ101の2×2のXの成分(x,x,x,x)とを対応する成分同士を重ね合わせて(数学的には掛算)加え合わせたものであり、内積に他ならない。したがって、CCDカメラ107の図示の1〜9の受光領域には、それぞれX・m〜X・mが得られる。
【0068】
次に、図13は、第2実施例に用いられる内積演算光学系(J.Duvillier et al.,”All−optical implementation of a self−organizing map”,Appl.Opt.Vol.33,pp.258−266,1990. )の原理を示す図であり、内積をとるための2つの空間変調器27aと207aを用い、内積は別の空間変調器210a上に得られるものである。この場合は、空間変調器27aと207aは重ね合わされ、空間変調器27a側から照射される平行光で読み出される。空間変調器27aには、図12の場合と同様、2×2のXの成分(x,x,x,x)が図のような順で表示される。また、空間変調器207aには、9つのベクトルm〜mの各成分がまとめられてそれぞれ1つの3×3のサブマトリックスM〜Mを構成するように表示される。すなわち、図示のように、サブマトリックスMには、各ベクトルm〜mのi番目の成分が3×3のマトリックスに配置されるように表示される。そして、空間変調器27aと207aを重ね合わせた場合、空間変調器27aの成分x〜xの領域がそれぞれが空間変調器207aのサブマトリックスM〜Mの領域に対応するように両空間変調器27aと207aが構成されている。光学系は、光軸方向に配置された、空間変調器27aと、空間変調器207aと、空間変調器27aの2×2のマトリックス配置、及び、空間変調器207aのサブマトリックスM〜M配置に対応した2×2個のレンズLからなるレンズアレー208と、結像レンズ209と、空間変調器210aとからなり、レンズLの前側焦点位置に空間変調器207aが、その後側焦点位置に結像レンズ209が、結像レンズ209の後側焦点位置に空間変調器210aが位置している。そして、空間変調器207aの各サブマトリックスMが空間変調器210aの全体領域に拡大結像されるように、レンズLと結像レンズ209の焦点距離の比が定められている。
【0069】
したがって、空間変調器210a上には、空間変調器27aと207aを重ね合わせて、Xの成分xと対応するサブマトリックスMが重畳され(掛算され)、それらのサブマトリックスMがレンズアレー208の作用で同じ位置に重ね合って結像される。そのため、空間変調器210aのサブマトリックスMのj番目(j=1〜9)の成分mjiが対応する位置には、全てのサブマトリックスM〜Mのj番目の成分(mj1,mj2,mj3,mj4)とXの対応する成分(x,x,x,x)を掛けて足し合わせたもの、すなわち、内積が入射する。したがって、空間変調器210aの図示の1〜9の域には、それぞれX・m〜X・mが得られる。
【0070】
以上、以下に説明する第1、第2実施例で用いる内積演算光学系を4次元ベクトルを例にあげて説明してきたが、それ以上又は以下の次元数のベクトルの場合にも容易に対応できることは、光学系の構成から明らかである。
【0071】
なお、本発明において、内積をとるベクトルの少なくとも1つの成分に、その他の成分からなるベクトルのノルム情報をあてがう。例えば、前記の4次元ベクトルの場合は、xを(x,x,x)からなるベクトルのノルム情報にする。
以下、図14〜図18に基づいて本発明の好適な実施例を説明する。
【0072】
〔第1実施例〕
本実施例の情報処理装置は、図14にその構成を示すように、処理を行うためのデータを取得するための入力ベクトル取得手段1と、この入力されたベクトルから前記したD−2)あるいはD−3)に述べたノルム情報を発生させ、さらに発生させたこのノルム情報を入力ベクトルに付加し、D−1)の条件に従って正規化するための入力ベクトル加工手段2と、このノルム情報の付加され加工されたベクトルを入力して処理を行う競合学習手段3とを有するものである。
【0073】
本実施例では、情報処理装置の競合学習手段3として、前記したTaiweiLu等の装置を改良して用いている。まず、図14を参照にして、Taiwei Lu等の装置と共通の部分の説明をする。競合学習手段3では、8×8画素からなる入力ベクトルを第2液晶テレビ101に表示し、1つの重みベクトルに対応する8×8画素のサブマトリックスが8×8個あるメモリーマトリックス(64×64)を第1液晶テレビ102に表示し、この第1液晶テレビ102の背後からキセノンランプ103の光をディフューザー104を介して照射する。メモリーマトリクスには、前述したような素子の重みベクトルの集合が記憶できるようになっている。照射された第1液晶テレビ102上のメモリーマトリックス上の情報は、8×8個のレンズアレー105により、各重みベクトルに対応するサブマトリックスが全て第2液晶テレビ101上に重ねて結像され、入力ベクトルに重畳されるようになっている。さらに、この入力ベクトルが重畳されたサブマトリックスの情報は、結像レンズ106によりCCDカメラ107の8×8個の領域にそれぞれ入射するようになっており、この一連の操作により、入力ベクトルとメモリーマトリックスの内積演算が各領域で行われたことになる(図12参照)。
【0074】
さらに、このCCDカメラ107で得られた内積演算の結果をコンピュータ内に取り込み、コンピュータ内でソフトウエアで実現されているマトリックスの更新手段108で、競合学習に必要なメモリーマトリックスの更新量を決定し、更新するようになっている。また、第1液晶テレビ102、第2液晶テレビ101の表示もコンピュータからの制御により行っている。
以上が、本発明の情報処理装置の競合学習手段において、Taiwei Lu等の装置と共通の部分である。
【0075】
本実施例においては、この情報処理装置が濃淡画像を処理するものとする。この場合、入力ベクトル取得手段1は、CCD等の撮像素子とフレームメモリにより処理すべき画像をコンピュータ内に取り込み、これを所定の入力ベクトル(本実施例の場合は、8×8−1(=63)成分)に展開する(マイナスした1個は、付加するノルム情報に割り当てる。)。展開の仕方は、フレームメモリ上のフレーム領域を8×8の領域に分割し、その領域毎に平均の明るさを計算し、各成分の値とすればよい。この際、画像の右下の領域に対応する成分は無視し、この部分に付加するノルム情報を割り当てる。なお、本実施例の場合、この展開はコンピュータ内のソフトウエアで実現している。
【0076】
次に、入力ベクトル加工手段2は、D−1)からD−3)のように、展開されたベクトルを加工するものであるが、まず、展開された63個のベクトルからD−1)の(19)式に従ってDを計算する。次に、D−3)の(17)’式に従ってこのDからf(D)を計算し、64個目のベクトル成分として、D−1)の(20)式に従ってこのf(D)を付加すると共に、Dを用いて他の63個のベクトルの正規化を行う。(20)式のf(D)は、コンピュータ内のソフトウエア制御により、容易にD−2)あるいはD−3)のように選ぶこともできる。最後に、D−1)の(21)式に従って、再度正規化を行い入力ベクトルの加工を終了するものである。以上の入力ベクトル加工手段2も、本実施例の場合、コンピュータ内のソフトウエアで実現している。なお、この入力ベクトル加工手段2により加工された入力ベクトルは、競合学習手段3中のマトリックスの更新手段108及び第2液晶テレビ101に送られ、競合学習手段による処理が進む。
【0077】
そして、上記メモリーマトリックスの更新は、マトリックス更新手段108においてCCDカメラ107から得られる出力ベクトルの中の最大のものを見つけ、この成分の近傍のメモリーマトリックスを更新することにより行われる。更新則は、
Figure 0003583484
であり、ここで、α(t)は学習スピードを示す係数であり、N(t)は更新範囲を示し、この更新範囲は時間経過(更新が進むに連れて)と共に小さくして行き、最終的には上記の最大成分だけにする。以上のメモリーマトリックスの更新もコンピュータ内のソフトウエアで実現している。
【0078】
以上の構成により、本実施例の情報処理装置が、装置内に内積演算部分を持つ競合学習手段を含んでいても、ノルム情報の失われない処理が行えることは、前述の説明により明らかである。
【0079】
なお、この情報処理装置において、入力ベクトル取得手段1は、ベクトルとして画像を想定したためCCD等の撮像素子を用いたが、他の手段でももちろんよい。例えば音声の場合は、マイクロフォンとAD変換器を用いればよいし、濃度であれば、濃度センサー、流量であれば流量センサー等、何を用いてもよく、基本的には、欲しい情報をセンサーにより取得し、そのセンサーで得られた情報をコンピュータ内に取り込めればよい。
【0080】
また、扱えるベクトル数も、8×8−1の63個に限るわけではなく、空間光変調器での画素数やレンズアレーのレンズ数等を増減させれば、調節できることも明らかである。
【0081】
〔第2実施例〕
本実施例の情報処理装置も、図15にその構成を示すように、第1実施例と同様、処理を行うためのデータを取得するための入力ベクトル取得手段1と、この入力されたベクトルからD−2)あるいはD−3)にあげたノルム情報を発生させ、さらに発生させたこのノルム情報を入力ベクトルに付加し、D−1)のように正規化するための入力ベクトル加工手段2と、このノルム情報の付加され加工されたベクトルを入力して処理を行う競合学習手段3とを有するものであり、その違いは、入力ベクトル加工手段2と競合学習手段3の大部分を光学系で構成している点である。
【0082】
さらに具体的には、本実施例の情報処理装置は、図15に示すように、入力ベクトル取得手段1と、この入力ベクトル取得手段1により取得されたD−1)の(19)式に対応したデータの総和を検出するための第1のベクトル成分総和検出手段21と、得られたベクトル成分の総和から、D−1)の(20)式に対応させてデータの正規化を行うための第1の正規化手段22と、得られたベクトル成分の総和から、D−2)及びD−3)の(17)’式に対応させて入力ベクトルのノルム情報を発生させるノルム情報発生手段23と、この正規化された入力ベクトルにD−1)の(20)式に対応させてノルム情報を付加するノルム情報付加手段24と、このノルム情報の付加された入力ベクトル成分の総和を検出するための第2のベクトル成分総和検出手段25と、得られたベクトル成分の総和からD−1)の(21)式に対応させてデータの正規化を行うための第2の正規化手段26と、以上のデータ加工結果を表示するための加工結果表示手段27とから構成される入力ベクトル加工手段2と、この加工され表示されたデータを入力して処理するための競合学習手段3とにより構成し、本発明の目的を達成しようと言うものである。
【0083】
図16には、上記の中、入力ベクトル取得手段1及び入力ベクトル加工手段2の部分の光学系を具体的に示してある。なお、本実施例でも、濃淡画像の処理をまず想定している。入力ベクトル取得手段1では、撮像装置11(具体的には、例えばズームレンズの付いたCCDカメラ)で処理すべきベクトルである画像を取得し、この信号をドライバー12により空間光変調器13(本実施例の場合は、例えば透過型で電子アドレス型の液晶空間光変調器)に表示する。表示された処理すべき画像は、略平行な光束20で読み出され、入力ベクトル加工手段2に送られる。入力ベクトル加工手段2では、まず、ビームスプリッタ21a、集光レンズ21b、ディテクタ21cからなる第1のベクトル成分総和検出手段21により、この処理すべきベクトルである画像の総和が取られる。具体的には、入力された画像情報をビームスプリッタ21aで分岐し、集光レンズ21bで集光し、ディテクタ21cでその総和Dとして光量を検出し、電気信号に変換する。この検出された総和Dの電気信号は、第1の正規化手段22である光量調整フィルタ22aのドライバー22bに送られ、ここを通過する光量が一定になるように、つまり正規化されるように調節がなされる。具体的には、印加電圧によって通過する光量を変化させることのできる液晶シャッターを光量調整フィルタ22aとして用い、検出された総和Dの電気信号によってドライバー22bで液晶シャッターに印加する電圧を制御することにより、ここを通過する光量を一定にする。さらに、検出された総和Dの電気信号は、ノルム情報発生手段23である割算器により、f(D)の選び方の例としてD−2)で述べた1/Dの情報に変換される。
【0084】
この変換されたノルム情報である1/Dの信号は、ノルム情報付加手段24の発光素子24aを駆動するドライバー24bに送られ、1/Dに比例した光量を発光素子24aで発生させる。ノルム情報付加手段24では、さらに、空間光変調器13に表示された入力ベクトルを空間光変調器24c(本実施例の場合は、例えば反射型で光アドレス型の液晶空間光変調器)に結像させるための結像レンズ24d、及び、この空間光変調器24cを駆動するためのドライバー24eとで構成されている。この構成により、入力ベクトルの正規化されたものが空間光変調器24cに表示される。この空間光変調器24cでは、図17(a)に正面図、(b)に側面図を示すように、8×8の領域が設定されており、その中の1か所の領域(図では、右下隅の領域)に発光素子24aとして、本実施例で用いている発光ダイオードLDとそれからの光を集光するレンズCLで1/Dに比例した光量が照射されるようになっており、結果として、8×8−1の63個の領域に正規化された入力ベクトルが、残りの1個の領域に1/Dに比例したノルム情報が表示されるようになっている。
【0085】
この表示された入力ベクトル情報は、ビームスプリッタ28aで系内に導かれた略平行な光束28で読み出され、第2のベクトル成分総和検出手段25に送られその総和が検出され、さらに、この総和情報を基に第2の正規化手段26により正規化が行われる。この第2のベクトル成分総和検出手段25と第2の正規化手段26は、それぞれ第1のベクトル成分総和検出手段21と第1の正規化手段22と同一要素である、ビームスプリッタ25a、集光レンズ25b、ディテクタ25c、及び、液晶シャッターである光量調整フィルタ26a、ドライバー26bで構成してある。
【0086】
加工結果表示手段27では、空間光変調器24cに表示されたベクトルを、空間光変調器27aとして本実施例の場合用いた反射型で光アドレス型の液晶空間光変調器に結像させるための結像レンズ27b、及び、この空間光変調器27aを駆動するためのドライバー27cで構成されている。この構成により、8×8−1の63個の領域に正規化された入力ベクトルと、残りの1個の領域に1/Dに比例したノルム情報が表示された情報であって、さらに正規化された結果が空間光変調器27aに表示される。
【0087】
本実施例では、情報処理装置の競合学習手段3として、前記のJ.Duvillier等の装置を改良して用いている。次に、図18を参照にして、Duvillier等の装置と略共通の部分の説明をする。図18の切断面A−A’、B−B’、C−C’内の部分は、図16に示した光学系が対応する。
【0088】
まず、内積演算のフェーズでは、レーザー200からの光束は、ミラー201を介してビームエキスパンダ202に入射され、略平行な光束203となる。この光束は、ビームスプリッタ204、223、224を介して、空間光変調器27aの位置に表示された8×8要素の入力情報(図16参照)を系内に入力し、さらに、結像レンズ205及び206によりこの入力情報を、専用のドライバー207bで制御される空間光変調器207a(本実施例の場合、例えば透過型で光書込型の液晶空間光変調器)に表示されている8×8要素のメモリーマトリックスの情報に重畳させた上で読み出すものである(J.Duvillier等の装置は、入力情報を透過で読み出しているが、本実施例は入力情報は空間光変調器27aから反射で読み出しているので、この部分の構成は一部変更されている。)。この入力情報にメモリーマトリックスの情報が重畳した情報は、さらに8×8個のレンズアレー208と結像レンズ209を通過し、専用のドライバー210bで制御される空間光変調器210a(本実施例の場合、例えば透過型で光書込型の二値の液晶空間光変調器)上でさらに重ね合わさる。この一連の操作により、入力情報とメモリーマトリックスの内積演算結果がこの空間光変調器210a上に閾値操作されて記憶されたことになる(図13参照)。
【0089】
次に、メモリーマトリックスの更新のフェーズでは、上記内積演算のフェーズで空間光変調器210a上に記憶された内積演算結果が、略平行な光束203の中、ビームスプリッタ204を通過し、さらにミラー211及び212、ビームスプリッタ213を介して系内に導かれた略平行な光束214により読み出される。この読み出された情報は、さらに、ミラー215、216、217、ビームスプリッタ223、224、レンズ218、219、220、221、及び、Dammann型のグレーティング222を介することにより、8×8に多重複製され、再び空間光変調器27aの位置に表示されている8×8要素の入力情報を読み出す。この操作によりメモリーマトリックスの更新量が決定されるが、この更新情報を結像レンズ205及び206により空間光変調器207a上に結像させ、さらに、ドライバー207bを制御し印加電圧を変化させることにより加算もしくは減算の形でメモリーマトリックスの更新が行われる。
【0090】
ここで、メモリーマトリックスの更新に関しては、内積演算の出力ベクトルyを空間光変調器207aでスレシュホールドして二値化したものをYとして、このYをレンズ218〜221とDammann型グレーティング222とで倍率を縮小して元の大きさに戻すと共に、入力ベクトルと同じ8×8個に複製して、入力ベクトルに重ねる。これがメモリーマトリックスの更新量ΔMとなる。この更新則は、
(t+1)=M(t)+a(t)NO{ΔM(t)}
ΔM=X(DY) ・・・(24)
ここで、a(t)は(23)式のα(t)と同様の学習スピードを示す係数、NOは更新範囲を示す関数で、(23)式のNと同様の役目を担う。また、DはYのサブマトリックスを8×8に複製することを表す。この更新は、すでに記憶されている空間光変調器207a上のメモリーマトリックス情報M(t)に上記で決まったΔMだけ加算もしくは減算することにより変更を加えることで行われる。このときの空間光変調器207aの動作は、グレースケール動作とし、駆動電圧の符号を変化させればよい。また、駆動電圧の大きさを変化させれば、NOつまり更新範囲や学習スピードを変化させることができる。これは、ドライバー207bをコンピュータ等で制御して行う。
【0091】
なお、上記で、内積演算のフェーズとメモリーマトリックスの更新のフェーズでは、系が共通に使用されている部分があるので、シャッター225、226、227、231により、もちろん情報が干渉することを防止している。すなわち、内積演算のフェーズでは、シャッター225をオープンにし、シャッター226、227、231をクローズに、メモリーマトリックスの更新のフェーズでは、シャッター225と231をクローズにし、シャッター226と227をオープンにしている。
以上が、本実施例の競合学習手段3においてJ.Duvillier等の装置と略共通の部分である。
【0092】
本実施例で、先行例と異なる点は、図15及び図16を用いて先に説明したように、入力ベクトル取得手段1及び入力ベクトル加工手段2をこの競合学習手段3に新たに加えた点である。本実施例では、図16に示した入力ベクトル取得手段1及び入力ベクトル加工手段2を、図中の切断面A−A’、B−B’及びC−C’が、図18中の対応する部分に一致するように設置してある。この際、略平行な光束203の中ビームスプリッタ204を通過し、さらにビームスプリッタ234を介して入力ベクトル取得手段1及び入力ベクトル加工手段2の系内に入射させたものを略平行な光束20とし、また、略平行な光束203の中のビームスプリッタ204で反射させたものを、ビームスプリッタ228を介して同系内に入力させて略平行な光束28とした。さらに、本実施例では、内積演算結果とメモリーマトリックスも正規化するために、図中に示すように、第3のベクトル成分総和検出手段229及び第3の正規化手段230を挿入してある。この第3のベクトル成分総和検出手段229と第3の正規化手段230は、それぞれ第1のベクトル成分総和検出手段21と第1の正規化手段22(図16)と同一要素である、ビームスプリッタ229a、集光レンズ229b、ディテクタ229c、及び、液晶シャッターである光量調整フィルタ230a、ドライバー230bで構成してある。この構成により、内積演算のフェーズでは内積演算結果が正規化される。一方、メモリーマトリックスの更新のフェーズでは、メモリーマトリックスの更新後、シャッター227をクローズにし、シャッター225と231をオープンにし、略平行な光束203の中のビームスプリッタ223を透過してきたものを、さらにミラー232及びビームスプリッタ233を介して空間光変調器207aに入射させ、更新されたメモリーマトリックスの情報を読み出して正規化するものである。競合学習のアルゴリズムとしては内積演算結果の正規化は必要ないので、第3のベクトル成分総和検出手段229と第3の正規化手段230は、内積演算のフェーズでは省略してもよい。しかしながら、内積演算結果を正規化することにより、信号量の発散、飽和に伴うハードウエアの調整の問題を防ぐことができる。
【0093】
この実施例中では、透過型や反射型、及び、電子アドレス型や光アドレス型の液晶空間光変調器を用いたが、これらは上記実施例にあげた組み合わせに限られるものではなく、様々な組み合わせが考えられることは言うまでもない。
【0094】
以上であげた正規化手段において、その目的は、数学的に厳密にはベクトルのノルムを1にすることである。しかしながら、ハードウエア上においてノルムに応じて光量を厳密に一定にするのではなく大まかに調節するようにしても、厳密な正規化と同様な効果を得ることができる。したがって、本発明中の正規化の定義は広く、ノルムの大きさによってベクトル成分の大きさを調節することを意味するものとする。また、D−2)、D−3)のような厳密な変換式をハードウエア上で実現する場合、諸装置の特性を変えることにより近似的にその作用を得るようにしてもよい。
【0095】
また、以上では、1つの入力に対し1つのノルム情報を与えたが、複数個の情報を与えてもよい。つまり、追加する次元は1次元に限らず、多数次元としてもよい。
【0096】
以上の構成により、本発明の情報処理装置が、装置内に内積演算部分を持つ競合学習手段を含んでいても、ノルム情報の失われない処理が行えることは前述の説明より明らかである。
【0097】
なお、この情報処理装置においても、入力ベクトル取得手段は第1実施例と同様、撮像素子に限定されるわけではなく、マイクロフォンや濃度センサー、流量センサー等、どんなセンサーを用いてもよい。また、扱えるベクトル数も第1実施例と同様に調節できることも明らかである。
【0098】
以上、本発明の情報処理装置をその原理と実施例に基づいて説明してきたが、本発明はこれら実施例に限定されず種々の変形が可能である。
【0099】
【発明の効果】
以上の説明から明らかなように、本発明の情報処理装置によると、以下の条件を満たす情報処理装置を提供することができる。
A−1)距離基準として、ハードウエア化に適した内積演算を用いる競合学習を行う。
A−2)入力データのノルム情報を失わない競合学習ができる。
【図面の簡単な説明】
【図1】規格化しない場合の内積演算による勝利ベクトルの決定過程を示す図である。
【図2】規格化した場合の内積演算による勝利ベクトルの決定過程を示す図である。
【図3】2次元一様分布ベクトルデータを示す図である。
【図4】2次元一様分布ベクトルデータを規格化した場合の分布を示す図である。
【図5】本発明の情報処理装置に入力する2次元平面上の4点を示す図である。
【図6】ノルムを示す成分としてDを選んだ場合の3次元空間における4点の位置を示す図である。
【図7】ノルムを示す成分として1/Dを選んだ場合の3次元空間における4点の位置を示す図である。
【図8】自己組織化特徴マップの構造を示す図である。
【図9】競合学習の距離基準にユークリッド距離を用いた場合の領域図と隣接する素子の重みベクトル同志を結んだ図である。
【図10】ノルムを示す成分としてD、1/Dを選んだ場合及び選ばなかった場合の領域図である。
【図11】ノルムを示す成分として理論的なものを選んだ場合の領域図である。
【図12】本発明の第1実施例に用いる内積演算光学系の原理を示す図である。
【図13】本発明の第2実施例に用いる内積演算光学系の原理を示す図である。
【図14】本発明の第1実施例の構成の概略を示す図である。
【図15】本発明の第2実施例の構成の概略を示す図である。
【図16】本発明の第2実施例の具体的な構成を示す図である。
【図17】第2実施例に用いるノルム情報を付加する空間光変調器の正面図と側面図である。
【図18】本発明の第2実施例の競合学習手段の構成を示す図である。
【符号の説明】
1…入力ベクトル取得手段
2…入力ベクトル加工手段
3…競合学習手段
11…撮像装置
12…ドライバー
13…空間光変調器
20…光束
21…第1のベクトル成分総和検出手段
21a…ビームスプリッタ
21b…集光レンズ
21c…ディテクタ
22…第1の正規化手段
22a…光量調整フィルタ
22b…ドライバー
23…ノルム情報発生手段
24…ノルム情報付加手段
24a…発光素子
24b…ドライバー
24c…空間光変調器
24d…結像レンズ
24e…ドライバー
25…第2のベクトル成分総和検出手段
25a…ビームスプリッタ
25b…集光レンズ
25c…ディテクタ
26…第2の正規化手段
26a…光量調整フィルタ
26b…ドライバー
27…加工結果表示手段
27a…空間光変調器
27b…結像レンズ
27c…ドライバー
28a…ビームスプリッタ
28…光束
101…第2液晶テレビ
102…第1液晶テレビ
103…キセノンランプ
104…ディフューザー
105…レンズアレー
106…結像レンズ
107…CCDカメラ
108…マトリックス更新手段
200…レーザー
201…ミラー
202…ビームエキスパンダ
203…光束
204、223、224…ビームスプリッタ
205、206…結像レンズ
207a…空間光変調器
207b…ドライバー
208…レンズアレー
209…結像レンズ
210a…空間光変調器
210b…ドライバー
211、212…ミラー
213…ビームスプリッタ
214…光束
215、216、217…ミラー
218、219、220、221…レンズ
222…Dammann型グレーティング
223…ビームスプリッタ
225、226、227、231…シャッター
228…ビームスプリッタ
229…第3のベクトル成分総和検出手段
229a…ビームスプリッタ
229b…集光レンズ
229c…ディテクタ
230…第3の正規化手段
230a…光量調整フィルタ
230b…ドライバー
232…ミラー
233…ビームスプリッタ
234…ビームスプリッタ
LD…発光ダイオード
CL…レンズ[0001]
[Industrial applications]
The present invention relates to an information processing apparatus, and in particular, determines a processing element that satisfies a certain distance criterion by using an inner product operation, and performs some operation on the winning element and the element determined by the winning element to perform phase preservation. The present invention relates to an information processing apparatus that performs competitive learning for mapping and pattern recognition.
[0002]
[Prior art]
A competitive learning algorithm that determines a winning element that satisfies a certain distance criterion, and performs phase-preserving mapping and pattern recognition by performing an operation on the winning element and an element determined by the winning element is well known. (T. Kohonen, "Self-Organization and Associative Memory, Third Edition, Springer-Verlag, Berlin, 1989.).
[0003]
Each of these algorithms uses a distance criterion such as a Euclidean distance, a Manhattan distance, or an inner product, and has a competitive process of selecting a winning element satisfying the criterion for a certain input. When creating a program and executing the algorithm on a normal computer, any distance reference can be easily used. Therefore, the Euclidean distance, which is generally reported to have good performance, is often used as a distance criterion.
[0004]
However, when calculating the Euclidean distance on hardware, a difference circuit, a square circuit, and a summation circuit are required, which makes it difficult to realize. For this reason, the inner product distance reference is often used. In particular, when realized using optics, the inner product operation is most easily realized due to the parallelism of light. Some information processing devices that perform competitive learning with inner product calculation using optics have been reported (Taiwei et al., “Self-organizing optical neural network for unsupervised learning”, Opt. Eng., Vol. 29, No. 29). J. Duvillier et al., "All-optical implementation of a self-organizing map", Appl. Opt. Vol. 33, No. 2, 1994.).
[0005]
[Problems to be solved by the invention]
When competing for a winning element using the inner product operation, it is necessary to standardize the data. This will be described with reference to FIG. The input data is a two-dimensional vector X, and the weight vector of the element group that is a candidate for competition is a two-dimensional vector m.i(I indicates an element number). As shown in FIG. 1, a two-dimensional vector X is input, and m is used as a weight vector of the candidate.1, M2Suppose there was. When the Euclidean distance is used, since the closest one between the vectors is the winning element, d1<D2Than m1Is the winning element. On the other hand, when the inner product operation is used, the one with the largest inner product value corresponds to the most similar to the input vector, and is a winning element. The inner product value is m in FIG.iOrthogonal projection D of XiAnd the norm of X. Therefore, DiBy comparing the magnitudes of, the magnitude of the inner product can be compared. In this case, m2Is the winning element. In competitive learning, the similarity in the Euclidean distance between the input data and the weight vector and the similarity in the Manhattan distance and the like are compared, and the element having the most similar weight vector is selected. However, when the inner product operation is used as described above, the weight vector having a larger norm has a larger inner product value even if the Euclidean distance is far, and the weight vector is likely to be a winner. That is, the similarity in the inner product operation depends on the norm of the vector, not on the magnitude of the Euclidean distance. Therefore, effective competitive learning cannot be performed.
[0006]
Therefore, in order to perform effective competitive learning by the inner product operation, the input data and the weight data must be standardized. At this time, as shown in FIG.1<D2, D1> D2And using either the Euclidean distance or the inner product operation,1Is the winning element. Therefore, effective competitive learning can be performed even by using the inner product operation.
[0007]
However, by performing the above-described normalization, norm information of input data is lost. That is, for example, when there is a uniform distribution of two-dimensional vector data as shown in FIG. 3, if normalization is performed, a point on a unit radius curve as shown in FIG. 4 is input. That is, all points in the direction connecting the origin O and the data point become one point on the curve, the norm information of the input data is lost, and only the direction information remains. In the case of competitive learning only in the direction of vector data, the norm information of the data may be lost, but in the case of competitive learning that also considers the norm of the vector, the norm information cannot be lost.
[0008]
Summarizing the above problems, the conditions required for the information processing apparatus of the present invention are as follows.
A-1) Competitive learning using an inner product operation suitable for hardware implementation is performed as a distance reference.
A-2) Competitive learning can be performed without losing norm information of input data.
[0009]
The present invention has been made in view of the above situation, and an object of the present invention is to use an inner product operation that satisfies the above conditions A-1) and A-2) and is suitable for hardware implementation as a distance reference. An object of the present invention is to provide an information processing apparatus capable of performing competitive learning and performing competitive learning without losing norm information of input data.
[0010]
[Means for Solving the Problems]
The information processing apparatus of the present invention that achieves the above object is an information processing apparatus in which an input vector is obtained by taking an inner product with each vector of a weight vector group to correspond to any vector of the weight vector group. It has a norm extracting / adding means for extracting information relating to the norm of the vector and adding it to the components of the input vector.
[0011]
In this case, it is desirable to have an input vector normalizing means for normalizing the input vector to which the information regarding the norm is added before taking the above inner product. Further, it is desirable to have weight vector group normalizing means for normalizing each vector of the weight vector group before taking the above inner product. These normalizations may be performed by an electric signal or may be performed optically.
[0012]
[Action]
Hereinafter, the reason and operation of the above configuration will be described.
Using an inner product operation as a distance criterion (A-1)), what kind of algorithm should be used in order to perform competitive learning without losing norm information of input data (A-2)) is theoretically determined. This will be described with reference to FIGS.
[0013]
As described above, when determining the similarity using the inner product operation, it is necessary to normalize the data. At this time, since the vector is divided by the norm to obtain a unit vector, the original norm information has been conventionally lost. In order not to lose the original norm information, the present invention considers adding a component indicating the norm to one component of the input vector. For example, assume that the input data is a two-dimensional vector X = (x, y). The norm is D = (x2+ Y2)1/2It is. If this is standardized, X / | X | = (x / D, y / D). This is the input vector conventionally used to determine the similarity using the inner product operation. X ′ = (x / D, y / D, f (D)) is created by adding a component indicating the norm to this vector. Next, X 'is normalized to create X "= X' / | X '|, which is used as input data instead of X.
[0014]
That is,
X = (x, y), D = (x2+ Y2)1/2                ... (1)
X '= (x / D, y / D, f (D)) (2)
X "= X '/ | X' | (3)
Since X ″ has been normalized, it is possible to determine the similarity using the inner product operation. In addition, since the vector component of X ″ includes the norm information D, even if it is normalized, the input vector Not only the direction information but also the norm information. Therefore, if X ″ is used as input data instead of X = (x, y), it is possible to perform competitive learning without losing norm information of the input data even if an inner product operation is used as a distance reference.
[0015]
The correspondence between a two-dimensional vector of input data and a three-dimensional vector obtained by adding a component indicating a norm to the vector is examined for various f (D). First, as a simple case, a) f (D) = D, b) f (D) = 1 / D are selected, and each point A of X on the two-dimensional plane shown in FIG.1, B1, A2, B26 and 7 show what is converted to each point of X ″ on the three-dimensional space. In each case of FIGS. 6 and 7, there is a one-to-one correspondence. And point A1, B1, A2, B2There is no such thing as a twist that would break the order. However, the phase of the input data is better preserved in the case of b). The reason will be described below.
[0016]
On the two-dimensional plane shown in FIG.1And B1Distance of A2And B2Comparing the distances, A1And B1Is closer. When the converted points are compared in a three-dimensional space, FIG.1And B1Point A corresponding to1", B1"A2And B2Point A corresponding to2", B27, the opposite is true in FIG. 7. Therefore, in FIG. 7, the relative perspective relationship on the two-dimensional plane can be reflected, and the phase of the input data can be better preserved. It is.
[0017]
An experimental example will be described in order to further clarify whether the phase of the input data is better preserved. As an example of competitive learning, a self-organizing feature map (T. Kohonen, "Self-Organization and Associative Memory, Third Edition, Springer-Verlag, Berlin, 1989., hereinafter referred to as a SOM) is used as a phase preservation image. The SOM will be briefly described below.
[0018]
As shown in FIG. 8, the SOM includes a layer of a two-dimensionally arranged element group (hereinafter, referred to as a map layer ML) and an input layer IP for inputting data. Although the map layer ML shows elements arranged in two dimensions in FIG. 8, elements arranged in one dimension may be used. The input layer IP is connected to all elements of the map layer ML, and input data can be provided to all elements of the map layer ML. The input data may be a scalar or a vector, but is generally referred to as a vector X (n-dimensional) here. All elements i of the map layer ML (i is an order on the map and the total number of elements is k) are all weight vectors mi(N-dimensional). The SOM algorithm is based on an input vector X and a weight vector m of each element.i<Similarity matching> that determines a weight vector to be updated based on the similarity withiIs brought closer to the input vector X. The weight vector m reflecting the distribution of the input vector X is obtained by repeating the action of both.i(1 ≦ i ≦ k) is generated. Specific expressions of <similarity matching> and <update> are shown below.
[0019]
<Similarity matching>
Figure 0003583484
<Update>
Figure 0003583484
Where | X-mi| Is X and miE is the Euclidean distance, C is the element whose distance is the smallest (winning element), NcDenotes a neighborhood of the winning element C in the map layer ML, α (t) denotes a positive constant, and t denotes time. While repeating the update, NcAnd the magnitude of α (t) are gradually reduced. Further, α (t) can be selected so as to become smaller as the distance from the winning element C increases.
[0020]
In the above algorithm, since the Euclidean distance is used in <similarity matching>, X is also miNeed not be standardized. When the inner product operation is used in <similarity matching> as in the present invention, specific expressions of <similarity matching> and <update> of the SOM algorithm are as follows.
[0021]
<Similarity matching>
Figure 0003583484
<Update>
Figure 0003583484
Here, it is assumed that X has been standardized. miHas also been standardized after the update.
[0022]
X is randomly selected from a set of input vectors X and sequentially input, and a weight vector miWeight vector m reflecting the distribution of the input vector X by repeating the update ofi(1 ≦ i ≦ k) is generated. That is, the weight vector mi(1 ≦ i ≦ k) is a prototype of the distribution of the input vector. Then, when updating the weight vector of a certain element so as to approach the input vector, the elements in the vicinity of the element on the map are also updated in the same manner. It will correspond to a close vector. Therefore, the SOM algorithm can create a set of prototypes that reflect the topology of the input data space. The SOM algorithm has the following features.
[0023]
B-1) Weight vector miAn appropriate map can be created regardless of the initial state of (1 ≦ i ≦ k).
B-2) An appropriate map can be created regardless of the input order of the input vector X.
[0024]
B-3) Since the map is one-dimensional or two-dimensional, the phase of the input data can be visually checked.
B-4) Since the simple operations of <similarity matching> and <update> are repeated, the algorithm is simple.
[0025]
The SOM has been described above. In this SOM, the inner product operation using X ″ is performed by changing the above-mentioned way of f (D). Then, the degree of the phase preservation state of the input data by the way of f (D) is compared.
[0026]
In the SOM, an element is an array of 10 × 10 two-dimensional lattices, and input data is a group of two-dimensional vectors X = (x, y) uniformly distributed in a square, {0 ≦ x ≦ 1, 0 ≦ Let y ≦ 1y. Whether the phase of the input data is better preserved is determined by displaying the two-dimensional vector group X = (x, y) in the square for each element corresponding to the data and examining the shape of each area. Done by Note that adjacent elements are displayed in white and black in a two-dimensional lattice so that data can be easily distinguished for each corresponding element.
[0027]
Normally, in SOM, X = (x, y) is directly input, and the Euclidean distance is used as a distance reference for competitive learning. The results in that case are shown in FIGS. 9 (a) and 9 (b). FIG. 9B is a diagram in which the weight vector of each element is connected to adjacent elements, and FIG. 9A is a diagram showing a region corresponding to the element (hereinafter, referred to as a region diagram). Since the two-dimensional vector group X in the square is divided into a two-dimensional lattice, each region has a structure in which small square lattices are regularly arranged. If X = (x, y) is input as it is and the Euclidean distance is used as a distance reference for competitive learning, the phase of the input data can be best preserved. Let us call this result the standard result. When X "is input and competitive learning is performed by inner product calculation, it can be said that the closer to the standard result, the better the phase of the input data is stored.
[0028]
Therefore, the SOM of the inner product operation was performed for the cases of a) f (D) = D and b) f (D) = 1 / D. The area diagrams are shown in FIGS. 10 (a) and (b), respectively. In FIG. 10B, the regions are spread in a lattice shape, whereas in FIG. 10A, the regions are disturbed, and are distributed radially especially near the origin at the upper left. Therefore, it can be said that the case (b) clearly preserves the phase of the input data better. The radial distribution indicates that the angle dependence of X = (x, y) is strong. The reason for this is that, as described above with reference to FIG. 6, A near the origin, which should be close on the two-dimensional plane,1, B1Can be interpreted as being relatively separated in the three-dimensional space, and the angle information is emphasized more than the norm information.
[0029]
As a supplementary experiment, SOM of inner product calculation was performed by inputting only X = (x, y) normalized without using size information. FIG. 10C shows a region diagram at this time. As described in [Problems to be Solved by the Invention], norm information of input data is lost by normalization. Therefore, the entire area has a radial distribution depending only on the angle information, and the discriminating ability regarding the norm of the element is lost. In the case of FIG. 10A described above, it can be seen from the comparison with FIG. 10C that the region is more disordered than in FIG. 10B, but the discrimination ability regarding the norm remains.
[0030]
By the way, in the case of a) f (D) = D, b) f (D) = 1 / D, it can be said that b) preserves the phase of the input data better. In order to preserve the phase of, what kind of f (D) should be selected is examined. In other words, what kind of f (D) is selected, X = (x, y) is input as it is, and the same result as in the case where the Euclidean distance is used as the distance criterion for competitive learning can be obtained. . It is a problem of the SOM itself whether the phase of the input data can be completely preserved. In the description of the present invention, to best preserve the phase of the input data is equivalent to obtaining the same result as when using the Euclidean distance as the distance criterion for competitive learning, and to completely preserve the phase of the input data. Note that it is not. With this in mind, X = (x, y) is input as it is, and a condition for obtaining the same result as when the Euclidean distance is used is determined.
[0031]
Again, four points A in FIG.1, B1, A2, B2think of. In order to obtain the same result as when using the Euclidean distance, the ratio of line segments in a two-dimensional plane must be preserved in a three-dimensional space. This condition is expressed by an equation.
[0032]
First, 4 points A1, B1, A2, B2And the norm D1, D2Are as shown in equation (8).
A1= (R1  cos θA, R1  sin θA),
A2= (R2  cos θA, R2  sin θA),
B1= (R1  cos θB, R1  sin θB),
B2= (R2  cos θB, R2  sin θB),
D1= R1, D2= R2                                ... (8)
These coordinates correspond to the input vector X = (x, y). X ′ = (x / D, y / D, f (D)) obtained by normalizing this vector and further adding a component indicating the norm is represented by the following equation (9).
[0033]
A1’= (Cos θA, Sin θA, F (D1)),
A2’= (Cos θA, Sin θA, F (D2)),
B1’= (Cos θB, Sin θB, F (D1)),
B2’= (Cos θB, Sin θB, F (D2)) ・ ・ ・ (9)
X ″ obtained by standardizing this is as shown in equation (10).
[0034]
Figure 0003583484
X in three-dimensional space2+ Y2+ Z2= Arc A on one surface1, B1Length between and arc A2, B2The length between them is given by equations (11) and (12), respectively (the arc is <A1B1>. ). Where A1, B1, A2, B2Let's consider the position vector ofA 1 It expresses like. ).
[0035]
Figure 0003583484
Line segment A in two-dimensional plane1B1And line segment A2B2The length ratio is given by equation (13).
[0036]
| A1-B1|: | A2-B2| = R1: R2= D1: D2  ・ ・ (13)
As shown in equation (14), line segment A1B1And line segment A2B2Is <A1"B1"> And <A2"B2When the length ratio is equal to “>”, the condition shown in Expression (14) is satisfied.
[0037]
| A1-B1| / | A2-B2| = <A1"B1"> / <A2"B2"> ... (14)
Substituting equations (11), (12), and (13) into equation (14) yields equation (15).
[0038]
Figure 0003583484
Equation (15) can be written as equation (16) using a proportional constant k (k ≠ 0).
[0039]
kDi= Cos-1[{Cos Δθ + f (Di)2} / {1 + f (Di)2}] (I = 1, 2) (16)
This is called f (Di) Yields equation (17).
[0040]
f (Di) = {(CoskDi−cosΔθ) / (1−coskDi)}1/2(I = 1, 2) (17)
Here, since the definitions of various quantities and the inside of the radical are positive, there is the following restriction condition (18).
[0041]
coskDi−cosΔθ> 0,0 <kDi<Π / 2 (= 1, 2) (18)
Equations (17) and (18) have the following meanings. When a certain point forming Δθ on a two-dimensional plane is converted into a three-dimensional space by the above-described rule, using an expression of f (D) such as an expression (17), such a two-dimensional point on the two-dimensional plane is obtained. The ratio of line segments between points is x in the corresponding three-dimensional space.2+ Y2+ Z2= Equal to the ratio of the lengths between points on one surface.
[0042]
According to equation (18), when a certain proportionality constant k is determined, DiIs not greater than the amount determined by k and Δθ. This will be described qualitatively.
DiIncreases, the distance between the two points in the two-dimensional plane increases arbitrarily, but x in the corresponding three-dimensional space2+ Y2+ Z2= The length between the points of the base on one side cannot be greater than the width of the base. Therefore, DiIt becomes difficult to satisfy the condition as the value of becomes larger.
[0043]
f (Di) Was selected as shown in equation (17), the SOM of the inner product operation as described above was performed. f (Di) Were selected as k = 0.3 and Δθ = π / 3 so as to satisfy the expression (18). Equation (18) is an equation at a certain Δθ. In competitive learning, since there are various input vectors, Δθ takes various values in accordance with the input vectors. However, in actual simulation, Dθ is set so that equation (18) is satisfied.iK and Δθ are appropriately determined in advance in consideration of the maximum value of. As can be seen from the results of the region diagram, there is no problem if k and Δθ are fixed.
[0044]
FIG. 11 shows a region diagram in the case of using the expression (17). According to FIG. 11, as in FIG. 9A, the small square lattice has a regular arrangement. This is better aligned than if f (D) = 1 / D was chosen. This can be understood from the fact that the number of vertical and horizontal small areas is ten.
[0045]
Therefore, from this experiment, f (Di), It is possible to input X = (x, y) as it is and obtain the same result as when the Euclidean distance is used as a distance reference for competitive learning, and a mapping that best preserves the phase of input data Can be realized.
[0046]
Next, the expressions (14) and (15) will be supplemented. Equations (14) and (15) are strict conditions. However, if only the magnitude relation between the denominator and the denominator on both sides is preserved, it is sufficient if f (D) is a function that decreases with respect to D. It can be understood by considering the properties of That is, comparing f (D) = D and f (D) = 1 / D, the better result for f (D) = 1 / D is that f (D) = 1 / D is equal to D Can be said to be a decreasing function.
[0047]
Of course, the function is not limited to f (D) = 1 / D. In order to preserve the phase better, any decreasing function with respect to D may be chosen. As described above, even when a function other than the decreasing function is used for D, it is difficult to preserve the phase, but it is possible to perform learning to some extent without losing norm information.
[0048]
In the above, what algorithm should be used in order to perform competitive learning without losing norm information of input data using inner product calculation as a distance criterion has been theoretically described. Briefly, it is as follows.
C-1) In competitive learning using the inner product operation as a distance reference, when a two-dimensional vector X = (x, y) is input, the conversion as in equations (1) to (3) is performed, and X ″ is input. Then, norm information is not lost due to normalization for the inner product operation.
[0049]
X = (x, y), D = (x2+ Y2)1/2                ... (1)
X '= (x / D, y / D, f (D)) (2)
X "= X '/ | X' | (3)
C-2) For f (D), various functions can be used, but for the increasing function and the decreasing function for D, the decreasing function can better preserve the phase. For example, when f (D) = D and f (D) = 1 / D, the latter is better.
[0050]
C-3) If f (D) is given by the expression (17) ', the phase can be preserved even better.
f (D) = {(coskD-cosΔθ) / (1-coskD)}1/2... (17) '
In the expression (17) ', since it is generally described, DiI was deleted.
[0051]
In the above discussion and summary, the two-dimensional vector X = (x, y) has been treated as an input because it is easy to show in the figure, but the n-dimensional vector X = (x1, X2..., xn) And (n = 1, 2, 3,...). At this time, the expressions (1), (2) and (3) are as follows.
[0052]
X = (x1, X2.., xn), D = (x1 2+ X2 2+ Xn 2)1/2... (19)
X '= (x1/ D, x2/D,...,xn/ D, f (D)) · · (20)
X "= X '/ | X' | (21)
Also, in equation (8), four points A in the n-dimensional space1, B1, A2, B2Coordinates and norm D1, D2Is expressed using the direction cosine as shown in Expression (22), the same expression as Expression (17) can be obtained.
[0053]
A1= (R1cos θA1, R1cos θA2, ..., r1cos θAn),
A2= (R2cos θA1, R2cos θA2, ..., r2cos θAn),
B1= (R1cos θB1, R1cos θB2, ..., r1cos θBn),
B2= (R2cos θB1, R2cos θB2, ..., r2cos θBn),
D1= R1, D2= R (22)
Where (cos θA1, CosθA2, ..., cosθAn) Is A1And A2Direction cosine, (cosθB1, CosθB2, ..., cosθBn) Is B1And B2Indicates the direction cosine of. In the case of n dimensions, Δθ in equation (17) corresponds to the angle between these two direction cosine. If n is set to 2 in the case of an n-dimensional vector, it can be seen that this is consistent with the discussion of the two-dimensional vector so far.
From the above, it is clear that the above discussion and summary is not limited to two-dimensional vectors, but can be extended to multi-dimensional vectors.
[0054]
Finally, the case of an n-dimensional vector is summarized.
D-1) In competitive learning using the inner product operation as a distance reference, when an n-dimensional vector X (n = 1, 2, 3,...) Is input, conversion as in equations (19) to (21) is performed. If X "is input, norm information is not lost due to normalization for the inner product operation.
[0055]
X = (x1, X2.., xn), D = (x1 2+ X2 2+ Xn 2)1/2... (19)
X '= (x1/ D, x2/D,...,xn/ D, f (D)) · · (20)
X "= X '/ | X' | (21)
D-2) Various functions can be used for f (D), but when the increasing function and the decreasing function are compared with respect to D, the decreasing function can better preserve the phase. For example, when f (D) = D and f (D) = 1 / D, the latter is better.
[0056]
D-3) If f (D) is given by the expression (17) ', the phase can be preserved even better.
f (D) = {(coskD-cosΔθ) / (1-coskD)}1/2... (17) '
In the above, what algorithm should be used to perform competitive learning without losing norm information of input data using inner product operation as a distance criterion has been theoretically explained and summarized.
The present invention based on the above discussion is the following information processing apparatus.
[0057]
[1] In an information processing apparatus that associates an input vector with any vector of a weight vector group by taking an inner product with each vector of a weight vector group, information about the norm of the input vector is extracted before taking the inner product. An information processing apparatus comprising a norm extracting / adding means for adding to a component of an input vector.
[0058]
[2] The information processing apparatus according to [1], further comprising input vector normalizing means for normalizing an input vector to which the information regarding the norm is added before taking the inner product.
[3] The information processing apparatus according to [1], further comprising weight vector normalizing means for normalizing each vector of the weight vector group before taking the inner product.
[0059]
[4] The information processing apparatus according to the above [2] or [3], wherein the normalization is performed by an electric signal.
[0060]
[5] The information processing apparatus according to the above [2] or [3], wherein the normalization is performed optically.
[0061]
The information processing apparatus of the present invention satisfies the following conditions A-1) and A-2).
[0062]
A-1) As a distance reference, an inner product operation suitable for hardware implementation is used.
[0063]
A-2) Competitive learning can be performed without losing norm information of input data.
[0064]
【Example】
Hereinafter, first and second preferred embodiments of the information processing apparatus of the present invention will be described. Prior to the description, the principle of the optical inner product calculation device used in these embodiments will be described.
explain.
[0065]
For simplicity, the vector for taking the inner product is assumed to be four-dimensional (2 × 2) and the input vector X (x1, X2, X3, X4) And nine weight vector groups mi(Mi1, Mi2, Mi3, Mi4) (I = 1 to 9; 3 × 3). First, FIG. 12 shows an inner product operation optical system (Taiwei et al., "Self-organizing optical neural network for unsupervised learning", Opt. Eng., Vol. 29, No. 9, No. 9; 1107-1113, 1990.), wherein two liquid crystal televisions 101 and 102 are used, and a 2 × 2 X component (x1, X2, X3, X4) Are displayed in the order shown in the figure. The first liquid crystal television 102 has a 2 × 2 sub-matrix m.iAre arranged in 3 × 3, and each submatrix miTo miComponent (mi1, Mi2, Mi3, Mi4) They are displayed in the order shown in the figure. X and miIn the display order of the vector components, one is in a relationship of the inverted image of the other. The optical system includes a first liquid crystal television 102 and a 3 × 3 sub-matrix m of the first liquid crystal television 102, which are arranged in the optical axis direction.i3 × 3 lenses L corresponding to the arrangementi, A second liquid crystal television 101, an imaging lens 106, and a 3 × 3 sub-matrix m of the first liquid crystal television 102iArrangement and 3 × 3 lens L of lens array 105iAnd a CCD camera 107 having 3 × 3 light receiving areas corresponding to the arrangement.
[0066]
Then, the area is divided into 2 × 2 areas of the first liquid crystal television 102 and miComponent (mi1, Mi2, Mi3, Mi4) Is displayed in one submatrix miIs the lens L at the corresponding position of the lens array 105.iAre arranged so that an image is formed on the second liquid crystal television 101 while the components of the vector correspond to each other, and further, the second liquid crystal television 101 is disposed at the entrance pupil position of the imaging lens 106, The imaging lens 106 is a 3 × 3 lens L of the lens array 105.iThe optical arrangement is such that the pupil is imaged on the 3 × 3 light receiving areas of the CCD camera 107.
[0067]
Accordingly, the i-th (i = 1 to 9) light receiving area of the CCD camera 107 has a lens L at a corresponding position of the lens array 105.iThe total amount of light passing through is incident. This lens LiThe total amount of light passed through is the 2 × 2 sub-matrix m of the first liquid crystal television 102, as is clear from the optical path in the figure.iComponent (mi1, Mi2, Mi3, Mi4) And the 2 × 2 X component (x1, X2, X3, X4) And the corresponding components are superimposed (multiplied mathematically) and added, and this is nothing but an inner product. Therefore, the light receiving areas 1 to 9 of the CCD camera 107 shown in FIG.1~ Xm9Is obtained.
[0068]
Next, Fig. 13 shows an inner product operation optical system (J. Duviller et al., "All-optical implemen- tation of a self-organizing map", Appl. Opt. Vol. 33, pp. 258) used in the second embodiment. -266, 1990.), using two spatial modulators 27a and 207a for taking the inner product, the inner product being obtained on another spatial modulator 210a. In this case, the spatial modulators 27a and 207a are superimposed and read with parallel light emitted from the spatial modulator 27a side. The spatial modulator 27a has a 2 × 2 X component (x1, X2, X3, X4) Are displayed in the order shown in the figure. Also, the spatial modulator 207a has nine vectors m1~ M9Are combined into one 3 × 3 submatrix M1~ M4Is displayed. That is, as shown in FIG.iContains each vector m1~ M9Are displayed such that the i-th component of is arranged in a 3 × 3 matrix. When the spatial modulators 27a and 207a are superimposed, the component x of the spatial modulator 27a1~ X4Are each a sub-matrix M of the spatial modulator 207a.1~ M4The two spatial modulators 27a and 207a are configured to correspond to the region of. The optical system includes a spatial modulator 27a, a spatial modulator 207a, a 2 × 2 matrix arrangement of the spatial modulator 27a, and a sub-matrix M of the spatial modulator 207a arranged in the optical axis direction.1~ M42 × 2 lenses L corresponding to the arrangementiA lens array 208 comprising an imaging lens 209 and a spatial modulator 210a.iThe spatial modulator 207a is located at the front focal position, the imaging lens 209 is located at the rear focal position, and the spatial modulator 210a is located at the rear focal position of the imaging lens 209. Then, each sub-matrix M of the spatial modulator 207aiIs enlarged so as to form an enlarged image on the entire area of the spatial modulator 210a.iAnd the focal length ratio of the imaging lens 209 are determined.
[0069]
Therefore, on the spatial modulator 210a, the spatial modulators 27a and 207a are superimposed, and the X component xiAnd the corresponding submatrix MiAre superimposed (multiplied) and their sub-matrices MiAre superimposed and imaged at the same position by the action of the lens array 208. Therefore, the sub-matrix M of the spatial modulator 210aiJ-th (j = 1 to 9) component m ofjiCorrespond to all sub-matrices M1~ M4J-th component (mj1, Mj2, Mj3, Mj4) And the corresponding component of X (x1, X2, X3, X4) Is added, ie, the inner product is incident. Therefore, X · m is provided in each of the illustrated areas 1 to 9 of the spatial modulator 210a.1~ Xm9Is obtained.
[0070]
As described above, the inner product operation optical system used in the first and second embodiments described below has been described using a four-dimensional vector as an example. Is clear from the configuration of the optical system.
[0071]
In the present invention, the norm information of a vector composed of other components is applied to at least one component of a vector that takes an inner product. For example, in the case of the four-dimensional vector, x4To (x1, X2, X3) Is used as the norm information of the vector.
Hereinafter, a preferred embodiment of the present invention will be described with reference to FIGS.
[0072]
[First embodiment]
As shown in FIG. 14, the information processing apparatus according to the present embodiment includes an input vector obtaining unit 1 for obtaining data for performing processing, and the above-described D-2) or D-2) based on the input vector. Input vector processing means 2 for generating the norm information described in D-3), adding the generated norm information to the input vector, and normalizing according to the condition of D-1); And a competitive learning means 3 for inputting and processing the added and processed vector.
[0073]
In the present embodiment, a device such as TaiweiLu described above is improved and used as the competition learning means 3 of the information processing device. First, with reference to FIG. 14, a description will be given of a portion common to an apparatus such as Taiwei Lu. The competitive learning means 3 displays an input vector composed of 8 × 8 pixels on the second liquid crystal television 101, and has a memory matrix (64 × 64) having 8 × 8 sub-matrices of 8 × 8 pixels corresponding to one weight vector. ) Is displayed on the first liquid crystal television 102, and the light of the xenon lamp 103 is irradiated from behind the first liquid crystal television 102 via the diffuser 104. The memory matrix can store a set of element weight vectors as described above. The illuminated information on the memory matrix on the first liquid crystal television 102 is imaged by the 8 × 8 lens array 105 such that all the sub-matrices corresponding to the respective weight vectors are superimposed on the second liquid crystal television 101, It is designed to be superimposed on the input vector. Further, the information of the sub-matrix on which the input vector is superimposed is incident on the 8.times.8 area of the CCD camera 107 by the imaging lens 106, and the input vector and the memory This means that the inner product operation of the matrix has been performed in each region (see FIG. 12).
[0074]
Further, the result of the inner product operation obtained by the CCD camera 107 is taken into the computer, and the updating amount of the memory matrix necessary for competitive learning is determined by the matrix updating means 108 implemented by software in the computer. , To be updated. The display on the first liquid crystal television 102 and the second liquid crystal television 101 is also controlled by a computer.
The above is the common part of the competitive learning means of the information processing apparatus of the present invention with the apparatus such as Taiwei Lu.
[0075]
In this embodiment, it is assumed that this information processing apparatus processes a grayscale image. In this case, the input vector acquiring means 1 fetches an image to be processed by an image pickup device such as a CCD and a frame memory into a computer, and inputs the image into a predetermined input vector (in this embodiment, 8 × 8−1 (= 63) component) (a minus one is assigned to norm information to be added). The way of development may be to divide the frame area on the frame memory into 8 × 8 areas, calculate the average brightness for each area, and use it as the value of each component. At this time, the component corresponding to the lower right region of the image is ignored, and norm information to be added to this portion is assigned. In the case of the present embodiment, this development is realized by software in a computer.
[0076]
Next, the input vector processing means 2 processes the expanded vector as in D-1) to D-3). First, the input vector processing means 2 calculates the D-1) of 63 expanded vectors. D is calculated according to the equation (19). Next, f (D) is calculated from this D according to the equation (17) ′ of D-3), and this f (D) is added as the 64th vector component according to the equation (20) of D-1). At the same time, D is used to normalize the other 63 vectors. F (D) in equation (20) can be easily selected as D-2) or D-3) by software control in the computer. Finally, normalization is performed again according to the equation (21) of D-1), and the processing of the input vector is completed. In the case of the present embodiment, the input vector processing means 2 is also realized by software in a computer. The input vector processed by the input vector processing means 2 is sent to the matrix updating means 108 in the competition learning means 3 and the second liquid crystal television 101, and the processing by the competition learning means proceeds.
[0077]
The updating of the memory matrix is performed by finding the largest one of the output vectors obtained from the CCD camera 107 by the matrix updating means 108 and updating the memory matrix near this component. The update rule is
Figure 0003583484
Where α (t) is a coefficient indicating the learning speed, and Nc(T) indicates an update range, and this update range is reduced as time elapses (as the update progresses), and finally, only the maximum component is set. Updating of the above memory matrix is also realized by software in the computer.
[0078]
It is apparent from the above description that the information processing apparatus according to the present embodiment can perform processing without losing norm information even if the information processing apparatus of the present embodiment includes a competition learning unit having an inner product operation part in the apparatus. .
[0079]
In this information processing apparatus, the input vector obtaining means 1 uses an image sensor such as a CCD because an image is assumed as a vector, but other means may be used. For example, in the case of voice, a microphone and an AD converter may be used, a density sensor may be used for density, and a flow rate sensor may be used for flow rate. What is necessary is just to acquire and acquire the information obtained by the sensor into the computer.
[0080]
It is also apparent that the number of vectors that can be handled is not limited to 63 (8 × 8−1), but can be adjusted by increasing or decreasing the number of pixels in the spatial light modulator or the number of lenses in the lens array.
[0081]
[Second embodiment]
As shown in FIG. 15, the information processing apparatus according to the present embodiment also includes, as in the first embodiment, an input vector acquiring unit 1 for acquiring data for performing processing, and an Input vector processing means 2 for generating the norm information given in D-2) or D-3), adding the generated norm information to the input vector, and normalizing as in D-1) And a competitive learning means 3 for inputting and processing the processed vector to which the norm information is added. The difference is that most of the input vector processing means 2 and the competitive learning means 3 are implemented by an optical system. It is a point that constitutes.
[0082]
More specifically, as shown in FIG. 15, the information processing apparatus according to the present embodiment corresponds to the input vector acquiring unit 1 and the expression (19) of D-1) acquired by the input vector acquiring unit 1. A first vector component sum detecting means 21 for detecting the sum of the obtained data, and a normalizing means for normalizing the data from the sum of the obtained vector components in correspondence with the equation (20) of D-1). A first normalizing means 22, and a norm information generating means 23 for generating norm information of the input vector from the sum of the obtained vector components in accordance with the equations (17) 'of D-2) and D-3). And norm information adding means 24 for adding norm information to the normalized input vector in accordance with equation (20) of D-1), and detecting the sum of the input vector components to which the norm information has been added. Second vector for Component sum detection means 25, second normalization means 26 for normalizing data in accordance with the equation (21) of D-1) from the sum of the obtained vector components, and the above data processing results The present invention comprises an input vector processing means 2 comprising processing result display means 27 for displaying the data and competitive learning means 3 for inputting and processing the processed and displayed data. Is to achieve.
[0083]
FIG. 16 specifically shows an optical system of the input vector obtaining means 1 and the input vector processing means 2 in the above. In this embodiment, too, processing of a grayscale image is assumed first. The input vector acquiring means 1 acquires an image which is a vector to be processed by an imaging device 11 (specifically, for example, a CCD camera with a zoom lens), and outputs the signal to a spatial light modulator 13 In the case of the embodiment, the image is displayed on, for example, a transmission type and electronic address type liquid crystal spatial light modulator. The displayed image to be processed is read out by the substantially parallel light flux 20 and sent to the input vector processing means 2. In the input vector processing unit 2, first, the first vector component total detection unit 21 including the beam splitter 21a, the condenser lens 21b, and the detector 21c obtains the sum of the image which is the vector to be processed. Specifically, the input image information is branched by the beam splitter 21a, collected by the condenser lens 21b, detected by the detector 21c as the sum D, and converted into an electric signal. The detected electric signal of the sum D is sent to the driver 22b of the light amount adjusting filter 22a, which is the first normalizing means 22, so that the amount of light passing therethrough is constant, that is, normalized. Adjustments are made. Specifically, a liquid crystal shutter capable of changing the amount of light passing therethrough by an applied voltage is used as a light amount adjustment filter 22a, and a driver 22b controls a voltage applied to the liquid crystal shutter by an electric signal of the detected sum D. , The light amount passing therethrough is made constant. Further, the detected electric signal of the sum D is converted by the divider as the norm information generating means 23 into 1 / D information described in D-2) as an example of how to select f (D).
[0084]
The 1 / D signal as the converted norm information is sent to the driver 24b for driving the light emitting element 24a of the norm information adding means 24, and the light emitting element 24a generates a light amount proportional to 1 / D. The norm information addition means 24 further connects the input vector displayed on the spatial light modulator 13 to a spatial light modulator 24c (in the case of the present embodiment, for example, a reflective and light-addressed liquid crystal spatial light modulator). It comprises an imaging lens 24d for forming an image and a driver 24e for driving the spatial light modulator 24c. With this configuration, the normalized input vector is displayed on the spatial light modulator 24c. In the spatial light modulator 24c, an 8 × 8 area is set as shown in a front view in FIG. 17A and a side view in FIG. 17B. , Lower right corner area) as the light emitting element 24a, the light emitting diode LD used in this embodiment and the lens CL for condensing light from the light emitting diode LD are irradiated with a light amount proportional to 1 / D. As a result, the input vector normalized to 63 8 × 8-1 areas is displayed, and norm information proportional to 1 / D is displayed in the remaining one area.
[0085]
The displayed input vector information is read out by the substantially parallel light flux 28 guided into the system by the beam splitter 28a, sent to the second vector component sum detection means 25, and the sum thereof is detected. Normalization is performed by the second normalization means 26 based on the sum information. The second vector component sum detecting means 25 and the second normalizing means 26 are the same elements as the first vector component sum detecting means 21 and the first normalizing means 22, respectively. It comprises a lens 25b, a detector 25c, a light amount adjustment filter 26a as a liquid crystal shutter, and a driver 26b.
[0086]
In the processing result display means 27, the vector displayed on the spatial light modulator 24c is formed as an image on the reflective and light-addressed liquid crystal spatial light modulator used in the present embodiment as the spatial light modulator 27a. It comprises an imaging lens 27b and a driver 27c for driving the spatial light modulator 27a. According to this configuration, the input vector normalized to 63 areas of 8 × 8-1 and the information in which the norm information proportional to 1 / D is displayed in the remaining one area, are further normalized. The result is displayed on the spatial light modulator 27a.
[0087]
In the present embodiment, the above-mentioned J.P. An improved device such as Duviller is used. Next, with reference to FIG. 18, a description will be given of a portion substantially common to the device such as Duviller. The portions within the cut planes A-A ', B-B', and C-C 'in FIG. 18 correspond to the optical system shown in FIG.
[0088]
First, in the inner product calculation phase, the light beam from the laser 200 is incident on the beam expander 202 via the mirror 201, and becomes a substantially parallel light beam 203. This light beam inputs the 8 × 8 element input information (see FIG. 16) displayed at the position of the spatial light modulator 27a into the system via the beam splitters 204, 223, and 224, and further forms an image forming lens. The input information is displayed by 205 and 206 on a spatial light modulator 207a controlled by a dedicated driver 207b (in this embodiment, for example, a transmissive and optically-written liquid crystal spatial light modulator). The information is read out after being superimposed on the information of the memory matrix of × 8 elements (the device such as J. Duviller reads out the input information by transmission, but in the present embodiment, the input information is read from the spatial light modulator 27a. Since the reading is performed by reflection, the configuration of this part is partially changed.) The information obtained by superimposing the information of the memory matrix on the input information further passes through the 8 × 8 lens array 208 and the imaging lens 209, and is controlled by the dedicated driver 210b. In this case, for example, they are further overlapped on a transmissive optical writing binary liquid crystal spatial light modulator). By this series of operations, the inner product operation result of the input information and the memory matrix is stored in the spatial light modulator 210a by performing the threshold operation (see FIG. 13).
[0089]
Next, in the phase of updating the memory matrix, the inner product calculation result stored on the spatial light modulator 210a in the inner product calculation phase passes through the beam splitter 204 in the substantially parallel light beam 203, and further passes through the mirror 211. And 212, and are read out by the substantially parallel light flux 214 guided into the system via the beam splitter 213. The read information is further multiplexed to 8 × 8 by passing through mirrors 215, 216, 217, beam splitters 223, 224, lenses 218, 219, 220, 221 and a Dammann type grating 222. Then, the input information of the 8 × 8 element displayed at the position of the spatial light modulator 27a is read again. The update amount of the memory matrix is determined by this operation. This update information is imaged on the spatial light modulator 207a by the imaging lenses 205 and 206, and the driver 207b is controlled to change the applied voltage. The memory matrix is updated in the form of addition or subtraction.
[0090]
Here, regarding the update of the memory matrix, the output vector y of the inner product operation is thresholded by the spatial light modulator 207a and binarized, and this Y is used by the lenses 218 to 221 and the Dammann type grating 222. The magnification is reduced to return to the original size, and the same 8 × 8 as the input vector is duplicated and superimposed on the input vector. This is the memory matrix update amount ΔMiIt becomes. This updating rule is:
Mi(T + 1) = Mi(T) + a (t) NO {ΔMi(T)}
ΔMi= X (DiY) (24)
Here, a (t) is a coefficient indicating the learning speed similar to α (t) in equation (23), NO is a function indicating the update range, and N (N) in equation (23)cPlays the same role as. Also, DiRepresents that the sub-matrix of Y is copied to 8 × 8. This update is based on the previously stored memory matrix information M on the spatial light modulator 207a.iΔM determined above in (t)iThis is done by adding or subtracting only to make a change. The operation of the spatial light modulator 207a at this time may be a grayscale operation, and the sign of the drive voltage may be changed. Further, if the magnitude of the drive voltage is changed, NO, that is, the update range and the learning speed can be changed. This is performed by controlling the driver 207b with a computer or the like.
[0091]
In the above, in the phase of the inner product calculation and the phase of the memory matrix update, since there is a part where the system is commonly used, the shutters 225, 226, 227, and 231 prevent the information from interfering. ing. That is, in the inner product calculation phase, the shutter 225 is opened and the shutters 226, 227, and 231 are closed, and in the memory matrix update phase, the shutters 225 and 231 are closed and the shutters 226 and 227 are open.
The above is the description of the J.I. This is a part that is substantially common to a device such as Duviller.
[0092]
The present embodiment is different from the preceding example in that an input vector acquiring unit 1 and an input vector processing unit 2 are newly added to the competitive learning unit 3 as described above with reference to FIGS. It is. In the present embodiment, the input vector obtaining means 1 and the input vector processing means 2 shown in FIG. 16 correspond to the cut planes AA ′, BB ′, and CC ′ shown in FIG. It is set to match the part. At this time, the substantially parallel light flux 203 which passes through the middle beam splitter 204 of the substantially parallel light flux 203 and further enters the system of the input vector acquisition means 1 and the input vector processing means 2 via the beam splitter 234 is referred to as a substantially parallel light flux 20. The beam reflected by the beam splitter 204 in the substantially parallel light beam 203 is input into the same system via the beam splitter 228 to form a substantially parallel light beam 28. Further, in this embodiment, a third vector component sum detecting means 229 and a third normalizing means 230 are inserted as shown in the figure to normalize the inner product calculation result and the memory matrix. The third vector component sum detection means 229 and the third normalization means 230 are the same elements as the first vector component sum detection means 21 and the first normalization means 22 (FIG. 16), respectively. 229a, a condenser lens 229b, a detector 229c, a light amount adjustment filter 230a as a liquid crystal shutter, and a driver 230b. With this configuration, the inner product calculation result is normalized in the inner product calculation phase. On the other hand, in the memory matrix update phase, after updating the memory matrix, the shutter 227 is closed, the shutters 225 and 231 are opened, and the light transmitted through the beam splitter 223 in the substantially parallel light flux 203 is further mirrored. The light is input to the spatial light modulator 207a via the beam splitter 232 and the beam splitter 233, and the updated information of the memory matrix is read and normalized. Since the algorithm for competitive learning does not require normalization of the inner product operation result, the third vector component sum detecting means 229 and the third normalizing means 230 may be omitted in the inner product operation phase. However, by normalizing the inner product operation result, it is possible to prevent a problem of hardware adjustment due to divergence and saturation of the signal amount.
[0093]
In this embodiment, a transmissive type, a reflective type, and an electronic address type or an optical address type liquid crystal spatial light modulator are used. However, these are not limited to the combinations described in the above embodiments, and various Needless to say, combinations are possible.
[0094]
The purpose of the above-described normalization means is to mathematically strictly set the norm of the vector to 1. However, the same effect as strict normalization can be obtained even if the light amount is roughly adjusted instead of being strictly fixed according to the norm on hardware. Therefore, the definition of normalization in the present invention is broad and means that the magnitude of the vector component is adjusted according to the magnitude of the norm. When strict conversion formulas such as D-2) and D-3) are realized on hardware, the function may be approximately obtained by changing the characteristics of various devices.
[0095]
In the above description, one piece of norm information is given to one input, but a plurality of pieces of information may be given. That is, the dimension to be added is not limited to one dimension, and may be multiple dimensions.
[0096]
It is apparent from the above description that the information processing apparatus of the present invention can perform processing without losing norm information, even if the information processing apparatus of the present invention includes a competition learning unit having an inner product operation part in the apparatus.
[0097]
In this information processing apparatus as well, the input vector acquiring means is not limited to the image sensor as in the first embodiment, and any sensor such as a microphone, a density sensor, a flow rate sensor, etc. may be used. It is also clear that the number of vectors that can be handled can be adjusted in the same manner as in the first embodiment.
[0098]
Although the information processing apparatus of the present invention has been described based on the principle and the embodiments, the present invention is not limited to these embodiments, and various modifications are possible.
[0099]
【The invention's effect】
As is clear from the above description, according to the information processing apparatus of the present invention, an information processing apparatus satisfying the following conditions can be provided.
A-1) Competitive learning using an inner product operation suitable for hardware implementation is performed as a distance reference.
A-2) Competitive learning can be performed without losing norm information of input data.
[Brief description of the drawings]
FIG. 1 is a diagram showing a process of determining a victory vector by an inner product operation when normalization is not performed.
FIG. 2 is a diagram showing a process of determining a victory vector by an inner product operation when standardization is performed.
FIG. 3 is a diagram showing two-dimensional uniform distribution vector data.
FIG. 4 is a diagram showing a distribution when two-dimensional uniform distribution vector data is normalized.
FIG. 5 is a diagram showing four points on a two-dimensional plane input to the information processing apparatus of the present invention.
FIG. 6 is a diagram illustrating positions of four points in a three-dimensional space when D is selected as a component indicating a norm.
FIG. 7 is a diagram illustrating positions of four points in a three-dimensional space when 1 / D is selected as a component indicating a norm.
FIG. 8 is a diagram showing the structure of a self-organizing feature map.
FIG. 9 is a diagram in which a region diagram when a Euclidean distance is used as a distance reference for competitive learning and a weight vector of adjacent elements are connected.
FIG. 10 is a region diagram when D and 1 / D are selected as components indicating a norm, and when D and 1 / D are not selected.
FIG. 11 is a region diagram when a theoretical component is selected as a component indicating a norm.
FIG. 12 is a diagram showing the principle of an inner product operation optical system used in the first embodiment of the present invention.
FIG. 13 is a diagram showing the principle of an inner product operation optical system used in a second embodiment of the present invention.
FIG. 14 is a diagram schematically showing the configuration of a first embodiment of the present invention.
FIG. 15 is a diagram schematically showing the configuration of a second embodiment of the present invention.
FIG. 16 is a diagram showing a specific configuration of a second embodiment of the present invention.
17A and 17B are a front view and a side view of a spatial light modulator for adding norm information used in the second embodiment.
FIG. 18 is a diagram showing a configuration of a competitive learning unit according to a second embodiment of the present invention.
[Explanation of symbols]
1. Input vector acquisition means
2. Input vector processing means
3. Competitive learning means
11 ... Imaging device
12 ... Driver
13 ... Spatial light modulator
20 ... luminous flux
21. First vector component sum detecting means
21a ... Beam splitter
21b ... Condensing lens
21c ... Detector
22... First normalization means
22a: Light amount adjustment filter
22b: Driver
23 ... Norm information generating means
24 ... Norm information adding means
24a: Light emitting element
24b: Driver
24c spatial light modulator
24d ... imaging lens
24e: Driver
25... Second vector component sum detecting means
25a ... Beam splitter
25b: Condensing lens
25c ... Detector
26. Second normalization means
26a: Light intensity adjustment filter
26b: Driver
27 ... Processing result display means
27a ... Spatial light modulator
27b ... imaging lens
27c: Driver
28a ... Beam splitter
28 ... luminous flux
101 ... Second LCD TV
102 ... First LCD TV
103 ... Xenon lamp
104 ... diffuser
105 ... Lens array
106 ... imaging lens
107 ... CCD camera
108 ... Matrix updating means
200 ... Laser
201 ... Mirror
202: Beam expander
203 ... luminous flux
204, 223, 224 ... Beam splitter
205, 206 ... imaging lens
207a ... Spatial light modulator
207b: Driver
208 ... Lens array
209 ... imaging lens
210a ... Spatial light modulator
210b ... Driver
211, 212 ... Mirror
213 ... Beam splitter
214 luminous flux
215, 216, 217 ... Mirror
218, 219, 220, 221 ... lens
222: Dammann type grating
223 ... Beam splitter
225, 226, 227, 231 ... shutter
228… Beam splitter
229: third vector component sum detecting means
229a ... Beam splitter
229b… Condenser lens
229c ... Detector
230... Third normalization means
230a: Light intensity adjustment filter
230b: Driver
232 ... Mirror
233 ... Beam splitter
234 ... Beam splitter
LD: Light emitting diode
CL ... Lens

Claims (5)

入力ベクトルを重みベクトル群の各ベクトルと内積をとることによって重みベクトル群の何れかのベクトルへ対応させる情報処理装置において、内積をとる前に入力ベクトルのノルムに関する情報を抽出して該入力ベクトルの成分に付加するノルム抽出・付加手段を有することを特徴とする情報処理装置。In an information processing apparatus that associates an input vector with any of the weight vector groups by taking an inner product with each vector of the weight vector group, information about the norm of the input vector is extracted before taking the inner product, and An information processing apparatus comprising a norm extracting / adding means for adding to a component. 前記の内積をとる前に前記のノルムに関する情報を付加した入力ベクトルを正規化する入力ベクトル正規化手段を有する請求項1記載の情報処理装置。2. The information processing apparatus according to claim 1, further comprising an input vector normalizing unit that normalizes an input vector to which information regarding the norm is added before taking the inner product. 前記の内積をとる前に前記重みベクトル群の各ベクトルを正規化する重みベクトル群正規化手段を有する請求項1記載の情報処理装置。2. The information processing apparatus according to claim 1, further comprising weight vector group normalizing means for normalizing each vector of the weight vector group before taking the inner product. 前記の正規化を電気信号により行うようにした請求項2又は3記載の情報処理装置。4. The information processing apparatus according to claim 2, wherein the normalization is performed by an electric signal. 前記の正規化を光学的に行うようにした請求項2又は3記載の情報処理装置。4. The information processing apparatus according to claim 2, wherein the normalization is performed optically.
JP24405494A 1994-10-07 1994-10-07 Information processing equipment Expired - Fee Related JP3583484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24405494A JP3583484B2 (en) 1994-10-07 1994-10-07 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24405494A JP3583484B2 (en) 1994-10-07 1994-10-07 Information processing equipment

Publications (2)

Publication Number Publication Date
JPH08106505A JPH08106505A (en) 1996-04-23
JP3583484B2 true JP3583484B2 (en) 2004-11-04

Family

ID=17113050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24405494A Expired - Fee Related JP3583484B2 (en) 1994-10-07 1994-10-07 Information processing equipment

Country Status (1)

Country Link
JP (1) JP3583484B2 (en)

Also Published As

Publication number Publication date
JPH08106505A (en) 1996-04-23

Similar Documents

Publication Publication Date Title
US7813581B1 (en) Bayesian methods for noise reduction in image processing
JP3776500B2 (en) Multiplexing optical system, feature vector conversion device using the same, feature vector detection / transmission device, and recognition / classification device using them
KR102442844B1 (en) Method for Distinguishing a Real Three-Dimensional Object from a Two-Dimensional Spoof of the Real Object
KR101265377B1 (en) - Task-based imaging system
US5724447A (en) Optical transform system for three-dimensional object recognition
KR20100098641A (en) Invariant visual scene and object recognition
US11715217B2 (en) Method and apparatus for eye tracking
CN112304246B (en) Optical imaging system and imaging method based on spatial coherent structure regulation
JP3583484B2 (en) Information processing equipment
JP2001052175A (en) Image retrieving device
Kouzani Locating human faces within images
JPH09230954A (en) Vector standardizing device
JP3604441B2 (en) Pattern recognition apparatus and method
JP2003223642A (en) Face image recognition system
JP3272506B2 (en) Optical pattern recognition and classification device
Gao et al. Learning feature fusion for target detection based on polarimetric imaging
JP2007025899A (en) Image processor and image processing method
Masoudifar et al. Depth estimation and deblurring from a single image using an optimized-throughput coded aperture
Chambers et al. Physically realizable adversarial examples for convolutional object detection algorithms
JP3325934B2 (en) Optical pattern recognition and classification device
US11263419B2 (en) Biometric analysis structure, method and neural network with coded mask
JP3099203B2 (en) Optical pattern recognition and classification device
Zheng et al. A novel framework for robust long-term object tracking in real-time
CN114612542A (en) Depth information playback method and system based on infrared dot matrix
JPH09113945A (en) Similarity calculator and information processor using the same

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040729

LAPS Cancellation because of no payment of annual fees