JP3583484B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP3583484B2
JP3583484B2 JP24405494A JP24405494A JP3583484B2 JP 3583484 B2 JP3583484 B2 JP 3583484B2 JP 24405494 A JP24405494 A JP 24405494A JP 24405494 A JP24405494 A JP 24405494A JP 3583484 B2 JP3583484 B2 JP 3583484B2
Authority
JP
Japan
Prior art keywords
vector
input
information
inner product
norm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24405494A
Other languages
English (en)
Other versions
JPH08106505A (ja
Inventor
寺島幹彦
武 橋本
白谷文行
福島郁俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP24405494A priority Critical patent/JP3583484B2/ja
Publication of JPH08106505A publication Critical patent/JPH08106505A/ja
Application granted granted Critical
Publication of JP3583484B2 publication Critical patent/JP3583484B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、情報処理装置に関し、特に、内積演算を用いてある距離基準を満たす処理素子を決定し、その勝利素子及びその勝利素子によって決められる素子に対し、何らかの操作を施すことによって、位相保存写像やパターン認識のための競合学習を行う情報処理装置に関する。
【0002】
【従来の技術】
ある距離基準を満たす勝利素子を決定し、その勝利素子及びその勝利素子によって決められる素子に対し、何からの操作を施すことによって、位相保存写像やパターン認識を行う競合学習アルゴリズムがよく知られている(T.Kohonen,”Self−Organization and Associative Memory,Third Edition,Springer−Verlag,Berlin,1989.)。
【0003】
これらのアルゴリズムは、何れも、ユークリッド距離、マンハッタン距離、内積等の距離基準を用い、ある入力に対し、その基準を満たす勝利素子を選ぶ競合過程を有している。通常のコンピュータ上でプログラムを作成しアルゴリズムを実行する場合、何れの距離基準も容易に用いることができる。そこで、距離基準として一般に性能が良いと報告されているユークリッド距離がよく用いられている。
【0004】
ところが、ハードウエア上でユークリッド距離計算を行う場合は、差分回路、二乗回路、総和回路を必要とし、実現が困難になっている。そこで、内積の距離基準を用いることが多い。特に光学を用いて実現する際、内積演算は光の並列性から最も実現しやすい。光学を用いた内積演算を有する競合学習を行う情報処理装置がいくつか報告されている(Taiwei et al.,”Self−organizing optical neural network for unsupervised learning”,Opt.Eng.,VOL.29,No.9,1990.;J.Duvillier et al.,”All−optical implementation of a self−organizing map”,Appl.Opt.Vol.33,No.2,1994. )。
【0005】
【発明が解決しようとする課題】
内積演算を用いて勝利素子を選ぶ競合を行う場合、データを規格化する必要がある。このことを図1を用いて説明する。入力データを2次元ベクトルX、競合の候補である素子群のもつ重みベクトルを2次元ベクトルm(iは素子番号を示す。)とする。図1に示すように、2次元ベクトルXが入力され、その候補の重みベクトルとしてm、mがあったとする。ユークリッド距離を用いる場合、ベクトル間の距離が最も近いものが勝利素子となるので、d<dより、mが勝利素子となる。一方、内積演算を用いる場合、内積値の最も大きいものが入力ベクトルに最も類似していることに相当し、勝利素子となる。内積値は、図1において、mのXへの正射影DとXのノルムの積で表される。したがって、Dの大小を比較すれば、内積の大小を比較でき、この場合、mが勝利素子となる。競合学習では、入力データと重みベクトル間のユークリッド距離及びそれに準ずるマンハッタン距離等における類似度を比較し、最も似ている重みベクトルを持つ素子を選ぶ。ところが、上記のように内積演算を用いると、ノルムの大きい重みベクトルが、ユークリッド距離は離れていても、内積値が大きくなり、勝者になりやすくなる。つまり、内積演算における類似度は、ユークリッド距離の大小ではなく、ベクトルのノルムに依存してしまう。よって有効な競合学習ができない。
【0006】
そこで、内積演算によって有効な競合学習を行わせるには、入力データ及び重みデータは規格化していなければならない。このとき、図2のように、d<d、D>Dとなり、ユークリッド距離を用いても、内積演算を用いても、mが勝利素子となる。したがって、内積演算を用いても有効な競合学習を行うことができる。
【0007】
ところが、上記のような規格化を行うことにより、入力データのノルム情報が失われることになる。つまり、例えば図3に示すような2次元ベクトルデータの一様分布があったとき、規格化を行うと、図4のような単位半径の曲線上の点が入力となる。つまり、原点Oとデータ点を結ぶ方向上の点は全て曲線上の一点になり、入力データのノルム情報は失われ、方向情報のみが残ることになる。ベクトルデータの方向のみの競合学習の場合は、データのノルム情報は失われてもよいが、ベクトルのノルムも考慮する競合学習では、ノルム情報を失うことはできない。
【0008】
以上の課題を整理すると、本発明の情報処理装置に求められる条件は、以下の通りである。
A−1)距離基準として、ハードウエア化に適した内積演算を用いる競合学習を行う。
A−2)入力データのノルム情報を失わない競合学習ができる。
【0009】
本発明は上記のような状況に鑑みてなされたものであり、その目的は、上記A−1)、A−2)の条件を満たし、距離基準としてハードウエア化に適した内積演算を用いて競合学習を行い、入力データのノルム情報を失わない競合学習が可能な情報処理装置を提供することである。
【0010】
【課題を解決するための手段】
上記目的を達成する本発明の情報処理装置は、入力ベクトルを重みベクトル群の各ベクトルと内積をとることによって重みベクトル群の何れかのベクトルへ対応させる情報処理装置において、内積をとる前に入力ベクトルのノルムに関する情報を抽出して該入力ベクトルの成分に付加するノルム抽出・付加手段を有することを特徴とするものである。
【0011】
この場合、上記の内積をとる前に前記のノルムに関する情報を付加した入力ベクトルを正規化する入力ベクトル正規化手段を有することが望ましい。また、上記の内積をとる前に重みベクトル群の各ベクトルを正規化する重みベクトル群正規化手段を有することが望ましい。これらの正規化は、電気信号により行うようにしても、また、光学的に行うようにしてもよい。
【0012】
【作用】
以下、上記のような構成を採用する理由と作用について説明する。
距離基準として内積演算を用いて(A−1))、入力データのノルム情報を失わない競合学習ができる(A−2))ためには、どのようなアルゴリズムにすればよいかを、理論的に図5から図11を用いて説明する。
【0013】
前述のように、内積演算を用いて類似度を判別する場合、データを規格化する必要がある。このとき、ベクトルをそのノルムで割り、単位ベクトルとするため、従来は、元のノルム情報が失われてしまっていた。元のノルム情報を失わないために、本発明においては、入力ベクトルの1つの成分に、ノルムを示す成分を加えることを考える。例えば、入力データを2次元ベクトルX=(x,y)とする。ノルムはD=(x+y1/2 である。これを規格化すると、X/|X|=(x/D,y/D)となる。これが、従来、内積演算を用いて類似度を判別するとき用いていた入力ベクトルである。このベクトルにノルムを示す成分を加えて、X’=(x/D,y/D,f(D))を作成する。次に、X’を規格化して、X”=X’/|X’|を作成し、これをXの代わりに入力データとする。
【0014】
すなわち、
X=(x,y)、D=(x+y1/2 ・・・(1)
X’=(x/D,y/D,f(D)) ・・・(2)
X”=X’/|X’| ・・・(3)
X”は規格化してあるので、内積演算を用いて類似度の判別をすることができる。かつ、X”のベクトル成分にノルムの情報Dが含まれているので、規格化しても、入力ベクトルの方向情報だけでなく、ノルムの情報も残ることになる。したがって、X=(x,y)の代わりにX”を入力データとすれば、距離基準として内積演算を用いても、入力データのノルム情報を失われない競合学習が可能である。
【0015】
入力データの2次元ベクトルと、そのベクトルにノルムを示す成分を加えた3次元ベクトルとの対応関係を様々なf(D)について調べる。まず、簡単に考えられる場合として、a)f(D)=D,b)f(D)=1/Dを選び、図5に示す2次元平面上のXの各点A、B、A、Bがどのような3次元空間上のX”の各点に変換されるかを示したのが、それぞれ図6、図7である。図6、図7の何れの場合も1対1の対応関係はできており、また、点A、B、A、Bの順が崩れる捩じれのようなことはない。ただし、入力データの位相をより良く保存しているのは、b)の場合である。この理由を以下に述べる。
【0016】
図5に示す2次元平面上で、AとBの距離、AとBの距離を比較すると、AとBの方がより近い。これを変換した各点を3次元空間上で比べると、図6では、AとBに対応する点A”、B”が、AとBに対応する点A”、B”よりも近くなっているが、図7では、その逆になっている。したがって、図7では、2次元平面上の相対的な遠近関係も反映でき、入力データの位相をより良く保存しているのである。
【0017】
入力データの位相をより良く保存しているかの優劣をさらに明確にするために、実験例を示す。競合学習の例として、自己組織化特徴マップ(T.Kohonen,”Self−Organization and Associative Memory,Third Edition,Springer−Verlag,Berlin,1989., 以下、SOMと呼ぶ。)を用いて位相保存写像を行った。以下、SOMについて簡単に説明する。
【0018】
SOMは、図8に示すように、2次元に並ぶ素子群の層(以下、マップ層MLと表記する。)とデータを入力する入力層IPから構成される。このマップ層MLは、図8では2次元に並ぶ素子を示したが、1次元に並ぶ素子を用いてもよい。入力層IPはマップ層MLの全ての素子と結合しており、入力データをマップ層MLの全ての素子に与えることができる。入力データは、スカラーでもベクトルでもよいが、ここでは、一般的にベクトルX(n次元)と置く。マップ層MLの素子i(iはマップ上の順番とし、全素子数をk個とする。)は全て重みベクトルm(n次元)を持つことにする。SOMのアルゴリズムは、入力ベクトルXと各素子の重みベクトルmとの類似性から、更新すべき重みベクトルを決定する<類似性マッチング>と、その重みベクトルmを入力ベクトルXの方に近付ける<更新>とに分けられる。そして、両者の作用を繰り返すことにより、入力ベクトルXの分布を反映する重みベクトルm(1≦i≦k)が生成する。上記<類似性マッチング>と<更新>の具体的な表式を以下に示す。
【0019】
<類似性マッチング>
Figure 0003583484
<更新>
Figure 0003583484
ここで、|X−m|はXとmのユークリッド距離、Cはその距離が最も小さかった素子(勝利素子)、Nはその勝利素子Cのマップ層MLでの近傍、α(t)は正の定数、tは時刻を示す。更新を繰り返しながら、Nとα(t)の大きさは徐々に小さくする。また、α(t)は勝利素子Cから離れるに従い、小さくなるように選ぶこともできる。
【0020】
以上のアルゴリズムでは、<類似性マッチング>でユークリッド距離を用いているので、Xもmも規格化する必要がない。本発明のように、<類似性マッチング>で内積演算を用いる場合、SOMアルゴリズムの<類似性マッチング>と<更新>の具体的な表式は次のようになる。
【0021】
<類似性マッチング>
Figure 0003583484
<更新>
Figure 0003583484
ここで、Xは規格化してあるとする。mも更新後に規格化してある。
【0022】
入力ベクトルXの集合からランダムにXを選んで逐次入力し、重みベクトルmの更新を繰り返すことにより、入力ベクトルXの分布を反映する重みベクトルm(1≦i≦k)が生成する。すなわち、重みベクトルm(1≦i≦k)が入力ベクトルの分布のプロトタイプになっている。そして、ある素子の重みベクトルを入力ベクトルに近付けるように更新するとき、マップ上のその素子の近傍の素子も同様に更新するので、マップ上で隣接する素子同志は、それぞれ入力ベクトルの空間上でも近いベクトルに対応するようになる。したがって、SOMアルゴリズムは、入力データ空間の位相を反映したプロトタイプの集合を作成することができる。SOMアルゴリズムには、次のような特長がある。
【0023】
B−1)重みベクトルm(1≦i≦k)の初期状態によらずに、適正なマップが作成できる。
B−2)入力ベクトルXの入力順によらずに、適正なマップが作成できる。
【0024】
B−3)マップが1次元か2次元であるので、入力データの位相を視覚的に見ることができる。
B−4)<類似性マッチング>と<更新>と言う単純な操作の繰り返しなので、アルゴリズムが簡単である。
【0025】
以上、SOMについて説明した。このSOMにおいて、前記のf(D)の取り方を変えてX”を用いた内積演算を行う。そして、f(D)の取り方による入力データの位相保存状況の優劣を比較する。
【0026】
SOMにおいて、素子は10×10個の2次元格子状の配列、入力データは、正方形内に一様に分布する2次元ベクトル群X=(x,y),{0≦x≦1,0≦y≦1}とする。入力データの位相をより良く保存しているかどうかは、正方形内の2次元ベクトル群X=(x,y)を、そのデータが対応する素子毎に区別して表示し、各領域の形を調べることによって行う。なお、データが対応する素子毎に区別しやすいように、2次元格子状で隣接する素子を白と黒に分けて表示してある。
【0027】
通常、SOMでは、X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いる。その場合の結果を図9(a)、(b)に示す。図9(b)は、各素子の重みベクトルを隣接する素子同志結んだ図、図9(a)は、その素子が対応する領域を示す図(以後は、領域図と呼ぶ。)である。正方形内の2次元ベクトル群Xを2次元格子状に分けているので、このように各領域は小正方形格子が規則正しく並んだ構造を持つ。X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いれば、最も良く入力データの位相を保存できる。この結果を標準結果と呼ぶことにする。X”を入力して、内積演算で競合学習を行う場合は、この標準結果に近い程、入力データの位相をより良く保存していると言えることになる。
【0028】
そこで、前記したa)f(D)=D,b)f(D)=1/Dの場合につき、内積演算のSOMを行った。その領域図をそれぞれ図10(a)、(b)に示す。図10(b)では領域が格子状に広がっているのに対し、図10(a)では領域が乱れ、特に左上の原点近くで放射状に分布している。したがって、明らかに(b)の場合の方がより良く入力データの位相を保存していると言える。なお、分布が放射状になるのは、X=(x,y)の角度依存性が強いことを示している。この理由は、前述の図6について説明したように、2次元平面では近いはずの原点付近のA、Bが3次元空間では相対的に離れてしまい、角度の情報がノルムの情報より強調されるためと解釈できる。
【0029】
補足実験として、大きさ情報を用いず、X=(x,y)を規格化しただけで入力し、内積演算のSOMを行った。このときの領域図を図10(c)に示す。前記の〔発明が解決しようとする課題〕で述べたように、規格化によって入力データのノルム情報は失われる。したがって、全領域が角度情報のみに依存した放射状の分布となり、素子のノルムに関する識別能力は失われてしまう。前述の図10(a)の場合、図10(b)に比べて領域は乱れているが、ノルムに関する識別能力は残っていることが、図10(c)と比較すると分かる。
【0030】
さて、a)f(D)=D,b)f(D)=1/Dの場合では、b)の方がより良く入力データの位相を保存していると言えたが、さらに良く入力データの位相を保存するためには、どのようなf(D)を選べばよいかを調べる。換言すれば、どのようなf(D)を選べば、X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いた場合と同じ結果を得ることができるかを調べる。なお、完全に入力データの位相が保存できるかどうかは、SOM自体の持つ問題である。本発明の説明において、最も良く入力データの位相を保存することは、競合学習の距離基準としてユークリッド距離を用いた場合と同じ結果を得ることに相当し、完全に入力データの位相を保存することではないことに注意する。このことに留意した上で、X=(x,y)をそのまま入力し、ユークリッド距離を用いた場合と同じ結果を得るための条件を求める。
【0031】
再び図5における4点A、B、A、Bを考える。ユークリッド距離を用いた場合と同じ結果を得るためには、2次元平面における線分の比が3次元空間においても保存されなければならない。この条件を式で表す。
【0032】
まず、4点A、B、A、Bの座標、及び、ノルムD、Dはそれぞれ(8)式のようになる。
=(r cosθ,r sinθ),
=(r cosθ,r sinθ),
=(r cosθ,r sinθ),
=(r cosθ,r sinθ),
=r,D=r ・・・(8)
これらの座標が前記の入力ベクトルX=(x,y)に相当する。このベクトルを規格化し、さらに、ノルムを示す成分を加えたX’=(x/D,y/D,f(D))は(9)式のようになる。
【0033】
’=( cosθ, sinθ,f(D)),
’=( cosθ, sinθ,f(D)),
’=( cosθ, sinθ,f(D)),
’=( cosθ, sinθ,f(D)) ・・・(9)
これを規格化したX”は(10)式のようになる。
【0034】
Figure 0003583484
3次元空間のx+y+z=1面上での弧A,B間の長さと、弧A,B間の長さは、それぞれ(11)、(12)式で与えられる(弧は、〈A〉のように表す。)。ここで、A、B、A、Bの位置ベクトルを考えることとする(ベクトルは、 のように表す。)。
【0035】
Figure 0003583484
2次元平面における線分Aと線分Aの長さの比は(13)式で与えられる。
【0036】
|A−B|:|A−B|=r:r=D:D ・・(13)
(14)式のように、線分Aと線分Aの長さの比が、〈A”B”〉と〈A”B”〉の長さの比と等しいとき、(14)式に示す条件が成立する。
【0037】
|A−B|/|A−B|=〈A”B”〉/〈A”B”〉・・・(14)
(14)式に(11)、(12)、(13)式を代入すると、(15)式のようになる。
【0038】
Figure 0003583484
(15)式は、比例定数k(k≠0)を用いて(16)式のように書ける。
【0039】
kD= cos−1[{ cosΔθ+f(D}/{1+f(D}](i=1,2)・・・(16)
これをf(D)に関して解くと、(17)式のようになる。
【0040】
f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 (i=1,2)・・・(17)
ここで、諸量の定義及び根号内が正であるために、次の制限条件(18)式がある。
【0041】
coskD− cosΔθ>0,0<kD<π/2 (=1,2)・・・(18)
式(17)、(18)の意味は以下のようになる。2次元平面でΔθをなすある2点を上述のような規則で3次元空間に変換するとき、(17)式のようなf(D)の式を用いれば、2次元平面のそのような2点間の線分同志の比は、対応する3次元空間のx+y+z=1面上の点間の長さの比と等しい。
【0042】
(18)式によれば、ある比例定数kを決めると、Dはk及びΔθで決まる量より大きくならないことが分かる。これを定性的に説明する。
が大きくなると、2次元平面では2点間の距離はいくらでも大きくなるが、対応する3次元空間のx+y+z=1面上の裾野の点間の長さは、裾野の幅より大きくなれない。よって、Dが大きくなると、条件を満たすのが難しくなるのである。
【0043】
f(D)を(17)式のように選んだ場合の効果を調べるため、前述のような内積演算のSOMを行った。f(D)のパラメータは、(18)式を満たすように、k=0.3,Δθ=π/3と選んだ。(18)式はあるΔθにおける式である。競合学習では、様々な入力ベクトルがあるので、Δθはそれに応じて様々な値をとるが、実際にシミュレーションする際は、(18)式が満たされるように、Dの最大値を考慮してk及びΔθを予め適当に決めておくことになる。領域図の結果を見れば分かるが、k及びΔθを固定しておいて問題はない。
【0044】
(17)式を用いた場合の領域図を図11に示す。図11によれば、図9(a)と同様に、小正方形格子が規則正しく並んだ構造を持っている。これは、f(D)=1/Dを選んだ場合より良く整列している。このことは、縦横の小領域数が10個であることからも分かる。
【0045】
したがって、この実験より、(17)式で与えられるf(D)を用いれば、X=(x,y)をそのまま入力し、競合学習の距離基準としてユークリッド距離を用いた場合と同じ結果を得ることが可能であり、最も良く入力データの位相を保存する写像を実現できることが分かる。
【0046】
次に、(14)、(15)式について補足する。(14)、(15)式は、厳密な条件であるが、両辺の分母分子の大小関係を保存するのみであれば、f(D)がDに関して減少する関数であればよいことが、関数の性質を考慮すると分かる。つまり、f(D)=Dとf(D)=1/Dを比較して、f(D)=1/Dの方の結果が良かったのは、f(D)=1/DはDに関して減少関数であったからと言える。
【0047】
もちろん、関数は、f(D)=1/Dに限定されるものではない。位相を良く保存するために、Dに関して任意の減少関数を選んでよい。また、Dに関して減少関数以外の関数を取ったときでも、位相の保存はし難くなるが、ノルム情報を失わないある程度の学習は可能であることは、前述した通りである。
【0048】
以上、距離基準として内積演算を用い、入力データのノルム情報を失わない競合学習ができるためには、どのようなアルゴリズムにすればよいかを理論的に説明した。簡単にまとめると、以下のようになる。
C−1)内積演算を距離基準とする競合学習において、2次元ベクトルX=(x,y)を入力とするとき、(1)〜(3)式のような変換を行い、X”を入力とすれば、内積演算のための規格化によってノルムの情報を失うことがない。
【0049】
X=(x,y)、D=(x+y1/2 ・・・(1)
X’=(x/D,y/D,f(D)) ・・・(2)
X”=X’/|X’| ・・・(3)
C−2)f(D)は、様々な関数を用いることができるが、Dに関して増加関数と減少関数では、減少関数の方が位相を良く保存できる。例えば、f(D)=Dとf(D)=1/Dでは、後者の方が良い。
【0050】
C−3)f(D)を(17)’式のようにすれば、さらに位相を良く保存できる。
f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 ・・・(17)’
なお、(17)’式では、一般的に記述するため、Dのiを削除した。
【0051】
以上の議論及びまとめでは、図に示すのが容易なため、入力として2次元ベクトルX=(x,y)を取り扱ってきたが、n次元ベクトルX=(x,x・・・,x)、(n=1,2,3・・・)の場合でも全く同様に成り立つ。このとき(1)、(2)、(3)式は、以下の式になる。
【0052】
X=(x,x・・,x),D=(x +x +・・x 1/2 ・・・(19)
X’=(x/D,x/D,・・,x/D,f(D))・・(20)
X”=X’/|X’| ・・・(21)
また、(8)式において、n次元空間の4点A、B、A、Bの座標及びノルムD、Dを、(22)式のように、方向余弦を用いて表せば、(17)式と全く同じ式が導ける。
【0053】
=(rcosθA1,rcosθA2,・・,rcosθAn),
=(rcosθA1,rcosθA2,・・,rcosθAn),
=(rcosθB1,rcosθB2,・・,rcosθBn),
=(rcosθB1,rcosθB2,・・,rcosθBn),
=r,D=r ・・・(22)
ここで、( cosθA1, cosθA2,・・, cosθAn)はA及びAの方向余弦、( cosθB1, cosθB2,・・, cosθBn)はB及びBの方向余弦を示す。n次元の場合は、(17)式のΔθは、この2つの方向余弦のなす角に相当する。n次元ベクトルの場合でnを2と選べば、これまでの2次元ベクトルの議論と一致することが分かる。
以上のことから、前記の議論及びまとめは、2次元ベクトルに限定されず、多次元ベクトルに拡張できることは明らかである。
【0054】
最後に、n次元ベクトルの場合としてまとめておく。
D−1)内積演算を距離基準とする競合学習において、n次元ベクトルX(n=1,2,3,・・)を入力とするとき、(19)〜(21)式のような変換を行い、X”を入力とすれば、内積演算のための規格化によってノルムの情報を失うことがない。
【0055】
X=(x,x・・,x),D=(x +x +・・x 1/2 ・・・(19)
X’=(x/D,x/D,・・,x/D,f(D))・・(20)
X”=X’/|X’| ・・・(21)
D−2)f(D)は、様々な関数を用いることができるが、Dに関して増加関数と減少関数を比較すると、減少関数の方が位相を良く保存できる。例えば、f(D)=Dとf(D)=1/Dでは、後者の方が良い。
【0056】
D−3)f(D)を(17)’式のようにすれば、さらに位相を良く保存できる。
f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 ・・・(17)’
以上、距離基準として内積演算を用い、入力データのノルム情報を失わない競合学習ができるためには、どのようなアルゴリズムにすればよいかを理論的に説明し、まとめた。
以上の議論をふまえた本発明は、以下のような情報処理装置である。
【0057】
〔1〕入力ベクトルを重みベクトル群の各ベクトルと内積をとることによって重みベクトル群の何れかのベクトルへ対応させる情報処理装置において、内積をとる前に入力ベクトルのノルムに関する情報を抽出して該入力ベクトルの成分に付加するノルム抽出・付加手段を有することを特徴とする情報処理装置。
【0058】
〔2〕前記の内積をとる前に前記のノルムに関する情報を付加した入力ベクトルを正規化する入力ベクトル正規化手段を有する上記〔1〕記載の情報処理装置。
〔3〕前記の内積をとる前に前記重みベクトル群の各ベクトルを正規化する重みベクトル正規化手段を有する上記〔1〕記載の情報処理装置。
【0059】
〔4〕前記の正規化を電気信号により行うようにした上記〔2〕又は〔3〕記載の情報処理装置。
【0060】
〔5〕前記の正規化を光学的に行うようにした上記〔2〕又は〔3〕記載の情報処理装置。
【0061】
上記の本発明の情報処理装置は、次のA−1)、A−2)の条件を満たす。
【0062】
A−1)距離基準として、ハードウエア化に適した内積演算を用いる。
【0063】
A−2)入力データのノルム情報を失わない競合学習ができる。
【0064】
【実施例】
以下に、本発明の情報処理装置の好適な第1、第2実施例について説明する。その説明に先立って、これらの実施例で用いる光学的な内積演算装置の原理を
説明する。
【0065】
簡単のため、内積をとるベクトルを4次元(2×2)とし、入力ベクトルX(x,x,x,x)と、9個の重みベクトル群m(mi1,mi2,mi3,mi4)(i=1〜9;3×3)の全てと内積をとるものとする。まず、図12は、第1実施例に用いられる内積演算光学系(Taiwei et al.,”Self−organizing optical neural network for unsupervised learning”,Opt.Eng.,VOL.29,No.9,pp.1107−1113,1990.)の原理を示す図であり、2つの液晶テレビ101、102が用いられ、第2液晶テレビ101には2×2のXの成分(x,x,x,x)が図のような順で表示される。また、第1液晶テレビ102には2×2のサブマトリックスmが3×3に配置され、各サブマトリックスmにmの成分(mi1,mi2,mi3,mi4)図のような順で表示される。Xとmのベクトル成分の表示の配置順は、一方が他方の倒立像の関係にある。光学系は、光軸方向に配置された、第1液晶テレビ102と、第1液晶テレビ102の3×3のサブマトリックスm配置に対応した3×3個のレンズLからなるレンズアレー105と、第2液晶テレビ101と、結像レンズ106と、第1液晶テレビ102の3×3のサブマトリックスm配置及びレンズアレー105の3×3のレンズL配置に対応した3×3個の受光領域を有するCCDカメラ107とからなる。
【0066】
そして、第1液晶テレビ102の2×2に領域分けされてmの成分(mi1,mi2,mi3,mi4)が表示されている1個のサブマトリックスmの像が、レンズアレー105の対応する位置のレンズLによって、ベクトルの成分同士を対応させながら、第2液晶テレビ101上に結像されるように光学配置されており、さらに、第2液晶テレビ101は結像レンズ106の入射瞳位置に配置され、結像レンズ106は、レンズアレー105の3×3の各レンズLの瞳をCCDカメラ107の3×3個の受光領域上に結像するような光学配置になっている。
【0067】
したがって、CCDカメラ107のi番目(i=1〜9)の受光領域には、レンズアレー105の対応する位置のレンズLを通った全光量が入射する。このレンズLを通った全光量とは、図の光路からも明らかなように、第1液晶テレビ102の2×2のサブマトリックスmの成分(mi1,mi2,mi3,mi4)と第2液晶テレビ101の2×2のXの成分(x,x,x,x)とを対応する成分同士を重ね合わせて(数学的には掛算)加え合わせたものであり、内積に他ならない。したがって、CCDカメラ107の図示の1〜9の受光領域には、それぞれX・m〜X・mが得られる。
【0068】
次に、図13は、第2実施例に用いられる内積演算光学系(J.Duvillier et al.,”All−optical implementation of a self−organizing map”,Appl.Opt.Vol.33,pp.258−266,1990. )の原理を示す図であり、内積をとるための2つの空間変調器27aと207aを用い、内積は別の空間変調器210a上に得られるものである。この場合は、空間変調器27aと207aは重ね合わされ、空間変調器27a側から照射される平行光で読み出される。空間変調器27aには、図12の場合と同様、2×2のXの成分(x,x,x,x)が図のような順で表示される。また、空間変調器207aには、9つのベクトルm〜mの各成分がまとめられてそれぞれ1つの3×3のサブマトリックスM〜Mを構成するように表示される。すなわち、図示のように、サブマトリックスMには、各ベクトルm〜mのi番目の成分が3×3のマトリックスに配置されるように表示される。そして、空間変調器27aと207aを重ね合わせた場合、空間変調器27aの成分x〜xの領域がそれぞれが空間変調器207aのサブマトリックスM〜Mの領域に対応するように両空間変調器27aと207aが構成されている。光学系は、光軸方向に配置された、空間変調器27aと、空間変調器207aと、空間変調器27aの2×2のマトリックス配置、及び、空間変調器207aのサブマトリックスM〜M配置に対応した2×2個のレンズLからなるレンズアレー208と、結像レンズ209と、空間変調器210aとからなり、レンズLの前側焦点位置に空間変調器207aが、その後側焦点位置に結像レンズ209が、結像レンズ209の後側焦点位置に空間変調器210aが位置している。そして、空間変調器207aの各サブマトリックスMが空間変調器210aの全体領域に拡大結像されるように、レンズLと結像レンズ209の焦点距離の比が定められている。
【0069】
したがって、空間変調器210a上には、空間変調器27aと207aを重ね合わせて、Xの成分xと対応するサブマトリックスMが重畳され(掛算され)、それらのサブマトリックスMがレンズアレー208の作用で同じ位置に重ね合って結像される。そのため、空間変調器210aのサブマトリックスMのj番目(j=1〜9)の成分mjiが対応する位置には、全てのサブマトリックスM〜Mのj番目の成分(mj1,mj2,mj3,mj4)とXの対応する成分(x,x,x,x)を掛けて足し合わせたもの、すなわち、内積が入射する。したがって、空間変調器210aの図示の1〜9の域には、それぞれX・m〜X・mが得られる。
【0070】
以上、以下に説明する第1、第2実施例で用いる内積演算光学系を4次元ベクトルを例にあげて説明してきたが、それ以上又は以下の次元数のベクトルの場合にも容易に対応できることは、光学系の構成から明らかである。
【0071】
なお、本発明において、内積をとるベクトルの少なくとも1つの成分に、その他の成分からなるベクトルのノルム情報をあてがう。例えば、前記の4次元ベクトルの場合は、xを(x,x,x)からなるベクトルのノルム情報にする。
以下、図14〜図18に基づいて本発明の好適な実施例を説明する。
【0072】
〔第1実施例〕
本実施例の情報処理装置は、図14にその構成を示すように、処理を行うためのデータを取得するための入力ベクトル取得手段1と、この入力されたベクトルから前記したD−2)あるいはD−3)に述べたノルム情報を発生させ、さらに発生させたこのノルム情報を入力ベクトルに付加し、D−1)の条件に従って正規化するための入力ベクトル加工手段2と、このノルム情報の付加され加工されたベクトルを入力して処理を行う競合学習手段3とを有するものである。
【0073】
本実施例では、情報処理装置の競合学習手段3として、前記したTaiweiLu等の装置を改良して用いている。まず、図14を参照にして、Taiwei Lu等の装置と共通の部分の説明をする。競合学習手段3では、8×8画素からなる入力ベクトルを第2液晶テレビ101に表示し、1つの重みベクトルに対応する8×8画素のサブマトリックスが8×8個あるメモリーマトリックス(64×64)を第1液晶テレビ102に表示し、この第1液晶テレビ102の背後からキセノンランプ103の光をディフューザー104を介して照射する。メモリーマトリクスには、前述したような素子の重みベクトルの集合が記憶できるようになっている。照射された第1液晶テレビ102上のメモリーマトリックス上の情報は、8×8個のレンズアレー105により、各重みベクトルに対応するサブマトリックスが全て第2液晶テレビ101上に重ねて結像され、入力ベクトルに重畳されるようになっている。さらに、この入力ベクトルが重畳されたサブマトリックスの情報は、結像レンズ106によりCCDカメラ107の8×8個の領域にそれぞれ入射するようになっており、この一連の操作により、入力ベクトルとメモリーマトリックスの内積演算が各領域で行われたことになる(図12参照)。
【0074】
さらに、このCCDカメラ107で得られた内積演算の結果をコンピュータ内に取り込み、コンピュータ内でソフトウエアで実現されているマトリックスの更新手段108で、競合学習に必要なメモリーマトリックスの更新量を決定し、更新するようになっている。また、第1液晶テレビ102、第2液晶テレビ101の表示もコンピュータからの制御により行っている。
以上が、本発明の情報処理装置の競合学習手段において、Taiwei Lu等の装置と共通の部分である。
【0075】
本実施例においては、この情報処理装置が濃淡画像を処理するものとする。この場合、入力ベクトル取得手段1は、CCD等の撮像素子とフレームメモリにより処理すべき画像をコンピュータ内に取り込み、これを所定の入力ベクトル(本実施例の場合は、8×8−1(=63)成分)に展開する(マイナスした1個は、付加するノルム情報に割り当てる。)。展開の仕方は、フレームメモリ上のフレーム領域を8×8の領域に分割し、その領域毎に平均の明るさを計算し、各成分の値とすればよい。この際、画像の右下の領域に対応する成分は無視し、この部分に付加するノルム情報を割り当てる。なお、本実施例の場合、この展開はコンピュータ内のソフトウエアで実現している。
【0076】
次に、入力ベクトル加工手段2は、D−1)からD−3)のように、展開されたベクトルを加工するものであるが、まず、展開された63個のベクトルからD−1)の(19)式に従ってDを計算する。次に、D−3)の(17)’式に従ってこのDからf(D)を計算し、64個目のベクトル成分として、D−1)の(20)式に従ってこのf(D)を付加すると共に、Dを用いて他の63個のベクトルの正規化を行う。(20)式のf(D)は、コンピュータ内のソフトウエア制御により、容易にD−2)あるいはD−3)のように選ぶこともできる。最後に、D−1)の(21)式に従って、再度正規化を行い入力ベクトルの加工を終了するものである。以上の入力ベクトル加工手段2も、本実施例の場合、コンピュータ内のソフトウエアで実現している。なお、この入力ベクトル加工手段2により加工された入力ベクトルは、競合学習手段3中のマトリックスの更新手段108及び第2液晶テレビ101に送られ、競合学習手段による処理が進む。
【0077】
そして、上記メモリーマトリックスの更新は、マトリックス更新手段108においてCCDカメラ107から得られる出力ベクトルの中の最大のものを見つけ、この成分の近傍のメモリーマトリックスを更新することにより行われる。更新則は、
Figure 0003583484
であり、ここで、α(t)は学習スピードを示す係数であり、N(t)は更新範囲を示し、この更新範囲は時間経過(更新が進むに連れて)と共に小さくして行き、最終的には上記の最大成分だけにする。以上のメモリーマトリックスの更新もコンピュータ内のソフトウエアで実現している。
【0078】
以上の構成により、本実施例の情報処理装置が、装置内に内積演算部分を持つ競合学習手段を含んでいても、ノルム情報の失われない処理が行えることは、前述の説明により明らかである。
【0079】
なお、この情報処理装置において、入力ベクトル取得手段1は、ベクトルとして画像を想定したためCCD等の撮像素子を用いたが、他の手段でももちろんよい。例えば音声の場合は、マイクロフォンとAD変換器を用いればよいし、濃度であれば、濃度センサー、流量であれば流量センサー等、何を用いてもよく、基本的には、欲しい情報をセンサーにより取得し、そのセンサーで得られた情報をコンピュータ内に取り込めればよい。
【0080】
また、扱えるベクトル数も、8×8−1の63個に限るわけではなく、空間光変調器での画素数やレンズアレーのレンズ数等を増減させれば、調節できることも明らかである。
【0081】
〔第2実施例〕
本実施例の情報処理装置も、図15にその構成を示すように、第1実施例と同様、処理を行うためのデータを取得するための入力ベクトル取得手段1と、この入力されたベクトルからD−2)あるいはD−3)にあげたノルム情報を発生させ、さらに発生させたこのノルム情報を入力ベクトルに付加し、D−1)のように正規化するための入力ベクトル加工手段2と、このノルム情報の付加され加工されたベクトルを入力して処理を行う競合学習手段3とを有するものであり、その違いは、入力ベクトル加工手段2と競合学習手段3の大部分を光学系で構成している点である。
【0082】
さらに具体的には、本実施例の情報処理装置は、図15に示すように、入力ベクトル取得手段1と、この入力ベクトル取得手段1により取得されたD−1)の(19)式に対応したデータの総和を検出するための第1のベクトル成分総和検出手段21と、得られたベクトル成分の総和から、D−1)の(20)式に対応させてデータの正規化を行うための第1の正規化手段22と、得られたベクトル成分の総和から、D−2)及びD−3)の(17)’式に対応させて入力ベクトルのノルム情報を発生させるノルム情報発生手段23と、この正規化された入力ベクトルにD−1)の(20)式に対応させてノルム情報を付加するノルム情報付加手段24と、このノルム情報の付加された入力ベクトル成分の総和を検出するための第2のベクトル成分総和検出手段25と、得られたベクトル成分の総和からD−1)の(21)式に対応させてデータの正規化を行うための第2の正規化手段26と、以上のデータ加工結果を表示するための加工結果表示手段27とから構成される入力ベクトル加工手段2と、この加工され表示されたデータを入力して処理するための競合学習手段3とにより構成し、本発明の目的を達成しようと言うものである。
【0083】
図16には、上記の中、入力ベクトル取得手段1及び入力ベクトル加工手段2の部分の光学系を具体的に示してある。なお、本実施例でも、濃淡画像の処理をまず想定している。入力ベクトル取得手段1では、撮像装置11(具体的には、例えばズームレンズの付いたCCDカメラ)で処理すべきベクトルである画像を取得し、この信号をドライバー12により空間光変調器13(本実施例の場合は、例えば透過型で電子アドレス型の液晶空間光変調器)に表示する。表示された処理すべき画像は、略平行な光束20で読み出され、入力ベクトル加工手段2に送られる。入力ベクトル加工手段2では、まず、ビームスプリッタ21a、集光レンズ21b、ディテクタ21cからなる第1のベクトル成分総和検出手段21により、この処理すべきベクトルである画像の総和が取られる。具体的には、入力された画像情報をビームスプリッタ21aで分岐し、集光レンズ21bで集光し、ディテクタ21cでその総和Dとして光量を検出し、電気信号に変換する。この検出された総和Dの電気信号は、第1の正規化手段22である光量調整フィルタ22aのドライバー22bに送られ、ここを通過する光量が一定になるように、つまり正規化されるように調節がなされる。具体的には、印加電圧によって通過する光量を変化させることのできる液晶シャッターを光量調整フィルタ22aとして用い、検出された総和Dの電気信号によってドライバー22bで液晶シャッターに印加する電圧を制御することにより、ここを通過する光量を一定にする。さらに、検出された総和Dの電気信号は、ノルム情報発生手段23である割算器により、f(D)の選び方の例としてD−2)で述べた1/Dの情報に変換される。
【0084】
この変換されたノルム情報である1/Dの信号は、ノルム情報付加手段24の発光素子24aを駆動するドライバー24bに送られ、1/Dに比例した光量を発光素子24aで発生させる。ノルム情報付加手段24では、さらに、空間光変調器13に表示された入力ベクトルを空間光変調器24c(本実施例の場合は、例えば反射型で光アドレス型の液晶空間光変調器)に結像させるための結像レンズ24d、及び、この空間光変調器24cを駆動するためのドライバー24eとで構成されている。この構成により、入力ベクトルの正規化されたものが空間光変調器24cに表示される。この空間光変調器24cでは、図17(a)に正面図、(b)に側面図を示すように、8×8の領域が設定されており、その中の1か所の領域(図では、右下隅の領域)に発光素子24aとして、本実施例で用いている発光ダイオードLDとそれからの光を集光するレンズCLで1/Dに比例した光量が照射されるようになっており、結果として、8×8−1の63個の領域に正規化された入力ベクトルが、残りの1個の領域に1/Dに比例したノルム情報が表示されるようになっている。
【0085】
この表示された入力ベクトル情報は、ビームスプリッタ28aで系内に導かれた略平行な光束28で読み出され、第2のベクトル成分総和検出手段25に送られその総和が検出され、さらに、この総和情報を基に第2の正規化手段26により正規化が行われる。この第2のベクトル成分総和検出手段25と第2の正規化手段26は、それぞれ第1のベクトル成分総和検出手段21と第1の正規化手段22と同一要素である、ビームスプリッタ25a、集光レンズ25b、ディテクタ25c、及び、液晶シャッターである光量調整フィルタ26a、ドライバー26bで構成してある。
【0086】
加工結果表示手段27では、空間光変調器24cに表示されたベクトルを、空間光変調器27aとして本実施例の場合用いた反射型で光アドレス型の液晶空間光変調器に結像させるための結像レンズ27b、及び、この空間光変調器27aを駆動するためのドライバー27cで構成されている。この構成により、8×8−1の63個の領域に正規化された入力ベクトルと、残りの1個の領域に1/Dに比例したノルム情報が表示された情報であって、さらに正規化された結果が空間光変調器27aに表示される。
【0087】
本実施例では、情報処理装置の競合学習手段3として、前記のJ.Duvillier等の装置を改良して用いている。次に、図18を参照にして、Duvillier等の装置と略共通の部分の説明をする。図18の切断面A−A’、B−B’、C−C’内の部分は、図16に示した光学系が対応する。
【0088】
まず、内積演算のフェーズでは、レーザー200からの光束は、ミラー201を介してビームエキスパンダ202に入射され、略平行な光束203となる。この光束は、ビームスプリッタ204、223、224を介して、空間光変調器27aの位置に表示された8×8要素の入力情報(図16参照)を系内に入力し、さらに、結像レンズ205及び206によりこの入力情報を、専用のドライバー207bで制御される空間光変調器207a(本実施例の場合、例えば透過型で光書込型の液晶空間光変調器)に表示されている8×8要素のメモリーマトリックスの情報に重畳させた上で読み出すものである(J.Duvillier等の装置は、入力情報を透過で読み出しているが、本実施例は入力情報は空間光変調器27aから反射で読み出しているので、この部分の構成は一部変更されている。)。この入力情報にメモリーマトリックスの情報が重畳した情報は、さらに8×8個のレンズアレー208と結像レンズ209を通過し、専用のドライバー210bで制御される空間光変調器210a(本実施例の場合、例えば透過型で光書込型の二値の液晶空間光変調器)上でさらに重ね合わさる。この一連の操作により、入力情報とメモリーマトリックスの内積演算結果がこの空間光変調器210a上に閾値操作されて記憶されたことになる(図13参照)。
【0089】
次に、メモリーマトリックスの更新のフェーズでは、上記内積演算のフェーズで空間光変調器210a上に記憶された内積演算結果が、略平行な光束203の中、ビームスプリッタ204を通過し、さらにミラー211及び212、ビームスプリッタ213を介して系内に導かれた略平行な光束214により読み出される。この読み出された情報は、さらに、ミラー215、216、217、ビームスプリッタ223、224、レンズ218、219、220、221、及び、Dammann型のグレーティング222を介することにより、8×8に多重複製され、再び空間光変調器27aの位置に表示されている8×8要素の入力情報を読み出す。この操作によりメモリーマトリックスの更新量が決定されるが、この更新情報を結像レンズ205及び206により空間光変調器207a上に結像させ、さらに、ドライバー207bを制御し印加電圧を変化させることにより加算もしくは減算の形でメモリーマトリックスの更新が行われる。
【0090】
ここで、メモリーマトリックスの更新に関しては、内積演算の出力ベクトルyを空間光変調器207aでスレシュホールドして二値化したものをYとして、このYをレンズ218〜221とDammann型グレーティング222とで倍率を縮小して元の大きさに戻すと共に、入力ベクトルと同じ8×8個に複製して、入力ベクトルに重ねる。これがメモリーマトリックスの更新量ΔMとなる。この更新則は、
(t+1)=M(t)+a(t)NO{ΔM(t)}
ΔM=X(DY) ・・・(24)
ここで、a(t)は(23)式のα(t)と同様の学習スピードを示す係数、NOは更新範囲を示す関数で、(23)式のNと同様の役目を担う。また、DはYのサブマトリックスを8×8に複製することを表す。この更新は、すでに記憶されている空間光変調器207a上のメモリーマトリックス情報M(t)に上記で決まったΔMだけ加算もしくは減算することにより変更を加えることで行われる。このときの空間光変調器207aの動作は、グレースケール動作とし、駆動電圧の符号を変化させればよい。また、駆動電圧の大きさを変化させれば、NOつまり更新範囲や学習スピードを変化させることができる。これは、ドライバー207bをコンピュータ等で制御して行う。
【0091】
なお、上記で、内積演算のフェーズとメモリーマトリックスの更新のフェーズでは、系が共通に使用されている部分があるので、シャッター225、226、227、231により、もちろん情報が干渉することを防止している。すなわち、内積演算のフェーズでは、シャッター225をオープンにし、シャッター226、227、231をクローズに、メモリーマトリックスの更新のフェーズでは、シャッター225と231をクローズにし、シャッター226と227をオープンにしている。
以上が、本実施例の競合学習手段3においてJ.Duvillier等の装置と略共通の部分である。
【0092】
本実施例で、先行例と異なる点は、図15及び図16を用いて先に説明したように、入力ベクトル取得手段1及び入力ベクトル加工手段2をこの競合学習手段3に新たに加えた点である。本実施例では、図16に示した入力ベクトル取得手段1及び入力ベクトル加工手段2を、図中の切断面A−A’、B−B’及びC−C’が、図18中の対応する部分に一致するように設置してある。この際、略平行な光束203の中ビームスプリッタ204を通過し、さらにビームスプリッタ234を介して入力ベクトル取得手段1及び入力ベクトル加工手段2の系内に入射させたものを略平行な光束20とし、また、略平行な光束203の中のビームスプリッタ204で反射させたものを、ビームスプリッタ228を介して同系内に入力させて略平行な光束28とした。さらに、本実施例では、内積演算結果とメモリーマトリックスも正規化するために、図中に示すように、第3のベクトル成分総和検出手段229及び第3の正規化手段230を挿入してある。この第3のベクトル成分総和検出手段229と第3の正規化手段230は、それぞれ第1のベクトル成分総和検出手段21と第1の正規化手段22(図16)と同一要素である、ビームスプリッタ229a、集光レンズ229b、ディテクタ229c、及び、液晶シャッターである光量調整フィルタ230a、ドライバー230bで構成してある。この構成により、内積演算のフェーズでは内積演算結果が正規化される。一方、メモリーマトリックスの更新のフェーズでは、メモリーマトリックスの更新後、シャッター227をクローズにし、シャッター225と231をオープンにし、略平行な光束203の中のビームスプリッタ223を透過してきたものを、さらにミラー232及びビームスプリッタ233を介して空間光変調器207aに入射させ、更新されたメモリーマトリックスの情報を読み出して正規化するものである。競合学習のアルゴリズムとしては内積演算結果の正規化は必要ないので、第3のベクトル成分総和検出手段229と第3の正規化手段230は、内積演算のフェーズでは省略してもよい。しかしながら、内積演算結果を正規化することにより、信号量の発散、飽和に伴うハードウエアの調整の問題を防ぐことができる。
【0093】
この実施例中では、透過型や反射型、及び、電子アドレス型や光アドレス型の液晶空間光変調器を用いたが、これらは上記実施例にあげた組み合わせに限られるものではなく、様々な組み合わせが考えられることは言うまでもない。
【0094】
以上であげた正規化手段において、その目的は、数学的に厳密にはベクトルのノルムを1にすることである。しかしながら、ハードウエア上においてノルムに応じて光量を厳密に一定にするのではなく大まかに調節するようにしても、厳密な正規化と同様な効果を得ることができる。したがって、本発明中の正規化の定義は広く、ノルムの大きさによってベクトル成分の大きさを調節することを意味するものとする。また、D−2)、D−3)のような厳密な変換式をハードウエア上で実現する場合、諸装置の特性を変えることにより近似的にその作用を得るようにしてもよい。
【0095】
また、以上では、1つの入力に対し1つのノルム情報を与えたが、複数個の情報を与えてもよい。つまり、追加する次元は1次元に限らず、多数次元としてもよい。
【0096】
以上の構成により、本発明の情報処理装置が、装置内に内積演算部分を持つ競合学習手段を含んでいても、ノルム情報の失われない処理が行えることは前述の説明より明らかである。
【0097】
なお、この情報処理装置においても、入力ベクトル取得手段は第1実施例と同様、撮像素子に限定されるわけではなく、マイクロフォンや濃度センサー、流量センサー等、どんなセンサーを用いてもよい。また、扱えるベクトル数も第1実施例と同様に調節できることも明らかである。
【0098】
以上、本発明の情報処理装置をその原理と実施例に基づいて説明してきたが、本発明はこれら実施例に限定されず種々の変形が可能である。
【0099】
【発明の効果】
以上の説明から明らかなように、本発明の情報処理装置によると、以下の条件を満たす情報処理装置を提供することができる。
A−1)距離基準として、ハードウエア化に適した内積演算を用いる競合学習を行う。
A−2)入力データのノルム情報を失わない競合学習ができる。
【図面の簡単な説明】
【図1】規格化しない場合の内積演算による勝利ベクトルの決定過程を示す図である。
【図2】規格化した場合の内積演算による勝利ベクトルの決定過程を示す図である。
【図3】2次元一様分布ベクトルデータを示す図である。
【図4】2次元一様分布ベクトルデータを規格化した場合の分布を示す図である。
【図5】本発明の情報処理装置に入力する2次元平面上の4点を示す図である。
【図6】ノルムを示す成分としてDを選んだ場合の3次元空間における4点の位置を示す図である。
【図7】ノルムを示す成分として1/Dを選んだ場合の3次元空間における4点の位置を示す図である。
【図8】自己組織化特徴マップの構造を示す図である。
【図9】競合学習の距離基準にユークリッド距離を用いた場合の領域図と隣接する素子の重みベクトル同志を結んだ図である。
【図10】ノルムを示す成分としてD、1/Dを選んだ場合及び選ばなかった場合の領域図である。
【図11】ノルムを示す成分として理論的なものを選んだ場合の領域図である。
【図12】本発明の第1実施例に用いる内積演算光学系の原理を示す図である。
【図13】本発明の第2実施例に用いる内積演算光学系の原理を示す図である。
【図14】本発明の第1実施例の構成の概略を示す図である。
【図15】本発明の第2実施例の構成の概略を示す図である。
【図16】本発明の第2実施例の具体的な構成を示す図である。
【図17】第2実施例に用いるノルム情報を付加する空間光変調器の正面図と側面図である。
【図18】本発明の第2実施例の競合学習手段の構成を示す図である。
【符号の説明】
1…入力ベクトル取得手段
2…入力ベクトル加工手段
3…競合学習手段
11…撮像装置
12…ドライバー
13…空間光変調器
20…光束
21…第1のベクトル成分総和検出手段
21a…ビームスプリッタ
21b…集光レンズ
21c…ディテクタ
22…第1の正規化手段
22a…光量調整フィルタ
22b…ドライバー
23…ノルム情報発生手段
24…ノルム情報付加手段
24a…発光素子
24b…ドライバー
24c…空間光変調器
24d…結像レンズ
24e…ドライバー
25…第2のベクトル成分総和検出手段
25a…ビームスプリッタ
25b…集光レンズ
25c…ディテクタ
26…第2の正規化手段
26a…光量調整フィルタ
26b…ドライバー
27…加工結果表示手段
27a…空間光変調器
27b…結像レンズ
27c…ドライバー
28a…ビームスプリッタ
28…光束
101…第2液晶テレビ
102…第1液晶テレビ
103…キセノンランプ
104…ディフューザー
105…レンズアレー
106…結像レンズ
107…CCDカメラ
108…マトリックス更新手段
200…レーザー
201…ミラー
202…ビームエキスパンダ
203…光束
204、223、224…ビームスプリッタ
205、206…結像レンズ
207a…空間光変調器
207b…ドライバー
208…レンズアレー
209…結像レンズ
210a…空間光変調器
210b…ドライバー
211、212…ミラー
213…ビームスプリッタ
214…光束
215、216、217…ミラー
218、219、220、221…レンズ
222…Dammann型グレーティング
223…ビームスプリッタ
225、226、227、231…シャッター
228…ビームスプリッタ
229…第3のベクトル成分総和検出手段
229a…ビームスプリッタ
229b…集光レンズ
229c…ディテクタ
230…第3の正規化手段
230a…光量調整フィルタ
230b…ドライバー
232…ミラー
233…ビームスプリッタ
234…ビームスプリッタ
LD…発光ダイオード
CL…レンズ

Claims (5)

  1. 入力ベクトルを重みベクトル群の各ベクトルと内積をとることによって重みベクトル群の何れかのベクトルへ対応させる情報処理装置において、内積をとる前に入力ベクトルのノルムに関する情報を抽出して該入力ベクトルの成分に付加するノルム抽出・付加手段を有することを特徴とする情報処理装置。
  2. 前記の内積をとる前に前記のノルムに関する情報を付加した入力ベクトルを正規化する入力ベクトル正規化手段を有する請求項1記載の情報処理装置。
  3. 前記の内積をとる前に前記重みベクトル群の各ベクトルを正規化する重みベクトル群正規化手段を有する請求項1記載の情報処理装置。
  4. 前記の正規化を電気信号により行うようにした請求項2又は3記載の情報処理装置。
  5. 前記の正規化を光学的に行うようにした請求項2又は3記載の情報処理装置。
JP24405494A 1994-10-07 1994-10-07 情報処理装置 Expired - Fee Related JP3583484B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24405494A JP3583484B2 (ja) 1994-10-07 1994-10-07 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24405494A JP3583484B2 (ja) 1994-10-07 1994-10-07 情報処理装置

Publications (2)

Publication Number Publication Date
JPH08106505A JPH08106505A (ja) 1996-04-23
JP3583484B2 true JP3583484B2 (ja) 2004-11-04

Family

ID=17113050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24405494A Expired - Fee Related JP3583484B2 (ja) 1994-10-07 1994-10-07 情報処理装置

Country Status (1)

Country Link
JP (1) JP3583484B2 (ja)

Also Published As

Publication number Publication date
JPH08106505A (ja) 1996-04-23

Similar Documents

Publication Publication Date Title
US7813581B1 (en) Bayesian methods for noise reduction in image processing
JP3776500B2 (ja) 多重化光学系及びそれを用いた特徴ベクトル変換装置、特徴ベクトル検出伝送装置、及び、それらを用いた認識分類装置
KR102442844B1 (ko) 실제 3차원 객체를 실제 객체의 2-차원 스푸프로부터 구별하기 위한 방법(Method for Distinguishing a Real Three-Dimensional Object from a Two-Dimensional Spoof of the Real Object)
US5724447A (en) Optical transform system for three-dimensional object recognition
US20120230553A1 (en) Apparatus and method for detecting eye state
KR20080049121A (ko) 태스크-기반의 이미징 시스템
KR20100098641A (ko) 불변적인 시각적 장면 및 객체 인식
US11715217B2 (en) Method and apparatus for eye tracking
CN112304246B (zh) 基于空间相干结构调控的光学成像系统及成像方法
US20220084223A1 (en) Focal Stack Camera As Secure Imaging Device And Image Manipulation Detection Method
Burghardt et al. Automated visual recognition of individual African penguins
US5754693A (en) Method of optical recognition and classification of patterns
JP3583484B2 (ja) 情報処理装置
JP2001052175A (ja) 画像検索装置
Kouzani Locating human faces within images
JPH09230954A (ja) ベクトル規格化装置
JP3604441B2 (ja) パターン認識装置及びその方法
JP2003223642A (ja) 顔画像認識システム
JP3272506B2 (ja) 光学的パターン認識分類装置
JP2007025899A (ja) 画像処理装置、画像処理方法
Masoudifar et al. Depth estimation and deblurring from a single image using an optimized-throughput coded aperture
Chambers et al. Physically realizable adversarial examples for convolutional object detection algorithms
JP3325934B2 (ja) 光学的パターン認識分類装置
US11263419B2 (en) Biometric analysis structure, method and neural network with coded mask
JP3099203B2 (ja) 光学的パタ−ン認識分類装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040729

LAPS Cancellation because of no payment of annual fees