JPH08106505A - Information processor - Google Patents

Information processor

Info

Publication number
JPH08106505A
JPH08106505A JP6244054A JP24405494A JPH08106505A JP H08106505 A JPH08106505 A JP H08106505A JP 6244054 A JP6244054 A JP 6244054A JP 24405494 A JP24405494 A JP 24405494A JP H08106505 A JPH08106505 A JP H08106505A
Authority
JP
Japan
Prior art keywords
vector
input
inner product
information
norm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6244054A
Other languages
Japanese (ja)
Other versions
JP3583484B2 (en
Inventor
Mikihiko Terajima
寺島幹彦
Takeshi Hashimoto
武 橋本
Fumiyuki Shiratani
白谷文行
Ikutoshi Fukushima
福島郁俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP24405494A priority Critical patent/JP3583484B2/en
Publication of JPH08106505A publication Critical patent/JPH08106505A/en
Application granted granted Critical
Publication of JP3583484B2 publication Critical patent/JP3583484B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To perform contention learning without losing the norm information of input data by using the inner product operation suitable for making into hardware as the distance reference to perform the contention learning. CONSTITUTION: This information processor operates the inner product between the input vector displayed on a liquid crystal television 101 and each vector of the weight vector group displayed on a liquid crystal television 102 to make the input vector correspond to one vector of the weight vector group and is provided with a norm extracting and adding means 2 which extracts information related to the norm of the input vector to add it to the component of the input vector before operation of the inner product.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、情報処理装置に関し、
特に、内積演算を用いてある距離基準を満たす処理素子
を決定し、その勝利素子及びその勝利素子によって決め
られる素子に対し、何らかの操作を施すことによって、
位相保存写像やパターン認識のための競合学習を行う情
報処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing device,
In particular, by determining a processing element that satisfies a certain distance criterion by using the inner product operation and performing some operation on the winning element and the element determined by the winning element,
The present invention relates to an information processing device that performs competitive learning for phase-preserving mapping and pattern recognition.

【0002】[0002]

【従来の技術】ある距離基準を満たす勝利素子を決定
し、その勝利素子及びその勝利素子によって決められる
素子に対し、何からの操作を施すことによって、位相保
存写像やパターン認識を行う競合学習アルゴリズムがよ
く知られている(T.Kohonen,"Self-Organization and A
ssociative Memory,Third Edition,Springer-Verlag,Be
rlin,1989.)。
2. Description of the Related Art A competitive learning algorithm for determining a winning element that satisfies a certain distance criterion and performing a phase-preserving mapping or pattern recognition by performing some operation on the winning element and the element determined by the winning element. Is well known (T. Kohonen, "Self-Organization and A
ssociative Memory, Third Edition, Springer-Verlag, Be
rlin, 1989.).

【0003】これらのアルゴリズムは、何れも、ユーク
リッド距離、マンハッタン距離、内積等の距離基準を用
い、ある入力に対し、その基準を満たす勝利素子を選ぶ
競合過程を有している。通常のコンピュータ上でプログ
ラムを作成しアルゴリズムを実行する場合、何れの距離
基準も容易に用いることができる。そこで、距離基準と
して一般に性能が良いと報告されているユークリッド距
離がよく用いられている。
Each of these algorithms uses a distance criterion such as Euclidean distance, Manhattan distance, and inner product, and has a competition process for a certain input to select a winning element that satisfies the criterion. When creating a program and executing an algorithm on an ordinary computer, any distance criterion can be easily used. Therefore, the Euclidean distance, which is generally reported to have good performance, is often used as the distance standard.

【0004】ところが、ハードウエア上でユークリッド
距離計算を行う場合は、差分回路、二乗回路、総和回路
を必要とし、実現が困難になっている。そこで、内積の
距離基準を用いることが多い。特に光学を用いて実現す
る際、内積演算は光の並列性から最も実現しやすい。光
学を用いた内積演算を有する競合学習を行う情報処理装
置がいくつか報告されている(Taiwei et al.,"Self-or
ganizing optical neural network for unsupervised l
earning",Opt.Eng.,VOL.29,No.9,1990.;J.Duvillier et
al.,"All-optical implementation of a self-organiz
ing map",Appl.Opt.Vol.33,No.2,1994. )。
However, when the Euclidean distance calculation is performed on hardware, a difference circuit, a square circuit, and a summing circuit are required, which makes it difficult to realize. Therefore, the inner product distance criterion is often used. Especially when it is realized using optics, the inner product calculation is most easily realized due to the parallelism of light. Some information processing devices that perform competitive learning with inner product calculation using optics have been reported (Taiwei et al., "Self-or
ganizing optical neural network for unsupervised l
earning ", Opt.Eng., VOL.29, No.9,1990.; J.Duvillier et
al., "All-optical implementation of a self-organiz
ing map ", Appl. Opt. Vol. 33, No. 2, 1994.).

【0005】[0005]

【発明が解決しようとする課題】内積演算を用いて勝利
素子を選ぶ競合を行う場合、データを規格化する必要が
ある。このことを図1を用いて説明する。入力データを
2次元ベクトルX、競合の候補である素子群のもつ重み
ベクトルを2次元ベクトルmi (iは素子番号を示
す。)とする。図1に示すように、2次元ベクトルXが
入力され、その候補の重みベクトルとしてm1 、m2
あったとする。ユークリッド距離を用いる場合、ベクト
ル間の距離が最も近いものが勝利素子となるので、d1
<d2 より、m1 が勝利素子となる。一方、内積演算を
用いる場合、内積値の最も大きいものが入力ベクトルに
最も類似していることに相当し、勝利素子となる。内積
値は、図1において、mi のXへの正射影Di とXのノ
ルムの積で表される。したがって、Di の大小を比較す
れば、内積の大小を比較でき、この場合、m2 が勝利素
子となる。競合学習では、入力データと重みベクトル間
のユークリッド距離及びそれに準ずるマンハッタン距離
等における類似度を比較し、最も似ている重みベクトル
を持つ素子を選ぶ。ところが、上記のように内積演算を
用いると、ノルムの大きい重みベクトルが、ユークリッ
ド距離は離れていても、内積値が大きくなり、勝者にな
りやすくなる。つまり、内積演算における類似度は、ユ
ークリッド距離の大小ではなく、ベクトルのノルムに依
存してしまう。よって有効な競合学習ができない。
When competing to select a winning element using inner product arithmetic, it is necessary to standardize the data. This will be described with reference to FIG. The input data is a two-dimensional vector X, and the weight vector of the element group that is a candidate for competition is a two-dimensional vector m i (i represents the element number). As shown in FIG. 1, it is assumed that the two-dimensional vector X is input and the candidate weight vectors are m 1 and m 2 . When the Euclidean distance is used, the element with the shortest distance between the vectors is the winning element, so d 1
<D 2 makes m 1 the winning element. On the other hand, when the inner product calculation is used, the one having the largest inner product value corresponds to the one most similar to the input vector, and becomes a winning element. Inner product value is 1, represented by the orthogonal projection D i and the product of the norm of X to X of the m i. Therefore, by comparing the magnitude of D i, the magnitude of the inner product can be compared, and in this case, m 2 is the winning element. In the competitive learning, the Euclidean distance between the input data and the weight vector and the similarity in the Manhattan distance and the like corresponding thereto are compared, and the element having the most similar weight vector is selected. However, when the inner product calculation is used as described above, a weight vector having a large norm has a large inner product value even if the Euclidean distance is large, and thus tends to be a winner. That is, the similarity in the inner product calculation depends on the norm of the vector, not on the magnitude of the Euclidean distance. Therefore, effective competitive learning cannot be performed.

【0006】そこで、内積演算によって有効な競合学習
を行わせるには、入力データ及び重みデータは規格化し
ていなければならない。このとき、図2のように、d1
<d2 、D1 >D2 となり、ユークリッド距離を用いて
も、内積演算を用いても、m1 が勝利素子となる。した
がって、内積演算を用いても有効な競合学習を行うこと
ができる。
Therefore, in order to perform effective competitive learning by inner product calculation, the input data and the weight data must be standardized. At this time, as shown in FIG. 2, d 1
<D 2 , D 1 > D 2 , and m 1 is the winning element whether the Euclidean distance or the inner product operation is used. Therefore, effective competitive learning can be performed even by using the inner product calculation.

【0007】ところが、上記のような規格化を行うこと
により、入力データのノルム情報が失われることにな
る。つまり、例えば図3に示すような2次元ベクトルデ
ータの一様分布があったとき、規格化を行うと、図4の
ような単位半径の曲線上の点が入力となる。つまり、原
点Oとデータ点を結ぶ方向上の点は全て曲線上の一点に
なり、入力データのノルム情報は失われ、方向情報のみ
が残ることになる。ベクトルデータの方向のみの競合学
習の場合は、データのノルム情報は失われてもよいが、
ベクトルのノルムも考慮する競合学習では、ノルム情報
を失うことはできない。
However, by performing the above-mentioned standardization, the norm information of the input data is lost. That is, for example, when there is a uniform distribution of the two-dimensional vector data as shown in FIG. 3, the points on the curve of the unit radius as shown in FIG. That is, all the points in the direction connecting the origin O and the data point are one point on the curve, the norm information of the input data is lost, and only the direction information remains. In the case of competitive learning only in the direction of vector data, the norm information of the data may be lost,
Norm information cannot be lost in competitive learning that also considers the norm of a vector.

【0008】以上の課題を整理すると、本発明の情報処
理装置に求められる条件は、以下の通りである。 A−1)距離基準として、ハードウエア化に適した内積
演算を用いる競合学習を行う。 A−2)入力データのノルム情報を失わない競合学習が
できる。
Summarizing the above problems, the conditions required for the information processing apparatus of the present invention are as follows. A-1) As the distance reference, competitive learning using inner product calculation suitable for hardware implementation is performed. A-2) Competitive learning that does not lose norm information of input data can be performed.

【0009】本発明は上記のような状況に鑑みてなされ
たものであり、その目的は、上記A−1)、A−2)の
条件を満たし、距離基準としてハードウエア化に適した
内積演算を用いて競合学習を行い、入力データのノルム
情報を失わない競合学習が可能な情報処理装置を提供す
ることである。
The present invention has been made in view of the above situation, and an object thereof is to satisfy the above conditions A-1) and A-2) and to calculate an inner product suitable for hardware as a distance reference. It is an object of the present invention to provide an information processing device capable of performing competitive learning by using, and performing competitive learning without losing norm information of input data.

【0010】[0010]

【課題を解決するための手段】上記目的を達成する本発
明の情報処理装置は、入力ベクトルを重みベクトル群の
各ベクトルと内積をとることによって重みベクトル群の
何れかのベクトルへ対応させる情報処理装置において、
内積をとる前に入力ベクトルのノルムに関する情報を抽
出して該入力ベクトルの成分に付加するノルム抽出・付
加手段を有することを特徴とするものである。
An information processing apparatus of the present invention that achieves the above object is an information processing apparatus that associates an input vector with any vector of a weight vector group by taking an inner product with each vector of the weight vector group. In the device,
The present invention is characterized by having norm extraction / addition means for extracting information about the norm of the input vector before taking the inner product and adding it to the components of the input vector.

【0011】この場合、上記の内積をとる前に前記のノ
ルムに関する情報を付加した入力ベクトルを正規化する
入力ベクトル正規化手段を有することが望ましい。ま
た、上記の内積をとる前に重みベクトル群の各ベクトル
を正規化する重みベクトル群正規化手段を有することが
望ましい。これらの正規化は、電気信号により行うよう
にしても、また、光学的に行うようにしてもよい。
In this case, it is desirable to have an input vector normalizing means for normalizing the input vector to which the information on the norm is added before taking the inner product. Further, it is desirable to have a weight vector group normalizing means for normalizing each vector of the weight vector group before taking the above inner product. These normalizations may be performed by an electric signal or may be performed optically.

【0012】[0012]

【作用】以下、上記のような構成を採用する理由と作用
について説明する。距離基準として内積演算を用いて
(A−1))、入力データのノルム情報を失わない競合
学習ができる(A−2))ためには、どのようなアルゴ
リズムにすればよいかを、理論的に図5から図11を用
いて説明する。
The function and operation of adopting the above configuration will be described below. Theoretically, what kind of algorithm should be used in order to perform competitive learning that does not lose the norm information of the input data (A-2)) by using the inner product calculation as the distance reference (A-1) It will be described with reference to FIGS. 5 to 11.

【0013】前述のように、内積演算を用いて類似度を
判別する場合、データを規格化する必要がある。このと
き、ベクトルをそのノルムで割り、単位ベクトルとする
ため、従来は、元のノルム情報が失われてしまってい
た。元のノルム情報を失わないために、本発明において
は、入力ベクトルの1つの成分に、ノルムを示す成分を
加えることを考える。例えば、入力データを2次元ベク
トルX=(x,y)とする。ノルムはD=(x2
2 1/2 である。これを規格化すると、X/|X|=
(x/D,y/D)となる。これが、従来、内積演算を
用いて類似度を判別するとき用いていた入力ベクトルで
ある。このベクトルにノルムを示す成分を加えて、X’
=(x/D,y/D,f(D))を作成する。次に、
X’を規格化して、X”=X’/|X’|を作成し、こ
れをXの代わりに入力データとする。
As described above, when determining the degree of similarity using the inner product calculation, it is necessary to standardize the data. At this time, since the vector is divided by the norm to form a unit vector, the original norm information has heretofore been lost. In order not to lose the original norm information, in the present invention, it is considered to add a component indicating the norm to one component of the input vector. For example, the input data is a two-dimensional vector X = (x, y). The norm is D = (x 2 +
y 2 ) 1/2 . If this is standardized, X / | X | =
(X / D, y / D). This is the input vector that is conventionally used when the similarity is determined using the inner product calculation. The vector norm component is added to this vector, and X '
= (X / D, y / D, f (D)) is created. next,
X ′ is standardized to create X ″ = X ′ / | X ′ |, and this is used as input data instead of X.

【0014】すなわち、 X=(x,y)、D=(x2 +y2 1/2 ・・・(1) X’=(x/D,y/D,f(D)) ・・・(2) X”=X’/|X’| ・・・(3) X”は規格化してあるので、内積演算を用いて類似度の
判別をすることができる。かつ、X”のベクトル成分に
ノルムの情報Dが含まれているので、規格化しても、入
力ベクトルの方向情報だけでなく、ノルムの情報も残る
ことになる。したがって、X=(x,y)の代わりに
X”を入力データとすれば、距離基準として内積演算を
用いても、入力データのノルム情報を失われない競合学
習が可能である。
That is, X = (x, y), D = (x 2 + y 2 ) 1/2 (1) X '= (x / D, y / D, f (D)) (2) X ″ = X ′ / | X ′ | (3) Since X ″ is standardized, it is possible to determine the degree of similarity using the inner product operation. In addition, since the norm information D is included in the vector component of X ″, not only the direction information of the input vector but also the norm information remains even after normalization. Therefore, X = (x, y If X ″ is used as the input data instead of), competitive learning is possible without losing the norm information of the input data even if the inner product operation is used as the distance reference.

【0015】入力データの2次元ベクトルと、そのベク
トルにノルムを示す成分を加えた3次元ベクトルとの対
応関係を様々なf(D)について調べる。まず、簡単に
考えられる場合として、a)f(D)=D,b)f
(D)=1/Dを選び、図5に示す2次元平面上のXの
各点A1 、B1 、A2 、B2 がどのような3次元空間上
のX”の各点に変換されるかを示したのが、それぞれ図
6、図7である。図6、図7の何れの場合も1対1の対
応関係はできており、また、点A1 、B1 、A2 、B2
の順が崩れる捩じれのようなことはない。ただし、入力
データの位相をより良く保存しているのは、b)の場合
である。この理由を以下に述べる。
The correspondence between a two-dimensional vector of input data and a three-dimensional vector obtained by adding a component indicating the norm to the vector is examined for various f (D). First, as a simple case, a) f (D) = D, b) f
(D) = 1 / D is selected, and each point A 1 , B 1 , A 2 , B 2 of X on the two-dimensional plane shown in FIG. 5 is converted into each point of X ″ on the three-dimensional space. 6 and 7 respectively show that there is a one-to-one correspondence, and points A 1 , B 1 and A 2 are also shown. , B 2
There is no such thing as a twist that breaks the order. However, the case where the phase of the input data is better preserved is in the case of b). The reason for this will be described below.

【0016】図5に示す2次元平面上で、A1 とB1
距離、A2 とB2 の距離を比較すると、A1 とB1 の方
がより近い。これを変換した各点を3次元空間上で比べ
ると、図6では、A1 とB1 に対応する点A1 ”、
1 ”が、A2 とB2 に対応する点A2 ”、B2 ”より
も近くなっているが、図7では、その逆になっている。
したがって、図7では、2次元平面上の相対的な遠近関
係も反映でき、入力データの位相をより良く保存してい
るのである。
Comparing the distance between A 1 and B 1 and the distance between A 2 and B 2 on the two-dimensional plane shown in FIG. 5, A 1 and B 1 are closer. Comparing these converted points in a three-dimensional space, in FIG. 6, the points A 1 ″ corresponding to A 1 and B 1 are
B 1 ″ is closer than the points A 2 ″ and B 2 ″ corresponding to A 2 and B 2 , but in FIG. 7, the opposite is true.
Therefore, in FIG. 7, the relative perspective relationship on the two-dimensional plane can be reflected, and the phase of the input data is better preserved.

【0017】入力データの位相をより良く保存している
かの優劣をさらに明確にするために、実験例を示す。競
合学習の例として、自己組織化特徴マップ(T.Kohone
n,"Self-Organization and Associative Memory,Third
Edition,Springer-Verlag,Berlin,1989., 以下、SOM
と呼ぶ。)を用いて位相保存写像を行った。以下、SO
Mについて簡単に説明する。
In order to further clarify the superiority or inferiority of whether the phase of the input data is better preserved, an experimental example is shown. As an example of competitive learning, self-organizing feature map (T.Kohone
n, "Self-Organization and Associative Memory, Third
Edition, Springer-Verlag, Berlin, 1989., Below, SOM
Call. ) Was used to perform the phase-preserving mapping. Below, SO
The M will be briefly described.

【0018】SOMは、図8に示すように、2次元に並
ぶ素子群の層(以下、マップ層MLと表記する。)とデ
ータを入力する入力層IPから構成される。このマップ
層MLは、図8では2次元に並ぶ素子を示したが、1次
元に並ぶ素子を用いてもよい。入力層IPはマップ層M
Lの全ての素子と結合しており、入力データをマップ層
MLの全ての素子に与えることができる。入力データ
は、スカラーでもベクトルでもよいが、ここでは、一般
的にベクトルX(n次元)と置く。マップ層MLの素子
i(iはマップ上の順番とし、全素子数をk個とす
る。)は全て重みベクトルmi (n次元)を持つことに
する。SOMのアルゴリズムは、入力ベクトルXと各素
子の重みベクトルmi との類似性から、更新すべき重み
ベクトルを決定する<類似性マッチング>と、その重み
ベクトルmi を入力ベクトルXの方に近付ける<更新>
とに分けられる。そして、両者の作用を繰り返すことに
より、入力ベクトルXの分布を反映する重みベクトルm
i (1≦i≦k)が生成する。上記<類似性マッチング
>と<更新>の具体的な表式を以下に示す。
As shown in FIG. 8, the SOM is composed of a layer of two-dimensionally arranged element groups (hereinafter referred to as a map layer ML) and an input layer IP for inputting data. Although the map layer ML shows elements arranged two-dimensionally in FIG. 8, elements arranged one-dimensionally may be used. Input layer IP is map layer M
It is coupled to all the elements of L, and the input data can be given to all the elements of the map layer ML. The input data may be a scalar or a vector, but here, it is generally set as a vector X (n-dimensional). It is assumed that all the elements i of the map layer ML (i is the order on the map and the total number of elements is k) have a weight vector m i (n-dimensional). The SOM algorithm determines the weight vector to be updated from the similarity between the input vector X and the weight vector m i of each element <similarity matching>, and brings the weight vector m i closer to the input vector X. <Update>
Can be divided into Then, by repeating the actions of both, the weight vector m reflecting the distribution of the input vector X
i (1 ≦ i ≦ k) is generated. The specific expressions of <similarity matching> and <update> are shown below.

【0019】<類似性マッチング> <更新> mi (t+1)=mi (t)+α(t){X(t)−mi (t)}i∈Nc i (t+1)=mi (t) その他 ・・・(5) ここで、|X−mi |はXとmi のユークリッド距離、
Cはその距離が最も小さかった素子(勝利素子)、Nc
はその勝利素子Cのマップ層MLでの近傍、α(t)は
正の定数、tは時刻を示す。更新を繰り返しながら、N
c とα(t)の大きさは徐々に小さくする。また、α
(t)は勝利素子Cから離れるに従い、小さくなるよう
に選ぶこともできる。
<Similarity Matching> <Update> m i (t + 1) = m i (t) + α (t) {X (t) -m i (t)} i∈N c m i (t + 1) = m i (t) Others ... ( 5) where | X−m i | is the Euclidean distance between X and m i ,
C is the element with the smallest distance (victory element), N c
Is the neighborhood of the winning element C in the map layer ML, α (t) is a positive constant, and t is the time. While repeating the update, N
The magnitudes of c and α (t) are gradually reduced. Also, α
(T) can be selected so as to become smaller as the distance from the victory element C increases.

【0020】以上のアルゴリズムでは、<類似性マッチ
ング>でユークリッド距離を用いているので、Xもmi
も規格化する必要がない。本発明のように、<類似性マ
ッチング>で内積演算を用いる場合、SOMアルゴリズ
ムの<類似性マッチング>と<更新>の具体的な表式は
次のようになる。
In the above algorithm, since Euclidean distance is used in <similarity matching>, X is also m i
Need not be standardized. When the inner product operation is used in <similarity matching> as in the present invention, specific expressions of <similarity matching> and <update> of the SOM algorithm are as follows.

【0021】<類似性マッチング> <更新> mi (t+1)=[mi (t)+α(t){X(t)−mi (t)}] ÷|mi (t)+α(t){X(t)−mi (t)}|i∈Nc i (t+1)=mi (t) その他 ・・・(7) ここで、Xは規格化してあるとする。mi も更新後に規
格化してある。
<Similarity Matching> <Update> m i (t + 1) = [m i (t) + α (t) {X (t) −m i (t)}] ÷ | m i (t) + α (t) {X (t) -m i (t)} | i∈N c m i (t + 1) = m i (t) Others (7) wherein, X is a is normalized. mi is also standardized after updating.

【0022】入力ベクトルXの集合からランダムにXを
選んで逐次入力し、重みベクトルmi の更新を繰り返す
ことにより、入力ベクトルXの分布を反映する重みベク
トルmi (1≦i≦k)が生成する。すなわち、重みベ
クトルmi (1≦i≦k)が入力ベクトルの分布のプロ
トタイプになっている。そして、ある素子の重みベクト
ルを入力ベクトルに近付けるように更新するとき、マッ
プ上のその素子の近傍の素子も同様に更新するので、マ
ップ上で隣接する素子同志は、それぞれ入力ベクトルの
空間上でも近いベクトルに対応するようになる。したが
って、SOMアルゴリズムは、入力データ空間の位相を
反映したプロトタイプの集合を作成することができる。
SOMアルゴリズムには、次のような特長がある。
[0022] randomly enter sequentially choose X from the set of input vectors X, by repeating the update of the weight vector m i, the weight vector m i which reflects the distribution of the input vector X (1 ≦ i ≦ k) is To generate. That is, the weight vector m i (1 ≦ i ≦ k) is a prototype of the distribution of the input vector. Then, when the weight vector of a certain element is updated so as to be closer to the input vector, the elements in the vicinity of that element on the map are also updated in the same manner. It corresponds to a close vector. Therefore, the SOM algorithm can create a set of prototypes that reflect the topology of the input data space.
The SOM algorithm has the following features.

【0023】B−1)重みベクトルmi (1≦i≦k)
の初期状態によらずに、適正なマップが作成できる。 B−2)入力ベクトルXの入力順によらずに、適正なマ
ップが作成できる。
B-1) Weight vector m i (1≤i≤k)
A proper map can be created regardless of the initial state of. B-2) An appropriate map can be created regardless of the input order of the input vector X.

【0024】B−3)マップが1次元か2次元であるの
で、入力データの位相を視覚的に見ることができる。 B−4)<類似性マッチング>と<更新>と言う単純な
操作の繰り返しなので、アルゴリズムが簡単である。
B-3) Since the map is one-dimensional or two-dimensional, the phase of the input data can be visually seen. B-4) Since the simple operations of <similarity matching> and <update> are repeated, the algorithm is simple.

【0025】以上、SOMについて説明した。このSO
Mにおいて、前記のf(D)の取り方を変えてX”を用
いた内積演算を行う。そして、f(D)の取り方による
入力データの位相保存状況の優劣を比較する。
The SOM has been described above. This SO
In M, an inner product operation using X ″ is performed by changing the way of taking f (D). Then, the superiority or inferiority of the phase preservation state of the input data depending on the way of taking f (D) is compared.

【0026】SOMにおいて、素子は10×10個の2
次元格子状の配列、入力データは、正方形内に一様に分
布する2次元ベクトル群X=(x,y),{0≦x≦
1,0≦y≦1}とする。入力データの位相をより良く
保存しているかどうかは、正方形内の2次元ベクトル群
X=(x,y)を、そのデータが対応する素子毎に区別
して表示し、各領域の形を調べることによって行う。な
お、データが対応する素子毎に区別しやすいように、2
次元格子状で隣接する素子を白と黒に分けて表示してあ
る。
In the SOM, the elements are 10 × 10 2 elements.
Two-dimensional vector group X = (x, y), {0 ≦ x ≦
1, 0 ≦ y ≦ 1}. To see if the phase of the input data is better preserved, check the shape of each area by displaying the two-dimensional vector group X = (x, y) in the square for each element to which the data corresponds. Done by. In order to make it easy to distinguish between the elements to which the data correspond, 2
Adjacent elements in a three-dimensional grid are shown divided into white and black.

【0027】通常、SOMでは、X=(x,y)をその
まま入力し、競合学習の距離基準としてユークリッド距
離を用いる。その場合の結果を図9(a)、(b)に示
す。図9(b)は、各素子の重みベクトルを隣接する素
子同志結んだ図、図9(a)は、その素子が対応する領
域を示す図(以後は、領域図と呼ぶ。)である。正方形
内の2次元ベクトル群Xを2次元格子状に分けているの
で、このように各領域は小正方形格子が規則正しく並ん
だ構造を持つ。X=(x,y)をそのまま入力し、競合
学習の距離基準としてユークリッド距離を用いれば、最
も良く入力データの位相を保存できる。この結果を標準
結果と呼ぶことにする。X”を入力して、内積演算で競
合学習を行う場合は、この標準結果に近い程、入力デー
タの位相をより良く保存していると言えることになる。
Normally, in SOM, X = (x, y) is input as it is, and Euclidean distance is used as a distance reference for competitive learning. The results in that case are shown in FIGS. 9 (a) and 9 (b). FIG. 9B is a diagram in which the weight vectors of the respective elements are connected to each other, and FIG. 9A is a diagram showing a region corresponding to the element (hereinafter referred to as a region diagram). Since the two-dimensional vector group X in the square is divided into two-dimensional lattices, each region has a structure in which small square lattices are regularly arranged in this manner. If X = (x, y) is input as it is and the Euclidean distance is used as the distance reference for competitive learning, the phase of the input data can be best saved. This result will be called the standard result. When X ″ is input and the competitive learning is performed by the inner product calculation, it can be said that the closer to the standard result, the better the phase of the input data is stored.

【0028】そこで、前記したa)f(D)=D,b)
f(D)=1/Dの場合につき、内積演算のSOMを行
った。その領域図をそれぞれ図10(a)、(b)に示
す。図10(b)では領域が格子状に広がっているのに
対し、図10(a)では領域が乱れ、特に左上の原点近
くで放射状に分布している。したがって、明らかに
(b)の場合の方がより良く入力データの位相を保存し
ていると言える。なお、分布が放射状になるのは、X=
(x,y)の角度依存性が強いことを示している。この
理由は、前述の図6について説明したように、2次元平
面では近いはずの原点付近のA1 、B1 が3次元空間で
は相対的に離れてしまい、角度の情報がノルムの情報よ
り強調されるためと解釈できる。
Therefore, the above-mentioned a) f (D) = D, b)
For the case of f (D) = 1 / D, SOM of inner product calculation was performed. The area diagrams are shown in FIGS. 10 (a) and 10 (b), respectively. In FIG. 10 (b), the regions spread in a grid pattern, whereas in FIG. 10 (a), the regions are disturbed and distributed radially near the origin on the upper left. Therefore, it can be said that the case (b) obviously preserves the phase of the input data better. Note that the radial distribution is X =
It shows that the angle dependence of (x, y) is strong. The reason for this is that, as described above with reference to FIG. 6, A 1 and B 1 near the origin, which should be close in the two-dimensional plane, are relatively separated in the three-dimensional space, and the angle information is emphasized more than the norm information. It can be interpreted as being done.

【0029】補足実験として、大きさ情報を用いず、X
=(x,y)を規格化しただけで入力し、内積演算のS
OMを行った。このときの領域図を図10(c)に示
す。前記の〔発明が解決しようとする課題〕で述べたよ
うに、規格化によって入力データのノルム情報は失われ
る。したがって、全領域が角度情報のみに依存した放射
状の分布となり、素子のノルムに関する識別能力は失わ
れてしまう。前述の図10(a)の場合、図10(b)
に比べて領域は乱れているが、ノルムに関する識別能力
は残っていることが、図10(c)と比較すると分か
る。
As a supplementary experiment, without using size information, X
= (X, y) is standardized and input
OM was performed. A region diagram at this time is shown in FIG. As described above in [Problems to be Solved by the Invention], norm information of input data is lost by normalization. Therefore, the entire region has a radial distribution that depends only on the angle information, and the discriminative ability regarding the norm of the element is lost. In the case of FIG. 10A described above, FIG.
It can be seen from comparison with FIG. 10 (c) that the region is disturbed as compared with, but the discrimination ability regarding the norm remains.

【0030】さて、a)f(D)=D,b)f(D)=
1/Dの場合では、b)の方がより良く入力データの位
相を保存していると言えたが、さらに良く入力データの
位相を保存するためには、どのようなf(D)を選べば
よいかを調べる。換言すれば、どのようなf(D)を選
べば、X=(x,y)をそのまま入力し、競合学習の距
離基準としてユークリッド距離を用いた場合と同じ結果
を得ることができるかを調べる。なお、完全に入力デー
タの位相が保存できるかどうかは、SOM自体の持つ問
題である。本発明の説明において、最も良く入力データ
の位相を保存することは、競合学習の距離基準としてユ
ークリッド距離を用いた場合と同じ結果を得ることに相
当し、完全に入力データの位相を保存することではない
ことに注意する。このことに留意した上で、X=(x,
y)をそのまま入力し、ユークリッド距離を用いた場合
と同じ結果を得るための条件を求める。
Now, a) f (D) = D, b) f (D) =
In the case of 1 / D, it can be said that b) preserves the phase of the input data better, but in order to preserve the phase of the input data better, what f (D) can be selected Find out what to do. In other words, what kind of f (D) should be selected and whether X = (x, y) can be directly input to obtain the same result as when the Euclidean distance is used as the distance criterion for competitive learning is investigated. . Whether or not the phase of the input data can be completely saved is a problem of the SOM itself. In the description of the present invention, the best preservation of the phase of the input data corresponds to obtaining the same result as the case where the Euclidean distance is used as the distance criterion of the competitive learning, and the preservation of the phase of the input data completely. Note that not. With this in mind, X = (x,
y) is input as it is, and the condition for obtaining the same result as when the Euclidean distance is used is obtained.

【0031】再び図5における4点A1 、B1 、A2
2 を考える。ユークリッド距離を用いた場合と同じ結
果を得るためには、2次元平面における線分の比が3次
元空間においても保存されなければならない。この条件
を式で表す。
Again, the four points A 1 , B 1 , A 2 , in FIG.
Consider B 2 . In order to obtain the same result as using the Euclidean distance, the ratio of the line segments in the two-dimensional plane must be preserved in the three-dimensional space. This condition is expressed by an equation.

【0032】まず、4点A1 、B1 、A2 、B2 の座
標、及び、ノルムD1 、D2 はそれぞれ(8)式のよう
になる。 A1 =(r1 cosθA ,r1 sinθA ), A2 =(r2 cosθA ,r2 sinθA ), B1 =(r1 cosθB ,r1 sinθB ), B2 =(r2 cosθB ,r2 sinθB ), D1 =r1 ,D2 =r2 ・・・(8) これらの座標が前記の入力ベクトルX=(x,y)に相
当する。このベクトルを規格化し、さらに、ノルムを示
す成分を加えたX’=(x/D,y/D,f(D))は
(9)式のようになる。
First, the coordinates of the four points A 1 , B 1 , A 2 , and B 2 and the norms D 1 and D 2 are expressed by equation (8). A 1 = (r 1 cos θ A , r 1 sin θ A ), A 2 = (r 2 cos θ A , r 2 sin θ A ), B 1 = (r 1 cos θ B , r 1 sin θ B ), B 2 = (r 2 cos θ B , r 2 sin θ B ), D 1 = r 1 , D 2 = r 2 (8) These coordinates correspond to the input vector X = (x, y). X '= (x / D, y / D, f (D)) obtained by normalizing this vector and adding a component indicating the norm is expressed by the equation (9).

【0033】 A1 ’=( cosθA , sinθA ,f(D1 )), A2 ’=( cosθA , sinθA ,f(D2 )), B1 ’=( cosθB , sinθB ,f(D1 )), B2 ’=( cosθB , sinθB ,f(D2 )) ・・・(9) これを規格化したX”は(10)式のようになる。A 1 ′ = (cos θ A , sin θ A , f (D 1 )), A 2 ′ = (cos θ A , sin θ A , f (D 2 )), B 1 ′ = (cos θ B , sin θ B , f (D 1 )), B 2 ′ = (cos θ B , sin θ B , f (D 2 )) (9) The standardized X ″ is expressed by equation (10).

【0034】 A1 ”=( cosθA , sinθA ,f(D1 ))/{1+f(D1 2 1/2 2 ”=( cosθA , sinθA ,f(D2 ))/{1+f(D2 2 1/2 1 ”=( cosθB , sinθB ,f(D1 ))/{1+f(D1 2 1/2 2 ”=( cosθB , sinθB ,f(D2 ))/{1+f(D2 2 1/2 ・・・(10) 3次元空間のx2 +y2 +z2 =1面上での弧A1 ,B
1 間の長さと、弧A2,B2 間の長さは、それぞれ(1
1)、(12)式で与えられる(弧は、〈A11 〉の
ように表す。)。ここで、A1 、B1 、A2 、B2 の位
置ベクトルを考えることとする(ベクトルは、1 のよ
うに表す。)。
A 1 ″ = (cos θ A , sin θ A , f (D 1 )) / {1 + f (D 1 ) 2 } 1/2 A 2 ″ = (cos θ A , sin θ A , f (D 2 )) / {1 + f (D 2 ) 2 } 1/2 B 1 ″ = (cos θ B , sin θ B , f (D 1 )) / {1 + f (D 1 ) 2 } 1/2 B 2 ″ = (cos θ B , sin θ B , F (D 2 )) / {1 + f (D 2 ) 2 } 1/2 ... (10) Arc A 1 , B on a plane of x 2 + y 2 + z 2 = 1 in a three-dimensional space
The length between 1 and the length between arcs A 2 and B 2 are (1
1), (12) given by equation (arc, expressed as <A 1 B 1>.). Here, it is assumed that the position vectors of A 1 , B 1 , A 2 , and B 2 are considered (the vector is expressed as A 1 ).

【0035】 〈A1 ”B1 ”〉= cos-11 ”・1 ”/(|1 ”||1 ”|)} = cos-1[{ cosθA cosθB + sinθA + sinθB +f(D1 2 }/{1+f(D1 2 }] = cos-1[{ cos(θA −θB )+f(D1 2 } /{1+f(D1 2 }] = cos-1[{ cosΔθ+f(D1 2 }/{1+f(D1 2 }] ・・・(11) 〈A2 ”B2 ”〉= cos-1[{ cosΔθ+f(D2 2 } /{1+f(D2 2 }] ・・・(12) 2次元平面における線分A1 1 と線分A2 2 の長さ
の比は(13)式で与えられる。
<A 1 ″B 1 ″> = cos −1 { A 1 ″ · B 1 ″ / (| A 1 ″ || B 1 ″ |)} = cos −1 [{cos θ A cos θ B + sin θ A + Sin θ B + f (D 1 ) 2 } / {1 + f (D 1 ) 2 }] = cos -1 [{cos (θ A −θ B ) + f (D 1 ) 2 } / {1 + f (D 1 ) 2 } ] = Cos −1 [{cos Δθ + f (D 1 ) 2 } / {1 + f (D 1 ) 2 }] (11) <A 2 ″B 2 ″> = cos −1 [{cos Δθ + f (D 2 ) 2 } / {1 + f (D 2 ) 2 }] (12) The ratio of the lengths of the line segment A 1 B 1 and the line segment A 2 B 2 in the two-dimensional plane is given by the equation (13).

【0036】 |A1 −B1 |:|A2 −B2 |=r1 :r2 =D1 :D2 ・・(13) (14)式のように、線分A1 1 と線分A2 2 の長
さの比が、〈A1 ”B1 ”〉と〈A2 ”B2 ”〉の長さ
の比と等しいとき、(14)式に示す条件が成立する。
│A 1 -B 1 │: │A 2 -B 2 │ = r 1 : r 2 = D 1 : D 2 ··· (13) As shown in the equation (14), the line segments A 1 B 1 and When the length ratio of the line segment A 2 B 2 is equal to the length ratio of <A 1 ″B 1 ″> and <A 2 ″B 2 ″>, the condition shown in equation (14) is satisfied.

【0037】 |A1 −B1 |/|A2 −B2 |=〈A1 ”B1 ”〉/〈A2 ”B2 ”〉 ・・・(14) (14)式に(11)、(12)、(13)式を代入す
ると、(15)式のようになる。
│A 1 -B 1 │ / │A 2 -B 2 │ = <A 1 ″B 1 ″> / <A 2 ″B 2 ″> (14) Equation (11) in (11) , (12) and (13) are substituted, the result is as shown in Expression (15).

【0038】 D1 /D2 = cos-1[{ cosΔθ+f(D1 2 }/{1+f(D1 2 }] ÷ cos-1[{ cosΔθ+f(D2 2 }/{1+f(D2 2 }] ・・・(15) (15)式は、比例定数k(k≠0)を用いて(16)
式のように書ける。
D 1 / D 2 = cos −1 [{cos Δθ + f (D 1 ) 2 } / {1 + f (D 1 ) 2 }] ÷ cos −1 [{cos Δθ + f (D 2 ) 2 } / {1 + f (D 2 ) 2 }] (15) Equation (15) is obtained by using the proportional constant k (k ≠ 0) in (16)
You can write like a formula.

【0039】 kDi = cos-1[{ cosΔθ+f(Di 2 }/{1+f(Di 2 }] (i=1,2)・・・(16) これをf(Di )に関して解くと、(17)式のように
なる。
KD i = cos −1 [{cos Δθ + f (D i ) 2 } / {1 + f (D i ) 2 }] (i = 1, 2) (16) This is solved for f (D i ). Then, it becomes like the expression (17).

【0040】 f(Di )={( coskDi − cosΔθ)/(1− coskDi )}1/2 (i=1,2)・・・(17) ここで、諸量の定義及び根号内が正であるために、次の
制限条件(18)式がある。
F (D i ) = {(coskD i −cosΔθ) / (1−coskD i )} 1/2 (i = 1, 2) (17) Here, the definitions and radicals of various quantities Since the inside is positive, there is the following limiting condition (18).

【0041】 coskDi − cosΔθ>0,0<kDi <π/2 (=1,2) ・・・(18) 式(17)、(18)の意味は以下のようになる。2次
元平面でΔθをなすある2点を上述のような規則で3次
元空間に変換するとき、(17)式のようなf(D)の
式を用いれば、2次元平面のそのような2点間の線分同
志の比は、対応する3次元空間のx2 +y2 +z2 =1
面上の点間の長さの比と等しい。
CoskD i − cosΔθ> 0,0 <kD i <π / 2 (= 1, 2) (18) The expressions (17) and (18) have the following meanings. When converting two points forming Δθ in a two-dimensional plane into a three-dimensional space according to the above-mentioned rule, if the formula of f (D) such as the formula (17) is used, such a two-dimensional plane of the two-dimensional plane can be obtained. The ratio of the line segment comrades between points is x 2 + y 2 + z 2 = 1 in the corresponding three-dimensional space.
Equal to the length ratio between points on the face.

【0042】(18)式によれば、ある比例定数kを決
めると、Di はk及びΔθで決まる量より大きくならな
いことが分かる。これを定性的に説明する。Di が大き
くなると、2次元平面では2点間の距離はいくらでも大
きくなるが、対応する3次元空間のx2 +y2 +z2
1面上の裾野の点間の長さは、裾野の幅より大きくなれ
ない。よって、Di が大きくなると、条件を満たすのが
難しくなるのである。
According to the equation (18), when a certain constant of proportionality k is determined, D i does not become larger than the amount determined by k and Δθ. This will be explained qualitatively. As D i becomes larger, the distance between two points becomes larger as much as possible in the two-dimensional plane, but x 2 + y 2 + z 2 = in the corresponding three-dimensional space.
The length between the points on the hem on one side cannot be larger than the width of the hem. Therefore, if D i becomes large, it becomes difficult to satisfy the condition.

【0043】f(Di )を(17)式のように選んだ場
合の効果を調べるため、前述のような内積演算のSOM
を行った。f(Di )のパラメータは、(18)式を満
たすように、k=0.3,Δθ=π/3と選んだ。(1
8)式はあるΔθにおける式である。競合学習では、様
々な入力ベクトルがあるので、Δθはそれに応じて様々
な値をとるが、実際にシミュレーションする際は、(1
8)式が満たされるように、Di の最大値を考慮してk
及びΔθを予め適当に決めておくことになる。領域図の
結果を見れば分かるが、k及びΔθを固定しておいて問
題はない。
In order to investigate the effect when f (D i ) is selected as in equation (17), the SOM of the inner product operation as described above is used.
I went. The parameters of f (D i ) were selected as k = 0.3 and Δθ = π / 3 so as to satisfy the equation (18). (1
Equation 8) is an equation for a certain Δθ. In competitive learning, since there are various input vectors, Δθ takes various values accordingly, but in actual simulation, (1
In consideration of the maximum value of D i , k is satisfied so that the expression (8) is satisfied.
And Δθ will be appropriately determined in advance. As can be seen from the result of the area diagram, there is no problem if k and Δθ are fixed.

【0044】(17)式を用いた場合の領域図を図11
に示す。図11によれば、図9(a)と同様に、小正方
形格子が規則正しく並んだ構造を持っている。これは、
f(D)=1/Dを選んだ場合より良く整列している。
このことは、縦横の小領域数が10個であることからも
分かる。
FIG. 11 is a region diagram when the equation (17) is used.
Shown in According to FIG. 11, as in FIG. 9A, the small square lattice has a regular arrangement. this is,
The alignment is better than when f (D) = 1 / D is selected.
This can be understood from the fact that the number of small vertical and horizontal regions is 10.

【0045】したがって、この実験より、(17)式で
与えられるf(Di )を用いれば、X=(x,y)をそ
のまま入力し、競合学習の距離基準としてユークリッド
距離を用いた場合と同じ結果を得ることが可能であり、
最も良く入力データの位相を保存する写像を実現できる
ことが分かる。
Therefore, from this experiment, if f (D i ) given by the equation (17) is used, X = (x, y) is input as it is, and Euclidean distance is used as the distance reference for competitive learning. It is possible to get the same result,
It can be seen that the mapping that best preserves the phase of the input data can be realized.

【0046】次に、(14)、(15)式について補足
する。(14)、(15)式は、厳密な条件であるが、
両辺の分母分子の大小関係を保存するのみであれば、f
(D)がDに関して減少する関数であればよいことが、
関数の性質を考慮すると分かる。つまり、f(D)=D
とf(D)=1/Dを比較して、f(D)=1/Dの方
の結果が良かったのは、f(D)=1/DはDに関して
減少関数であったからと言える。
Next, the formulas (14) and (15) will be supplemented. Expressions (14) and (15) are strict conditions,
If only the magnitude relationship of the denominator numerator on both sides is preserved, f
It is sufficient that (D) is a function that decreases with respect to D,
It can be understood by considering the property of the function. That is, f (D) = D
And f (D) = 1 / D are compared, the result of f (D) = 1 / D is better because f (D) = 1 / D is a decreasing function with respect to D. .

【0047】もちろん、関数は、f(D)=1/Dに限
定されるものではない。位相を良く保存するために、D
に関して任意の減少関数を選んでよい。また、Dに関し
て減少関数以外の関数を取ったときでも、位相の保存は
し難くなるが、ノルム情報を失わないある程度の学習は
可能であることは、前述した通りである。
Of course, the function is not limited to f (D) = 1 / D. To preserve the phase well, D
Any decreasing function may be chosen for. Further, even if a function other than a decreasing function is taken for D, it becomes difficult to store the phase, but it is possible to perform learning to some extent without losing norm information, as described above.

【0048】以上、距離基準として内積演算を用い、入
力データのノルム情報を失わない競合学習ができるため
には、どのようなアルゴリズムにすればよいかを理論的
に説明した。簡単にまとめると、以下のようになる。C
−1)内積演算を距離基準とする競合学習において、2
次元ベクトルX=(x,y)を入力とするとき、(1)
〜(3)式のような変換を行い、X”を入力とすれば、
内積演算のための規格化によってノルムの情報を失うこ
とがない。
As described above, the inner product calculation is used as the distance criterion, and theoretically explained what kind of algorithm should be used in order to perform competitive learning without losing norm information of input data. The summary is as follows. C
-1) In competitive learning using the inner product operation as a distance reference, 2
When the dimension vector X = (x, y) is input, (1)
~ If you perform the conversion as in equation (3) and input X ",
Norm information is not lost by normalization for inner product calculation.

【0049】 X=(x,y)、D=(x2 +y2 1/2 ・・・(1) X’=(x/D,y/D,f(D)) ・・・(2) X”=X’/|X’| ・・・(3) C−2)f(D)は、様々な関数を用いることができる
が、Dに関して増加関数と減少関数では、減少関数の方
が位相を良く保存できる。例えば、f(D)=Dとf
(D)=1/Dでは、後者の方が良い。
X = (x, y), D = (x 2 + y 2 ) 1/2 (1) X ′ = (x / D, y / D, f (D)) (2) ) X ″ = X ′ / | X ′ | (3) C-2) For f (D), various functions can be used. Regarding D, an increasing function and a decreasing function are the decreasing functions. Can store the phase well, for example, f (D) = D and f
In the case of (D) = 1 / D, the latter is better.

【0050】C−3)f(D)を(17)’式のように
すれば、さらに位相を良く保存できる。 f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 ・・・(17)’ なお、(17)’式では、一般的に記述するため、Di
のiを削除した。
If C-3) f (D) is expressed by the equation (17) ', the phase can be further saved. f (D) = {(coskD− cos Δθ) / (1− coskD)} 1/2 (17) ′ In addition, since the expression (17) ′ is generally described, D i
I was deleted.

【0051】以上の議論及びまとめでは、図に示すのが
容易なため、入力として2次元ベクトルX=(x,y)
を取り扱ってきたが、n次元ベクトルX=(x1 ,x2
・・・,xn )、(n=1,2,3・・・)の場合でも
全く同様に成り立つ。このとき(1)、(2)、(3)
式は、以下の式になる。
In the above discussion and summary, since it is easy to show in the figure, the two-dimensional vector X = (x, y) is input.
However, the n-dimensional vector X = (x 1 , x 2
..., x n ), (n = 1, 2, 3 ...) In the same manner. At this time (1), (2), (3)
The formula becomes the following formula.

【0052】 X=(x1 ,x2 ・・,xn ),D=(x1 2 +x2 2 +・・xn 2 1/2 ・・・(19) X’=(x1 /D,x2 /D,・・,xn /D,f(D))・・(20) X”=X’/|X’| ・・・(21) また、(8)式において、n次元空間の4点A1
1 、A2 、B2 の座標及びノルムD1 、D2 を、(2
2)式のように、方向余弦を用いて表せば、(17)式
と全く同じ式が導ける。
X = (x 1 , x 2 ···, x n ), D = (x 1 2 + x 2 2 + ·· x n 2 ) 1/2 ... (19) X ′ = (x 1 / D, x 2 / D, ..., X n / D, f (D)) ... (20) X ″ = X ′ / | X ′ | (21) Further, in the equation (8), n 4 points in dimensional space A 1 ,
The coordinates of B 1 , A 2 , and B 2 and the norms D 1 and D 2 are (2
If the direction cosine is used as in the expression (2), the same expression as the expression (17) can be derived.

【0053】 A1 =(r1cosθA1,r1cosθA2,・・,r1cosθAn), A2 =(r2cosθA1,r2cosθA2,・・,r2cosθAn), B1 =(r1cosθB1,r1cosθB2,・・,r1cosθBn), B2 =(r2cosθB1,r2cosθB2,・・,r2cosθBn), D1 =r1 ,D2 =r ・・・(22) ここで、( cosθA1, cosθA2,・・, cosθAn)はA
1 及びA2 の方向余弦、( cosθB1, cosθB2,・・,
cosθBn)はB1 及びB2 の方向余弦を示す。n次元の
場合は、(17)式のΔθは、この2つの方向余弦のな
す角に相当する。n次元ベクトルの場合でnを2と選べ
ば、これまでの2次元ベクトルの議論と一致することが
分かる。以上のことから、前記の議論及びまとめは、2
次元ベクトルに限定されず、多次元ベクトルに拡張でき
ることは明らかである。
A 1 = (r 1 cosθ A1 , r 1 cosθ A2 , ..., r 1 cosθ An ), A 2 = (r 2 cosθ A1 , r 2 cosθ A2 , ..., R 2 cosθ An ), B 1 = (r 1 cos θ B1 , r 1 cos θ B2 , ..., r 1 cos θ Bn ), B 2 = (r 2 cos θ B1 , r 2 cos θ B2 , ..., r 2 cos θ Bn ), D 1 = r 1 , D 2 = r (22) where (cos θ A1 , cos θ A2 , ..., Cos θ An ) is A
Direction cosines of 1 and A 2 , (cos θ B1 , cos θ B2 , ...
cos θ Bn ) indicates the direction cosine of B 1 and B 2 . In the case of n dimensions, Δθ in equation (17) corresponds to the angle formed by these two direction cosines. It can be seen that if n is selected as 2 in the case of an n-dimensional vector, it agrees with the discussion of the two-dimensional vector up to now. From the above, the above discussion and summary are
It is obvious that the present invention is not limited to a dimensional vector and can be extended to a multidimensional vector.

【0054】最後に、n次元ベクトルの場合としてまと
めておく。D−1)内積演算を距離基準とする競合学習
において、n次元ベクトルX(n=1,2,3,・・)
を入力とするとき、(19)〜(21)式のような変換
を行い、X”を入力とすれば、内積演算のための規格化
によってノルムの情報を失うことがない。
Finally, the case of an n-dimensional vector will be summarized. D-1) n-dimensional vector X (n = 1, 2, 3, ...) In competitive learning using inner product calculation as a distance reference
When inputting, the conversion as in equations (19) to (21) is performed, and when X ″ is input, norm information is not lost due to normalization for inner product calculation.

【0055】 X=(x1 ,x2 ・・,xn ),D=(x1 2 +x2 2 +・・xn 2 1/2 ・・・(19) X’=(x1 /D,x2 /D,・・,xn /D,f(D))・・(20) X”=X’/|X’| ・・・(21) D−2)f(D)は、様々な関数を用いることができる
が、Dに関して増加関数と減少関数を比較すると、減少
関数の方が位相を良く保存できる。例えば、f(D)=
Dとf(D)=1/Dでは、後者の方が良い。
X = (x 1 , x 2 ···, x n ), D = (x 1 2 + x 2 2 + ·· x n 2 ) 1/2 (19) X ′ = (x 1 / D, x 2 / D, ·· , x n / D, f (D)) ·· (20) X "= X '/ | X' | ··· (21) D-2) f (D) is , Various functions can be used, but comparing the increasing function and the decreasing function with respect to D, the decreasing function can better preserve the phase, for example, f (D) =
With D and f (D) = 1 / D, the latter is better.

【0056】D−3)f(D)を(17)’式のように
すれば、さらに位相を良く保存できる。 f(D)={( coskD− cosΔθ)/(1− coskD)}1/2 ・・・(17)’ 以上、距離基準として内積演算を用い、入力データのノ
ルム情報を失わない競合学習ができるためには、どのよ
うなアルゴリズムにすればよいかを理論的に説明し、ま
とめた。以上の議論をふまえた本発明は、以下のような
情報処理装置である。
If D (3) f (D) is expressed by the equation (17) ', the phase can be further saved. f (D) = {(coskD− cos Δθ) / (1− coskD)} 1/2 (17) ′ As described above, the inner product calculation is used as the distance reference, and the competitive learning without losing the norm information of the input data can be performed. In order to achieve this, we theoretically explained and summarized what kind of algorithm should be used. The present invention based on the above discussion is the following information processing apparatus.

【0057】〔1〕入力ベクトルを重みベクトル群の各
ベクトルと内積をとることによって重みベクトル群の何
れかのベクトルへ対応させる情報処理装置において、内
積をとる前に入力ベクトルのノルムに関する情報を抽出
して該入力ベクトルの成分に付加するノルム抽出・付加
手段を有することを特徴とする情報処理装置。
[1] In an information processing apparatus that associates an input vector with each vector of the weight vector group to correspond to any vector of the weight vector group, extracts information about the norm of the input vector before taking the inner product. An information processing apparatus having a norm extracting / adding means for adding to the component of the input vector.

【0058】〔2〕前記の内積をとる前に前記のノルム
に関する情報を付加した入力ベクトルを正規化する入力
ベクトル正規化手段を有する上記〔1〕記載の情報処理
装置。 〔3〕前記の内積をとる前に前記重みベクトル群の各ベ
クトルを正規化する重みベクトル正規化手段を有する上
記〔1〕記載の情報処理装置。
[2] The information processing apparatus according to the above [1], further comprising an input vector normalizing means for normalizing an input vector to which information on the norm is added before taking the inner product. [3] The information processing apparatus according to the above [1], further including weight vector normalizing means for normalizing each vector of the weight vector group before taking the inner product.

【0059】〔4〕前記の正規化を電気信号により行う
ようにした上記〔2〕又は〔3〕記載の情報処理装置。
[4] The information processing apparatus according to the above [2] or [3], wherein the normalization is performed by an electric signal.

【0060】〔5〕前記の正規化を光学的に行うように
した上記〔2〕又は〔3〕記載の情報処理装置。
[5] The information processing apparatus according to the above [2] or [3], wherein the normalization is optically performed.

【0061】上記の本発明の情報処理装置は、次のA−
1)、A−2)の条件を満たす。
The information processing apparatus of the present invention described above has the following A-
The conditions 1) and A-2) are satisfied.

【0062】A−1)距離基準として、ハードウエア化
に適した内積演算を用いる。
A-1) An inner product calculation suitable for hardware is used as the distance reference.

【0063】A−2)入力データのノルム情報を失わな
い競合学習ができる。
A-2) It is possible to perform competitive learning without losing norm information of input data.

【0064】[0064]

【実施例】以下に、本発明の情報処理装置の好適な第
1、第2実施例について説明する。その説明に先立っ
て、これらの実施例で用いる光学的な内積演算装置の原
理を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred first and second embodiments of the information processing apparatus of the present invention will be described below. Prior to the description, the principle of the optical inner product computing device used in these embodiments will be described.

【0065】簡単のため、内積をとるベクトルを4次元
(2×2)とし、入力ベクトルX(x1 ,x2 ,x3
4 )と、9個の重みベクトル群mi (mi1,mi2,m
i3,mi4)(i=1〜9;3×3)の全てと内積をとる
ものとする。まず、図12は、第1実施例に用いられる
内積演算光学系(Taiwei et al.,"Self-organizing opt
ical neural network for unsupervised learning",Op
t.Eng.,VOL.29,No.9,pp.1107-1113,1990.)の原理を示
す図であり、2つの液晶テレビ101、102が用いら
れ、第2液晶テレビ101には2×2のXの成分
(x1 ,x2 ,x3 ,x4 )が図のような順で表示され
る。また、第1液晶テレビ102には2×2のサブマト
リックスmi が3×3に配置され、各サブマトリックス
i にmi の成分(mi1,mi2,mi3,mi4)図のよう
な順で表示される。Xとmi のベクトル成分の表示の配
置順は、一方が他方の倒立像の関係にある。光学系は、
光軸方向に配置された、第1液晶テレビ102と、第1
液晶テレビ102の3×3のサブマトリックスmi 配置
に対応した3×3個のレンズLi からなるレンズアレー
105と、第2液晶テレビ101と、結像レンズ106
と、第1液晶テレビ102の3×3のサブマトリックス
i 配置及びレンズアレー105の3×3のレンズLi
配置に対応した3×3個の受光領域を有するCCDカメ
ラ107とからなる。
For simplicity, the vector for which the inner product is taken is four-dimensional (2 × 2), and the input vector X (x 1 , x 2 , x 3 ,
x 4 ) and nine weight vector groups m i (m i1 , m i2 , m
i3 , m i4 ) (i = 1 to 9; 3 × 3) is taken as the inner product. First, FIG. 12 shows an inner product calculation optical system (Taiwei et al., "Self-organizing opt" used in the first embodiment.
ical neural network for unsupervised learning ", Op
t.Eng., VOL.29, No.9, pp.1107-1113, 1990.) is a diagram showing the principle of two liquid crystal televisions 101 and 102, and the second liquid crystal television 101 has 2 × The 2 X components (x 1 , x 2 , x 3 , x 4 ) are displayed in the order shown in the figure. Further, the first liquid crystal television 102 is arranged submatrix m i of 2 × 2 is the 3 × 3, for each submatrix m i to m i component of (m i1, m i2, m i3, m i4) view It is displayed in order. Viewing the order of arrangement of the vector components X and m i, one is in the relationship of the other inverted image. The optical system is
The first liquid crystal television 102 and the first liquid crystal television 102, which are arranged in the optical axis direction.
A lens array 105 composed of 3 × 3 lenses L i corresponding to a 3 × 3 sub-matrix m i arrangement of the liquid crystal television 102, a second liquid crystal television 101, and an imaging lens 106.
And the 3 × 3 sub-matrix m i arrangement of the first liquid crystal television 102 and the 3 × 3 lens L i of the lens array 105.
The CCD camera 107 has 3 × 3 light receiving regions corresponding to the arrangement.

【0066】そして、第1液晶テレビ102の2×2に
領域分けされてmi の成分(mi1,mi2,mi3,mi4
が表示されている1個のサブマトリックスmi の像が、
レンズアレー105の対応する位置のレンズLi によっ
て、ベクトルの成分同士を対応させながら、第2液晶テ
レビ101上に結像されるように光学配置されており、
さらに、第2液晶テレビ101は結像レンズ106の入
射瞳位置に配置され、結像レンズ106は、レンズアレ
ー105の3×3の各レンズLi の瞳をCCDカメラ1
07の3×3個の受光領域上に結像するような光学配置
になっている。
Then, the components of m i (m i1 , m i2 , m i3 , m i4 ) are divided into 2 × 2 areas of the first liquid crystal television 102.
The image of one submatrix m i in which is displayed is
The lenses L i at corresponding positions of the lens array 105 are optically arranged so as to form an image on the second liquid crystal television 101 while making the vector components correspond to each other.
Further, the second liquid crystal television 101 is arranged at the entrance pupil position of the imaging lens 106, and the imaging lens 106 directs the pupil of each 3 × 3 lens L i of the lens array 105 to the CCD camera 1.
The optical arrangement is such that an image is formed on 3 × 3 light receiving areas of 07.

【0067】したがって、CCDカメラ107のi番目
(i=1〜9)の受光領域には、レンズアレー105の
対応する位置のレンズLi を通った全光量が入射する。
このレンズLi を通った全光量とは、図の光路からも明
らかなように、第1液晶テレビ102の2×2のサブマ
トリックスmi の成分(mi1,mi2,mi3,mi4)と第
2液晶テレビ101の2×2のXの成分(x1 ,x2
3 ,x4 )とを対応する成分同士を重ね合わせて(数
学的には掛算)加え合わせたものであり、内積に他なら
ない。したがって、CCDカメラ107の図示の1〜9
の受光領域には、それぞれX・m1 〜X・m9 が得られ
る。
Therefore, the total amount of light that has passed through the lens L i at the corresponding position of the lens array 105 is incident on the i-th (i = 1 to 9) light receiving area of the CCD camera 107.
As is clear from the optical path in the figure, the total amount of light that has passed through the lens L i means the components (m i1 , m i2 , m i3 , m i4) of the 2 × 2 sub-matrix m i of the first liquid crystal television 102. ) And the 2 × 2 X component (x 1 , x 2 ,
x 3 , x 4 ) and corresponding components are superposed (mathematically multiplied) and added, which is nothing but an inner product. Therefore, the CCD camera 107 shown in FIGS.
X · m 1 to X · m 9 are obtained in the light receiving regions of, respectively.

【0068】次に、図13は、第2実施例に用いられる
内積演算光学系(J.Duvillier et al.,"All-optical im
plementation of a self-organizing map",Appl.Opt.Vo
l.33,pp.258-266,1990. )の原理を示す図であり、内積
をとるための2つの空間変調器27aと207aを用
い、内積は別の空間変調器210a上に得られるもので
ある。この場合は、空間変調器27aと207aは重ね
合わされ、空間変調器27a側から照射される平行光で
読み出される。空間変調器27aには、図12の場合と
同様、2×2のXの成分(x1 ,x2 ,x3 ,x4 )が
図のような順で表示される。また、空間変調器207a
には、9つのベクトルm1 〜m9 の各成分がまとめられ
てそれぞれ1つの3×3のサブマトリックスM1 〜M4
を構成するように表示される。すなわち、図示のよう
に、サブマトリックスMi には、各ベクトルm1 〜m9
のi番目の成分が3×3のマトリックスに配置されるよ
うに表示される。そして、空間変調器27aと207a
を重ね合わせた場合、空間変調器27aの成分x1 〜x
4 の領域がそれぞれが空間変調器207aのサブマトリ
ックスM1 〜M4 の領域に対応するように両空間変調器
27aと207aが構成されている。光学系は、光軸方
向に配置された、空間変調器27aと、空間変調器20
7aと、空間変調器27aの2×2のマトリックス配
置、及び、空間変調器207aのサブマトリックスM1
〜M4 配置に対応した2×2個のレンズLiからなるレ
ンズアレー208と、結像レンズ209と、空間変調器
210aとからなり、レンズLi の前側焦点位置に空間
変調器207aが、その後側焦点位置に結像レンズ20
9が、結像レンズ209の後側焦点位置に空間変調器2
10aが位置している。そして、空間変調器207aの
各サブマトリックスMi が空間変調器210aの全体領
域に拡大結像されるように、レンズLi と結像レンズ2
09の焦点距離の比が定められている。
Next, FIG. 13 shows an inner product calculation optical system (J. Duvillier et al., "All-optical im" used in the second embodiment.
plementation of a self-organizing map ", Appl.Opt.Vo
l.33, pp.258-266, 1990.), which uses two spatial modulators 27a and 207a for obtaining the inner product, and the inner product is obtained on another spatial modulator 210a. Is. In this case, the spatial modulators 27a and 207a are superposed and read by the parallel light emitted from the spatial modulator 27a side. As in the case of FIG. 12, 2 × 2 X components (x 1 , x 2 , x 3 , x 4 ) are displayed on the spatial modulator 27a in the order shown in the figure. In addition, the spatial modulator 207a
, The components of nine vectors m 1 to m 9 are combined into one 3 × 3 submatrix M 1 to M 4 respectively.
Is displayed to configure. That is, as shown in the figure, each vector m 1 to m 9 is included in the sub-matrix M i.
The i-th component of is displayed as arranged in a 3x3 matrix. Then, the spatial modulators 27a and 207a
, The components x 1 to x of the spatial modulator 27a are overlapped.
Fourth region is formed is both spatial modulator 27a and 207a so that each correspond to a region of the sub-matrices M 1 ~M 4 spatial modulator 207a. The optical system includes a spatial modulator 27a and a spatial modulator 20 arranged in the optical axis direction.
7a and the 2 × 2 matrix arrangement of the spatial modulator 27a, and the sub-matrix M 1 of the spatial modulator 207a.
A lens array 208 composed of 2 × 2 lenses L i corresponding to the arrangement ˜M 4 , an imaging lens 209, and a spatial modulator 210 a. A spatial modulator 207 a is provided at the front focal position of the lens L i . The imaging lens 20 at the rear focal position
9 is the spatial modulator 2 at the rear focal position of the imaging lens 209.
10a is located. The lens L i and the imaging lens 2 are formed so that each sub-matrix M i of the spatial modulator 207a is enlarged and imaged in the entire area of the spatial modulator 210a.
A focal length ratio of 09 is defined.

【0069】したがって、空間変調器210a上には、
空間変調器27aと207aを重ね合わせて、Xの成分
i と対応するサブマトリックスMi が重畳され(掛算
され)、それらのサブマトリックスMi がレンズアレー
208の作用で同じ位置に重ね合って結像される。その
ため、空間変調器210aのサブマトリックスMi のj
番目(j=1〜9)の成分mjiが対応する位置には、全
てのサブマトリックスM1 〜M4 のj番目の成分
(mj1,mj2,mj3,mj4)とXの対応する成分
(x1 ,x2 ,x3 ,x4 )を掛けて足し合わせたも
の、すなわち、内積が入射する。したがって、空間変調
器210aの図示の1〜9の域には、それぞれX・m1
〜X・m9 が得られる。
Therefore, on the spatial modulator 210a,
By superimposing the spatial modulator 27a and 207a, the sub-matrix M i and the corresponding component x i of X is (are multiplied) is superimposed, those sub-matrices M i is Kasanea' the same position by the action of the lens array 208 It is imaged. Therefore, j of the sub-matrix M i of the spatial modulator 210a is
At the position corresponding to the m-th component (j = 1 to 9) m ji , the j-th component (m j1 , m j2 , m j3 , m j4 ) of all the sub-matrices M 1 to M 4 corresponds to X. that sum by multiplying the component (x 1, x 2, x 3, x 4) that, i.e., the inner product is incident. Therefore, in the illustrated regions 1 to 9 of the spatial modulator 210a, X · m 1
~ X · m 9 is obtained.

【0070】以上、以下に説明する第1、第2実施例で
用いる内積演算光学系を4次元ベクトルを例にあげて説
明してきたが、それ以上又は以下の次元数のベクトルの
場合にも容易に対応できることは、光学系の構成から明
らかである。
Although the inner product calculation optical system used in the first and second embodiments described below has been described by taking a four-dimensional vector as an example, it is easy to use a vector having more or less dimensions. It is clear from the configuration of the optical system that the above can be dealt with.

【0071】なお、本発明において、内積をとるベクト
ルの少なくとも1つの成分に、その他の成分からなるベ
クトルのノルム情報をあてがう。例えば、前記の4次元
ベクトルの場合は、x4 を(x1 ,x2 ,x3 )からな
るベクトルのノルム情報にする。以下、図14〜図18
に基づいて本発明の好適な実施例を説明する。
In the present invention, the norm information of the vector consisting of other components is applied to at least one component of the vector for which the inner product is obtained. For example, in the case of the above four-dimensional vector, x 4 is the norm information of the vector consisting of (x 1 , x 2 , x 3 ). Hereinafter, FIGS.
Based on this, a preferred embodiment of the present invention will be described.

【0072】〔第1実施例〕本実施例の情報処理装置
は、図14にその構成を示すように、処理を行うための
データを取得するための入力ベクトル取得手段1と、こ
の入力されたベクトルから前記したD−2)あるいはD
−3)に述べたノルム情報を発生させ、さらに発生させ
たこのノルム情報を入力ベクトルに付加し、D−1)の
条件に従って正規化するための入力ベクトル加工手段2
と、このノルム情報の付加され加工されたベクトルを入
力して処理を行う競合学習手段3とを有するものであ
る。
[First Embodiment] As shown in the configuration of FIG. 14, the information processing apparatus according to the present embodiment has an input vector acquisition means 1 for acquiring data for processing, and an input vector acquisition means 1 for inputting the data. D-2) or D described above from the vector
Input vector processing means 2 for generating the norm information described in -3), adding the generated norm information to the input vector, and normalizing according to the condition of D-1).
And a competitive learning means 3 for inputting and processing the vector to which the norm information has been added.

【0073】本実施例では、情報処理装置の競合学習手
段3として、前記したTaiweiLu等の装置を改良
して用いている。まず、図14を参照にして、Taiw
ei Lu等の装置と共通の部分の説明をする。競合学
習手段3では、8×8画素からなる入力ベクトルを第2
液晶テレビ101に表示し、1つの重みベクトルに対応
する8×8画素のサブマトリックスが8×8個あるメモ
リーマトリックス(64×64)を第1液晶テレビ10
2に表示し、この第1液晶テレビ102の背後からキセ
ノンランプ103の光をディフューザー104を介して
照射する。メモリーマトリクスには、前述したような素
子の重みベクトルの集合が記憶できるようになってい
る。照射された第1液晶テレビ102上のメモリーマト
リックス上の情報は、8×8個のレンズアレー105に
より、各重みベクトルに対応するサブマトリックスが全
て第2液晶テレビ101上に重ねて結像され、入力ベク
トルに重畳されるようになっている。さらに、この入力
ベクトルが重畳されたサブマトリックスの情報は、結像
レンズ106によりCCDカメラ107の8×8個の領
域にそれぞれ入射するようになっており、この一連の操
作により、入力ベクトルとメモリーマトリックスの内積
演算が各領域で行われたことになる(図12参照)。
In this embodiment, the above-mentioned device such as TaiweiLu is improved and used as the competitive learning means 3 of the information processing device. First, referring to FIG. 14, Taiw
The parts common to the device such as ei Lu will be described. In the competitive learning means 3, the input vector composed of 8 × 8 pixels is used as the second input vector.
A memory matrix (64 × 64) which is displayed on the liquid crystal television 101 and has 8 × 8 sub-matrixes of 8 × 8 pixels corresponding to one weight vector is displayed on the first liquid crystal television 10
2, and the light of the xenon lamp 103 is emitted from the back of the first liquid crystal television 102 through the diffuser 104. The memory matrix can store a set of element weight vectors as described above. The illuminated information on the memory matrix on the first liquid crystal television 102 is imaged by the 8 × 8 lens array 105 so that all the sub-matrices corresponding to each weight vector are superposed on the second liquid crystal television 101. It is designed to be superimposed on the input vector. Further, the information of the sub-matrix on which the input vector is superimposed is made to enter the 8 × 8 areas of the CCD camera 107 by the imaging lens 106, respectively, and by this series of operations, the input vector and the memory are stored. The matrix inner product calculation is performed in each area (see FIG. 12).

【0074】さらに、このCCDカメラ107で得られ
た内積演算の結果をコンピュータ内に取り込み、コンピ
ュータ内でソフトウエアで実現されているマトリックス
の更新手段108で、競合学習に必要なメモリーマトリ
ックスの更新量を決定し、更新するようになっている。
また、第1液晶テレビ102、第2液晶テレビ101の
表示もコンピュータからの制御により行っている。以上
が、本発明の情報処理装置の競合学習手段において、T
aiwei Lu等の装置と共通の部分である。
Further, the result of the inner product calculation obtained by the CCD camera 107 is loaded into a computer, and the matrix updating means 108 implemented by software in the computer updates the memory matrix required for competitive learning. Is decided and updated.
The display of the first liquid crystal television 102 and the second liquid crystal television 101 is also controlled by the computer. In the competitive learning means of the information processing apparatus of the present invention,
This is a part common to devices such as aiwei Lu.

【0075】本実施例においては、この情報処理装置が
濃淡画像を処理するものとする。この場合、入力ベクト
ル取得手段1は、CCD等の撮像素子とフレームメモリ
により処理すべき画像をコンピュータ内に取り込み、こ
れを所定の入力ベクトル(本実施例の場合は、8×8−
1(=63)成分)に展開する(マイナスした1個は、
付加するノルム情報に割り当てる。)。展開の仕方は、
フレームメモリ上のフレーム領域を8×8の領域に分割
し、その領域毎に平均の明るさを計算し、各成分の値と
すればよい。この際、画像の右下の領域に対応する成分
は無視し、この部分に付加するノルム情報を割り当て
る。なお、本実施例の場合、この展開はコンピュータ内
のソフトウエアで実現している。
In this embodiment, it is assumed that this information processing apparatus processes a grayscale image. In this case, the input vector acquisition means 1 takes in an image to be processed by an image pickup device such as a CCD and a frame memory into a computer and outputs it to a predetermined input vector (8 × 8− in the case of this embodiment).
1 (= 63) component) (the minus one is
Assign to the norm information to be added. ). How to deploy
The frame area on the frame memory may be divided into 8 × 8 areas, and the average brightness may be calculated for each area to obtain the value of each component. At this time, the component corresponding to the lower right area of the image is ignored, and norm information to be added to this portion is assigned. In the case of the present embodiment, this expansion is realized by software in the computer.

【0076】次に、入力ベクトル加工手段2は、D−
1)からD−3)のように、展開されたベクトルを加工
するものであるが、まず、展開された63個のベクトル
からD−1)の(19)式に従ってDを計算する。次
に、D−3)の(17)’式に従ってこのDからf
(D)を計算し、64個目のベクトル成分として、D−
1)の(20)式に従ってこのf(D)を付加すると共
に、Dを用いて他の63個のベクトルの正規化を行う。
(20)式のf(D)は、コンピュータ内のソフトウエ
ア制御により、容易にD−2)あるいはD−3)のよう
に選ぶこともできる。最後に、D−1)の(21)式に
従って、再度正規化を行い入力ベクトルの加工を終了す
るものである。以上の入力ベクトル加工手段2も、本実
施例の場合、コンピュータ内のソフトウエアで実現して
いる。なお、この入力ベクトル加工手段2により加工さ
れた入力ベクトルは、競合学習手段3中のマトリックス
の更新手段108及び第2液晶テレビ101に送られ、
競合学習手段による処理が進む。
Next, the input vector processing means 2 uses D-
The developed vector is processed as in 1) to D-3). First, D is calculated from the expanded 63 vectors according to the equation (19) of D-1). Next, according to the equation (17) ′ of D-3), from D to f
(D) is calculated, and as the 64th vector component, D−
This f (D) is added according to the equation (20) of 1), and the other 63 vectors are normalized using D.
The f (D) in the equation (20) can be easily selected as in D-2) or D-3) by controlling software in the computer. Finally, according to the equation (21) of D-1), the normalization is performed again and the processing of the input vector is finished. The input vector processing means 2 described above is also realized by software in a computer in the case of the present embodiment. The input vector processed by the input vector processing means 2 is sent to the matrix updating means 108 in the competitive learning means 3 and the second liquid crystal television 101,
The processing by the competitive learning means proceeds.

【0077】そして、上記メモリーマトリックスの更新
は、マトリックス更新手段108においてCCDカメラ
107から得られる出力ベクトルの中の最大のものを見
つけ、この成分の近傍のメモリーマトリックスを更新す
ることにより行われる。更新則は、 mi (t+1)=mi (t)+α(t){X(t)−mi (t)} i∈Nc (t) mi (t+1)=mi (t) その他 ・・・(23) であり、ここで、α(t)は学習スピードを示す係数で
あり、Nc (t)は更新範囲を示し、この更新範囲は時
間経過(更新が進むに連れて)と共に小さくして行き、
最終的には上記の最大成分だけにする。以上のメモリー
マトリックスの更新もコンピュータ内のソフトウエアで
実現している。
The updating of the memory matrix is carried out by finding the largest one of the output vectors obtained from the CCD camera 107 in the matrix updating means 108 and updating the memory matrix in the vicinity of this component. Update rule is, m i (t + 1) = m i (t) + α (t) {X (t) -m i (t)} i∈N c (t) m i (t + 1) = m i (t) Others (23), where α (t) is a coefficient indicating the learning speed, N c (t) indicates the update range, and this update range elapses with time (as the update progresses). I made it smaller with
Ultimately, only the above maximum components are used. The above memory matrix update is also realized by software in the computer.

【0078】以上の構成により、本実施例の情報処理装
置が、装置内に内積演算部分を持つ競合学習手段を含ん
でいても、ノルム情報の失われない処理が行えること
は、前述の説明により明らかである。
With the above configuration, the information processing apparatus according to the present embodiment can perform the processing in which the norm information is not lost even if the apparatus includes the competitive learning means having the inner product calculation part. it is obvious.

【0079】なお、この情報処理装置において、入力ベ
クトル取得手段1は、ベクトルとして画像を想定したた
めCCD等の撮像素子を用いたが、他の手段でももちろ
んよい。例えば音声の場合は、マイクロフォンとAD変
換器を用いればよいし、濃度であれば、濃度センサー、
流量であれば流量センサー等、何を用いてもよく、基本
的には、欲しい情報をセンサーにより取得し、そのセン
サーで得られた情報をコンピュータ内に取り込めればよ
い。
In this information processing apparatus, the input vector acquisition means 1 uses an image pickup device such as a CCD because an image is assumed as a vector, but other means may be used. For example, in the case of voice, a microphone and an AD converter may be used, and in the case of concentration, a concentration sensor,
Any flow rate sensor such as a flow rate sensor may be used as long as it is a flow rate. Basically, the desired information may be acquired by the sensor and the information obtained by the sensor may be loaded into the computer.

【0080】また、扱えるベクトル数も、8×8−1の
63個に限るわけではなく、空間光変調器での画素数や
レンズアレーのレンズ数等を増減させれば、調節できる
ことも明らかである。
The number of vectors that can be handled is not limited to 63 (8 × 8-1), and it is clear that the number can be adjusted by increasing or decreasing the number of pixels in the spatial light modulator or the number of lenses in the lens array. is there.

【0081】〔第2実施例〕本実施例の情報処理装置
も、図15にその構成を示すように、第1実施例と同
様、処理を行うためのデータを取得するための入力ベク
トル取得手段1と、この入力されたベクトルからD−
2)あるいはD−3)にあげたノルム情報を発生させ、
さらに発生させたこのノルム情報を入力ベクトルに付加
し、D−1)のように正規化するための入力ベクトル加
工手段2と、このノルム情報の付加され加工されたベク
トルを入力して処理を行う競合学習手段3とを有するも
のであり、その違いは、入力ベクトル加工手段2と競合
学習手段3の大部分を光学系で構成している点である。
[Second Embodiment] As in the first embodiment, the information processing apparatus of the present embodiment also has an input vector acquisition means for acquiring data for processing, as shown in FIG. 1 and D− from this input vector
2) Or generate the norm information given in D-3),
Further, the generated norm information is added to the input vector, and the input vector processing means 2 for normalizing as in D-1) and the processed vector to which the norm information is added are input and processed. The competition learning means 3 is included, and the difference is that most of the input vector processing means 2 and the competition learning means 3 are configured by an optical system.

【0082】さらに具体的には、本実施例の情報処理装
置は、図15に示すように、入力ベクトル取得手段1
と、この入力ベクトル取得手段1により取得されたD−
1)の(19)式に対応したデータの総和を検出するた
めの第1のベクトル成分総和検出手段21と、得られた
ベクトル成分の総和から、D−1)の(20)式に対応
させてデータの正規化を行うための第1の正規化手段2
2と、得られたベクトル成分の総和から、D−2)及び
D−3)の(17)’式に対応させて入力ベクトルのノ
ルム情報を発生させるノルム情報発生手段23と、この
正規化された入力ベクトルにD−1)の(20)式に対
応させてノルム情報を付加するノルム情報付加手段24
と、このノルム情報の付加された入力ベクトル成分の総
和を検出するための第2のベクトル成分総和検出手段2
5と、得られたベクトル成分の総和からD−1)の(2
1)式に対応させてデータの正規化を行うための第2の
正規化手段26と、以上のデータ加工結果を表示するた
めの加工結果表示手段27とから構成される入力ベクト
ル加工手段2と、この加工され表示されたデータを入力
して処理するための競合学習手段3とにより構成し、本
発明の目的を達成しようと言うものである。
More specifically, the information processing apparatus of the present embodiment, as shown in FIG.
And D− acquired by this input vector acquisition means 1.
The first vector component total sum detecting means 21 for detecting the total sum of the data corresponding to the equation (19) of 1) and the obtained total sum of the vector components are made to correspond to the equation (20) of D-1). First normalizing means 2 for normalizing the data
2 and norm information generating means 23 for generating norm information of the input vector corresponding to the equation (17) ′ of D-2) and D-3) from the total sum of the obtained vector components, and this normalization. Norm information adding means 24 for adding norm information to the input vector corresponding to the equation (20) of D-1).
And second vector component total sum detection means 2 for detecting the total sum of the input vector components to which the norm information is added.
5 and (2) of D-1) from the obtained sum of vector components.
Input vector processing means 2 including a second normalization means 26 for normalizing the data corresponding to the expression 1) and a processing result display means 27 for displaying the above data processing result, and It is intended to achieve the object of the present invention by using the competitive learning means 3 for inputting and processing the processed and displayed data.

【0083】図16には、上記の中、入力ベクトル取得
手段1及び入力ベクトル加工手段2の部分の光学系を具
体的に示してある。なお、本実施例でも、濃淡画像の処
理をまず想定している。入力ベクトル取得手段1では、
撮像装置11(具体的には、例えばズームレンズの付い
たCCDカメラ)で処理すべきベクトルである画像を取
得し、この信号をドライバー12により空間光変調器1
3(本実施例の場合は、例えば透過型で電子アドレス型
の液晶空間光変調器)に表示する。表示された処理すべ
き画像は、略平行な光束20で読み出され、入力ベクト
ル加工手段2に送られる。入力ベクトル加工手段2で
は、まず、ビームスプリッタ21a、集光レンズ21
b、ディテクタ21cからなる第1のベクトル成分総和
検出手段21により、この処理すべきベクトルである画
像の総和が取られる。具体的には、入力された画像情報
をビームスプリッタ21aで分岐し、集光レンズ21b
で集光し、ディテクタ21cでその総和Dとして光量を
検出し、電気信号に変換する。この検出された総和Dの
電気信号は、第1の正規化手段22である光量調整フィ
ルタ22aのドライバー22bに送られ、ここを通過す
る光量が一定になるように、つまり正規化されるように
調節がなされる。具体的には、印加電圧によって通過す
る光量を変化させることのできる液晶シャッターを光量
調整フィルタ22aとして用い、検出された総和Dの電
気信号によってドライバー22bで液晶シャッターに印
加する電圧を制御することにより、ここを通過する光量
を一定にする。さらに、検出された総和Dの電気信号
は、ノルム情報発生手段23である割算器により、f
(D)の選び方の例としてD−2)で述べた1/Dの情
報に変換される。
FIG. 16 specifically shows an optical system of the input vector acquisition means 1 and the input vector processing means 2 among the above. In the present embodiment as well, processing of a grayscale image is first assumed. In the input vector acquisition means 1,
An image that is a vector to be processed is acquired by the image pickup device 11 (specifically, for example, a CCD camera equipped with a zoom lens), and this signal is input by the driver 12 to the spatial light modulator 1.
3 (in the case of this embodiment, for example, a transmissive electronic address liquid crystal spatial light modulator). The displayed image to be processed is read out by the substantially parallel light flux 20 and sent to the input vector processing means 2. In the input vector processing means 2, first, the beam splitter 21 a and the condenser lens 21
The first vector component sum total detection means 21 including the detector b and the detector 21c calculates the sum total of the image which is the vector to be processed. Specifically, the input image information is branched by the beam splitter 21a, and the condensing lens 21b is used.
The light amount is collected by the detector 21c, the light amount is detected by the detector 21c as the total D, and converted into an electric signal. The detected electric signal of the total sum D is sent to the driver 22b of the light quantity adjusting filter 22a which is the first normalizing means 22 so that the light quantity passing therethrough becomes constant, that is, is normalized. Adjustments are made. Specifically, a liquid crystal shutter capable of changing the amount of light passing therethrough according to an applied voltage is used as the light amount adjustment filter 22a, and the voltage applied to the liquid crystal shutter is controlled by the driver 22b by the electric signal of the detected sum D. , The amount of light passing through here is constant. Further, the electric signal of the detected sum D is f by the divider which is the norm information generating means 23.
As an example of how to select (D), it is converted into the 1 / D information described in D-2).

【0084】この変換されたノルム情報である1/Dの
信号は、ノルム情報付加手段24の発光素子24aを駆
動するドライバー24bに送られ、1/Dに比例した光
量を発光素子24aで発生させる。ノルム情報付加手段
24では、さらに、空間光変調器13に表示された入力
ベクトルを空間光変調器24c(本実施例の場合は、例
えば反射型で光アドレス型の液晶空間光変調器)に結像
させるための結像レンズ24d、及び、この空間光変調
器24cを駆動するためのドライバー24eとで構成さ
れている。この構成により、入力ベクトルの正規化され
たものが空間光変調器24cに表示される。この空間光
変調器24cでは、図17(a)に正面図、(b)に側
面図を示すように、8×8の領域が設定されており、そ
の中の1か所の領域(図では、右下隅の領域)に発光素
子24aとして、本実施例で用いている発光ダイオード
LDとそれからの光を集光するレンズCLで1/Dに比
例した光量が照射されるようになっており、結果とし
て、8×8−1の63個の領域に正規化された入力ベク
トルが、残りの1個の領域に1/Dに比例したノルム情
報が表示されるようになっている。
The 1 / D signal which is the converted norm information is sent to the driver 24b which drives the light emitting element 24a of the norm information adding means 24, and the light emitting element 24a generates a light amount proportional to 1 / D. . In the norm information adding means 24, the input vector displayed on the spatial light modulator 13 is further coupled to the spatial light modulator 24c (in the case of the present embodiment, for example, a reflection type and an optical addressing type liquid crystal spatial light modulator). An image forming lens 24d for forming an image and a driver 24e for driving the spatial light modulator 24c are included. With this configuration, the normalized input vector is displayed on the spatial light modulator 24c. In this spatial light modulator 24c, as shown in the front view of FIG. 17A and the side view of FIG. 17B, an 8 × 8 area is set, and one area (in the figure, , A region at the lower right corner) is used as a light emitting element 24a, and a light amount proportional to 1 / D is emitted by a light emitting diode LD used in this embodiment and a lens CL that condenses light from the light emitting diode LD. As a result, the input vector normalized to 63 regions of 8 × 8-1, and the norm information proportional to 1 / D are displayed in the remaining one region.

【0085】この表示された入力ベクトル情報は、ビー
ムスプリッタ28aで系内に導かれた略平行な光束28
で読み出され、第2のベクトル成分総和検出手段25に
送られその総和が検出され、さらに、この総和情報を基
に第2の正規化手段26により正規化が行われる。この
第2のベクトル成分総和検出手段25と第2の正規化手
段26は、それぞれ第1のベクトル成分総和検出手段2
1と第1の正規化手段22と同一要素である、ビームス
プリッタ25a、集光レンズ25b、ディテクタ25
c、及び、液晶シャッターである光量調整フィルタ26
a、ドライバー26bで構成してある。
The displayed input vector information is used as the substantially parallel light beam 28 guided into the system by the beam splitter 28a.
Is read out by the second vector component summation detection means 25 and is sent to the second vector component summation detection means 25 to detect the summation. Further, the second normalization means 26 normalizes the summation. The second vector component total sum detection means 25 and the second normalization means 26 are respectively the first vector component total sum detection means 2
The beam splitter 25a, the condenser lens 25b, and the detector 25, which are the same elements as those of the first and second normalizing means 22,
c and a light amount adjustment filter 26 which is a liquid crystal shutter
a and a driver 26b.

【0086】加工結果表示手段27では、空間光変調器
24cに表示されたベクトルを、空間光変調器27aと
して本実施例の場合用いた反射型で光アドレス型の液晶
空間光変調器に結像させるための結像レンズ27b、及
び、この空間光変調器27aを駆動するためのドライバ
ー27cで構成されている。この構成により、8×8−
1の63個の領域に正規化された入力ベクトルと、残り
の1個の領域に1/Dに比例したノルム情報が表示され
た情報であって、さらに正規化された結果が空間光変調
器27aに表示される。
In the processing result display means 27, the vector displayed on the spatial light modulator 24c is imaged on the liquid crystal spatial light modulator of the reflection type and optical address type used in this embodiment as the spatial light modulator 27a. It is composed of an imaging lens 27b for driving the light and a driver 27c for driving the spatial light modulator 27a. With this configuration, 8 × 8−
The input vector is normalized to 63 regions of 1 and the norm information proportional to 1 / D is displayed in the remaining 1 region, and the normalized result is the spatial light modulator. 27a.

【0087】本実施例では、情報処理装置の競合学習手
段3として、前記のJ.Duvillier等の装置を
改良して用いている。次に、図18を参照にして、Du
villier等の装置と略共通の部分の説明をする。
図18の切断面A−A’、B−B’、C−C’内の部分
は、図16に示した光学系が対応する。
In this embodiment, as the competitive learning means 3 of the information processing apparatus, the above-mentioned J. A device such as Duviller is improved and used. Next, referring to FIG. 18, Du
Description will be given of a part that is substantially common to the device such as Villier.
The optical system shown in FIG. 16 corresponds to the portions within the cutting planes AA ′, BB ′, and CC ′ of FIG. 18.

【0088】まず、内積演算のフェーズでは、レーザー
200からの光束は、ミラー201を介してビームエキ
スパンダ202に入射され、略平行な光束203とな
る。この光束は、ビームスプリッタ204、223、2
24を介して、空間光変調器27aの位置に表示された
8×8要素の入力情報(図16参照)を系内に入力し、
さらに、結像レンズ205及び206によりこの入力情
報を、専用のドライバー207bで制御される空間光変
調器207a(本実施例の場合、例えば透過型で光書込
型の液晶空間光変調器)に表示されている8×8要素の
メモリーマトリックスの情報に重畳させた上で読み出す
ものである(J.Duvillier等の装置は、入力
情報を透過で読み出しているが、本実施例は入力情報は
空間光変調器27aから反射で読み出しているので、こ
の部分の構成は一部変更されている。)。この入力情報
にメモリーマトリックスの情報が重畳した情報は、さら
に8×8個のレンズアレー208と結像レンズ209を
通過し、専用のドライバー210bで制御される空間光
変調器210a(本実施例の場合、例えば透過型で光書
込型の二値の液晶空間光変調器)上でさらに重ね合わさ
る。この一連の操作により、入力情報とメモリーマトリ
ックスの内積演算結果がこの空間光変調器210a上に
閾値操作されて記憶されたことになる(図13参照)。
First, in the inner product calculation phase, the light beam from the laser 200 is incident on the beam expander 202 via the mirror 201 and becomes a substantially parallel light beam 203. This luminous flux is transmitted to the beam splitters 204, 223, 2
The input information (see FIG. 16) of 8 × 8 elements displayed at the position of the spatial light modulator 27a is input into the system via 24,
Further, this input information is sent to the spatial light modulator 207a (in the present embodiment, for example, a transmissive optical writing liquid crystal spatial light modulator) controlled by a dedicated driver 207b by the imaging lenses 205 and 206. The information is read out after being superimposed on the information of the displayed 8 × 8 element memory matrix (the device such as J. Duvillier reads the input information transparently, but in the present embodiment, the input information is spatial Since the reading is performed by reflection from the optical modulator 27a, the configuration of this portion is partially changed.) The information obtained by superimposing the information of the memory matrix on this input information further passes through the 8 × 8 lens array 208 and the imaging lens 209, and is controlled by the dedicated driver 210b (the spatial light modulator 210a (in this embodiment). In this case, for example, it is further superposed on a transmission type and optical writing type binary liquid crystal spatial light modulator. Through this series of operations, the inner product calculation result of the input information and the memory matrix is threshold-operated and stored on the spatial light modulator 210a (see FIG. 13).

【0089】次に、メモリーマトリックスの更新のフェ
ーズでは、上記内積演算のフェーズで空間光変調器21
0a上に記憶された内積演算結果が、略平行な光束20
3の中、ビームスプリッタ204を通過し、さらにミラ
ー211及び212、ビームスプリッタ213を介して
系内に導かれた略平行な光束214により読み出され
る。この読み出された情報は、さらに、ミラー215、
216、217、ビームスプリッタ223、224、レ
ンズ218、219、220、221、及び、Damm
ann型のグレーティング222を介することにより、
8×8に多重複製され、再び空間光変調器27aの位置
に表示されている8×8要素の入力情報を読み出す。こ
の操作によりメモリーマトリックスの更新量が決定され
るが、この更新情報を結像レンズ205及び206によ
り空間光変調器207a上に結像させ、さらに、ドライ
バー207bを制御し印加電圧を変化させることにより
加算もしくは減算の形でメモリーマトリックスの更新が
行われる。
Next, in the memory matrix updating phase, the spatial light modulator 21 is operated in the inner product calculating phase.
The result of the inner product calculation stored on 0a is the light beam 20 that is substantially parallel.
3, the light beam 214 passes through the beam splitter 204 and is further read by the substantially parallel light beam 214 guided into the system via the mirrors 211 and 212 and the beam splitter 213. This read information is further read by the mirror 215,
216, 217, beam splitters 223, 224, lenses 218, 219, 220, 221 and Damm
By passing through the Ann type grating 222,
The input information of the 8 × 8 element which is duplicated in 8 × 8 and displayed at the position of the spatial light modulator 27a is read again. The amount of update of the memory matrix is determined by this operation. This update information is imaged on the spatial light modulator 207a by the imaging lenses 205 and 206, and further, by controlling the driver 207b to change the applied voltage. The memory matrix is updated in the form of addition or subtraction.

【0090】ここで、メモリーマトリックスの更新に関
しては、内積演算の出力ベクトルyを空間光変調器20
7aでスレシュホールドして二値化したものをYとし
て、このYをレンズ218〜221とDammann型
グレーティング222とで倍率を縮小して元の大きさに
戻すと共に、入力ベクトルと同じ8×8個に複製して、
入力ベクトルに重ねる。これがメモリーマトリックスの
更新量ΔMi となる。この更新則は、 Mi (t+1)=Mi (t)+a(t)NO{ΔMi (t)} ΔMi =X(Di Y) ・・・(24) ここで、a(t)は(23)式のα(t)と同様の学習
スピードを示す係数、NOは更新範囲を示す関数で、
(23)式のNc と同様の役目を担う。また、DiはY
のサブマトリックスを8×8に複製することを表す。こ
の更新は、すでに記憶されている空間光変調器207a
上のメモリーマトリックス情報Mi (t)に上記で決ま
ったΔMi だけ加算もしくは減算することにより変更を
加えることで行われる。このときの空間光変調器207
aの動作は、グレースケール動作とし、駆動電圧の符号
を変化させればよい。また、駆動電圧の大きさを変化さ
せれば、NOつまり更新範囲や学習スピードを変化させ
ることができる。これは、ドライバー207bをコンピ
ュータ等で制御して行う。
Here, regarding the updating of the memory matrix, the output vector y of the inner product operation is set to the spatial light modulator 20.
Thresholded by 7a and binarized is defined as Y, and the Y is reduced by the lenses 218 to 221 and the Dammann type grating 222 to restore the original size, and at the same time 8 × 8 as the input vector. Replicated to
Overlay on input vector. This is the update amount ΔM i of the memory matrix. This update rule is: M i (t + 1) = M i (t) + a (t) NO {ΔM i (t)} ΔM i = X (D i Y) (24) where a (t) Is a coefficient indicating the learning speed similar to α (t) in the equation (23), NO is a function indicating the update range,
It plays the same role as N c in equation (23). Also, D i is Y
Represents the sub-matrix of 8 × 8. This update is based on the already stored spatial light modulator 207a.
This is done by adding or subtracting the ΔM i determined above to the above memory matrix information M i (t) to make a change. Spatial light modulator 207 at this time
The operation a is a gray scale operation, and the sign of the drive voltage may be changed. Further, if the magnitude of the drive voltage is changed, NO, that is, the update range and the learning speed can be changed. This is performed by controlling the driver 207b with a computer or the like.

【0091】なお、上記で、内積演算のフェーズとメモ
リーマトリックスの更新のフェーズでは、系が共通に使
用されている部分があるので、シャッター225、22
6、227、231により、もちろん情報が干渉するこ
とを防止している。すなわち、内積演算のフェーズで
は、シャッター225をオープンにし、シャッター22
6、227、231をクローズに、メモリーマトリック
スの更新のフェーズでは、シャッター225と231を
クローズにし、シャッター226と227をオープンに
している。以上が、本実施例の競合学習手段3において
J.Duvillier等の装置と略共通の部分であ
る。
In the above, there is a part where the system is commonly used in the inner product calculation phase and the memory matrix update phase, so the shutters 225, 22
6, 227 and 231, of course, prevent information from interfering with each other. That is, in the inner product calculation phase, the shutter 225 is opened and the shutter 22
6, 227 and 231 are closed, and in the memory matrix update phase, the shutters 225 and 231 are closed and the shutters 226 and 227 are open. The above is the procedure of the J. This is a part that is substantially common to the device such as Duviller.

【0092】本実施例で、先行例と異なる点は、図15
及び図16を用いて先に説明したように、入力ベクトル
取得手段1及び入力ベクトル加工手段2をこの競合学習
手段3に新たに加えた点である。本実施例では、図16
に示した入力ベクトル取得手段1及び入力ベクトル加工
手段2を、図中の切断面A−A’、B−B’及びC−
C’が、図18中の対応する部分に一致するように設置
してある。この際、略平行な光束203の中ビームスプ
リッタ204を通過し、さらにビームスプリッタ234
を介して入力ベクトル取得手段1及び入力ベクトル加工
手段2の系内に入射させたものを略平行な光束20と
し、また、略平行な光束203の中のビームスプリッタ
204で反射させたものを、ビームスプリッタ228を
介して同系内に入力させて略平行な光束28とした。さ
らに、本実施例では、内積演算結果とメモリーマトリッ
クスも正規化するために、図中に示すように、第3のベ
クトル成分総和検出手段229及び第3の正規化手段2
30を挿入してある。この第3のベクトル成分総和検出
手段229と第3の正規化手段230は、それぞれ第1
のベクトル成分総和検出手段21と第1の正規化手段2
2(図16)と同一要素である、ビームスプリッタ22
9a、集光レンズ229b、ディテクタ229c、及
び、液晶シャッターである光量調整フィルタ230a、
ドライバー230bで構成してある。この構成により、
内積演算のフェーズでは内積演算結果が正規化される。
一方、メモリーマトリックスの更新のフェーズでは、メ
モリーマトリックスの更新後、シャッター227をクロ
ーズにし、シャッター225と231をオープンにし、
略平行な光束203の中のビームスプリッタ223を透
過してきたものを、さらにミラー232及びビームスプ
リッタ233を介して空間光変調器207aに入射さ
せ、更新されたメモリーマトリックスの情報を読み出し
て正規化するものである。競合学習のアルゴリズムとし
ては内積演算結果の正規化は必要ないので、第3のベク
トル成分総和検出手段229と第3の正規化手段230
は、内積演算のフェーズでは省略してもよい。しかしな
がら、内積演算結果を正規化することにより、信号量の
発散、飽和に伴うハードウエアの調整の問題を防ぐこと
ができる。
The present embodiment is different from the preceding example in FIG.
As described above with reference to FIG. 16 and FIG. 16, the input vector acquisition unit 1 and the input vector processing unit 2 are newly added to the competition learning unit 3. In this embodiment, FIG.
The input vector acquisition means 1 and the input vector processing means 2 shown in FIG. 2 are connected to the cutting planes AA ′, BB ′ and C− in the figure.
C'is installed so as to correspond to the corresponding portion in FIG. At this time, the substantially parallel light beam 203 passes through the middle beam splitter 204, and further, the beam splitter 234.
The light beam incident on the system of the input vector acquisition means 1 and the input vector processing means 2 via is made into a substantially parallel light beam 20, and the light beam reflected by the beam splitter 204 in the substantially parallel light beam 203 is The light is input into the same system through the beam splitter 228 to form a substantially parallel light beam 28. Further, in the present embodiment, in order to normalize the inner product calculation result and the memory matrix as well, as shown in the figure, the third vector component sum total detection means 229 and the third normalization means 2
30 is inserted. The third vector component sum total detection means 229 and the third normalization means 230 are respectively the first
Vector component sum detection means 21 and first normalization means 2
2 (FIG. 16), which is the same element as the beam splitter 22.
9a, a condenser lens 229b, a detector 229c, and a light amount adjustment filter 230a which is a liquid crystal shutter,
It is composed of a driver 230b. With this configuration,
In the inner product operation phase, the inner product operation result is normalized.
On the other hand, in the update phase of the memory matrix, after updating the memory matrix, the shutter 227 is closed and the shutters 225 and 231 are opened,
The substantially parallel light beam 203 that has passed through the beam splitter 223 is further incident on the spatial light modulator 207a via the mirror 232 and the beam splitter 233, and the updated information in the memory matrix is read out and normalized. It is a thing. Since it is not necessary to normalize the inner product operation result as an algorithm for competitive learning, the third vector component sum total detection means 229 and the third normalization means 230
May be omitted in the inner product calculation phase. However, by normalizing the inner product calculation result, it is possible to prevent the problem of hardware adjustment due to divergence and saturation of the signal amount.

【0093】この実施例中では、透過型や反射型、及
び、電子アドレス型や光アドレス型の液晶空間光変調器
を用いたが、これらは上記実施例にあげた組み合わせに
限られるものではなく、様々な組み合わせが考えられる
ことは言うまでもない。
In this embodiment, liquid crystal spatial light modulators of transmissive type, reflective type, electronic address type and optical address type are used, but these are not limited to the combinations given in the above examples. Needless to say, various combinations are possible.

【0094】以上であげた正規化手段において、その目
的は、数学的に厳密にはベクトルのノルムを1にするこ
とである。しかしながら、ハードウエア上においてノル
ムに応じて光量を厳密に一定にするのではなく大まかに
調節するようにしても、厳密な正規化と同様な効果を得
ることができる。したがって、本発明中の正規化の定義
は広く、ノルムの大きさによってベクトル成分の大きさ
を調節することを意味するものとする。また、D−
2)、D−3)のような厳密な変換式をハードウエア上
で実現する場合、諸装置の特性を変えることにより近似
的にその作用を得るようにしてもよい。
In the normalizing means described above, its purpose is to set the norm of the vector to 1 in a mathematically strict sense. However, the same effect as the strict normalization can be obtained even if the light amount is roughly adjusted according to the norm on the hardware, instead of being strictly fixed. Therefore, the definition of normalization in the present invention is broad and means adjusting the magnitude of the vector component according to the magnitude of the norm. Also, D-
When strict conversion formulas such as 2) and D-3) are realized on hardware, the action may be approximately obtained by changing the characteristics of various devices.

【0095】また、以上では、1つの入力に対し1つの
ノルム情報を与えたが、複数個の情報を与えてもよい。
つまり、追加する次元は1次元に限らず、多数次元とし
てもよい。
Further, in the above, one norm information is given to one input, but a plurality of information may be given.
That is, the dimension to be added is not limited to one dimension and may be multiple dimensions.

【0096】以上の構成により、本発明の情報処理装置
が、装置内に内積演算部分を持つ競合学習手段を含んで
いても、ノルム情報の失われない処理が行えることは前
述の説明より明らかである。
With the above configuration, it is clear from the above description that the information processing apparatus of the present invention can perform the processing in which the norm information is not lost even if the apparatus includes the competitive learning means having the inner product calculating section. is there.

【0097】なお、この情報処理装置においても、入力
ベクトル取得手段は第1実施例と同様、撮像素子に限定
されるわけではなく、マイクロフォンや濃度センサー、
流量センサー等、どんなセンサーを用いてもよい。ま
た、扱えるベクトル数も第1実施例と同様に調節できる
ことも明らかである。
Also in this information processing apparatus, the input vector acquisition means is not limited to the image pickup element as in the first embodiment, but may be a microphone, a density sensor, or the like.
Any sensor such as a flow sensor may be used. It is also clear that the number of vectors that can be handled can be adjusted as in the first embodiment.

【0098】以上、本発明の情報処理装置をその原理と
実施例に基づいて説明してきたが、本発明はこれら実施
例に限定されず種々の変形が可能である。
Although the information processing apparatus of the present invention has been described based on its principle and embodiments, the present invention is not limited to these embodiments and various modifications can be made.

【0099】[0099]

【発明の効果】以上の説明から明らかなように、本発明
の情報処理装置によると、以下の条件を満たす情報処理
装置を提供することができる。 A−1)距離基準として、ハードウエア化に適した内積
演算を用いる競合学習を行う。 A−2)入力データのノルム情報を失わない競合学習が
できる。
As is apparent from the above description, according to the information processing apparatus of the present invention, it is possible to provide an information processing apparatus satisfying the following conditions. A-1) As the distance reference, competitive learning using inner product calculation suitable for hardware implementation is performed. A-2) Competitive learning that does not lose norm information of input data can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】規格化しない場合の内積演算による勝利ベクト
ルの決定過程を示す図である。
FIG. 1 is a diagram showing a process of determining a winning vector by inner product calculation without normalization.

【図2】規格化した場合の内積演算による勝利ベクトル
の決定過程を示す図である。
FIG. 2 is a diagram showing a process of determining a winning vector by inner product calculation in the case of normalization.

【図3】2次元一様分布ベクトルデータを示す図であ
る。
FIG. 3 is a diagram showing two-dimensional uniform distribution vector data.

【図4】2次元一様分布ベクトルデータを規格化した場
合の分布を示す図である。
FIG. 4 is a diagram showing a distribution when two-dimensional uniform distribution vector data is standardized.

【図5】本発明の情報処理装置に入力する2次元平面上
の4点を示す図である。
FIG. 5 is a diagram showing four points on a two-dimensional plane which are input to the information processing apparatus of the present invention.

【図6】ノルムを示す成分としてDを選んだ場合の3次
元空間における4点の位置を示す図である。
FIG. 6 is a diagram showing positions of four points in a three-dimensional space when D is selected as a component indicating a norm.

【図7】ノルムを示す成分として1/Dを選んだ場合の
3次元空間における4点の位置を示す図である。
FIG. 7 is a diagram showing positions of four points in a three-dimensional space when 1 / D is selected as a component indicating a norm.

【図8】自己組織化特徴マップの構造を示す図である。FIG. 8 is a diagram showing a structure of a self-organizing feature map.

【図9】競合学習の距離基準にユークリッド距離を用い
た場合の領域図と隣接する素子の重みベクトル同志を結
んだ図である。
FIG. 9 is a diagram in which a region diagram when Euclidean distance is used as a distance reference for competitive learning and a weight vector of adjacent elements are connected to each other.

【図10】ノルムを示す成分としてD、1/Dを選んだ
場合及び選ばなかった場合の領域図である。
FIG. 10 is a region diagram when D and 1 / D are selected and not selected as components indicating a norm.

【図11】ノルムを示す成分として理論的なものを選ん
だ場合の領域図である。
FIG. 11 is a region diagram when a theoretical component is selected as a component indicating a norm.

【図12】本発明の第1実施例に用いる内積演算光学系
の原理を示す図である。
FIG. 12 is a diagram showing the principle of an inner product calculation optical system used in the first embodiment of the present invention.

【図13】本発明の第2実施例に用いる内積演算光学系
の原理を示す図である。
FIG. 13 is a diagram showing the principle of an inner product calculation optical system used in the second embodiment of the present invention.

【図14】本発明の第1実施例の構成の概略を示す図で
ある。
FIG. 14 is a diagram showing a schematic configuration of a first embodiment of the present invention.

【図15】本発明の第2実施例の構成の概略を示す図で
ある。
FIG. 15 is a diagram showing a schematic configuration of a second embodiment of the present invention.

【図16】本発明の第2実施例の具体的な構成を示す図
である。
FIG. 16 is a diagram showing a specific configuration of a second exemplary embodiment of the present invention.

【図17】第2実施例に用いるノルム情報を付加する空
間光変調器の正面図と側面図である。
17A and 17B are a front view and a side view of a spatial light modulator for adding norm information used in the second embodiment.

【図18】本発明の第2実施例の競合学習手段の構成を
示す図である。
FIG. 18 is a diagram showing a configuration of a competitive learning unit according to a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…入力ベクトル取得手段 2…入力ベクトル加工手段 3…競合学習手段 11…撮像装置 12…ドライバー 13…空間光変調器 20…光束 21…第1のベクトル成分総和検出手段 21a…ビームスプリッタ 21b…集光レンズ 21c…ディテクタ 22…第1の正規化手段 22a…光量調整フィルタ 22b…ドライバー 23…ノルム情報発生手段 24…ノルム情報付加手段 24a…発光素子 24b…ドライバー 24c…空間光変調器 24d…結像レンズ 24e…ドライバー 25…第2のベクトル成分総和検出手段 25a…ビームスプリッタ 25b…集光レンズ 25c…ディテクタ 26…第2の正規化手段 26a…光量調整フィルタ 26b…ドライバー 27…加工結果表示手段 27a…空間光変調器 27b…結像レンズ 27c…ドライバー 28a…ビームスプリッタ 28…光束 101…第2液晶テレビ 102…第1液晶テレビ 103…キセノンランプ 104…ディフューザー 105…レンズアレー 106…結像レンズ 107…CCDカメラ 108…マトリックス更新手段 200…レーザー 201…ミラー 202…ビームエキスパンダ 203…光束 204、223、224…ビームスプリッタ 205、206…結像レンズ 207a…空間光変調器 207b…ドライバー 208…レンズアレー 209…結像レンズ 210a…空間光変調器 210b…ドライバー 211、212…ミラー 213…ビームスプリッタ 214…光束 215、216、217…ミラー 218、219、220、221…レンズ 222…Dammann型グレーティング 223…ビームスプリッタ 225、226、227、231…シャッター 228…ビームスプリッタ 229…第3のベクトル成分総和検出手段 229a…ビームスプリッタ 229b…集光レンズ 229c…ディテクタ 230…第3の正規化手段 230a…光量調整フィルタ 230b…ドライバー 232…ミラー 233…ビームスプリッタ 234…ビームスプリッタ LD…発光ダイオード CL…レンズ DESCRIPTION OF SYMBOLS 1 ... Input vector acquisition means 2 ... Input vector processing means 3 ... Competitive learning means 11 ... Imaging device 12 ... Driver 13 ... Spatial light modulator 20 ... Luminous flux 21 ... 1st vector component sum total detection means 21a ... Beam splitter 21b ... Collection Optical lens 21c ... Detector 22 ... First normalizing means 22a ... Light quantity adjusting filter 22b ... Driver 23 ... Norm information generating means 24 ... Norm information adding means 24a ... Light emitting element 24b ... Driver 24c ... Spatial light modulator 24d ... Imaging Lens 24e ... Driver 25 ... Second vector component sum total detection means 25a ... Beam splitter 25b ... Condenser lens 25c ... Detector 26 ... Second normalization means 26a ... Light quantity adjusting filter 26b ... Driver 27 ... Processing result display means 27a ... Spatial light modulator 27b ... Imaging lens 27c ... driver 28a ... beam splitter 28 ... luminous flux 101 ... second liquid crystal television 102 ... first liquid crystal television 103 ... xenon lamp 104 ... diffuser 105 ... lens array 106 ... imaging lens 107 ... CCD camera 108 ... matrix updating means 200 ... laser 201 Mirror 202 ... Beam expander 203 ... Luminous flux 204, 223, 224 ... Beam splitter 205, 206 ... Imaging lens 207a ... Spatial light modulator 207b ... Driver 208 ... Lens array 209 ... Imaging lens 210a ... Spatial light modulator 210b ... drivers 211, 212 ... mirrors 213 ... beam splitters 214 ... luminous flux 215, 216, 217 ... mirrors 218, 219, 220, 221 ... lenses 222 ... Dammann type grating 223 Beam splitter 225, 226, 227, 231 ... Shutter 228 ... Beam splitter 229 ... Third vector component sum total detection means 229a ... Beam splitter 229b ... Condenser lens 229c ... Detector 230 ... Third normalization means 230a ... Light quantity adjustment filter 230b ... driver 232 ... mirror 233 ... beam splitter 234 ... beam splitter LD ... light emitting diode CL ... lens

───────────────────────────────────────────────────── フロントページの続き (72)発明者 福島郁俊 東京都渋谷区幡ヶ谷2丁目43番2号オリン パス光学工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Ikutoshi Fukushima 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 入力ベクトルを重みベクトル群の各ベク
トルと内積をとることによって重みベクトル群の何れか
のベクトルへ対応させる情報処理装置において、内積を
とる前に入力ベクトルのノルムに関する情報を抽出して
該入力ベクトルの成分に付加するノルム抽出・付加手段
を有することを特徴とする情報処理装置。
1. An information processing apparatus for correlating an input vector with each vector of a weight vector group to correspond to any vector of the weight vector group, by extracting information about the norm of the input vector before taking the inner product. An information processing apparatus, comprising: norm extraction / addition means for adding to a component of the input vector.
【請求項2】 前記の内積をとる前に前記のノルムに関
する情報を付加した入力ベクトルを正規化する入力ベク
トル正規化手段を有する請求項1記載の情報処理装置。
2. The information processing apparatus according to claim 1, further comprising an input vector normalizing means for normalizing an input vector to which information on the norm is added before taking the inner product.
【請求項3】 前記の内積をとる前に前記重みベクトル
群の各ベクトルを正規化する重みベクトル群正規化手段
を有する請求項1記載の情報処理装置。
3. The information processing apparatus according to claim 1, further comprising a weight vector group normalizing means for normalizing each vector of the weight vector group before taking the inner product.
【請求項4】 前記の正規化を電気信号により行うよう
にした請求項2又は3記載の情報処理装置。
4. The information processing apparatus according to claim 2, wherein the normalization is performed by an electric signal.
【請求項5】 前記の正規化を光学的に行うようにした
請求項2又は3記載の情報処理装置。
5. The information processing apparatus according to claim 2, wherein the normalization is performed optically.
JP24405494A 1994-10-07 1994-10-07 Information processing equipment Expired - Fee Related JP3583484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24405494A JP3583484B2 (en) 1994-10-07 1994-10-07 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24405494A JP3583484B2 (en) 1994-10-07 1994-10-07 Information processing equipment

Publications (2)

Publication Number Publication Date
JPH08106505A true JPH08106505A (en) 1996-04-23
JP3583484B2 JP3583484B2 (en) 2004-11-04

Family

ID=17113050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24405494A Expired - Fee Related JP3583484B2 (en) 1994-10-07 1994-10-07 Information processing equipment

Country Status (1)

Country Link
JP (1) JP3583484B2 (en)

Also Published As

Publication number Publication date
JP3583484B2 (en) 2004-11-04

Similar Documents

Publication Publication Date Title
US8077932B2 (en) Face recognition apparatus, face recognition method, gabor filter application apparatus, and computer program
US7324688B2 (en) Face relighting for normalization of directional lighting
US5963667A (en) Multiplexing optical system and feature vector transformation apparatus using the same; feature vector detecting and transmitting apparatus; and recognition and classification system using these apparatuses
US5724447A (en) Optical transform system for three-dimensional object recognition
KR101548928B1 (en) Invariant visual scene and object recognition
US20120230553A1 (en) Apparatus and method for detecting eye state
JP2002358523A (en) Device and method for recognizing and processing pattern, and image input device
Burghardt et al. Automated visual recognition of individual African penguins
CN111814567A (en) Method, device and equipment for detecting living human face and storage medium
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
Chen et al. Face detection using R-FCN based deformable convolutional networks
JPH08106505A (en) Information processor
JPH09230954A (en) Vector standardizing device
JP6898020B1 (en) Information processing device and information processing method
JP4789526B2 (en) Image processing apparatus and image processing method
US11922677B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2003223642A (en) Face image recognition system
CN112752088A (en) Depth image generation method and device, reference image generation method and electronic equipment
JP3604441B2 (en) Pattern recognition apparatus and method
JPH06223163A (en) Fingerprint detection sensor
Kaskela Temporal Depth Completion for Autonomous Vehicle Lidar Depth Sensing
JPH1185300A (en) Vector standardizing device
JP3325934B2 (en) Optical pattern recognition and classification device
US20230073357A1 (en) Information processing apparatus, machine learning model, information processing method, and storage medium
JP3272506B2 (en) Optical pattern recognition and classification device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040729

LAPS Cancellation because of no payment of annual fees