JPH09259101A - Category sorting method - Google Patents

Category sorting method

Info

Publication number
JPH09259101A
JPH09259101A JP8065870A JP6587096A JPH09259101A JP H09259101 A JPH09259101 A JP H09259101A JP 8065870 A JP8065870 A JP 8065870A JP 6587096 A JP6587096 A JP 6587096A JP H09259101 A JPH09259101 A JP H09259101A
Authority
JP
Japan
Prior art keywords
category
vector
input
mean
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8065870A
Other languages
Japanese (ja)
Inventor
Junichi Miyamoto
潤一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8065870A priority Critical patent/JPH09259101A/en
Publication of JPH09259101A publication Critical patent/JPH09259101A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To sort the vector categories even when the umber of categories is unknown. SOLUTION: When a vector X is inputted at the time of learning and the vector X belongs to one of existing categories C1 ...Ci , the mean M and a covariance matrix Σ are calculated and corrected (5). If the vector X does not belong to any of categories C1 ...Ci , a new category Ci+1 is decided to show M=X and Σ=Σ0 (4). After the learning is over, 'n-variate probability density function f (X)' is calculated based on the M and Σ for the decided category and against the input vector X. Then the category where the value of f (x) is maximized is defined as a category where the vector X belongs (8).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、カテゴリ分類方法
に関し、特にニューラルネットワークを利用し学習した
後に入力されるn次元のベクトル量を複数のカテゴリの
うちのいずれかに分類する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a category classification method, and more particularly to a method of classifying an n-dimensional vector quantity input after learning using a neural network into any of a plurality of categories.

【0002】[0002]

【従来の技術】従来のカテゴリ分類方法としては、例え
ば、特開平04−288663号公報記載の複合自己組
織型パターン分類システムによるものがある。
2. Description of the Related Art As a conventional category classification method, for example, there is a composite self-organization type pattern classification system described in JP-A-04-288663.

【0003】この従来のパターン分類システムは、自己
組織型分類手段と総合判定手段から構成される。自己組
織型分類手段は、学習モードによりあらかじめ学習した
重み係数を格納しており、特徴信号ベクトルFi を入力
とし、分類対象とするM個のカテゴリに対応したM個の
要素ri1,…,riMからなる出力信号ベクトルRi を生
成する。ここで、要素rijは、入力パターン信号ベクト
ルSが、カテゴリCjと特徴信号ベクトルFi において
どの位離れているかを示す。総合判定手段では、K個の
出力信号ベクトルR1 , …, RK のなかから、カテゴリ
j に対応する出力信号ベクトルの要素r1i,…,rKi
の線形和をとり、カテゴリC1 ,…,CM に対応する総
合出力値をそれぞれ求める。そして、総合出力値中の最
も小さい値を与えるカテゴリ名を分類結果として判定
し、これを分類応答信号Pとして出力する。
This conventional pattern classification system is composed of self-organizing type classifying means and comprehensive judging means. The self-organizing type classifying means stores the weighting coefficients learned in advance in the learning mode, receives the feature signal vector F i as an input, and receives the M elements r i1 , ..., M corresponding to the M categories to be classified. Generate an output signal vector R i consisting of r iM . Here, the element r ij indicates how far the input pattern signal vector S is from the category C j and the feature signal vector F i . In the comprehensive judgment means, among the K output signal vectors R 1 , ..., RK , the elements r 1i , ..., R Ki of the output signal vector corresponding to the category C j.
, And the total output values corresponding to the categories C 1 , ..., C M are obtained. Then, the category name that gives the smallest value in the total output value is determined as the classification result, and this is output as the classification response signal P.

【0004】[0004]

【発明が解決しようとする課題】上述した従来のシステ
ムによるカテゴリ分類方法は、あらかじめ分類すべきカ
テゴリ数を決定した上で、自己組織型分類手段に格納す
る重み係数を学習する必要があり、カテゴリ数が未知の
場合、使用することが難しいという欠点がある。また、
一旦学習した後で、カテゴリを追加する場合、もう一度
重み係数を学習し直さなければならないという問題点が
ある。
In the category classification method by the above-mentioned conventional system, it is necessary to determine the number of categories to be classified in advance and then learn the weighting coefficient to be stored in the self-organizing type classification means. It has the drawback that it is difficult to use if the number is unknown. Also,
When a category is added after learning once, there is a problem that the weighting coefficient has to be learned again.

【0005】本発明の目的は、上述の欠点が除去された
汎用的なカテゴリ分類方法を提供することにある。
An object of the present invention is to provide a general category classification method in which the above-mentioned drawbacks are eliminated.

【0006】[0006]

【課題を解決するための手段】本発明のカテゴリ分類方
法は、入力するベクトルを独立変数とする関数を構成す
る定数をカテゴリごとに学習により定め、カテゴリそれ
ぞれについての前記関数の前記ベクトルに対する従属変
数の大きさを比較して前記カテゴリの前記ベクトルが属
するものを定めるカテゴリ分類方法において、学習時に
入力するベクトルが属するカテゴリについて前記定数が
未定であれば当該ベクトルに従って当該カテゴリでの前
記定数を定め、学習時に入力するベクトルが属するカテ
ゴリに属する他のベクトルが既に入力されていて当該カ
テゴリについて前記定数が既に定められていれば当該入
力するベクトルおよび当該他のベクトルに従って前記定
数を変更することを特徴とする。
According to the category classification method of the present invention, a constant constituting a function having an input vector as an independent variable is determined by learning for each category, and a dependent variable of the function for each category with respect to the vector. In the category classification method that determines the one to which the vector of the category belongs by comparing the sizes of, if the constant is undecided for the category to which the vector input at the time of learning, the constant in the category is determined according to the vector, If another vector belonging to the category to which the vector input at the time of learning is already input and the constant is already determined for the category, the constant is changed according to the input vector and the other vector. To do.

【0007】本発明のカテゴリ分類方法は、カテゴリそ
れぞれについて学習により平均および共分散行列を定
め、入力するベクトルに対しカテゴリそれぞれについて
求めたn−変量確率密度関数の値が最大となるカテゴリ
を当該ベクトルが属するカテゴリとし、学習時に入力す
るベクトルが属するカテゴリについて前記平均および共
分散行列が未定であれば当該ベクトルに従って当該カテ
ゴリでの前記平均および前記共分散行列を定め、学習時
に入力するベクトルが属するカテゴリに属する他のベク
トルが既に入力されていて当該カテゴリについて前記平
均および共分散行列が既に定められていれば当該入力す
るベクトルおよび当該他のベクトルに従って前記平均お
よび共分散行列を変更することを特徴とする。
According to the category classification method of the present invention, the mean and covariance matrix are determined for each category by learning, and the category having the maximum value of the n-variable probability density function obtained for each category with respect to the input vector is determined as the vector. If the mean and covariance matrix for the category to which the vector input at the time of learning belongs is not determined, the mean and the covariance matrix for the category are determined according to the vector, and the category to which the vector input at the time of learning belongs If another vector belonging to is already input and the mean and covariance matrix is already determined for the category, the mean and covariance matrix is changed according to the input vector and the other vector. To do.

【0008】本発明のカテゴリ分類方法は、カテゴリそ
れぞれについて学習により平均および2乗平均を定め、
入力する構成要素が互いに相関がないベクトルに対しカ
テゴリそれぞれについて共分散行列の対角成分だけを用
いて求めたn−変量確率密度関数の値が最大となるカテ
ゴリを当該ベクトルが属するカテゴリとし、学習時に入
力するベクトルが属するカテゴリについて前記平均およ
び2乗平均が未定であれば当該ベクトルに従って当該カ
テゴリでの前記平均および2乗平均を定め、学習時に入
力するベクトルが属するカテゴリについて前記平均およ
び2乗平均が既に定められていれば当該入力するベクト
ルから求まる前記平均および2乗平均と当該既定の前記
平均および2乗平均から求めたもので当該カテゴリにつ
いての前記平均および2乗平均を変更することを特徴と
する。
The category classification method of the present invention determines the mean and the root mean square by learning for each category,
For a vector whose input components have no correlation with each other, the category having the maximum value of the n-variable probability density function obtained by using only the diagonal components of the covariance matrix for each category is set as the category to which the vector belongs, and learning If the mean and the root mean square for the category to which the vector to be inputted at times is undecided, the mean and the mean square are determined for the category according to the vector, and the mean and the mean square are related to the category to which the vector to be inputted during learning belongs. Is determined from the input vector, and the predetermined average and the square mean, and the average and the square mean for the category are changed. And

【0009】本発明のカテゴリ分類方法は、カテゴリそ
れぞれについて学習により平均を定め、入力するベクト
ルの前記平均からの距離が最小となるカテゴリを当該ベ
クトルが属するカテゴリとし、学習時に入力するベクト
ルが属するカテゴリについて前記平均が未定であれば当
該ベクトルに従って当該カテゴリでの前記平均を定め、
学習時に入力するベクトルが属するガテゴリについて前
記平均が既に定められていれば当該入力するベクトルか
ら求まる前記平均および当該既定の前記平均から求めた
もので当該カテゴリについての前記平均を変更すること
を特徴とする。
According to the category classification method of the present invention, an average is determined by learning for each category, the category having the smallest distance from the average of the input vector is set as the category to which the vector belongs, and the category to which the vector input at the time of learning belongs If the average is undecided about, determine the average in the category according to the vector,
If the average is already determined for the category to which the vector input at the time of learning belongs, the average for the category is changed by the average obtained from the input vector and the predetermined average. To do.

【0010】[0010]

【発明の実施の形態】次に、本発明の実施の形態につい
て、図面を参照して説明する。
Next, an embodiment of the present invention will be described with reference to the drawings.

【0011】図1は本発明の実施の形態で用いるニュー
ラルネットワークのある1つのニューロンの構成を示す
図である。
FIG. 1 is a diagram showing the configuration of one neuron having a neural network used in the embodiment of the present invention.

【0012】ニューロンは、n次元のベクトルXが入力
されると、出力として、Y=f(X)を出力する。ここ
で、関数fは、n−変量確率密度関数で、
When an n-dimensional vector X is input, the neuron outputs Y = f (X) as an output. Here, the function f is an n-variable probability density function,

【0013】 [0013]

【0014】で、Mはn次元のベクトルの平均、Σはn
×nの共分散行列を表す。また、┃Σ┃はΣの行列式、
Σ-1はΣの逆行列である。
Where M is the average of n-dimensional vectors and Σ is n
Represents a xn covariance matrix. ┃Σ┃ is the determinant of Σ,
Σ −1 is the inverse matrix of Σ.

【0015】平均Mおよび共分散行列Σは、学習により
決定する。
The mean M and the covariance matrix Σ are determined by learning.

【0016】図2は本発明の実施の形態で用いるニュー
ラルネットワークの構成を示す図である。
FIG. 2 is a diagram showing the configuration of the neural network used in the embodiment of the present invention.

【0017】ネットワークを構成する個々のニューロン
は、それぞれ1つのカテゴリに対応し、複数のカテゴリ
が存在する場合、ネットワークは、複数のニューロンか
ら構成される。図2ではベクトルXがカテゴリC1 ,C
2 ,…Ci に対応するニューロンに入力され、それぞれ
のニューロンからスカラー値Y1 ,Y2 ,…Yi …が出
力される。
Each individual neuron forming the network corresponds to one category, and when there are a plurality of categories, the network is composed of a plurality of neurons. In FIG. 2, the vector X is the category C 1 , C.
2 , ..., C i are input to the neurons, and scalar values Y 1 , Y 2 , ..., Y i ... Are output from the respective neurons.

【0018】カテゴリ分類は、まず、学習を行う。学習
時においては、あるベクトルXを入力し、このベクトル
Xが、予め設定されたi個のカテゴリC1 ,…Ci のう
ち、いずれか1つのカテゴリに属する場合は、そのカテ
ゴリに対応する平均M、共分散行列Σを、記憶してある
それまでにそのカテゴリに属しているすべての入力か
ら、算出し直し修正を行う。一方、ベクトルXが、どの
カテゴリにも属さない場合は、新たに平均M=X、共分
散行列Σ=Σ0 (入力ベクトルXにより定まる共通分散
行列)なるニューロンを新たなカテゴリCi+1 に対応さ
せて追加する。
In category classification, learning is first performed. At the time of learning, when a certain vector X is input, and this vector X belongs to any one of preset i categories C 1 , ... C i , the average corresponding to the category is input. The M and covariance matrix Σ are recalculated and corrected from all the stored inputs that have belonged to that category up to that point. On the other hand, when the vector X does not belong to any category, a new neuron having mean M = X and covariance matrix Σ = Σ 0 (common variance matrix determined by the input vector X) is newly assigned to the new category C i + 1 . Correspond and add.

【0019】学習後は、ある入力ベクトルXに対して、
初めから設定され、その後に追加されて存在するすべて
のカテゴリについて、それぞれのカテゴリで学習により
得た平均Mおよび共分散行列Σを用いて、(1)式から
n−変量確率密度関数f(X)を求める。そして、f
(X)の値が最大となるカテゴリを、その入力ベクトル
Xが属するカテゴリとし、ベクトルXに対するカテゴリ
分類を行う。
After learning, for a certain input vector X,
For all categories that are set from the beginning and are added after that, using the mean M and the covariance matrix Σ obtained by learning in each category, the n-variable probability density function f (X ). And f
The category having the maximum value of (X) is set as the category to which the input vector X belongs, and the category classification for the vector X is performed.

【0020】入力ベクトルXの各々の要素について相関
がない場合、共分散行列Σは対角行列
If there is no correlation for each element of the input vector X, the covariance matrix Σ is a diagonal matrix.

【0021】 [0021]

【0022】と簡単化でき、μ1 ,…,μn と共分散行
列Σの対角成分σ11,…,σnnがわかれば計算すること
ができる。
[0022] and can be simplified, μ 1, ..., diagonal sigma 11 of mu n and covariance matrix sigma, ..., it can be calculated knowing the sigma nn.

【0023】すなわち、学習時においては、平均Mと共
分散行列Σの対角成分だけを追加または更新し、学習後
は、(6)式により、f(X)を計算するので、計算量
が削減される。
That is, at the time of learning, only the mean M and the diagonal components of the covariance matrix Σ are added or updated, and after learning, f (X) is calculated by the equation (6), so the calculation amount is Be reduced.

【0024】ベクトルXの各々の要素について相関がな
い場合は学習時において、入力 X(1)=(x1(1),…,xn(1)T (7) が存在するどのカテゴリにも属さない場合は、初期値と
して、平均 M(1)=(μ1(1),…,μn(1)T =X(1) (8) 2乗平均 K(1)=(ν1(1),…,νn(1)T =(x1(1) 2 ,…,xn(1) 2 T (9) を情報として記憶する。
When there is no correlation for each element of the vector X, at the time of learning, in which category the input X (1) = (x 1 (1) , ..., X n (1) ) T (7) exists. If it does not belong, mean M (1) = (μ 1 (1) , ..., μ n (1) ) T = X (1) (8) root mean square K (1) = (ν 1 (1) , ..., ν n (1) ) T = (x 1 (1) 2 , ..., X n (1) 2 ) T (9) is stored as information.

【0025】入力ベクトル X(k)=(x1(k),…,xn(k)T (10) がいずれか1つのカテゴリに属し、それまでにそのカテ
ゴリに属している入力がk−1個あって、今回のベクト
ルX(k)の入力がk個目の場合、その時点で記憶して
いる平均 M(k−1)=(μ1(k-1),…,μn(k-1)T (11) 2乗平均 K(k−1)=(ν1(k-1),…,νn(k-1)T (12) から、平均 M(k)=(μ1(k),…,μn(k)T (13) と2乗平均 K(k)=(ν1(k),…,νn(k)T (14) はそれぞれ
The input vector X (k) = (x 1 (k) , ..., X n (k) ) T (10) belongs to any one of the categories, and the input belonging to that category up to that time is k. −1, and when the current vector X (k) is the kth input, the average M (k−1) = (μ 1 (k−1) , ..., μ n stored at that time (k-1) ) T (11) root mean square K (k-1) = (ν 1 (k-1) , ..., ν n (k-1) ) T (12), the average M (k) = (Μ 1 (k) ,…, μ n (k) ) T (13) and the root mean square K (k) = (ν 1 (k) ,…, ν n (k) ) T (14) are respectively

【0026】 [0026]

【0027】と更新される。Is updated.

【0028】このとき分散は V(k)=(ν1(k)−μ1(k) 2 ,…,νn(k)−μn(k) 2 T (17) と計算できる。V1(k)−μ1(k) 2 ,…Vn(k)−μn(k) 2
はσ11,…σnnなので分類時の入力ベクトルXに対し
(6)式により出力値Yを計算できる。
At this time, the dispersion can be calculated as V (k) = (ν 1 (k) −μ 1 (k) 2 , ..., V n (k) −μ n (k) 2 ) T (17). V 1 (k)1 (k) 2 , ... V n (k)n (k) 2
Is σ 11 , ... σ nn, the output value Y can be calculated by the equation (6) for the input vector X at the time of classification.

【0029】すなわち、ベクトルXは各要素についての
相関がないようにすれば学習時においては、すべてのカ
テゴリについて、それまでに各々のカテゴリに属してい
るすべての入力を記憶しなくても、逐次的に、平均と2
乗平均を更新し、記憶しておけばよい。こうすることに
より、記憶しておく情報量が大幅に削減される。
That is, if the vector X is set so that there is no correlation for each element, at the time of learning, even if it is not necessary to store all the inputs belonging to each category until then, all the categories are successively stored. So average and 2
It suffices to update and store the multiplicative average. By doing so, the amount of information to be stored is greatly reduced.

【0030】また、(1)のかわりに、n次元の入力ベ
クトルXに対する出力値として、Y=f(X)、ここ
で、関数fは、距離を表す関数で
Instead of (1), Y = f (X) as an output value for an n-dimensional input vector X, where the function f is a function representing a distance.

【0031】 [0031]

【0032】であるニューロンも考えられる。ただし、 X=(x1 ,…,xn T M=(μ1 ,…,μn T で、Mはn次元ベクトルの平均を表す。A neuron that is However, X = (x 1 , ..., X n ) T M = (μ 1 , ..., μ n ) T , and M represents the average of n-dimensional vectors.

【0033】平均Mは、学習により決定する。The average M is determined by learning.

【0034】まず、学習時においては、あるベクトルX
を入力し、このベクトルXが、i個のカテゴリC1
…,Ci のうち、いずれか1つのカテゴリに属する場合
は、そのカテゴリに対応する平均Mを、記憶してあるそ
れまでにそのカテゴリに属しているすべての入力から、
算出し直し修正を行う。一方、入力Xが、どのカテゴリ
にも属さない場合は、新たに平均M=Xなるニューロ
ン、すなわち、カテゴリCi+1 を追加する。
First, at the time of learning, a certain vector X
, And this vector X has i categories C 1 ,
, C i belongs to any one of the categories, the average M corresponding to the category is stored from all the inputs that have been stored in the category until then,
Recalculate and make corrections. On the other hand, if the input X does not belong to any category, a new neuron having an average M = X, that is, a category C i + 1 is newly added.

【0035】学習後は、ある入力ベクトルXに対して、
存在するすべてのカテゴリについて、それぞれのカテゴ
リで学習した平均Mを用いて、(18)式から平均との
距離f(X)を求める。そして、f(x)の値が最小と
なるカテゴリを、その入力ベクトルXが属するカテゴリ
とし、入力ベクトルXに対するカテゴリ分類を行う。
After learning, for a certain input vector X,
For all existing categories, the average M learned in each category is used to obtain the distance f (X) from the average from the equation (18). Then, the category having the smallest value of f (x) is set as the category to which the input vector X belongs, and category classification is performed on the input vector X.

【0036】学習時において、入力ベクトル X(1)=(x1(1),…,xn(1)T (19) がどのカテゴリにも属さない場合は、初期値として、平
均 M(1)=(μ1(1),…,μn(1)T =X(1) (20) を情報として記憶する。
At the time of learning, if the input vector X (1) = (x 1 (1) , ..., X n (1) ) T (19) does not belong to any category, the average M ( 1) = (μ 1 (1) , ..., μ n (1) ) T = X (1) (20) is stored as information.

【0037】入力ベクトル X(k)=(X1(k),…,Xn(k)T (21) がいずれか1つのカテゴリに属し、それまでにそのカテ
ゴリに属している入力がk−1個あって、今回の入力が
k個目の場合、その時点で記憶している平均 M(k−1)=(μ1(k-1),…,μn(k-1)T (22) から、平均 M(k)=(μ1(k),…,μn(k)T (23) は
The input vector X (k) = (X 1 (k) , ..., X n (k) ) T (21) belongs to any one of the categories, and the inputs that have belonged to that category by then are k. -1 and the current input is the k-th, the average stored at that time M (k-1) = (μ1 (k-1) , ..., μn (k-1) ) From T (22), the average M (k) = (μ 1 (k) , ..., μ n (k) ) T (23) is

【0038】 [0038]

【0039】と更新される。And is updated.

【0040】すなわち、学習時においては、すべてのカ
テゴリについて、それまでに各々のカテゴリに属してい
るすべての入力を記憶しなくても、逐次的に、平均のみ
を更新し、記憶しておけばよい。こうすることにより、
記憶しておく情報量が大幅に削減される。
That is, at the time of learning, for all categories, only the average is updated and stored sequentially without storing all the inputs belonging to each category until then. Good. By doing this,
The amount of information to be stored is greatly reduced.

【0041】いずれの場合も、前回の学習終了時までに
必要だった情報を記憶しておくことで、そこからの追加
学習は容易に行える。
In any case, by storing the information required until the end of the previous learning, additional learning from that information can be easily performed.

【0042】〔実施例〕図3は本発明の一実施例のカテ
ゴリ分類方法を示す流れ図である。このカテゴリ分類方
法は図示しない演算処理装置,入出力装置,記憶装置な
どを有する情報処理装置により実行される。以下図形を
複数の文字に分類する場合を例として説明する。
[Embodiment] FIG. 3 is a flow chart showing a category classification method according to an embodiment of the present invention. This category classification method is executed by an information processing device having an arithmetic processing device, an input / output device, a storage device and the like (not shown). The case where the figure is classified into a plurality of characters will be described below as an example.

【0043】ステップ1では画像入力装置、図形処理装
置により図形に関する情報からなるベクトルXを入力す
る。ステップ2ではその図形が示す文字すなわちカテゴ
リ−Cを人が判断してキーボード等より指定する。
In step 1, the image input device and the graphic processing device input a vector X including information about a graphic. In step 2, a person judges the character indicated by the figure, that is, the category-C, and designates it with a keyboard or the like.

【0044】ステップ3ではそのカテゴリ−Cが記憶装
置に既に設定されたものとして記憶されているか否かチ
ェックする。記憶されていなければステップ4で前述の
(8),(9)式により、平均M,2乗平均Kを求め、
これらカテゴリC,ベクトルX,平均M,共通分散行列
Σを対応させて記憶装置に記憶する。
In step 3, it is checked whether the category-C is stored in the storage device as already set. If not stored, in step 4, the average M and the root mean square K are obtained from the above equations (8) and (9),
The category C, the vector X, the average M, and the common variance matrix Σ are stored in the storage device in association with each other.

【0045】ステップ3で指定されたカテゴリ−Cが記
憶装置に既に設定されたものとして記憶されていれば、
そのカテゴリ−Cに対応して記憶装置に記憶されていた
すべてのベクトルXおよびステップ1で入力されたベク
トルXから演算処理装置により算出した平均M,共通分
散行列Σをそのカテゴリ−Cに対応するものとして記憶
装置に記憶し、そのカテゴリ−Cに対応して既に記憶さ
れていたベクトルXと共にステップ1で入力されたベク
トルXを追加して記憶する。ステップ4,5のステップ
6でさらに学習を続行する場合はステップ1に戻る。
If the category-C designated in step 3 is already stored in the storage device,
The average M and the common variance matrix Σ calculated by the arithmetic processing unit from all the vectors X stored in the storage device corresponding to the category-C and the vector X input in step 1 correspond to the category-C. Then, the vector X input in step 1 is additionally stored together with the vector X already stored corresponding to the category-C. When the learning is further continued in step 6 of steps 4 and 5, the process returns to step 1.

【0046】予め、複数のカテゴリCを設定しておき、
これらすべてのカテゴリCについて平均値M,共通分散
行列Σが得られるまではステップ1〜6を繰り返し実行
するが、この間に入力されたベクトルXによっては設定
しておいたカテゴリC以外の新たなカテゴリを設定する
こともできる。
A plurality of categories C are set in advance,
Steps 1 to 6 are repeatedly executed until the mean value M and the common variance matrix Σ are obtained for all of these categories C, but a new category other than the category C that has been set depending on the vector X input during this period. Can also be set.

【0047】ステップ6で学習を終了する時は、次のス
テップ7で文字認識する画像についてのベクトルXを入
力し、次にこの入力ベクトルXに対し記憶装置に記憶さ
れているすべてのカテゴリCについて記憶装置に各カテ
ゴリに対応して記憶されている平均M,共通分散行列Σ
を用いて演算処理装置で前述の式(1)によりn−変数
確率密度関数の値Y=f(x)を算出し、値Yが最大と
なるカテゴリC例えば文字を入力ベクトルXが属するも
のとして出力する(ステップ8)。新たなベクトルXに
ついてカテゴリ分類または学習を行う場合はステップ6
に戻る(ステップ9)。
When the learning is completed in step 6, the vector X for the image for character recognition is input in the next step 7, and then the input vector X is input for all the categories C stored in the storage device. Mean M and common variance matrix Σ stored in the storage device corresponding to each category
The value Y = f (x) of the n-variable probability density function is calculated by the above-described equation (1) in the arithmetic processing device using, and the category C having the maximum value Y, for example, the character to which the input vector X belongs Output (step 8). Step 6 when performing category classification or learning for the new vector X
Return to (Step 9).

【0048】[0048]

【発明の効果】以上説明したように、本発明のカテゴリ
分類方法は、入力ベクトルに対し、属するカテゴリにつ
いてのn−変量確率密度関数の平均および共分散行列な
どの関数の定数が未定であるか既定であるかにしたが
い、カテゴリを特徴づける情報である定数を新規に追加
または更新することにより学習し、学習後、ある入力ベ
クトルに対して、存在するすべてのカテゴリについて、
それぞれのカテゴリについて定めた定数を用いて、その
入力ベクトルが属するカテゴリを決定し、入力ベクトル
に対するカテゴリ分類を行うので、あらかじめ分類すべ
きカテゴリ数が決定している必要がなく、カテゴリ数が
未知の場合についても、特に意識することなく、入力ベ
クトルをカテゴリに分類できるという効果がある。
As described above, according to the category classification method of the present invention, the constants of the functions such as the mean and covariance matrix of the n-variate probability density function for the category to which the input vector belongs are undecided. According to the default, learning is performed by newly adding or updating constants that are information characterizing categories, and after learning, for all categories that exist for a certain input vector,
The constants defined for each category are used to determine the category to which the input vector belongs, and category classification is performed on the input vector, so there is no need to determine the number of categories to be classified in advance, and the number of categories is unknown. Also in the case, there is an effect that the input vector can be classified into a category without paying particular attention.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態で用いる1つのニューロン
の構成を示す図である。
FIG. 1 is a diagram showing a configuration of one neuron used in an embodiment of the present invention.

【図2】本発明の実施の形態で用いるニューラルネット
ワークの構成を示す図である。
FIG. 2 is a diagram showing a configuration of a neural network used in the embodiment of the present invention.

【図3】本発明の一実施例のカテゴリ分類方法を示す流
れ図である。
FIG. 3 is a flowchart showing a category classification method according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

X ベクトル x1 ,x2 ,xn ベクトルXの要素 Y 出力値 Y1 ,Y2 ,Yi 出力値 C1 ,C2 ,Ci カテゴリX vector x 1 , x 2 , x n element of vector X Y output values Y 1 , Y 2 , Y i output values C 1 , C 2 , C i categories

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 入力するベクトルを独立変数とする関数
を構成する定数をカテゴリごとに学習により定め、カテ
ゴリそれぞれについての前記関数の前記ベクトルに対す
る従属変数の大きさを比較して前記カテゴリの前記ベク
トルが属するものを定めるカテゴリ分類方法において、
学習時に入力するベクトルが属するカテゴリについて前
記定数が未定であれば当該ベクトルに従って当該カテゴ
リでの前記定数を定め、学習時に入力するベクトルが属
するカテゴリに属する他のベクトルが既に入力されてい
て当該カテゴリについて前記定数が既に定められていれ
ば当該入力するベクトルおよび当該他のベクトルに従っ
て前記定数を変更することを特徴とするカテゴリ分類方
法。
1. A constant that constitutes a function having an input vector as an independent variable is determined for each category by learning, and the magnitude of a dependent variable with respect to the vector of the function for each category is compared to compare the vector of the category. In the category classification method that determines what belongs to
If the constant is undecided for the category to which the vector to be input at the time of learning is determined, the constant in the category is determined according to the vector, and another vector belonging to the category to which the vector to be input at the time of learning has already been input If the constant is already defined, the constant is changed according to the input vector and the other vector.
【請求項2】 カテゴリそれぞれについて学習により平
均および共分散行列を定め、入力するベクトルに対しカ
テゴリそれぞれについて求めたn−変量確率密度関数の
値が最大となるカテゴリを当該ベクトルが属するカテゴ
リとし、学習時に入力するベクトルが属するカテゴリに
ついて前記平均および共分散行列が未定であれば当該ベ
クトルに従って当該カテゴリでの前記平均および前記共
分散行列を定め、学習時に入力するベクトルが属するカ
テゴリに属する他のベクトルが既に入力されていて当該
カテゴリについて前記平均および共分散行列が既に定め
られていれば当該入力するベクトルおよび当該他のベク
トルに従って前記平均および共分散行列を変更すること
を特徴とするカテゴリ分類方法。
2. A mean and covariance matrix are determined by learning for each category, and the category having the maximum value of the n-variable probability density function obtained for each category with respect to the input vector is set as the category to which the vector belongs, and learning is performed. If the mean and covariance matrix is undecided for the category to which the vector to be input at times is determined, the mean and the covariance matrix in the category are determined according to the vector, and other vectors belonging to the category to which the vector to be input during learning are A category classification method, characterized in that if the mean and covariance matrix have been already input for the category, the mean and covariance matrix is changed according to the input vector and other vectors.
【請求項3】 カテゴリそれぞれについて学習により平
均および2乗平均を定め、入力する構成要素が互いに相
関がないベクトルに対しカテゴリそれぞれについて共分
散行列の対角成分だけを用いて求めたn−変量確率密度
関数の値が最大となるカテゴリを当該ベクトルが属する
カテゴリとし、学習時に入力するベクトルが属するカテ
ゴリについて前記平均および2乗平均が未定であれば当
該ベクトルに従って当該カテゴリでの前記平均および2
乗平均を定め、学習時に入力するベクトルが属するカテ
ゴリについて前記平均および2乗平均が既に定められて
いれば当該入力するベクトルから求まる前記平均および
2乗平均と当該既定の前記平均および2乗平均から求め
たもので当該カテゴリについての前記平均および2乗平
均を変更することを特徴とするカテゴリの分類方法。
3. An n-variate probability obtained by determining a mean and a square mean by learning for each category and using only diagonal components of a covariance matrix for each category for a vector whose input components have no correlation with each other. The category having the maximum value of the density function is set as the category to which the vector belongs, and if the mean and the root mean square of the category to which the vector input at the time of learning belong are undecided, the mean and 2 in the category are calculated according to the vector.
If the mean and the root mean of the category to which the vector input at the time of learning belongs is defined, the mean and the root mean obtained from the input vector and the predetermined mean and the root mean are obtained. A method of classifying a category, characterized in that the obtained mean and the mean square of the category are changed.
【請求項4】 カテゴリそれぞれについて学習により平
均を定め、入力するベクトルの前記平均からの距離が最
小となるカテゴリを当該ベクトルが属するカテゴリと
し、学習時に入力するベクトルが属するカテゴリについ
て前記平均が未定であれば当該ベクトルに従って当該カ
テゴリでの前記平均を定め、学習時に入力するベクトル
が属するガテゴリについて前記平均が既に定められてい
れば当該入力するベクトルから求まる前記平均および当
該既定の前記平均から求めたもので当該カテゴリについ
ての前記平均を変更することを特徴とするカテゴリの分
類方法。
4. An average is determined for each category by learning, and a category having a minimum distance from the average of an input vector is set as a category to which the vector belongs, and the average is undecided for the category to which the vector input at learning belongs. If there is, the average in the category is determined according to the vector, and if the average is already determined for the category to which the vector input during learning belongs, the average obtained from the input vector and the predetermined average obtained A method for classifying a category, wherein the average for the category is changed.
JP8065870A 1996-03-22 1996-03-22 Category sorting method Pending JPH09259101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8065870A JPH09259101A (en) 1996-03-22 1996-03-22 Category sorting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8065870A JPH09259101A (en) 1996-03-22 1996-03-22 Category sorting method

Publications (1)

Publication Number Publication Date
JPH09259101A true JPH09259101A (en) 1997-10-03

Family

ID=13299462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8065870A Pending JPH09259101A (en) 1996-03-22 1996-03-22 Category sorting method

Country Status (1)

Country Link
JP (1) JPH09259101A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019102984A1 (en) * 2017-11-22 2019-05-31 Necソリューションイノベータ株式会社 Learning device and learning method, identification device and identification method, program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019102984A1 (en) * 2017-11-22 2019-05-31 Necソリューションイノベータ株式会社 Learning device and learning method, identification device and identification method, program, and recording medium
US11599791B2 (en) 2017-11-22 2023-03-07 Nec Solution Innovators, Ltd. Learning device and learning method, recognition device and recognition method, program, and storage medium

Similar Documents

Publication Publication Date Title
CN111291183B (en) Method and device for carrying out classification prediction by using text classification model
CN112232476B (en) Method and device for updating test sample set
JP3088171B2 (en) Self-organizing pattern classification system and classification method
US5724487A (en) Neural network for maximum likelihood classification with supervised and unsupervised training capability
CN109033107A (en) Image search method and device, computer equipment and storage medium
US5469530A (en) Unsupervised training method for a neural net and a neural net classifier device
CN114358197A (en) Method and device for training classification model, electronic equipment and storage medium
CN114842343A (en) ViT-based aerial image identification method
US6353816B1 (en) Method, apparatus and storage medium configured to analyze predictive accuracy of a trained neural network
JPH08123778A (en) Automatic generation method for non-linear model
Costa et al. Genetic adaptation of segmentation parameters
US6813390B2 (en) Scalable expandable system and method for optimizing a random system of algorithms for image quality
CN111242274A (en) Method for analyzing a set of neural network parameters
JPH09259101A (en) Category sorting method
CN115984946A (en) Face recognition model forgetting method and system based on ensemble learning
CN109697511B (en) Data reasoning method and device and computer equipment
CN115619563A (en) Stock price analysis method based on neural network
CN109308565B (en) Crowd performance grade identification method and device, storage medium and computer equipment
CN114548297A (en) Data classification method, device, equipment and medium based on domain self-adaption
JPH096382A (en) Method and device for processing information
CN114943330A (en) Neural network model training method, device, equipment and storage medium
JPH07271916A (en) Learning pattern generating device and character recognizing device using the same
JPH0535710A (en) Learning method/device for neural network
CN116052018B (en) Remote sensing image interpretation method based on life learning
CN113837873B (en) Method, equipment and computing medium for estimating waiting time of automobile financial loan

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19990323