JPH05181972A - Method and device for pattern classification - Google Patents

Method and device for pattern classification

Info

Publication number
JPH05181972A
JPH05181972A JP3345878A JP34587891A JPH05181972A JP H05181972 A JPH05181972 A JP H05181972A JP 3345878 A JP3345878 A JP 3345878A JP 34587891 A JP34587891 A JP 34587891A JP H05181972 A JPH05181972 A JP H05181972A
Authority
JP
Japan
Prior art keywords
category
function
classification
output
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3345878A
Other languages
Japanese (ja)
Inventor
Tetsuo Tsuchiya
徹雄 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP3345878A priority Critical patent/JPH05181972A/en
Publication of JPH05181972A publication Critical patent/JPH05181972A/en
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To enable even the addition or deletion of a category after learning without relearning the whole. CONSTITUTION:When a question for classification into categories that a user considers as classification destination is an entire question and a question for classification into limited classification destinations is a partial question, the duplication of the limited classification destinations is allowed and partial question as many as combinations are set to generate an identification function for the partial questions. When a new category is added, all partial questions having the category as a limited classification destination are set and an identification function is generated for the partial questions and added. When the category is deleted, all identification functions having the category as a limited classification destination are not used.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はパタン分類方法及び装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern classification method and device.

【0002】[0002]

【従来の技術】従来のパタン分類方法において、対象か
ら抽出した特徴をサンプルデータで学習させた多層のニ
ューラルネットワークに入力し、ネットワークの出力に
より分類先を決定する方法がある。図4に3層の場合の
ニューラルネットワークのモデルを示す。各ノード20
は複数の入力を持ち、入力データの重み付け和がしきい
値を越えたとき、正規化関数やシグモイド関数に基づい
て出力が決定される。この重み及びしきい値をサンプル
データから決定することを学習と呼ぶ。学習方法として
はRumelhartによって提案された誤差逆伝幡に
よる学習方法がある。この学習方法は2層間において、
各層の出力データと目標値との差をとり、差の2乗の総
和が最小となるように重みを逐次調節していく。学習デ
ータに対してこれを繰り返していき、重みが収束した時
点で学習は終了する[時開平2−143384号公報参
照]。
2. Description of the Related Art In a conventional pattern classification method, there is a method of inputting a feature extracted from an object to a multi-layered neural network trained with sample data and determining the classification destination by the output of the network. FIG. 4 shows a neural network model in the case of three layers. Each node 20
Has a plurality of inputs, and when the weighted sum of input data exceeds a threshold value, the output is determined based on a normalization function or a sigmoid function. Determining this weight and threshold value from sample data is called learning. As a learning method, there is a learning method by error reverse transfer proposed by Rumelhart. This learning method is
The difference between the output data of each layer and the target value is calculated, and the weights are sequentially adjusted so that the total sum of squares of the difference is minimized. This is repeated for the learning data, and the learning ends when the weight converges [see Tokikaihei 2-143384].

【0003】ニューラルネットワークによる方法では、
学習されたネットワークにおいて出力層のノードは入力
された特徴量の非線形関数となっている。これらの関数
はカテゴリの数だけ構成されることになり、線形分離不
可能な問題に対しても有効な分類法と考えられている
[ニューラルネットワーク情報処理 産業図書株式会社
pp39参照]。
In the neural network method,
In the learned network, the nodes in the output layer are non-linear functions of the input features. These functions are configured by the number of categories, and are considered to be effective classification methods even for linearly inseparable problems [see Neural Network Information Processing Sangyo Tosho Co., Ltd. pp39].

【0004】また判別分析法において、カテゴリの数が
3つ以上の場合には次元減少を伴う判別方式があり、各
カテゴリの相互の位置を最も鮮明に表すような軸を求め
て、その軸が張る空間でユークリッド距離で分類を行う
ものである。この方法は固有値問題を解く必要があり、
かなりの計算を要する。この複数な固有値問題を解くこ
とを回避する方法として、任意の2カテゴリ間に2つを
分類する線形識別関数を作り、その識別関数群の分類先
として一番多くでてきたものを分類先とする方法がある
[画像認識の基礎II オーム社 pp202参照]。
In the discriminant analysis method, there is a discriminant method involving dimension reduction when the number of categories is three or more. The axis that most clearly represents the mutual position of each category is obtained, and the axis is determined. Classification is performed by the Euclidean distance in the stretched space. This method requires solving the eigenvalue problem,
It takes a lot of calculations. As a method of avoiding solving the plurality of eigenvalue problems, a linear discriminant function that classifies two between arbitrary two categories is created, and the most frequent discriminant destination of the discriminant function group is defined as the discriminant destination. There is a method to do so [see Basics of Image Recognition II, Ohm Co., pp202].

【0005】[0005]

【発明が解決しようとする課題】ニューラルネットワー
クを用いる方法において、一度ネットワークを構成して
学習をさせた後にカテゴリを追加する場合、再び全学習
データを用いて学習しなおす必要があり、容易にカテゴ
リの付け足しを行うことはできない。逆にカテゴリを減
らす場合、学習しなおさなくても分類はできるが、不要
なカテゴリによる識別率への影響は残したままになり、
最初からそのカテゴリが無いとして構成したネットワー
クより識別能力は高くはならないと考えられる。例えば
今カテゴリAとカテゴリBとカテゴリCがあるとする。
カテゴリAとカテゴリBのデータしか入ってこないとき
に、分類先がAとBだけで作ったネットワークとAとB
とCで作ったネットワークでは、後者の識別率は前者の
識別率を越えることはない。なぜなら後者においてカテ
ゴリCに関する情報は、カテゴリAとカテゴリBを見分
けるのにはなんら役立つものではないからである。逆に
カテゴリCをも同時に識別するように構成しているがた
めに、カテゴリAとカテゴリBの2つに関する識別率は
下がる可能性がある。従って識別率の向上を望むなら
ば、ネットワークを再学習させる必要がある。またニュ
ーラルネットワークのモデルの1つでカテゴリの追加を
行えるものとして、RCEモデルがある[特開平1−3
15866号公報参照]。RCEモデルは3層のネット
ワークで、中間層のノードは次の式のように構成され、
出力層は中間層の出力のorとなる。 z=1[λ−lx−wl] (1) ここでzはノードの出力、xはノードへの入力ベクト
ル、wはノードが持つ重みベクトル、λはノードが表す
超救の半径である。1[]は、正の時1を負の時0を出
力する関数である。このモデルはカテゴリを超救の集合
で表そうとするもので、中間層のノード1つ1つが入力
特徴空間において超救を表す。従って超救を付け足すこ
とにより、カテゴリの追加や除去に対応できる。しか
し、超救の隙間はどのカテゴリにも属さない領域とな
り、その隙間の大きさに汎化能力(学習データからの内
挿・外挿による推定能力)が依存することになる。ま
た、このモデルはノイズを含んだ入力に対しては学習が
進むにつれて超救の半径が小さくなり、中間層の数が学
習データとほぼ同数、あるいはそれ以上まで増加してし
まう傾向があり、入力データに統計的な揺らぎを内包し
ているパタン認識の問題に対しての有効性は確立されて
いない。
In the method using a neural network, when a network is once constructed and learned, and then a category is added, it is necessary to re-learn by using all learning data again, and it is easy to perform the category. Cannot be added. Conversely, if you reduce the categories, you can classify without learning again, but the effect of unnecessary categories on the identification rate remains.
It is considered that the discriminating ability will not be higher than that of the network configured from the beginning without the category. For example, assume that there are now categories A, B, and C.
When only the data of category A and category B is input, the network created by only A and B and A and B
In the network constructed by C and C, the latter identification rate does not exceed the former identification rate. This is because, in the latter case, the information about the category C is not useful for distinguishing between the category A and the category B. On the contrary, since the category C is also configured to be identified at the same time, the identification rate for the two categories A and B may decrease. Therefore, if it is desired to improve the identification rate, it is necessary to retrain the network. Further, as one of the models of the neural network, which can add a category, there is an RCE model.
15866 publication]. The RCE model is a three-layer network, and the nodes in the middle layer are constructed as follows:
The output layer is the output or of the intermediate layer. z = 1 [λ-lx-wl] (1) Here, z is the output of the node, x is the input vector to the node, w is the weight vector of the node, and λ is the radius of super-salvation that the node represents. 1 [] is a function that outputs 1 when positive and 0 when negative. This model tries to represent a category by a set of super rescues, and each node in the middle layer represents super rescue in the input feature space. Therefore, by adding super rescue, it is possible to add or remove categories. However, the super rescue gap is a region that does not belong to any category, and the generalization ability (estimation ability by interpolation / extrapolation from learning data) depends on the size of the gap. In addition, this model has a tendency that the radius of super rescue becomes smaller as the learning progresses with respect to noisy inputs, and the number of intermediate layers tends to increase to almost the same number as the training data or more. The effectiveness for the problem of pattern recognition, which includes statistical fluctuations in the data, has not been established.

【0006】第2の従来の技術である判別分析において
任意の2カテゴリ間に作られた識別関数は線形関数であ
る。従って最初に与えられた問題が、多カテゴリの分類
先を持つものでかつその中の1組でも線形分離不可能な
場合、従来技術で述べた方法を用いても正しい分類先を
出力するとは限らない。またどの関数を使用するかとい
ったことは従来技術では考えられておらず、カテゴリの
追加・除去といったことに対応していない。
The discriminant function created between arbitrary two categories in the discriminant analysis which is the second conventional technique is a linear function. Therefore, if the first given problem has multi-category classification targets and even one set of them cannot be linearly separated, the method described in the prior art will not always output the correct classification targets. Absent. Further, which function is used has not been considered in the related art, and it does not correspond to the addition / removal of categories.

【0007】またニューラルネットワークによる方法で
は、複数カテゴリの分類先を持ち線形分離不可能な場合
でも識別関数を構成することができるとされているが、
カテゴリの数が増えたとき、その関数を高い精度で決定
することが困難、すなわち学習の収束性が遅くなる、出
力値がバイアスを持ってしまうといったことが生じる傾
向がある。これを解決する方法として小規模ニューラル
ネットワークを組み合わせて大規模ニューラルネットワ
ークを構成する方法がある。これらは予め小規模ニュー
ラルネットワークに担当すべきカテゴリを配分し、学習
させ、各小規模ニューラルネットワークの出力を比較し
て分類先を決定する。しかしながら、学習していないカ
テゴリのデータが入力された時の出力がどうなるかは予
想できず、例えば担当外のカテゴリのデータに対して高
い出力値を出してしまう可能性もある。そのため分類先
を各ネットの出力値の大きさで決定すると正しい選択が
なされない可能性がある。
In addition, the method using a neural network is said to be able to construct a discriminant function even when it has a plurality of categories and cannot be linearly separated.
When the number of categories increases, it tends to be difficult to determine the function with high accuracy, that is, the convergence of learning becomes slow, and the output value has a bias. As a method of solving this, there is a method of constructing a large-scale neural network by combining small-scale neural networks. In these, the categories to be in charge are assigned to the small-scale neural networks in advance, learning is performed, and the outputs of the small-scale neural networks are compared to determine the classification destination. However, it is not possible to predict what will happen to the output when the data of the unlearned category is input, and for example, there is a possibility that a high output value will be output for the data of the category not in charge. Therefore, if the classification destination is determined by the size of the output value of each net, the correct selection may not be made.

【0008】本発明は以上の問題を解決するものであ
り、その目的はパタン分類において、分類先を限定した
識別関数を分類先を重複させて組み合わせの数だけ作
り、その識別関数を使用するかしないかで全体として分
類されうるカテゴリを指定することを可能とすることに
より、カテゴリの追加・削除といった変更や分類先の指
定を行うことができ、また分類すべきカテゴリが多い場
合でも多いことによる識別率の低下が起きないような分
類方法及び装置を提供することにある。
The present invention is intended to solve the above problems, and an object thereof is to discriminate a classification function with a limited number of classification destinations in pattern classification by making the number of combinations by overlapping the classification destinations. By making it possible to specify a category that can be classified as a whole without doing so, it is possible to make changes such as adding or deleting categories and specify the classification destination, and even if there are many categories to be classified An object of the present invention is to provide a classification method and a device that do not reduce the identification rate.

【0009】[0009]

【課題を解決するための手段】第1の発明は、対象に関
する複数の特徴からその対象が属するカテゴリを決定す
るパタン分類方法において、分類先を限定した部分問題
を分類先の重複を許して組み合わせの数だけ設定し、設
定された部分問題において対象に関する複数の特徴を入
力、分類先を出力とする識別関数を構成し、分類されう
るカテゴリの選択をどの識別関数を用いるかを指定する
ことによって行い、それら指定された識別関数の出力を
統合的に判断して分類先を決定することを特徴とする。
A first invention is a pattern classification method for determining a category to which an object belongs from a plurality of features relating to the object, and combining partial problems with limited classification destinations while allowing overlapping of the classification destinations. By setting the number of points, and by configuring a discriminant function that inputs multiple features related to the target in the set subproblem and outputs the classification destination, by specifying which discriminant function is used to select a category that can be classified. It is characterized in that the classification destination is determined by comprehensively judging the outputs of the designated discriminant functions.

【0010】第2の発明は、対象に関する複数の特徴を
入力してその対象が属するカテゴリを出力するパタン分
類装置において、カテゴリの初期値指定及び追加及び削
除を表すカテゴリ情報を出力するカテゴリ管理手段と、
カテゴリ管理手段よりカテゴリ情報を受けとり、分類先
を限定した部分問題を分類先の重複を許して組み合わせ
の数だけ設定し、設定情報を出力する部分問題設定手段
と、部分問題設定手段から出力された設定情報を受けと
り、その設定において対象に関する複数の特徴を入力、
分類先を出力とする識別関数を構成し、設定情報と関数
情報を出力する関数構成手段と、関数構成手段から出力
された設定情報と関数情報を、特徴分配手段から入力が
あった時のみ限定された分類先を出力する機能ブロック
として記憶しておく関数記憶手段と、分類したいデータ
の特徴を記憶しておくパタン特徴記憶手段と、パタン特
徴記憶手段から読みだしたパタン特徴をカテゴリ管理手
段より受け取ったカテゴリ情報に基づいて関数記憶手段
の機能ブロックに選択的に出力する特徴分配手段と、関
数記憶手段の各機能ブロックのうち出力があるものだけ
からその出力を受けとり、統合的に判断して分類先を出
力する統合判定手段とからなることを特徴とする。
According to a second aspect of the invention, in a pattern classifying apparatus which inputs a plurality of features related to an object and outputs a category to which the object belongs, category management means for outputting category information indicating initial value designation and addition and deletion of the category. When,
It receives the category information from the category management means, sets the number of combinations of sub-problems with limited classification destinations, sets the number of combinations, and outputs the setting information. Receive configuration information and enter multiple features about the target in that configuration,
Only when there is an input from the feature distribution unit, the function configuring unit that configures the identification function that outputs the classification destination and outputs the setting information and the function information, and the setting information and the function information output from the function configuring unit The function storing means for storing the classified destination as a functional block for outputting, the pattern characteristic storing means for storing the characteristic of the data to be classified, and the pattern characteristic read out from the pattern characteristic storing means from the category managing means. Feature distribution means for selectively outputting to the functional blocks of the function storage means based on the received category information, and the output is received from only the functional blocks of the function storage means that have outputs, and the integrated judgment is made. It is characterized by comprising an integrated determination means for outputting a classification destination.

【0011】[0011]

【作用】従来の方法ではカテゴリを追加もしくは削除す
る場合に必要であった全体の再学習を部分問題の追加と
選択で処理できる本発明の原理を以下に説明する。
The principle of the present invention in which the entire re-learning required when adding or deleting a category in the conventional method can be processed by the addition and selection of subproblems will be described below.

【0012】ここで今利用者が分類先として考えている
カテゴリに対して分類を行う問題を全体問題と呼び、分
類先を限定して分類を行う問題を部分問題と呼ぶ。
[0012] Here, the problem of classifying a category that the user is currently considering as a classification destination is called an overall problem, and the problem of performing classification with a limited classification destination is called a partial problem.

【0013】本発明の分類方法では利用者によって分類
先のカテゴリが与えられた場所(これを全体問題の分類
先とする)、限定した分類先(これを部分分類先とす
る)がすべて全体問題の分類先に含まれるような部分問
題に対する識別関数群を必要とする。
In the classification method of the present invention, the place where the category of the classification destination is given by the user (this is the classification destination of the general problem) and the limited classification destination (this is the partial classification destination) are all the general problems. We need a set of discriminant functions for subproblems that are included in the classification destination of.

【0014】各識別関数は部分問題に対してのみ学習さ
れる。このような識別関数の個数は全体問題の分類先が
N個ある場合、部分問題の分類先をp個すると、N P
個となり、学習データの数には依存しない。また個々の
識別関数は部分分類先を分ける識別面を構成しているの
で、RCEモデルが持つような隙間は存在しない。
Each discriminant function is learned only for subproblems. If there are N classification destinations for the overall problem, and p classification targets for the partial problem, then N C P
The number becomes independent and does not depend on the number of learning data. Further, since each discriminant function constitutes a discriminant plane that divides the partial classification destinations, there is no gap that the RCE model has.

【0015】カテゴリを追加するためには、新たにその
カテゴリを部分分類先として持つ部分問題を設定し、そ
の部分問題に対して識別関数を構成して関数群に付け加
え、新たに付け加わった識別関数を使用するように登録
すればよい。これにより全体問題に対して必要な識別関
数がすべてそろう。図2に学習済みの状態の概念図を、
図3にカテゴリを追加したときの概念図を示す。図2に
おいて、10から14はカテゴリを示し、各カテゴリ間
に張られた直線が識別関数を表す。図3において、15
が追加されたカテゴリであり、101から104までが
新たに付け加わった識別関数である。15、101から
104まで以外の状態は図2と同一となっている。すな
わち今までに学習した識別関数群を再学習することな
く、新たな識別関数を追加することでカテゴリの追加に
対応できる。設定する部分問題の数は既に存在するカテ
ゴリの数だけ必要となるが、1つ1つの部分問題の分類
先は限定されているので、全体問題を学習させるより簡
単に学習させることができる。各部分問題はまったく同
じ問題となるので高並列性を持ち、高並列マシンを用い
ればより高速に演算ができる。
In order to add a category, a sub-problem having the category as a sub-classification destination is newly set, a discriminant function is constructed for the sub-problem, the discriminant function is added to the function group, and the discriminant function newly added is added. Just register to use. This provides all the discriminant functions needed for the whole problem. Figure 2 shows a conceptual diagram of the learned state.
FIG. 3 shows a conceptual diagram when a category is added. In FIG. 2, 10 to 14 indicate categories, and the straight line drawn between the categories represents the discriminant function. In FIG. 3, 15
Is the added category, and 101 to 104 are the newly added discriminant functions. The states other than 15, 101 to 104 are the same as those in FIG. That is, it is possible to cope with the addition of categories by adding a new discriminant function without re-learning the discriminant function group learned so far. The number of sub-problems to be set is as many as the number of already existing categories, but since the classification destination of each sub-problem is limited, it is possible to make the learning easier than the whole problem. Since each sub-problem is exactly the same, it has a high degree of parallelism, and if a highly parallel machine is used, it is possible to perform operations faster.

【0016】またカテゴリを除去するためにはそのカテ
ゴリを部分分類先として含む部分問題に対する識別関数
は使用しないように登録すればよい。これにより除去後
の全体問題に対して必要十分な識別関数だけが使用され
ることになり、除去したカテゴリによる影響は受けずに
全体問題に対する分類システムを構成できる。すなわち
除去したカテゴリの影響を受けずに分類システムを構築
するために従来法では必要であった除去後の全体問題に
対する再学習を行うことなく、既にある識別関数を選択
することでカテゴリの除去に対応できる。
Further, in order to remove a category, it is sufficient to register so that the discriminant function for the partial problem including the category as the partial classification destination is not used. As a result, only necessary and sufficient discriminant functions are used for the overall problem after removal, and a classification system for the overall problem can be constructed without being affected by the removed category. That is, in order to construct a classification system without being affected by the removed categories, it is possible to remove categories by selecting an existing discriminant function without retraining the overall problem after removal, which was necessary in the conventional method. Can handle.

【0017】また分類先を限定した部分問題に対して機
能ブロックを構成し、その出力を統合して分類先を決定
するので、全体として分類先が多くてもそのことによる
識別率の低下はおきない。また統合する際に出力値の大
きさだけで分類先を決定するのではなく、その分類先を
出力した機能ブロックの数も考慮して決定することにな
るため、各機能ブロックが部分分類先でないカテゴリの
データが入力された時にどのような出力を出したとして
も、入力されたデータが属するカテゴリを部分分類先と
して含む機能ブロックが正しい出力を出す限り、統合結
果の分類先は多数決の論理より正しい分類先を出力す
る。
Further, since a functional block is constructed for a subproblem in which the classification destinations are limited and the outputs thereof are integrated to determine the classification destinations, even if there are many classification destinations as a whole, the classification rate will drop due to that. Absent. Also, when integrating, not only the size of the output value is used to determine the classification destination, but also the number of functional blocks that output the classification destination is taken into consideration. Therefore, each functional block is not a partial classification destination. No matter what output is output when category data is input, as long as the functional block that contains the category to which the input data belongs as the partial classification destination outputs the correct output, the classification destination of the integrated result is based on the majority decision logic. Output the correct classification destination.

【0018】[0018]

【実施例】図1は本発明のパタン分類装置の一実施例の
構成を示すブロック図である。このパタン分類装置は、
カテゴリ管理手段1、部分問題設定手段2、サンプルデ
ータ記憶手段3、関数構成手段4、関数記憶手段5、パ
タン特徴記憶手段6、特徴分配手段7、統合判定手段8
を有している。以下、対象として図5に例示するような
配列上に格納された数字画像データを考える。分類先と
しては0から9に対応する10カテゴリ{C0 ,C1
・・・,C9 }を想定して進める。画像データから抽出
される特徴としては、例えばガウスフィルタによってぼ
かしたあとにサンプリングしなおした濃淡特徴fとす
る。
1 is a block diagram showing the configuration of an embodiment of a pattern classification device according to the present invention. This pattern classifier
Category management means 1, partial problem setting means 2, sample data storage means 3, function configuration means 4, function storage means 5, pattern feature storage means 6, feature distribution means 7, integrated determination means 8
have. Hereinafter, the numerical image data stored on the array as illustrated in FIG. 5 will be considered as a target. As categories, 10 categories corresponding to 0 to 9 {C 0 , C 1 ,
,, C 9 } and proceed. The feature extracted from the image data is, for example, a grayscale feature f resampled after being blurred by a Gaussian filter.

【0019】まずカテゴリの学習を行う場合の動作を説
明する。カテゴリ管理手段1は、例えば初期値として全
体問題の分類先を示す10個の記号即ちC0 ,C1 ,・
・,C9 を記憶している。そしてカテゴリを示す10個
の記号と初期状態を示す信号を部分問題設定手段2へ、
初期状態を示す信号のみを特徴分配手段7へ出力する。
First, the operation for learning a category will be described. The category management means 1 has, for example, 10 symbols, C 0 , C 1 , ...
・, C 9 is memorized. Then, the ten symbols indicating the category and the signal indicating the initial state are sent to the partial problem setting means 2.
Only the signal indicating the initial state is output to the feature distribution means 7.

【0020】部分問題設定手段2は、カテゴリ管理手段
1より初期状態を示す信号とカテゴリを示す10個のカ
テゴリ名を受け取り、記憶する。そして分類先を例えば
0 とC1 の2カテゴリに限定した部分問題を、受け取
ったカテゴリに対して組み合わせの数だけ、すなわち
(C0 ,C1 ),(C0 ,C2 ),・・・,(C8 ,C
9 )からなる102 個設定し、設定情報として部分分類
先である2つのカテゴリ名の組Cij=(Ci ,Cj )を
逐次、関数構成手段4へ出力する。
The partial problem setting means 2 receives the signal indicating the initial state and the ten category names indicating the categories from the category managing means 1 and stores them. Then, the number of combinations of sub-problems in which the classification destination is limited to two categories of C 0 and C 1 , for example, is (C 0 , C 1 ), (C 0 , C 2 ), ... ., (C 8 , C
And 10 C 2 pieces set consisting of 9), set C ij = (C i of the two categories Name is a partial grouping destination as the setting information, C j) sequentially, and outputs to the function structuring unit 4.

【0021】関数構成手段4では部分問題設定手段2か
ら設定された分類問題の設定情報として2つのカテゴリ
名の組Cijを受取り、サンプルデータ記憶手段3からそ
の組に含まれる2つのカテゴリCi ,Cj のサンプルデ
ータを読みだし、カテゴリCi とカテゴリCj を分類す
るような識別関数を構成し、部分問題の設定情報Cij
ともに、その関数情報を関数記憶手段5へ出力する。識
別関数は例えば自己組織的に構成する手法であるニュー
ラルネットワークで分類先を2カテゴリとして誤差逆伝
幡法で学習させる方法[ニューラルネットワーク情報処
理 産業図書株式会社 pp39参照]や、GMDHア
ルゴリズムに基づき多項式で構成する方法[Sovie
t Automatic Control,Vol.1
3,No.5,1968,pp31−41 ソ連ソビエ
トオートマティカコントロール参照]などが考えられ
る。出力する関数情報はニューラルネットワークの場
合、ネットワーク構造及び各結線の重みとなり、GMD
Hアルゴリズムを用いた場合、多項式関数を記述する係
数となる。サンプルデータ記憶手段3は例えば学習デー
タとして各カテゴリに属する紙面上等の数字をスキャナ
等で画像として入力したサンプルデータ群を記憶する。
The function constructing means 4 receives a set C ij of two category names as setting information of the classification problem set from the sub-problem setting means 2 and receives from the sample data storage means 3 two categories C i included in the set. , C j , sample data is read, a discriminant function for classifying the categories C i and C j is constructed, and the function information is output to the function storage means 5 together with the setting information C ij for the partial problem. The discriminant function is, for example, a method of learning the error inverse transfer method with two categories as the classification destination in a neural network that is a self-organizing method [see Neural Network Information Processing Sangyo Tosho Co., Ltd. pp39], or a polynomial based on the GMDH algorithm Method [Sovie
t Automatic Control, Vol. 1
3, No. 5, 1968, pp31-41 Soviet Soviet Automata Control]]. In the case of a neural network, the output function information becomes the network structure and the weight of each connection.
When the H algorithm is used, it becomes a coefficient that describes a polynomial function. The sample data storage unit 3 stores, as learning data, for example, a sample data group in which a number on a paper or the like belonging to each category is input as an image with a scanner or the like.

【0022】関数記憶手段5では関数構成手段4から出
力された関数情報と部分問題の設定情報Cijを受取り、
機能ブロックとして記憶する。機能ブロックは部分問題
の数だけ記憶される。各機能ブロックは特徴分配手段7
から特徴量が信号として入力された時、記憶している識
別関数の出力を計算し、その出力値にしたがって設定情
報として記憶している部分分類先である2カテゴリ
i ,Cj の内から入力した信号が属すると判定される
カテゴリの名前を統合判定手段8へ出力するものであ
る。
The function storage means 5 receives the function information and the partial problem setting information C ij output from the function forming means 4,
It is stored as a functional block. The functional blocks are stored by the number of subproblems. Each functional block is a feature distribution means 7
From the two categories C i and C j which are the partial classification destinations stored as the setting information according to the output value of the stored discrimination function when the feature amount is input as a signal from The name of the category to which the input signal is determined to belong is output to the integrated determination means 8.

【0023】また特徴分配手段7ではカテゴリ管理手段
1から初期状態を示す信号を受取ると、関数記憶手段5
に記憶されている機能ブロックに対するフラグを全てオ
ンにする。フラグは通常のメモリ上におけるビットのオ
ン/オフで表せばよい。これで学習が終了する。
When the feature distribution means 7 receives a signal indicating the initial state from the category management means 1, the function storage means 5
All the flags for the functional blocks stored in are turned on. The flag may be represented by ON / OFF of a bit on a normal memory. This ends the learning.

【0024】次に入力データの認識を行う動作を説明す
る。パタン特徴記憶手段6は、画像から抽出した特徴量
としてfを記憶する。特徴分配手段7はパタン特徴記憶
手段6から特徴量fを読みとり、関数記憶手段5の中の
機能ブロックの内、そのフラグがオンになっているもの
に対してのみ出力する。各機能ブロックは入力を受ける
と、上で述べたようにカテゴリ名を出力する。
Next, the operation of recognizing the input data will be described. The pattern feature storage unit 6 stores f as the feature amount extracted from the image. The feature distribution means 7 reads the feature quantity f from the pattern feature storage means 6 and outputs it only to the functional blocks in the function storage means 5 whose flag is turned on. When each functional block receives the input, it outputs the category name as described above.

【0025】統合判定手段8では関数記憶手段5の機能
ブロックのうち出力をしてきたものからのみカテゴリ名
を受取り、統合して分類先を決定する。統合の仕方とし
ては全体問題の分類先に1対1に対応させた配列V
[i](Ci とV[i]が対応する)を用意しておき、
各機能ブロックからカテゴリ名としてCi が出力された
ならば、配列V[i]の値を1だけインクリメントす
る。特徴が入力された機能ブロックからの全ての出力に
対し配列Vの加算が終了したときに、配列V[i]が最
も大きい値を持つCを分類先として決定する方法であ
る。
The integrated judgment means 8 receives the category name only from the functional block of the function storage means 5 which has output, and integrates it to determine the classification destination. As a method of integration, an array V that has a one-to-one correspondence with the classification destination of the overall problem
Prepare [i] (corresponding to C i and V [i]),
When C i is output as a category name from each functional block, the value of the array V [i] is incremented by 1. This is a method of determining C having the largest value in the array V [i] as a classification destination when the addition of the array V is completed for all the outputs from the functional blocks to which the features are input.

【0026】カテゴリの追加を行う場合の動作を説明す
る。今0から9までの10個の数字の学習が終わった後
で、今アルファベットのAに対応するカテゴリCA をつ
け加えたいとする。まず利用者はサンプルデータ記憶手
段3にカテゴリCA の学習データを記憶させる。それか
らカテゴリ管理手段1に、CA を追加することを利用者
が外部より指示する。するとカテゴリ管理手段1は、追
加を示す信号とカテゴリ名CA を部分問題設定手段2と
特徴分配手段7へ出力する。部分問題設定手段1では追
加を示す信号とカテゴリ名CA を受け取り、受け取った
カテゴリ名が既に記憶してある場合には何もしない。無
い場合には新たにCA を記憶し、既に記憶してあるカテ
ゴリとの間すなわち、(C0 ,CA ),(C1
A ),・・・,(C9 ,CA )の10個の部分問題を
設定し、設定情報として2つのカテゴリ名の組Cijを逐
次関数構成手段4へ出力する。関数構成手段4では、部
分問題設定手段2から設定された分類問題の設定情報と
して2つのカテゴリ名の組Cijを受取り、サンプルデー
タ記憶手段3からその組に含まれる2つのカテゴリ
i ,Cj のサンプルデータを読みだし、カテゴリCi
とカテゴリCj を分類するような識別関数を構成し、部
分問題の設定情報Cijとともに、その関数情報を関数記
憶手段5へ出力する。関数記憶手段5では受け取った関
数情報と設定情報Cijを機能ブロックとして記憶する。
また特徴分配手段6では、追加を示す信号とカテゴリ名
A を受け取ると、そのカテゴリ名を部分分類先として
持つ機能ブロックを探し、この場合はCOA,C1A,・・
・,C9Aの設定情報を持つ10個の機能ブロックとなる
が、その機能ブロックへ出力を行うかどうかのフラグが
ある場合にはフラグをオンにし、ない場合にはフラグを
作り、オンにする。これにより、既に記憶されている10
2 個の機能ブロックは変更する必要なく、カテゴリC
A の追加が行える。
The operation of adding a category will be described. After learning 10 numbers 0 to 9 now, suppose that a category C A corresponding to the alphabet A is added. First, the user stores the learning data of the category C A in the sample data storage means 3. Then, the user externally instructs the category management means 1 to add C A. Then, the category management means 1 outputs a signal indicating addition and the category name C A to the partial problem setting means 2 and the feature distribution means 7. The partial problem setting means 1 receives the signal indicating addition and the category name C A , and does nothing if the received category name is already stored. If it does not exist, C A is newly stored, and between the already stored categories, that is, (C 0 , C A ), (C 1 ,
C A ), ..., (C 9 , C A ), 10 sub-problems are set, and a set of two category names C ij is output to the sequential function forming means 4 as setting information. The function constructing means 4 receives a set C ij of two category names as the setting information of the classification problem set from the partial problem setting means 2, and the two categories C i , C included in the set from the sample data storage means 3. The sample data of j is read and the category C i
And a classification function for classifying the categories C j and C, and outputs the function information to the function storage unit 5 together with the setting information C ij of the partial problem. The function storage means 5 stores the received function information and setting information C ij as a functional block.
When the feature distribution means 6 receives the signal indicating addition and the category name C A , it searches for a functional block having the category name as a partial classification destination. In this case, C OA , C 1A , ...
.. There are 10 functional blocks with setting information of C 9A. If there is a flag indicating whether to output to that functional block, turn on the flag. If not, create the flag and turn on. .. This allows you to store 10
C 2 functional blocks do not need to be changed, category C
A can be added.

【0027】次に続いてカテゴリの除去を行う場合の動
作を説明する。今0という数字に対応するカテゴリC0
を分類先から外したいとする。この場合、まずカテゴリ
管理手段1にカテゴリC0 の除去することを利用者が外
部より指示する。するとカテゴリ管理手段1は除去を示
す信号とカテゴリ名C0 を特徴分配手段6へ出力する。
特徴分配手段6では、除去を示す信号とカテゴリ名C0
を受け取ると、そのカテゴリ名を部分分類先に持つ機能
ブロックを探し、この場合はC01,C01,・・,C0A
設定情報を持つ10個の機能ブロックとなるが、その機
能ブロックへ出力を行うかどうかを表すフラグをオフに
する。これにより、関数記憶手段5は変更することな
く、カテゴリC0 の除去が行える。
Next, the operation for removing categories will be described. Category C 0 corresponding to the number 0 now
Suppose you want to remove from the classification destination. In this case, first, the user externally instructs the category management means 1 to remove the category C 0 . Then, the category managing means 1 outputs a signal indicating removal and the category name C 0 to the feature distributing means 6.
In the feature distribution means 6, a signal indicating removal and a category name C 0
, A functional block having the category name as a partial classification destination is searched, and in this case, there are 10 functional blocks having setting information of C 01 , C 01 , ..., C 0A . Turns off the flag that indicates whether to output. As a result, the category C 0 can be removed without changing the function storage means 5.

【0028】以上、実施例をもって本発明を詳細に説明
したが、本発明はこの実施例に限定されるものではな
い。
Although the present invention has been described in detail with reference to the embodiment, the present invention is not limited to this embodiment.

【0029】[0029]

【発明の効果】本発明によれば、学習したあとにカテゴ
リを付け足す場合でも、全てを再学習させる必要はな
く、新たに追加されたカテゴリを含む部分問題を設定
し、識別関数を構成してつけ加えることにより対応でき
る。また学習したあとにカテゴリを削除する場合でも、
用いる識別関数からそのカテゴリを分類先として持つ識
別関数を外せば、再学習せずに対応できる。これによ
り、利用者の希望によりカテゴリを指定して分類システ
ムを構成することを動的に行うことができるようにな
る。
According to the present invention, even if the categories are added after the learning, it is not necessary to re-learn all, and the partial problem including the newly added category is set to construct the discriminant function. It can be dealt with by adding. Also, even if you delete a category after learning,
By removing the discriminant function having the category as the classification destination from the discriminant function used, it is possible to deal with it without re-learning. As a result, it becomes possible to dynamically configure the classification system by designating the category according to the wishes of the user.

【0030】またカテゴリを限定した部分問題を重複さ
せて組み合わせの数だけ設定し、各部分問題に対して識
別関数を構成するために、カテゴリが多いために起因す
る識別率の低下を招かずに分類を行うことができる。ま
た各識別関数の出力値とその数を考慮して分類先を決定
するために、出力値だけで分類先を決定する際の不安定
性を解消することができる。
Further, since the subproblems whose categories are limited are overlapped and set by the number of combinations and the discrimination function is constructed for each subproblem, the discrimination rate is not lowered due to the large number of categories. Classification can be done. Further, since the classification destination is determined in consideration of the output value of each discriminant function and the number thereof, it is possible to eliminate the instability when the classification destination is determined only by the output value.

【図面の簡単な説明】[Brief description of drawings]

【図1】第2の発明のパタン分類装置の一実施例の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an embodiment of a pattern classification device of a second invention.

【図2】第1の発明の原理を表す概念図である。FIG. 2 is a conceptual diagram showing the principle of the first invention.

【図3】第1の発明の原理を表す概念図である。FIG. 3 is a conceptual diagram showing the principle of the first invention.

【図4】従来技術を表す図である。FIG. 4 is a diagram showing a conventional technique.

【図5】入力に用いるデータの一例を表す図である。FIG. 5 is a diagram showing an example of data used for input.

【符号の説明】[Explanation of symbols]

1 カテゴリ管理手段 2 部分問題設定手段 3 サンプルデータ記憶手段 4 関数構成手段 5 関数記憶手段 6 パタン特徴記憶手段 7 特徴分配手段 8 統合判定手段 10〜15 カテゴリを表すシンボル 101〜104 識別関数を表すシンボル 1 category management means 2 partial problem setting means 3 sample data storage means 4 function construction means 5 function storage means 6 pattern feature storage means 7 feature distribution means 8 integrated determination means 10-15 symbols representing categories 101 to 104 symbols representing identification functions

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】対象に関する複数の特徴からその対象が属
するカテゴリを決定するパタン分類方法において、分類
先を限定した部分問題を分類先の重複を許して組み合わ
せの数だけ設定し、設定された部分問題において対象に
関する複数の特徴を入力、分類先を出力とする識別関数
を構成し、分類されうるカテゴリの選択をどの識別関数
を用いるかを指定することによって行い、それら指定さ
れた識別関数の出力を統合的に判断して分類先を決定す
ることを特徴とするパタン分類方法。
1. A pattern classification method for determining a category to which an object belongs from a plurality of features related to the object. A partial problem with a limited classification destination is set by the number of combinations by allowing overlapping of the classification destinations, and the set portion is set. In the problem, we construct a discriminant function that inputs multiple features related to the subject and output it as a classification destination, select categories that can be classified by specifying which discriminant function to use, and output those discriminant functions. A pattern classification method characterized in that the classification destination is determined by comprehensively judging.
【請求項2】対象に関する複数の特徴を入力してその対
象が属するカテゴリを出力するパタン分類装置におい
て、 カテゴリの初期値指定及び追加及び削除を表すカテゴリ
情報を出力するカテゴリ管理手段と、 カテゴリ管理手段よりカテゴリ情報を受けとり、分類先
を限定した部分問題を分類先の重複を許して組み合わせ
の数だけ設定し、設定情報を出力する部分問題設定手段
と、 部分問題設定手段から出力された設定情報を受けとり、
その設定において対象に関する複数の特徴を入力、分類
先を出力とする識別関数を構成し、設定情報と関数情報
を出力する関数構成手段と、 関数構成手段から出力された設定情報と関数情報を、特
徴分配手段から入力があった時のみ限定された分類先を
出力する機能ブロックとして記憶しておく関数記憶手段
と、 分類したいデータの特徴を記憶しておくパタン特徴記憶
手段と、 パタン特徴記憶手段から読みだしたパタン特徴をカテゴ
リ管理手段より受け取ったカテゴリ情報に基づいて関数
記憶手段の機能ブロックに選択的に出力する特徴分配手
段と、 関数記憶手段の各機能ブロックのうち出力があるものだ
けからその出力を受けとり、統合的に判断して分類先を
出力する統合判定手段とからなることを特徴とするパタ
ン分類装置。
2. A pattern classification device for inputting a plurality of features relating to an object and outputting a category to which the object belongs, a category management means for outputting category information indicating initial value designation and addition / deletion of the category, and category management. The sub-problem setting means that receives the category information from the means, sets the number of combinations of sub-problems with limited classification destinations, and sets the number of combinations, and the setting information output from the sub-problem setting means Received,
In the setting, a plurality of features relating to the object are input, a discriminant function that outputs the classification destination is configured, and a function configuring unit that outputs the setting information and the function information, and the setting information and the function information output from the function configuring unit, A function storage means for storing a limited classification destination only when there is an input from the feature distribution means, a function storage means for storing a feature of data to be classified, and a pattern feature storage means From the feature distribution means that selectively outputs the pattern features read from the function storage means to the functional blocks of the function storage means based on the category information received from the category management means, and only the output of each function block of the function storage means A pattern classification apparatus comprising: an integrated determination unit that receives the output, makes an integrated determination, and outputs a classification destination.
JP3345878A 1991-12-27 1991-12-27 Method and device for pattern classification Pending JPH05181972A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3345878A JPH05181972A (en) 1991-12-27 1991-12-27 Method and device for pattern classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3345878A JPH05181972A (en) 1991-12-27 1991-12-27 Method and device for pattern classification

Publications (1)

Publication Number Publication Date
JPH05181972A true JPH05181972A (en) 1993-07-23

Family

ID=18379607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3345878A Pending JPH05181972A (en) 1991-12-27 1991-12-27 Method and device for pattern classification

Country Status (1)

Country Link
JP (1) JPH05181972A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259974A (en) * 2001-03-02 2002-09-13 Denso Corp Image area extracting device, program and recording medium
JP2019128623A (en) * 2018-01-22 2019-08-01 Necプラットフォームズ株式会社 Pattern recognition device, method and program
WO2020137228A1 (en) * 2018-12-27 2020-07-02 オムロン株式会社 Image determination device, image determination method, and image determination program
JP2022524736A (en) * 2019-03-21 2022-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Incremental learning system and method for object detection
CN115512529A (en) * 2021-06-23 2022-12-23 中国石油化工股份有限公司 Contractor problem early warning method, early warning device and early warning system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259974A (en) * 2001-03-02 2002-09-13 Denso Corp Image area extracting device, program and recording medium
JP4599730B2 (en) * 2001-03-02 2010-12-15 株式会社デンソー Image region extraction device
JP2019128623A (en) * 2018-01-22 2019-08-01 Necプラットフォームズ株式会社 Pattern recognition device, method and program
WO2020137228A1 (en) * 2018-12-27 2020-07-02 オムロン株式会社 Image determination device, image determination method, and image determination program
US11922680B2 (en) 2018-12-27 2024-03-05 Omron Corporation Image determination device, image determination method, and non-transitory computer readable medium storing program
JP2022524736A (en) * 2019-03-21 2022-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Incremental learning system and method for object detection
CN115512529A (en) * 2021-06-23 2022-12-23 中国石油化工股份有限公司 Contractor problem early warning method, early warning device and early warning system
CN115512529B (en) * 2021-06-23 2024-03-05 中国石油化工股份有限公司 Contractor problem early warning method, early warning device and early warning system

Similar Documents

Publication Publication Date Title
US5214746A (en) Method and apparatus for training a neural network using evolutionary programming
US5140530A (en) Genetic algorithm synthesis of neural networks
CN100472556C (en) Testing apparatus and method for special object
JP3088766B2 (en) Classification method and network used for hierarchical neural network
CN110213244A (en) A kind of network inbreak detection method based on space-time characteristic fusion
CN112087447B (en) Rare attack-oriented network intrusion detection method
Cagnoni et al. Genetic and evolutionary computation for image processing and analysis
Bull On model-based evolutionary computation
Yan et al. Classifying imbalanced data sets by a novel re-sample and cost-sensitive stacked generalization method
CN110276406A (en) Expression classification method, apparatus, computer equipment and storage medium
Hart Using neural networks for classification tasks–some experiments on datasets and practical advice
JPH0821065B2 (en) Character recognition device
Hocquet et al. Ova-inn: Continual learning with invertible neural networks
JPH05181972A (en) Method and device for pattern classification
Cho et al. Genetic evolution processing of data structures for image classification
EP0709800B1 (en) Method for designing classification trees
JPH04213750A (en) Classifying method in layered neural network
CN109492746A (en) Deepness belief network parameter optimization method based on GA-PSO Hybrid Algorithm
JP2907486B2 (en) Neural network device
Hoya et al. An heuristic pattern correction scheme for GRNNs and its application to speech recognition
JP2000172662A (en) Learning method for neural network
Bull Model-based evolutionary computing: A neural network and genetic algorithm architecture
Mitchell et al. Optimising memory usage in n-tuple neural networks
Turner et al. Continual Learning for Object Classification: A Modular Approach
Maren Hybrid and complex networks