JPH07160658A - Method for classifying data - Google Patents

Method for classifying data

Info

Publication number
JPH07160658A
JPH07160658A JP5306778A JP30677893A JPH07160658A JP H07160658 A JPH07160658 A JP H07160658A JP 5306778 A JP5306778 A JP 5306778A JP 30677893 A JP30677893 A JP 30677893A JP H07160658 A JPH07160658 A JP H07160658A
Authority
JP
Japan
Prior art keywords
learning
attribute
category
categories
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5306778A
Other languages
Japanese (ja)
Inventor
Masato Togami
正人 戸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Togami Electric Mfg Co Ltd
Original Assignee
Togami Electric Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Togami Electric Mfg Co Ltd filed Critical Togami Electric Mfg Co Ltd
Priority to JP5306778A priority Critical patent/JPH07160658A/en
Publication of JPH07160658A publication Critical patent/JPH07160658A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a learning method for which inductive machine learning and neural network learning are combined for utilizing the merits of both inductive machine learning and neural network learning and making up demerits. CONSTITUTION:In this method for classifying data, learning is performed by the inductive machine learning and when a category can not be discriminated by the learning, the learning is performed by a neural network. Thus, by combining the inductive learning and the neural network, the recognition rate of the data is improved. Even when an erroneous answer is worked out by the neural network, between which categories an error is made is limited by the inductive learning. The categories can be limited further by using a feature that the attribute of the multidimensional space of the neural network us nonlinearly discriminated even in a part where attribute values overlap.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、データが属性とその値
の対の集合で与えられている場合に、データをいくつか
のカテゴリー(クラス)に分類する方法において、特に
属性に分布がある場合の帰納的機械学習とニューラルネ
ットワーク学習とを組み合わせた方法に関し、特にパタ
ーン認識、事故診断に有用なデータの分類方法に関す
る。
The present invention relates to a method of classifying data into several categories (classes) when the data is given as a set of pairs of attributes and their values, and there is a distribution in the attributes. In particular, it relates to a method combining inductive machine learning and neural network learning, and particularly to a data classification method useful for pattern recognition and accident diagnosis.

【0002】[0002]

【従来の技術】帰納的機械学習方法は、従来、属性の値
に分布を持たず、離散的な属性値により識別木を作成し
ていた。特願平4−130083号では、属性値が重な
っている場合でも、取り扱える帰納的学習方法を提案し
た。
2. Description of the Related Art Conventionally, an inductive machine learning method has created an identification tree with discrete attribute values without distribution of attribute values. Japanese Patent Application No. 4-130083 proposes an inductive learning method that can handle even when attribute values overlap.

【0003】[0003]

【発明が解決しようとする課題】ところで、先に提案し
た特願平4−130083号では、属性値が重なってい
る場合、どのような状況で分類できないか、2つ以上の
カテゴリーを提示することにあり、確率分布でどちらの
カテゴリーにより属しているかを提示した。しかしなが
ら、2つ以上のカテゴリーを提示した場合でも、できれ
ば1つのカテゴリーに限定して学習することが望まれ
る。
By the way, in Japanese Patent Application No. 4-130083 previously proposed, it is necessary to present two or more categories in which situations cannot be classified when the attribute values overlap. , And presented which category the probability distribution belongs to. However, even if two or more categories are presented, it is desirable to limit learning to one category if possible.

【0004】また、ニューラルネットワークを用いた学
習方法では、属性値の分布が広い場合、またカテゴリー
の数、データの数が多い場合、あいまいな結果や、間違
った結果を出す場合がある。しかしながら、ニューラル
ネットワークを用いて多次元空間の属性を非線型に識別
できるという特徴を持つ。したがって1つのカテゴリー
に限定して学習することが可能となる。
Further, in the learning method using the neural network, an ambiguous result or an erroneous result may be produced when the distribution of attribute values is wide, or when the number of categories and the number of data are large. However, it has the feature that attributes of multidimensional space can be identified non-linearly by using neural network. Therefore, it is possible to limit the learning to one category.

【0005】これに対し、特願平4−130083号で
は、属性の分布が広い場合でも学習が可能であるが、多
次元空間の属性を非線型に識別できるという特徴はな
く、線型での識別のみである。
On the other hand, in Japanese Patent Application No. 4-130083, learning is possible even when the distribution of attributes is wide, but there is no feature that attributes in a multidimensional space can be identified in a non-linear manner, and identification in a linear manner is possible. Only.

【0006】したがって本発明が解決すべき課題は、帰
納的機械学習とニューラルネットワークの両方の利点を
生かし、欠点を補うような、帰納的機械学習とニューラ
ルネットワーク学習を組み合わせた学習方法を提案する
ことにある。
Therefore, the problem to be solved by the present invention is to propose a learning method combining inductive machine learning and neural network learning, which makes use of the advantages of both inductive machine learning and neural networks and compensates for their drawbacks. It is in.

【0007】[0007]

【課題を解決するための手段】前記課題を解決するた
め、本発明の第1の分類方法は、帰納的機械学習により
学習を行い、その学習によってカテゴリーが判別できな
い場合、ニューラルネットワークによって学習を行うも
のである。
In order to solve the above problems, the first classification method of the present invention performs learning by inductive machine learning, and when a category cannot be discriminated by the learning, performs learning by a neural network. It is a thing.

【0008】本発明の第2の分類方法は、帰納的機械学
習方法により、完全に識別できるカテゴリーを除いたカ
テゴリーをニューラルネットワークによって学習するも
のである。
The second classification method of the present invention is to learn the categories excluding the completely identifiable categories by a neural network by the recursive machine learning method.

【0009】本発明の第3の分類方法は、帰納的機械学
習によって少なくとも一つ以上の属性値の分布が分離し
ているカテゴリーのすべての組み合わせを識別する属性
に対しては機械学習を用いて学習し、その機械学習でで
きないカテゴリーに対してニューラルネットワークで学
習を行うものである。
The third classification method of the present invention uses machine learning for attributes that identify all combinations of categories in which at least one attribute value distribution is separated by inductive machine learning. Learning is performed by a neural network for a category that cannot be learned by machine learning.

【0010】本発明の第4の分類方法は、第3の分類方
法で行った機械学習の上位のノードで機械学習による学
習を行い、その機械学習でできないカテゴリーに関して
は、ニューラルネットワークで学習を行うものである。
In the fourth classification method of the present invention, learning by machine learning is performed at a node higher than the machine learning performed by the third classification method, and a category that cannot be learned by the machine learning is learned by a neural network. It is a thing.

【0011】本発明の第5の分類方法は、第3の分類方
法と第4の分類方法を組み合わせて機械学習とニューラ
ルネットワークで学習を行うものである。
The fifth classification method of the present invention is a combination of the third classification method and the fourth classification method for performing machine learning and neural network learning.

【0012】[0012]

【作用】本発明では、属性値の分布が広い、カテゴリー
の数、データの数が多い場合、帰納的学習方法によって
まずカテゴリーを識別し、2つ以上のカテゴリーが識別
できない場合には、ニューラルネットワークの多次元空
間の属性を非線型に識別するという特徴を用いて、さら
にカテゴリーの限定を行う。
According to the present invention, when the distribution of attribute values is wide, the number of categories and the number of data are large, the categories are first identified by the inductive learning method, and if two or more categories cannot be identified, the neural network is used. The category is further limited by using the feature of non-linearly identifying the attributes of the multidimensional space.

【0013】[0013]

【実施例】以下、本発明を具体的に説明する。まず、本
発明の特徴を明らかにするため、以下の事故原因診断
を、まず特願平4−130083号で開示した方法に基
づいてその実施例と結果を示し、それから、その結果を
用いながら、どの段階でニューラルネットワークを組み
合わせるかを説明する。
The present invention will be specifically described below. First, in order to clarify the characteristics of the present invention, the following accident cause diagnosis is first shown with examples and results based on the method disclosed in Japanese Patent Application No. 4-130083, and then using the results, Explain at what stage the neural network is combined.

【0014】図1はデータの分類に係る事故原因診断方
法を実施するための試験回路の一例を示す電気系統図で
ある。同図において、1は遮断器、2はZPD(零相電
圧検出器)、3は電源側コンデンサ、4は零相変流器、
5は負荷側コンデンサ、6は事故発生用開閉器、7は高
圧開閉器、8は制御器、9は変圧器である。試験した事
故発生方法は、碍子、架橋ポリエチレンケーブル、鳥
肉、完全地絡、抵抗地絡、ギャップ地絡である。
FIG. 1 is an electrical system diagram showing an example of a test circuit for carrying out an accident cause diagnosis method relating to data classification. In the figure, 1 is a circuit breaker, 2 is a ZPD (zero phase voltage detector), 3 is a power source side capacitor, 4 is a zero phase current transformer,
Reference numeral 5 is a load side capacitor, 6 is a switch for accident occurrence, 7 is a high voltage switch, 8 is a controller, and 9 is a transformer. The tested accident methods are insulator, cross-linked polyethylene cable, poultry, complete ground fault, resistance ground fault and gap ground fault.

【0015】故障時の零相電流をデジタル波形記録計
(サンプリングレートは48KHz)に記録した。記録
した波形の一部を200ms分切り出し、FFT(高速
フーリエ変換)波形により60Hzを基本波とする2次
から8次までの歪率(%)と全高調波歪率(%)(2次
から20次)を求めた。測定系の構成を図2のブロック
図に示す。また、代表的な波形とFFT解析結果を図3
に示す。
The zero-phase current at the time of failure was recorded on a digital waveform recorder (sampling rate was 48 KHz). A part of the recorded waveform is cut out for 200 ms, and the FFT (Fast Fourier Transform) waveform is used to distort (%) from the 2nd to 8th order with the fundamental wave at 60 Hz and the total harmonic distortion (%) (from the 2nd order) 20th) was calculated. The configuration of the measurement system is shown in the block diagram of FIG. In addition, a representative waveform and FFT analysis results are shown in FIG.
Shown in.

【0016】a)決定木学習方法 ここで選択すべきm個のカテゴリーをC1 ,…,Ci
…,Cm とし、これらのカテゴリーが個々にもつn個の
属性をA1 ,…,Ai ,…,An とする。事故原因診断
における選択すべきカテゴリーを、CI :碍子、CC
CVケーブル、CN :鳥肉、CK :完全地絡、CR :抵
抗地絡、CG :ギャップ地絡とする。上記合計約400
のデータをとり、約300データを学習データ、約10
0データをその学習結果のテストに用いた。また上記の
カテゴリーが個々にもつ属性を、A2 :2次高調波歪
率、A3 :3次高調波歪率、A4 :4次高調波歪率、A
5 :5次高調波歪率、A6 :6次高調波歪率、A7 :7
次高調波歪率、A8 :8次高調波歪率、AT :全高調波
歪率とする。
A) Decision Tree Learning Method The m categories to be selected here are C 1 , ..., C i ,
..., and C m, n number of attributes that these categories have individually A 1, ..., A i, ..., and A n. The categories to be selected in the accident cause diagnosis are C I : insulator, C C :
CV cable, C N : poultry, C K : complete ground fault, C R : resistance ground fault, C G : gap ground fault. About 400 above
Data is taken, about 300 data are learning data, about 10
0 data was used for testing the learning result. The attributes above categories have individually, A 2: 2-order harmonic distortion, A 3: 3-order harmonic distortion, A 4: 4-order harmonic distortion, A
5 : 5th harmonic distortion factor, A 6 : 6th harmonic distortion factor, A 7 : 7
Next THD, A 8: 8-order harmonic distortion, A T: the total harmonic distortion.

【0017】各属性値の範囲は各属性値の最大値と最小
値とした。各属性値の範囲を表1に示す。
The range of each attribute value is the maximum value and the minimum value of each attribute value. Table 1 shows the range of each attribute value.

【表1】 [Table 1]

【0018】b)分離されているカテゴリーの組合せに
よる決定木の作成 すべてのカテゴリーを識別するためにまず任意の2つの
カテゴリーの属性値の分布を考えると、図4に示すよう
に三つの場合が考えられる。属性AK に関する分布に対
して、Ci から見たCj の相対的な関係は、 状態(i) Ci の属性値の分布とCj の属性値の分布は
重なっていない。 状態(ii) Ci の属性値の分布はCj の属性値の分布と
すべて重なっている。 状態(iii) Ci の属性値の分布はCj の属性値の分布と
一部重なっている。
B) Creation of Decision Tree by Combination of Separated Categories Considering distribution of attribute values of arbitrary two categories in order to identify all categories, there are three cases as shown in FIG. Conceivable. Regarding the relative relationship of C j viewed from C i with respect to the distribution regarding the attribute A K, the distribution of the attribute value of the state (i) C i and the distribution of the attribute value of C j do not overlap. State (ii) The distribution of the attribute values of C i all overlaps the distribution of the attribute values of C j . State (iii) The distribution of the attribute values of C i partially overlaps the distribution of the attribute values of C j .

【0019】ここで、属性AK によりCi とCj を完全
に識別できるのは状態(i) だけである。つまり、属性A
K でCi とCj が完全に識別可能であるためには、その
二つのカテゴリーの属性値の分布の状態が状態(i) であ
ることが必要条件となる。
Here, only the state (i) can completely distinguish C i and C j by the attribute A K. That is, attribute A
In order for C i and C j to be completely distinguishable by K , it is necessary that the distribution state of the attribute values of the two categories is the state (i).

【0020】CiとCjを属性AK により完全に識別でき
る場合を1、完全に識別できない場合を0と、ブール変
数に対応させ、式(1)に示すような係数bK を定義す
る。 bK =1 状態(i) であり、属性AK により識別可能 bK =0 属性AK により完全には識別不可能 (1)
A coefficient b K as shown in equation (1) is defined by corresponding to a Boolean variable such that C i and C j can be completely discriminated by the attribute A K, and 1 can be completely discriminated. . b K = 1 state (i), identifiable by attribute A K b K = 0 not completely identifiable by attribute A K (1)

【0021】したがってf(Ci,Cj)により、AK
ブール変数と考え、Ci とCj を識別可能とする属性は
K を用い、論理和の形に表現すると次式のようにな
る。また属性AK のブール変数の記号を新たに定義する
必要があるが、計算結果を見れば識別にどの属性を用い
ればよいかわかるので、新たに定義しないこととする。 f(Ci,Cj)=b1・A1+…+bK・AK+…+bn・An (2)
Therefore, by using f (C i , C j ), A K is considered as a Boolean variable, and b K is used as an attribute that makes C i and C j distinguishable. become. Further, it is necessary to newly define the symbol of the Boolean variable of the attribute A K , but since the attribute to be used for identification can be known from the calculation result, it is not newly defined. f (C i , C j ) = b 1 · A 1 + ... + b K · AK +… + b n · A n (2)

【0022】例えばカテゴリーC1とC2に属する対象が
属性A1,A2,A3を有し、属性A1とA2が状態(i)であ
る場合、属性A1又はA2を用いればC1とC2を識別でき
ることは明らかであるが、これは(2)式ではf
(C1,C2)=1・A1+1・A2+0・A3=A1+A2
となる。〔又は〕が論理和に相当する。つまり、(2)
式においてCiとCjはf(Ci,Cj)=1となる場合に
識別可能となり、f(Ci,Cj)の項の少なくとも一つ
の属性を用いればCiとCjは完全に識別できる。
For example, if the objects belonging to the categories C 1 and C 2 have the attributes A 1 , A 2 and A 3 and the attributes A 1 and A 2 are in the state (i), the attribute A 1 or A 2 is used. It is clear that C 1 and C 2 can be discriminated from each other, but this is f in the equation (2).
(C 1 , C 2 ) = 1 · A 1 + 1 · A 2 + 0 · A 3 = A 1 + A 2
Becomes [Or] corresponds to the logical sum. That is, (2)
In the formula, C i and C j are discriminable when f (C i , C j ) = 1, and if at least one attribute of the term of f (C i , C j ) is used, C i and C j are Fully identifiable.

【0023】(2)式から任意の二つのカテゴリーを識
別する属性を求めることができる。例えばCIとCCを識
別する属性は次式で求めることができる。 f(CI,CC)=A2 +A3 +A4 +A8 (3)
The attribute for discriminating any two categories can be obtained from the equation (2). For example, the attribute that identifies C I and C C can be obtained by the following equation. f (C I , C C ) = A 2 + A 3 + A 4 + A 8 (3)

【0024】少なくとも一つ以上の属性値の分布が完全
に分離しているカテゴリーの組合せを識別可能な属性集
合の組は、f(Ci,Cj)=1となるすべての組合せに
対してf(Ci,Cj)(i=1,・・・,n, j=
1,・・・,m, i≠j)の論理積Eをとることによ
り求めることができる。 E=Πf(Ci,Cj) 但し、i∈{1,…,n}、j∈{1,…,m}, i≠j (4)
A set of attribute sets that can identify a combination of categories in which at least one or more distributions of attribute values are completely separated is a set of attributes for all combinations for which f (C i , C j ) = 1. f (C i , C j ) (i = 1, ..., N, j =
It can be obtained by taking the logical product E of 1, ..., M, i ≠ j). E = Πf (C i , C j ) where iε {1, ..., n}, jε {1, ..., m}, i ≠ j (4)

【0025】E=Πf(Ci,Cj)の演算結果は積和形
で表すことができ、積の形に表した一項をASx (属性
の組)とすると次のように表せる。 E=AS1+・・・+ASx+・・・+ASp 但しASx=Aabc… (5)
The calculation result of E = Πf (C i , C j ) can be expressed in the product-sum form, and if one term expressed in the product form is AS x (set of attributes), it can be expressed as follows. E = AS 1 + ... + AS x + ... + AS p However, AS x = A a A b A c (5)

【0026】従って、AS1,…,ASx,…,ASp
それぞれの一項は少なくとも一つ以上の属性AK の属性
値の分布が完全に分離しているカテゴリーの組合せを識
別可能な属性集合である。
Therefore, each item of AS 1 , ..., AS x , ..., AS p can identify a combination of categories in which the distribution of attribute values of at least one attribute A K is completely separated. It is an attribute set.

【0027】式(5)によって少なくとも一つ以上の属
性値の分布が完全に分離しているカテゴリーの組合せす
べてを識別可能な属性集合の組が選択できる。 E=A2T+A34T (6) となる。これを次のように置き換える。
By the equation (5), a set of attribute sets can be selected which can identify all combinations of categories in which at least one attribute value distribution is completely separated. E = A 2 AT + A 3 A 4 AT (6) Replace it with:

【0028】 AS1 =A2 T , AS2 =A3 4 T (7)AS 1 = A 2 AT , AS 2 = A 3 A 4 AT (7)

【0029】求められた2組の属性の組、AS1,AS2
の属性を使うことにより、分離しているカテゴリーの組
合せによるカテゴリーが識別できる。しかし碍子と鳥
肉、碍子とギャップとCVケーブルは完全には識別でき
ない。
The two sets of attributes obtained, AS 1 and AS 2
By using the attribute of, the category can be identified by the combination of separated categories. However, insulators and poultry, insulators and gaps, and CV cables cannot be completely identified.

【0030】c)識別木の各ノードへの属性の配置 (7)式で求めた2組の属性の組の内で任意の組を選び
出す。ここではAS6はA2 T を選択するとする。識
別木の各ノードへの配置は次のようにする。
C) Arrangement of Attribute at Each Node of Identification Tree An arbitrary set is selected from the two sets of attributes obtained by the equation (7). Here, AS 6 selects A 2 AT . The arrangement of the identification tree at each node is as follows.

【0031】(7)式で得られた属性の組が2つ以上の
属性を持つ場合には、任意の属性を上位のノードに配置
する。AT の属性を配置する。(7)式で得られた属性
の組が2つ以上ある場合は属性の重なりの状態により、
属性の分布に重なりのない領域、属性の分布に重なる領
域に分かれる。属性がこれらの重なりのない領域の値に
なった場合には、根ノードで分類が完了する。
When the set of attributes obtained by the equation (7) has two or more attributes, an arbitrary attribute is placed in the upper node. Place AT attributes. When there are two or more sets of attributes obtained by equation (7), depending on the state of attribute overlap,
It is divided into an area that does not overlap with the attribute distribution and an area that overlaps with the attribute distribution. When the attributes have values in these non-overlapping regions, the root node completes the classification.

【0032】重なりのある領域はカテゴリー間の分類が
不可能であり、他の属性で再度分類する。その場合、重
なりのある領域のカテゴリーの識別に必要な属性の組を
再帰的に(2)及び(4)式により求める。その内で
(7)式で得られた属性の組の集合の内に入るものの中
で任意の属性を選ぶ。これらの処理をカテゴリーCi
状態(i) にあるカテゴリーCj との間において再識別ノ
ードがなくなるまで行う。
Areas with overlap cannot be classified between categories, and are classified again with other attributes. In that case, a set of attributes necessary for identifying the category of the overlapping area is recursively obtained by the expressions (2) and (4). Among them, an arbitrary attribute is selected from those falling within the set of attribute sets obtained by the expression (7). Performing these processes to re-identify the node is eliminated between the category C j in the category C i and state (i).

【0033】d)分離した属性を持たないカテゴリー識
別 CiとCjの二つのカテゴリーの属性値の分布の状態が状
態(i) となる属性AKを得ることができず、どの属性A
K に対しても、CiとCjの二つのカテゴリーの属性値の
分布が状態(ii)または状態(iii) である場合、つまりf
(Ci,Cj)=0の場合が考えられる。もしこのような
カテゴリーが存在するとCi,Cjの識別は不可能とな
る。以下、任意の二つのカテゴリーの属性値の分布が状
態(ii)または状態(iii) である場合の方法について説明
する。具体的には識別できない碍子と鳥肉はカテゴリー
の分類が必要である。
D) Category identification having no separated attribute C i and C j cannot acquire attribute A K whose distribution state of attribute values of two categories is state (i), and which attribute A
Also for K , if the distribution of the attribute values of the two categories C i and C j is state (ii) or state (iii), that is, f
The case of (C i , C j ) = 0 can be considered. If such a category exists, C i and C j cannot be identified. Hereinafter, a method when the distribution of attribute values of any two categories is the state (ii) or the state (iii) will be described. Insulators and poultry that cannot be specifically identified require category classification.

【0034】(1)カテゴリーの分割 ある属性値の分布AK に関してあるs個のカテゴリーC
1,…,Ci,…,Csが部分的に重なり合っている場
合、すなわちs個のカテゴリーのすべての組合せが図4
の状態(ii)または状態(iii) にある場合においても、部
分的にはカテゴリーの識別が可能な値の範囲が存在する
と考えられる。これらを用いれば部分的な識別が可能と
なるため、以下の方法でカテゴリーの分割を行う。
(1) Division of categories S distributions of certain attribute values A K with certain s categories C
When 1 , ..., C i , ..., C s partially overlap, that is, all combinations of s categories are shown in FIG.
Even in the state (ii) or the state (iii), it is considered that there is a range of values that allows the category to be identified. Since partial identification is possible by using these, the categories are divided by the following method.

【0035】ある属性AK について任意のカテゴリーC
i と他の全てのカテゴリーと重なりのない部分、任意の
カテゴリーCi と他の任意の一個のカテゴリーが重なる
部分、任意のカテゴリーCi と他の任意の二個のカテゴ
リーが重なる部分、・・・、任意のカテゴリーCi と他
の任意のs−2個のカテゴリーが重なる部分、任意のカ
テゴリーCi と他の任意のs−1個のカテゴリーが重な
る部分に分けることができる。上記の分割により、分割
した新たなカテゴリーを作ることができる。また任意の
カテゴリーCi と他の任意のs−n個のカテゴリーが重
なる部分の組合せの数は ss-n+1 で与えられる。また
分割したカテゴリーがすべての属性AKに対して空集合
の場合、新たなカテゴリーは作らないとする。
Arbitrary category C for some attribute A K
i and all other categories do not overlap, any category C i overlaps any other one category, any category C i overlaps any other two categories, ... ., A portion where any category C i and other arbitrary s−2 categories overlap, and a portion where any category C i and other arbitrary s−1 categories overlap. By the above division, a new divided category can be created. Also, the number of combinations of portions in which an arbitrary category C i and other arbitrary s−n categories overlap is given by s C s-n + 1 . If the divided category is an empty set for all attributes A K , no new category is created.

【0036】具体的に図5で子ノードが3個のカテゴリ
ーC1,C2,C3 が区別できない場合を考える。ここで
の属性をA1 ,A2 とする。
Specifically, consider the case where the categories C 1 , C 2 and C 3 having three child nodes cannot be distinguished in FIG. The attributes here are A 1 and A 2 .

【0037】ここでカテゴリーCi と他のすべてのカテ
ゴリーとの重なりのない部分によって新しく作られたカ
テゴリーをCi*とする。例えば図5の属性A1 に関して
作られたCi*のように属性値の分布が分離される場合も
ある。任意のカテゴリーCiと他の任意の一つのカテゴ
リーCj が重なる部分によって新しく作られたカテゴリ
ーをCij* とする。例えば図5の属性A1 に関して作ら
れたC13* である。新たに作られたC13* はカテゴリー
1 かカテゴリーC3 を意味する。以下任意のカテゴリ
ーCi と他の任意の二つのカテゴリーが重なる部分か
ら、新しく作られたカテゴリーを同様に定義する。図5
の属性A1 に関してはC2*とC3*は空集合のため、新た
なカテゴリーを作らないとする。このとき新たに作られ
たカテゴリーは、すべての任意の二つの組合せにおいて
状態(i) を満たすので、属性AK を使って上記の方法に
よりカテゴリーの分割を行うことができる。
A category newly created by the non-overlapping part of the category C i and all other categories is referred to as C i * . For example, the distribution of attribute values may be separated like C i * created for the attribute A 1 in FIG. Let C ij * be a category newly created by a portion where an arbitrary category C i and another arbitrary category C j overlap. For example, C 13 * created for attribute A 1 in FIG. The newly created C 13 * means category C 1 or category C 3 . Hereinafter, a newly created category is similarly defined from a portion where an arbitrary category C i and other arbitrary two categories overlap. Figure 5
As for the attribute A 1 of C 2 * and C 3 * , a new category is not created because it is an empty set. At this time, since the newly created category satisfies the state (i) in all arbitrary two combinations, the category can be divided by the above method using the attribute A K.

【0038】識別できない碍子と鳥肉はカテゴリーの分
離が必要である。属性AK に関して任意のカテゴリーC
i は他のすべてのカテゴリーと重なりのない部分のカテ
ゴリーに分割できる。碍子と鳥肉の場合はCI*,CN*
カテゴリーを作ることができる。以下同様に任意のカテ
ゴリーCi と他の任意の一つのカテゴリーが重なる部分
のカテゴリーCIN* を作ることができる。
Insulators and poultry that cannot be distinguished require category separation. Any category C for attribute A K
i can be divided into categories that do not overlap with all other categories. In the case of insulators and poultry, categories of C I * and C N * can be created. Similarly, a category C IN * of a portion where an arbitrary category C i and another arbitrary category overlap can be created.

【0039】(2)分離した属性を持たないカテゴリー
識別 属性値の分布が完全に分離していないカテゴリーの集合
に対してカテゴリーの分割により、新たなカテゴリーを
生成する。どの属性を使って新たなカテゴリーを生成す
るかを属性の確率分布により決定する。
(2) Category identification having no separated attribute A new category is generated by dividing a category into a set of categories whose attribute value distribution is not completely separated. Which attribute is used to generate a new category is determined by the probability distribution of the attribute.

【0040】属性の確率分布は以下のように表現するこ
とができる。属性AK の表す確率変数をZとし、属性値
K での確率をpi とすると、属性AK の確率分布は P(Z=zK )=pi (8) とおくことができ、任意の属性AK の属性値の分布にお
いてa≦Z≦bの範囲の確率は、
The probability distribution of attributes can be expressed as follows. If the random variable represented by the attribute A K is Z and the probability at the attribute value z K is p i , the probability distribution of the attribute A K can be set as P (Z = z K ) = p i (8), The probability in the range of a ≦ Z ≦ b in the distribution of attribute values of an arbitrary attribute A K is

【数1】 上式よりa≦Z≦bの範囲の確率を求めることができ
る。上記で求めた確率を用い、子ノードの識別に効果的
な属性の選択を行う。
[Equation 1] The probability in the range of a ≦ Z ≦ b can be obtained from the above equation. Using the probabilities obtained above, attributes effective for identifying the child node are selected.

【0041】任意のカテゴリーCi とCj の属性値の分
布において、他の分布と重なりのない部分の確率の高い
属性値はより高い確度でどのカテゴリーに属するか識別
できる。そこで、ある属性AK におけるカテゴリーCi
のCj に対して全く重なっていない領域の属性値の確率
分布を求め、その確率をp(DJAK(Ci,Cj))とす
る。これはAK がCi の識別に対してどの程度Cj の影
響があるかを示すものである。
In the distribution of attribute values of arbitrary categories C i and C j , it is possible to identify with high accuracy which category an attribute value having a high probability of a portion that does not overlap with another distribution belongs to. Therefore, a category C i with a certain attribute A K
The probability distribution of the attribute values of the region that does not overlap with C j of is calculated, and the probability is defined as p (DJ AK (C i , C j )). This indicates whether A K is the effect of extent C j with respect to the identification of C i.

【0042】確率p(DJAK(Ci,Cj))を使い、次
の評価関数を定める。評価値の1番高い属性を用い、子
ノードの識別を行う。
The probability p (DJ AK (C i , C j )) is used to determine the following evaluation function. The child node is identified using the attribute with the highest evaluation value.

【数2】 [Equation 2]

【0043】次に属性の確率分布を考える必要がある
が、ここでは計算を簡単にするために、属性値の確率分
布が最大値と最小値の間で一様に分布しているものとし
て考える。次に評価値F*(AK)の算出ならびに子ノード
の識別を行う。式(10)を用いて算出する。その結果
最大F*(Ak)を用いて識別することができる。図6及び
図6に決定木による学習結果を示す。
Next, it is necessary to consider the probability distribution of attributes, but here, in order to simplify the calculation, it is assumed that the probability distribution of attribute values is uniformly distributed between the maximum value and the minimum value. . Next, the evaluation value F * (A K ) is calculated and the child node is identified. It is calculated using equation (10). As a result, the maximum F * (A k ) can be used for identification. 6 and 6 show the learning result by the decision tree.

【0044】図6及び図7を用いた識別木学習の結果を
用いて事故原因診断のフローチャートを作成すると、図
8〜図14のようになる。
8 to 14 are flowcharts of the accident cause diagnosis made using the results of the discrimination tree learning using FIGS. 6 and 7.

【0045】約100のデータをテストとして用いた結
果、7.53%は診断ができず具体的に言えば図8〜図
14で“ERROR”に入った、 1つに限定できた場合が50.54% 2つに限定できた場合が21.51% 3つに限定できた場合が20.43% であった。
As a result of using about 100 data as a test, 7.53% could not be diagnosed, and more specifically, it entered "ERROR" in FIGS. 8 to 14, and in some cases, it could be limited to one. 0.54% was 21.51% when it could be limited to two, and 20.43% when it could be limited to three.

【0046】次に具体的にどのようにしてニューラルネ
ットワークを組み合わせるかについて説明する。ニュー
ラルネットワークについては、「ニューラルネットワー
ク情報処理」麻生英樹著,産業図書発行、に詳細に説明
されている。用いるニューラルネットワークは、バック
プロパゲーション、ボルツマンマシン、パーセプトロン
などがあるが、ここではバックプロパゲーションを用い
た実施例について説明する。もちろん、入力は属性値、
入力の数は属性の種類、出力はカテゴリー、出力の数は
識別するカテゴリーの数となる。
Next, how to specifically combine neural networks will be described. The neural network is described in detail in "Neural Network Information Processing" by Hideki Aso, published by Sangyo Tosho. The neural network used includes back propagation, Boltzmann machine, perceptron, and the like. Here, an example using back propagation will be described. Of course, the input is the attribute value,
The number of inputs is the type of attribute, the number of outputs is the category, and the number of outputs is the number of categories to identify.

【0047】どの段階で組み合わせるかについては、次
の3段階とその組合せがある。先に、特願平4−130
083号の方法では、碍子と鳥肉、碍子とギャップとC
Vケーブルは完全には識別できないことを述べた。した
がって、碍子、鳥肉、ギャップ、CVケーブルの4つの
カテゴリーについて、上記のデータをすべて用いてニュ
ーラルネットワークで学習する場合、そこで用いる属性
はすべてを用いてもよく、任意の属性を用いてもよく、
またF*(Ak)の高い属性から用いてもよい。これは本
発明の解決手段の第2の方法に相当する。
Regarding which stage to combine, there are the following three stages and their combinations. First, Japanese Patent Application No. 4-130
In method No. 083, insulator and poultry, insulator and gap and C
It has been stated that V-cables cannot be fully identified. Therefore, when learning with a neural network using all of the above data for the four categories of insulator, poultry, gap, and CV cable, all attributes may be used and any attributes may be used. ,
Alternatively, the attribute having the highest F * (A k ) may be used. This corresponds to the second method of the solution of the present invention.

【0048】この方法による結果を示す。完全地絡と抵
抗地絡は、機械学習により識別できる。約60データに
ついて行ったところ、約40データは正解を示し、約2
0データは間違った答えを出した。
The results of this method are shown below. The complete ground fault and the resistance ground fault can be identified by machine learning. When we performed about 60 data, about 40 data showed the correct answer, about 2
0 data gave the wrong answer.

【0049】2)この機械学習では、AT ,A2 の属性
を用いて、重なりのない2つのカテゴリー組み合わせは
識別できる。さらに重なっている部分は(2)の分離し
た属性を持たないカテゴリー集合に対して確率的に有利
な属性で識別している。それをニューラルネットワーク
で識別しようという方法である。
2) In this machine learning, two category combinations that do not overlap can be identified by using the attributes of A T and A 2 . Further, the overlapping portion is identified by the attribute that is probabilistically advantageous with respect to the category set having no separate attribute of (2). It is a method to identify it with a neural network.

【0050】すなわち、フローチャートでいうと、 カテゴリー 1) 104,105,106 鳥肉,碍子 2) 112,113,114 鳥肉,碍子 3) 119,120,121 鳥肉,碍子 4) 127,128,129 碍子,ギャップ 5) 134,135,136 碍子,ギャップ 6) 138,139,140, 碍子,ギャップ,CVケーブル 141,142 7) 144,145,146 CVケーブル,碍子 8) 151,152,153 CVケーブル,碍子In other words, in the flow chart, category 1) 104, 105, 106 bird meat, insulator 2) 112, 113, 114 bird meat, insulator 3) 119, 120, 121 bird meat, insulator 4) 127, 128, 129 insulator, gap 5) 134,135,136 insulator, gap 6) 138,139,140, insulator, gap, CV cable 141,142 7) 144,145,146 CV cable, insulator 8) 151,152,153 CV Cable, insulator

【0051】上記8組のそれぞれに対してニューラルネ
ットワークを用いて学習する。
Learning is performed using a neural network for each of the above eight sets.

【0052】具体的に言えば、例えば5)に関しては学
習用データの中で134,135,136に落ちるデー
タを用いて2つのカテゴリー「碍子,ギャップ」を学習
し、テストするデータも134,135,136のフロ
ーチャートに落ちるデータの場合はニューラルネットワ
ークで識別をする。その結果、約10%程度は間違った
答えを出したが、1つに限定してカテゴリーを識別する
ことができた。これは解決手段の第3の方法に相当す
る。
Specifically, for example, with regard to 5), the data to be learned for the two categories "insulators and gaps" using the data falling to 134, 135, 136 among the learning data and the data to be tested are also 134,135. In the case of the data falling in the flow chart of No. 136 of FIG. As a result, about 10% gave a wrong answer, but it was possible to identify the category by limiting to one. This corresponds to the third method of solution.

【0053】3)3番目の方法として、2)の方法の上
位のノードで機械学習をやめ、そのあとニューラルネッ
トワークによる学習を行う方法である。
3) As a third method, there is a method in which machine learning is stopped at an upper node of the method of 2) and then learning is performed by a neural network.

【0054】具体的に言えば、フローチャートでは、 1) 103,104,105,106,107,108 鳥肉,碍子 2) 111,112,113,114,115,116 鳥肉,碍子 3) 118,119,120,121,122,123 鳥肉,碍子 4) 126,127,128,129,130,131 碍子,ギャップ 5) 133,134,135,136,137,138, 碍子,CVケーブ 139,140,141,142,143,144, 145,146,147,148 6) 150,151,152,153,154,155 碍子,CVケーブ の上記6組に対し、それぞれニューラルネットワークを
用いて学習する。結果は、2番目の方法と同様な結果が
得られた。これが本発明の第4の方法に相当する。
Specifically, in the flow chart, 1) 103, 104, 105, 106, 107, 108 bird meat, insulator 2) 111, 112, 113, 114, 115, 116 bird meat, insulator 3) 118, 119,120,121,122,123 Bird meat, insulator 4) 126,127,128,129,130,131 insulator, gap 5) 133,134,135,136,137,138, insulator, CV cave 139,140 , 141, 142, 143, 144, 145, 146, 147, 148 6) 150, 151, 152, 153, 154, 155 insulators, and the above-mentioned 6 sets of CV caves are learned by using neural networks. The result was similar to that of the second method. This corresponds to the fourth method of the present invention.

【0055】4)4番目の方法は2番目の方法と3番目
の方法を組み合わせる方法で、例えば3番目の5)の組
に対しては2番目の方法により識別する。すなわち、2
番目の5),6),7)すなわち 5) 134,135,136 6) 138,139,140,141,142 7) 144,145,146 に分けてやる方法である。この方法では上記2番目,3
番目よりもよい結果が得られた。これが本発明の第5の
方法に相当する。
4) The fourth method is a method in which the second method and the third method are combined, and for example, the third set 5) is identified by the second method. Ie 2
5), 6), 7), that is, 5) 134, 135, 136 6) 138, 139, 140, 141, 142 7) 144, 145, 146. In this method, the second and third
Better results than th. This corresponds to the fifth method of the present invention.

【0056】[0056]

【発明の効果】上述したように、本発明によれば下記の
効果を奏する。
As described above, the present invention has the following effects.

【0057】 帰納的学習とニューラルネットワーク
を組み合わせることにより、データの認識率が上がる。
The combination of inductive learning and neural networks increases the data recognition rate.

【0058】 ニューラルネットワークでもし間違っ
た答えを出したとしても、帰納的学習でどのカテゴリー
間で間違っているか、限定することができる。
Even if a neural network gives a wrong answer, it is possible to limit which category is wrong between the categories by inductive learning.

【0059】 属性値に重なりがある部分でも、ニュ
ーラルネットワークの多次元空間の属性を非線型に識別
するという特徴を用いてさらにカテゴリーの限定を行う
ことができる。
Even in the part where the attribute values overlap, the category can be further limited by using the feature of non-linearly identifying the attributes of the multidimensional space of the neural network.

【0060】 データの属性値が分布を持つ場合、診
断、パターン認識、画像処理などいろいろな分類に適用
できる。
When the attribute value of data has a distribution, it can be applied to various classifications such as diagnosis, pattern recognition, and image processing.

【0061】 シミュレータなどで属性値の分布を求
めている場合、シミュレータのパラメータを変えても、
その変化に伴いデータの分類を機械学習により学習させ
ることにより、迅速に作成することができる。
When the distribution of attribute values is obtained by a simulator or the like, even if the parameters of the simulator are changed,
By learning the classification of data by machine learning according to the change, it is possible to create the data quickly.

【0062】 人間の主観が入らないアルゴリズムを
自動的に作成することができる。
An algorithm that does not include human subjectivity can be automatically created.

【0063】 効率のよいアルゴリズムを作成するこ
とができる。
An efficient algorithm can be created.

【図面の簡単な説明】[Brief description of drawings]

【図1】 データの分類に係る事故原因診断方法を実施
するための試験回路の一例を示す電気系統図である。
FIG. 1 is an electrical system diagram showing an example of a test circuit for implementing an accident cause diagnosis method related to data classification.

【図2】 本発明の実施例における測定系の構成を示す
ブロック図である。
FIG. 2 is a block diagram showing a configuration of a measurement system in an example of the present invention.

【図3】 故障時の零相電流の代表的な波形とFFT解
析結果を示すグラフである。
FIG. 3 is a graph showing a typical waveform of zero-phase current at the time of a failure and an FFT analysis result.

【図4】 二つのカテゴリー間の属性値分布関係を示す
説明図である。
FIG. 4 is an explanatory diagram showing an attribute value distribution relationship between two categories.

【図5】 本発明に係るカテゴリーの分割を示す説明図
である。
FIG. 5 is an explanatory diagram showing division of categories according to the present invention.

【図6】 本発明に係る識別木学習の結果を示す説明図
である。
FIG. 6 is an explanatory diagram showing a result of discrimination tree learning according to the present invention.

【図7】 本発明に係る識別木学習の結果を示す説明図
である。
FIG. 7 is an explanatory diagram showing a result of discrimination tree learning according to the present invention.

【図8】 本発明に係る事故原因診断のフローチャート
(1)である。
FIG. 8 is a flowchart (1) of accident cause diagnosis according to the present invention.

【図9】 本発明に係る事故原因診断のフローチャート
(2)である。
FIG. 9 is a flowchart (2) of accident cause diagnosis according to the present invention.

【図10】 本発明に係る事故原因診断のフローチャー
ト(3)である。
FIG. 10 is a flowchart (3) of accident cause diagnosis according to the present invention.

【図11】 本発明に係る事故原因診断のフローチャー
ト(4)である。
FIG. 11 is a flowchart (4) of accident cause diagnosis according to the present invention.

【図12】 本発明に係る事故原因診断のフローチャー
ト(5)である。
FIG. 12 is a flowchart (5) of accident cause diagnosis according to the present invention.

【図13】 本発明に係る事故原因診断のフローチャー
ト(6)である。
FIG. 13 is a flowchart (6) of accident cause diagnosis according to the present invention.

【図14】 本発明に係る事故原因診断のフローチャー
ト(7)である。
FIG. 14 is a flowchart (7) of accident cause diagnosis according to the present invention.

【符号の説明】[Explanation of symbols]

1 遮断器、2 ZPD(零相電圧検出器)、3 電源
側コンデンサ、4 零相変流器、5 負荷側コンデン
サ、6 事故発生用開閉器、7 高圧開閉器、8制御
器、9 変圧器
1 circuit breaker, 2 ZPD (zero phase voltage detector), 3 power supply side capacitor, 4 zero phase current transformer, 5 load side capacitor, 6 accident switch, 7 high voltage switch, 8 controller, 9 transformer

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 帰納的機械学習により学習を行い、その
学習によってカテゴリーが判別できない場合、ニューラ
ルネットワークによって学習を行うことを特徴とするデ
ータの分類方法。
1. A data classification method, characterized in that learning is performed by inductive machine learning, and when a category cannot be discriminated by the learning, learning is performed by a neural network.
【請求項2】 帰納的機械学習方法により、完全に識別
できるカテゴリーを除いたカテゴリーをニューラルネッ
トワークによって学習することを特徴とするデータの分
類方法。
2. A method for classifying data, characterized in that a category except a completely discriminable category is learned by a neural network by an inductive machine learning method.
【請求項3】 帰納的機械学習によって少なくとも一つ
以上の属性値の分布が分離しているカテゴリーのすべて
の組み合わせを識別する属性に対しては機械学習を用い
て学習し、その機械学習でできないカテゴリーに対して
ニューラルネットワークで学習を行うことを特徴とする
データの分類方法。
3. An attribute that identifies all combinations of categories in which at least one or more attribute value distributions are separated by inductive machine learning is learned using machine learning and cannot be performed by that machine learning. A method of classifying data, which is characterized by learning with a neural network for categories.
【請求項4】 請求項3の分類方法で行った機械学習の
上位のノードで機械学習による学習を行い、その機械学
習でできないカテゴリーに関しては、ニューラルネット
ワークで学習を行うことを特徴とするデータの分類方
法。
4. The learning is performed by machine learning at a higher node of the machine learning performed by the classification method according to claim 3, and a category which cannot be learned by the machine learning is learned by a neural network. Classification method.
【請求項5】 請求項3の分類方法と請求項4の分類方
法を組み合わせて機械学習とニューラルネットワークで
学習を行うことを特徴とするデータの分類方法。
5. A method for classifying data, characterized in that the classification method according to claim 3 and the classification method according to claim 4 are combined to perform learning by machine learning and a neural network.
JP5306778A 1993-12-07 1993-12-07 Method for classifying data Pending JPH07160658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5306778A JPH07160658A (en) 1993-12-07 1993-12-07 Method for classifying data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5306778A JPH07160658A (en) 1993-12-07 1993-12-07 Method for classifying data

Publications (1)

Publication Number Publication Date
JPH07160658A true JPH07160658A (en) 1995-06-23

Family

ID=17961157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5306778A Pending JPH07160658A (en) 1993-12-07 1993-12-07 Method for classifying data

Country Status (1)

Country Link
JP (1) JPH07160658A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028250B2 (en) * 2000-05-25 2006-04-11 Kanisa, Inc. System and method for automatically classifying text
CN110060312A (en) * 2017-12-14 2019-07-26 西门子保健有限责任公司 3 d medical images workflow for anonymization can the method that generates of mental picture

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028250B2 (en) * 2000-05-25 2006-04-11 Kanisa, Inc. System and method for automatically classifying text
CN110060312A (en) * 2017-12-14 2019-07-26 西门子保健有限责任公司 3 d medical images workflow for anonymization can the method that generates of mental picture
CN110060312B (en) * 2017-12-14 2023-12-19 西门子保健有限责任公司 Method for memorable image generation for anonymized three-dimensional medical image workflow

Similar Documents

Publication Publication Date Title
Dias et al. Concept lattices reduction: Definition, analysis and classification
CN109350032B (en) Classification method, classification system, electronic equipment and storage medium
Catelani et al. Soft fault detection and isolation in analog circuits: some results and a comparison between a fuzzy approach and radial basis function networks
Aydin et al. An approach for automated fault diagnosis based on a fuzzy decision tree and boundary analysis of a reconstructed phase space
US20070282771A1 (en) Method and Apparatus for Interpreting Information
EP2410312A1 (en) A method for computer-assisted analyzing of a technical system
da Silva et al. Transformer failure diagnosis by means of fuzzy rules extracted from Kohonen Self-Organizing Map
CN115099335A (en) Abnormal identification and feature screening method and system for multi-source heterogeneous data
Júnior et al. The design of multiple linear regression models using a genetic algorithm to diagnose initial short-circuit faults in 3-phase induction motors
Singh et al. Power system fault diagnosis using fuzzy decision tree
Azriyenni et al. Application of ANFIS for Distance Relay Protection in Transmission Line
Mohamed A probabilistic rough set approach to rule discovery
Souza et al. Data visualisation and identification of anomalies in power system state estimation using artificial neural networks
CN112949714A (en) Fault possibility estimation method based on random forest
JPH07160658A (en) Method for classifying data
CN117110794A (en) Intelligent diagnosis system and method for cable faults
Narges et al. A hybrid fault diagnosis scheme for railway point machines by motor current signal analysis
Babayomi et al. Intelligent fault diagnosis in a power distribution network
Mishra et al. Tree Based Fault Classification in Underground Cable
JP2002169611A (en) Fault diagnosis system and automated design system therefor
Fussel et al. Combining neuro-fuzzy and machine learning for fault diagnosis of a DC motor
Al-Khamees et al. Data Stream Clustering Using Fuzzy-based Evolving Cauchy Algorithm.
Dassen et al. Evaluation of new self‐learning techniques for the generation of criteria for differentiation of wide‐QRS tachycardia in supraventricular tachycardia and ventricular tachycardia
JPH0675985A (en) Classificating method for data
JPH0743352A (en) Method and device for automatic construction of learning type abnormality diagnosis algorithm