JP3096353B2 - How to classify data - Google Patents

How to classify data

Info

Publication number
JP3096353B2
JP3096353B2 JP04130083A JP13008392A JP3096353B2 JP 3096353 B2 JP3096353 B2 JP 3096353B2 JP 04130083 A JP04130083 A JP 04130083A JP 13008392 A JP13008392 A JP 13008392A JP 3096353 B2 JP3096353 B2 JP 3096353B2
Authority
JP
Japan
Prior art keywords
attribute
category
distribution
categories
attributes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04130083A
Other languages
Japanese (ja)
Other versions
JPH0675985A (en
Inventor
正人 戸上
Original Assignee
株式会社戸上電機製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社戸上電機製作所 filed Critical 株式会社戸上電機製作所
Priority to JP04130083A priority Critical patent/JP3096353B2/en
Publication of JPH0675985A publication Critical patent/JPH0675985A/en
Application granted granted Critical
Publication of JP3096353B2 publication Critical patent/JP3096353B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、データが属性とその値
の対の集合で与えられている事例または計算結果がある
場合に、データをいくつかのカテゴリー(クラス)に分
類する方法において、特に属性に分布があり、その分布
に重なりがある場合の帰納的機械学習方法に関し、特に
パターン認識、事故診断に有用なデータの分類方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for classifying data into several categories (classes) when there are cases or calculation results in which the data is given as a set of attribute-value pairs. In particular, the present invention relates to a recursive machine learning method in the case where attributes have a distribution and the distributions overlap, and particularly to a data classification method useful for pattern recognition and accident diagnosis.

【0002】[0002]

【従来の技術】帰納的機械学習方法は、従来属性の値に
分布を持たず、離散的な属性値により識別木を作成して
いた。例えば、従来は表1のような車の種類についての
20代の人の好みを、好むならばPと分類し、好まない
ならばNと分類したデータがある場合、図1のような識
別木を与えてデータのクラス分類をしていた。
2. Description of the Related Art In the recursive machine learning method, conventionally, an attribute tree has no distribution, and a discrimination tree is created by discrete attribute values. For example, conventionally, if there is data that classifies the tastes of people in their twenties with respect to the type of car as shown in Table 1 as P if they like it, and classifies as N if they do not like, an identification tree as shown in FIG. To classify the data.

【0003】[0003]

【表1】 [Table 1]

【0004】しかしながら、表1の属性は離散的な値、
例えばオートマチックの有無などを考えているが、通常
のデータは属性が連続値を取っている場合、または離散
値であるが属性の分布を持っている場合と考えてよい場
合がある。表1では色については明度、彩度、色相の3
つの属性があり、例えば一般に青色といっても、明度、
彩度、色相にある一定の分布内で青色と認識される。す
なわち属性値が連続値を取っている場合である。また、
排気量を考えても、表1では2000ccクラス、16
00ccクラス、2800ccクラスというように離散
値を考えているが、実際には1500cc,1600c
cを1600ccクラス、1800cc,2000c
c,2200ccを2000ccクラス、2500c
c,2800cc,3000ccを2800ccクラス
と考えて、離散値に分布があるにも拘わらず、代表的な
離散値を取っている場合もある。この場合、1500c
c以上1800cc未満を一つの属性値分布と考え、同
様に1800cc以上2500cc未満、2500cc
以上3000cc未満を一つの属性値分布と考えてもよ
い。
[0004] However, the attributes in Table 1 are discrete values,
For example, whether or not automatic data is present is considered, but there are cases in which normal data may be considered to be a case where attributes have continuous values or a case where discrete values are present but have attribute distributions. In Table 1, the colors are 3 for brightness, saturation, and hue.
There are two attributes, for example, generally speaking blue, lightness,
Blue is recognized within a certain distribution of saturation and hue. That is, this is a case where the attribute value is a continuous value. Also,
Considering the displacement, Table 1 shows 2000cc class, 16
Though discrete values such as 00cc class and 2800cc class are considered, 1500cc and 1600c are actually used.
c in 1600cc class, 1800cc, 2000c
c, 2200cc to 2000cc class, 2500c
Assuming that c, 2800 cc, and 3000 cc are in the 2800 cc class, there may be cases where representative discrete values are taken despite the distribution of discrete values. In this case, 1500c
It is considered that one attribute value distribution is c or more and less than 1800 cc, and similarly, it is 1800 cc or more and less than 2500 cc
More than 3000 cc may be considered as one attribute value distribution.

【0005】また、実際のデータを集計または計算して
みると、データ自体は離散値をとるにも拘わらず、統計
的処理して属性値の分布を考えた方がよい。
[0005] In addition, when tabulating or calculating actual data, it is better to consider the distribution of attribute values through statistical processing even though the data itself takes discrete values.

【0006】また、実際パターン認識及び事故診断にお
ける属性値、すなわち実際には測定値およびセンサ値
は、通常ノイズや種々のパラメータによる属性値の変化
により属性値に幅を持つ。
In addition, attribute values in actual pattern recognition and accident diagnosis, that is, actually measured values and sensor values have a range of attribute values usually due to changes in attribute values due to noise or various parameters.

【0007】このように属性値に幅を持つ場合、あるい
は属性値の分布が明確に得られる場合は、先に特願平3
−269411号において提案した方法により、識別木
学習が可能となった。
[0007] In the case where the attribute value has a width or the distribution of the attribute value can be clearly obtained, the Japanese Patent Application No.
The method proposed in -269411 makes it possible to perform discrimination tree learning.

【0008】[0008]

【発明が解決しようとする課題】ところで、先に提案し
た特願平3−269411号において提案した方法で
は、属性値が幅を持つ場合においても、カテゴリー(実
際には事故種別)とカテゴリーの持つ属性値の分布が完
全に分離している属性があった場合のみ、識別が可能で
あった(図2の(i)参照)。
According to the method proposed in Japanese Patent Application No. 3-269411, the category (actually the type of accident) and the category (actually, the type of accident) exist even when the attribute value has a width. Identification was possible only when there was an attribute whose attribute value distribution was completely separated (see (i) of FIG. 2).

【0009】エキスパートシステムは、アルゴリズムが
はっきりしない悪構造問題に対して有用であり、診断に
適用されてきた。しかしエキスパートシステムでは、知
識を人間が獲得することが前提となっている。また一度
知識獲得が終わったかのように見えても、システムの信
頼度向上の要求のため、その診断知識を増加したり、修
正したりする必要がある。しかし、修正に際してはどの
ような知識を加えたらよいかの決定は難しい。既存の知
識との整合性の維持ならびに知識の検証も難しい。した
がってデータの分類において知識の獲得、修正、増加さ
らには、その知識との整合性の維持ならびに検証は、膨
大な人的労力と開発費を必要とする。
Expert systems are useful for badly structured problems where the algorithm is unclear, and have been applied to diagnostics. However, expert systems assume that humans acquire knowledge. Even if it seems that knowledge acquisition has been completed, it is necessary to increase or correct the diagnostic knowledge in order to improve the reliability of the system. However, it is difficult to decide what kind of knowledge to add when making corrections. It is also difficult to maintain consistency with existing knowledge and verify knowledge. Therefore, acquiring, modifying, and increasing the knowledge in classifying data, and maintaining and verifying the consistency with the knowledge, require enormous human labor and development costs.

【0010】エキスパートシステムではif−then
ルールが用いられるため診断のための計算時間がかかる
ことも問題点である。
In the expert system, if-then
Another problem is that it takes a long calculation time for diagnosis because rules are used.

【0011】それに対し、識別木による機械学習では、
人間の主観が入らない診断を自動的かつ効率的に作成す
ることが可能になる。また、新しい属性値を使うことに
より、新しい識別木を機械学習により開発することが期
待される。
On the other hand, in the machine learning using the identification tree,
It is possible to automatically and efficiently create a diagnosis that does not involve human subjectivity. It is expected that a new identification tree will be developed by machine learning by using new attribute values.

【0012】最近、ニューラルネットワークを用いたデ
ータの分類方法が研究されているが、データの分類論理
が不透明であり、あいまいな結果が得られた場合もあ
り、結果の正確度についての推定は困難である。中間層
を増やせばデータの分類結果の正確度は向上するが、学
習時間が著しく増大するため、データの分類に使えるネ
ットの切り換えを容易化できない。ニューラルネットワ
ークでは目標概念の一部を構成しない属性を与えた場
合、それが概念とは無関係の属性であることを知ること
はできない。
Recently, a method of classifying data using a neural network has been studied. However, the classification logic of data is opaque, and in some cases, ambiguous results have been obtained, and it is difficult to estimate the accuracy of the results. It is. Increasing the number of intermediate layers improves the accuracy of the data classification result, but significantly increases the learning time, so that it is not easy to switch the nets that can be used for data classification. In the neural network, when an attribute that does not form a part of the target concept is given, it cannot be known that the attribute is irrelevant to the concept.

【0013】それに対し識別木による機械学習では、識
別木が複雑になればデータの分類結果の根拠についての
説明が理解しにくくはなるが、診断アルゴリズムからデ
ータの分類結果の根拠や不要な属性について知ることが
できる。また診断できないときにはその原因を推定する
ことが可能である。
On the other hand, in the machine learning using the identification tree, if the identification tree becomes complicated, it becomes difficult to understand the grounds of the data classification result. You can know. If the diagnosis cannot be made, the cause can be estimated.

【0014】本発明では、カテゴリーとカテゴリーのも
つ属性値の分布が完全に分離していなくても、属性値の
重なりのない部分を分類する方法を提案する。例えば図
3の属性値aならびにbはカテゴリーCiと分類できる
し、属性値cならびにdはカテゴリーCjと分類でき
る。重なりのある部分、すなわちそれらのカテゴリーが
分類できない部分についても、属性の確率分布を求める
ことにより、重なりのある部分の出現確率を求め、カテ
ゴリーを推定する。例えば図4(1)の確率分布で斜線
部に示す部分の面積を求めることにより出現確率を算出
し、また重なりのある部分において、任意の属性値が得
られた場合の出現確率を求めることができる。図4の確
率分布で属性値eが得られた場合の出現確率を実線で示
す。
The present invention proposes a method of classifying non-overlapping portions of attribute values even if the distribution of the category and the attribute values of the category is not completely separated. For example, the attribute values a and b in FIG. 3 can be classified as category C i, and the attribute values c and d can be classified as category C j . Even for overlapping parts, that is, parts in which the categories cannot be classified, the probability distribution of the attributes is obtained to determine the occurrence probability of the overlapping parts, and the category is estimated. For example, it is possible to calculate the appearance probability by calculating the area of the portion indicated by the diagonal line in the probability distribution of FIG. 4A, and to calculate the occurrence probability when an arbitrary attribute value is obtained in the overlapping portion. it can. The appearance probability when the attribute value e is obtained from the probability distribution of FIG. 4 is indicated by a solid line.

【0015】そこで本発明が解決すべき課題は、上記の
ように属性値の幅が重なる場合も、可能な限り分類する
ことにある。分類できない場合は、分類できないカテゴ
リーとカテゴリーの出現頻度を出し、どのような状況で
分類できないかということを提示することにある。
Therefore, the problem to be solved by the present invention is to classify as much as possible even when the widths of the attribute values overlap as described above. When classification is not possible, the category and the frequency of appearance of the category that cannot be classified are given, and the situation in which classification is not possible is presented.

【0016】また、前記の先の出願で提案した方法で
は、分類する属性の組を見つけ、またその中の最も適切
な属性を属性の組の中から配置する際においても、その
評価関数が適切でないため、その効果が充分でなかっ
た。本発明はそのような問題も解決しようとするもので
ある。
Further, in the method proposed in the above-mentioned prior application, when finding a set of attributes to be classified and arranging the most appropriate attribute among the set of attributes, the evaluation function is not suitable. Therefore, the effect was not sufficient. The present invention seeks to solve such a problem.

【0017】[0017]

【課題を解決するための手段】これらの課題を解決する
ため、本発明のデータの分類方法は、(a)データを分類するカテゴリーC 1 〜C i 〜C m を設
定し、それぞれのカテゴリーが持つ属性T 1 〜T j 〜T n
毎に測定データを集計するかあるいは計算によりシミュ
レートし、その結果を、対応するカテゴリーに区分けし
て各属性毎に上限値と下限値で表された分布を表す属性
値分布テーブルとして、記憶装置に格納するステップ
と、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なりのある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、カテゴリーC i と他のすべてのカテゴリーとを
分類可能とする属性の組の集合を、ステップ(c )で求
めた論理式の集合の論理積で求める処理を行うステップ
と、 (e)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、すべてのカテゴリーを互いに分類可能とするた
めの属性の組の集合をステップ(d)で求めた論理式の
集合の論理積の論理積で求める処理を行うステップと、 (f)前記属性の組の集合の中から識別木作成に最も効
率的な属性の組を選択するために、属性値の分布の重な
り状態とカテゴリーC i の出現頻度に基づく評価関数に
より評価を行い、最も効率的な属性の組を選択する処理
を行うステップと、 (g)前記ステップ(f)において選択した属性の組の
中で、評価が最大となる属性をそれに含まれるカテゴリ
ーと共に親ノードとして配置し、(g−1)親ノードに
含まれるあるカテゴリーにおける属性の属性値の分布が
他のカテゴリーにおける当該属性の属性値の分布と重な
っていないときは前記あるカテゴリーを当該親ノードに
対する子ノードとして配置することで分類を完了させ、
(g−2)重なっているときは他のカテゴリーと分類で
きなかったカテゴリーの組を当該親ノードに対する子ノ
ードとして配置し、(g−3)その子ノードのカテゴリ
ーの組の間で前記ステップ(b)〜(e)の処理を行っ
てステップ(f)で選択した属性の組の中で評価が当該
子ノードに対する親ノードでの分類に使用した属性を除
いた属性の内で最大となる属性を、当該子ノードを親ノ
ードとする子ノードの分類に使用する属性として配置
し、(g−4)前記(g−1)〜(g−3)の処理をカ
テゴリーC i と状態(i)にあるカテゴリーC j との間に
おいて分類すべき子ノードがなくなるまで行う処理を行
うステップと、 (h)前記ステップ(g)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
k についての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割 された新たなカテゴ
リーを作る処理を行うステップと、 (i)属性毎に属性値の範囲の確率分布を用いて、ステ
ップ(h)で作られた新たなカテゴリーC i とカテゴリ
ーC j の全く重なっていない領域の属性値の確率を演算
するステップと、 (j)前記ステップ(a)で記憶装置に格納された属性
値テーブルの属性値からカテゴリーの出現頻度を求め、
その出現頻度とステップ(i)で求めた属性値の分布の
重なりの確率を用いた評価関数により評価を行い、子ノ
ードの分類に最も効果的な属性の選択を行うステップ
と、 (k)前記ステップ(c)〜(g)で分類できなかった
子ノードに対し、前記子ノードの分類に最も効果的な属
性を用いて前記ステップ(h)で求めたカテゴリーの分
割によってできた新しいカテゴリーで分類する処理を行
うステップと、 (l)前記ステップ(b)〜(k)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うを特徴とする。
Means for Solving the Problems To solve these problems, the data classification method of the present invention comprises the steps of: (a) setting categories C 1 to C i to C m for classifying data;
And the attributes T 1 to T j to T n of each category
Data is aggregated or calculated by calculation
Rate and divide the results into corresponding categories
Attribute that represents the distribution represented by the upper and lower limits for each attribute
Storing in a storage device as a value distribution table
With reference to the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
If, on the combination of; (d) Category C i and C j is the state (i)
, The category C i and all other categories
In step (c ), a set of attribute sets that can be classified is determined.
Performing the process of calculating the logical product of the set of logical expressions
If, on the combination of (e) the category C i and C j is the state (i)
To make all categories classifiable with each other.
A set of attribute sets for the logical expression obtained in step (d)
(F) performing the process of obtaining the identification tree from the set of the attribute sets;
In order to select a rational set of attributes,
Evaluation function based on the state of appearance and the appearance frequency of category C i
Process to evaluate more and select the most efficient attribute set
(G) setting the attribute set selected in the step (f).
Of the attributes that have the highest rating
-And placed as parent node, and (g-1) parent node
The distribution of attribute values of attributes in a category included
Overlap with the distribution of attribute values of the attribute in other categories
If not, assign the category to the parent node.
Classification is completed by placing it as a child node to
(G-2) When overlapping, use another category and classification
The set of unsuccessful categories is assigned to the child node for the parent node.
(G-3) The category of the child node
The steps (b) to (e) are performed between
The evaluation in the set of attributes selected in step (f)
Excludes attributes used for classification at parent node for child nodes.
The attribute that is the largest of the attributes
Placed as attributes used to classify child nodes as nodes
(G-4) The processing of the above (g-1) to (g-3)
Between the category C j in Tegori C i and state (i)
Process until there are no more child nodes to be classified in
Cormorants and steps not completed classification in (h) wherein step (g)
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Except for the case of the empty set Te, split a new category
Performing a process to make Lee, using the probability distribution in the range of attribute values for each (i) attribute, stearyl
New category C i and category created in top (h)
-Calculate the attribute value probabilities of areas where C j does not overlap at all
Step a, the attribute stored in the storage device (j) said step (a) to
From the attribute values in the value table, find the frequency of the category,
The frequency of occurrence and the distribution of attribute values obtained in step (i)
Evaluation is performed using an evaluation function that uses the probability of overlap, and
Steps to select the attributes that are most effective for classifying the code
When could not be classified in (k) the step (c) ~ (g)
For the child node, the attribute that is most effective in classifying the child node
Of the category obtained in step (h) using the property
Perform processing to classify in a new category created by splitting
And (l) the knowledge created by the steps (b) to (k).
Create and store data classification flowcharts from different trees
Storing the data in an apparatus, and classifying the data according to the flowchart.

【0018】[0018]

【実施例】以下、本発明を、具体的に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be specifically described below.

【0019】本発明の概念的な考え方を図5に示す。ま
た、本発明の全体的なフローチャートを図6に示す。
FIG. 5 shows the concept of the present invention. FIG. 6 shows an overall flowchart of the present invention.

【0020】本発明では、送配電線事故診断の場合のデ
ータの分類方法を実施例として具体的に説明する。
In the present invention, a method of classifying data in the case of transmission / distribution line fault diagnosis will be specifically described as an embodiment.

【0021】通常、データが計算または集計により連続
値として得られる場合は、連続値で与えられる範囲で、
それぞれの属性の属性値の分布として与える。また、デ
ータが離散値で与えられる場合は、例えば統計処理によ
り、標準偏差の3σをとる値の範囲を属性値の分布とし
て与える。
Normally, when data is obtained as continuous values by calculation or tabulation, within the range given by the continuous values,
It is given as the distribution of attribute values of each attribute. When the data is given as discrete values, a range of values having a standard deviation of 3σ is given as an attribute value distribution by, for example, statistical processing.

【0022】本実施例では以下の条件により属性値の分
布を求めた。
In this embodiment, the distribution of attribute values is obtained under the following conditions.

【0023】なお、本発明の実施例では、図7に示す3
回線配電線の線路モデルを想定し、c配電線上で事故が
起きたとする。各配電線の静電容量は図示の通りであ
る。またc配電線の変電所2次母線のインピーダンスは
0.362Ωならびに線路インピーダンスは0.536
+j1.407Ωとする。負荷は均等負荷と考え、電源
端の大地間電圧は3810V、また電流200Aを中心
値とし、負荷予測により、相対誤差の標準偏差を3.8
%とし、3σを考えた場合、177A〜223Aとし
た。また断線事故においては、負荷は三相負荷のみと考
え、負荷の力率は100%と考えた。事故はc配電線の
電源端と受電端との間で起こったと考え、1線地絡事故
並びに2線線間短絡事故ならびに1線断線事故につい
て、定常状態で電源端での絶対値を計算した。配電線は
非接地方式とし、地絡事故時における故障点抵抗は0〜
6000Ωとした。
In the embodiment of the present invention, 3 shown in FIG.
Assuming a line model of a line distribution line, it is assumed that an accident has occurred on the line c. The capacitance of each distribution line is as shown. Further, the impedance of the secondary bus of the substation of the c distribution line is 0.362Ω and the line impedance is 0.536.
+ J 1.407Ω. The load is considered to be a uniform load, the ground voltage at the power supply end is 3810 V, and the current is 200 A. The standard deviation of the relative error is 3.8 based on the load prediction.
% And 3σ, 177A to 223A. In the event of a disconnection accident, the load was considered to be only a three-phase load, and the power factor of the load was considered to be 100%. The accident was considered to have occurred between the power supply end and the receiving end of the c distribution line, and the absolute values at the power supply end were calculated in a steady state for the 1-line ground fault, the 2-line short-circuit, and the 1-line disconnection. . The distribution line shall be ungrounded, and the fault point resistance in case of ground fault
6000Ω.

【0024】(A)第1実施例 1)識別木の作成方法ならびにその配電線事故診断にお
けるデータの分類の適用例 本実施例では、センサの零相電流、零相電圧、各相電
流、各相対地間電圧などのセンサ情報をもとに地絡事
故、短絡事故、断線事故などの事故を検出するアルゴリ
ズムをデータの分類識別木により作成する。ここでは、
センサ情報を属性値とし、正常及び短絡事故、地絡事故
ならびに断線事故の区別をカテゴリーとする。
(A) First Embodiment 1) Method of Creating Identification Tree and Application of Data Classification in Distribution Line Fault Diagnosis In this embodiment, zero-phase current, zero-phase voltage, each phase current, Based on sensor information such as relative ground-to-ground voltage, an algorithm for detecting an accident such as a ground fault, short-circuit, or disconnection is created by a data classification tree. here,
The sensor information is used as the attribute value, and the categories of normal and short circuit accidents, ground fault accidents, and disconnection accidents are classified.

【0025】ここで、選択すべきm個のカテゴリーをC
1・・・Ci・・・Cmとし、これらのカテゴリーが個々
にもつn個の属性をT1・・・Tj・・・Tnとする。
Here, m categories to be selected are represented by C
And 1 ··· C i ··· C m, these categories of n attributes to T 1 ··· T j ··· T n having individually.

【0026】配電線事故診断におけるデータの分類の選
択すべき事故及び正常値のカテゴリーを CN:正常 Cbc:bc線2線短絡事故 Cca:ca線2線短絡事故 Cab:ab線2線短絡事故 Ca:a線地絡事故 Cb:b線地絡事故 Cc:c線地絡事故 CDa:a線断線事故 CDb:b線断線事故 CDc:c線断線事故 とする。
The categories of data to be selected and the normal values in the classification of data in the distribution line accident diagnosis are as follows : C N : normal C bc : bc line 2 line short circuit accident C ca : ca line 2 line short circuit accident C ab : ab line 2 Line short circuit accident C a : a line ground fault accident C b : b line ground fault accident Cc: c line ground fault accident C Da : a line disconnection accident CDB : b line disconnection accident C Dc : c line disconnection accident

【0027】また上記のカテゴリーが個々にもつ属性を TV0:零相電圧 TI0:零相電流 TIa:a相電流 TIb:b相電流 TIc:c相電流 TVa:a相対地間電圧 TVb:b相対地間電圧 TVc:c相対地間電圧 とする。The attributes of each of the above categories are T V0 : zero-phase voltage T I0 : zero-phase current T Ia : a-phase current T Ib : b-phase current T Ic : c-phase current T Va : a relative ground Voltage T Vb : b relative ground-to-ground voltage T Vc : c relative ground-to-ground voltage.

【0028】前記の配電線モデルで計算した属性値を表
2に示す。
Table 2 shows the attribute values calculated by the distribution line model.

【0029】[0029]

【表2】 ここでTV0,TVa,TVb,TVcの属性値の単位はV、ま
たTI0,TIa,TIb,TIcの属性値の単位はAである。
[Table 2] Here, the unit of the attribute value of T V0 , T Va , T Vb , and T Vc is V, and the unit of the attribute value of T I0 , T Ia , T Ib , and T Ic is A.

【0030】2) 2−1)任意の二つのカテゴリーの分類に必要な属性の
選択(図6のフローチャートの3に相当する) すべてのカテゴリーを分類するために必要な属性を見つ
けるために、まず、任意のある一つのカテゴリーに注目
し、それを分類するのに必要な属性を求める。今、注目
しているカテゴリーをCiとし、Ci以外の任意の一つC
jとの属性値分布図上での相対的な分布関係を考える。
属性Tkにおける分布図上でのCiから見たCjの相対的
な分布関係は、図2に示すように、次の三つの状態が考
えられる。
2) 2-1) Selection of Attributes Required for Classification of Arbitrary Two Categories (corresponding to 3 in the flowchart of FIG. 6) First, in order to find the attributes required for classifying all the categories, Attention is paid to one arbitrary category, and an attribute necessary for classifying it is obtained. The category of interest is C i, and any one other than C i C
Consider a relative distribution relationship with j on the attribute value distribution diagram.
Relative distribution relationship C j as viewed from the C i in the distribution map in the attribute T k, as shown in FIG. 2, can be considered the following three states.

【0031】状態(i) Ciの分布とCjの分布は重
なっていない。 状態(ii) Ciの分布はCjの分布とすべて重なって
いる。 状態(iii)Ciの分布はCjの分布と一部重なってい
る。
State (i) The distribution of C i and the distribution of C j do not overlap. State (ii) The distribution of C i all overlaps with the distribution of C j . The distribution of the state (iii) C i partially overlaps with the distribution of C j .

【0032】これら三つの状態のうち、CiとCjが完全
に分類可能な状態は状態(i)のみである。つまり、任
意の属性TkでCiとCjが分類可能であるためには、そ
の二つのカテゴリーの属性値分布の状態が状態(i)で
あることが必要条件となる。そこで属性Tkが状態
(i)であるか否かを示すために式(1)に示すような
係数aikを定義する。
Of these three states, the only state in which C i and C j can be completely classified is state (i). That is, in order for C i and C j to be categorized by an arbitrary attribute T k , a necessary condition is that the state of the attribute value distribution of the two categories is state (i). Therefore, a coefficient aik as shown in Expression (1) is defined to indicate whether the attribute Tk is in the state (i).

【0033】aik=1 Tkが状態(i) 0 その他 (1)[0033] a ik = 1 T k is the state (i) 0 Other (1)

【0034】また、Tkを論理変数と考え、分類に用い
る場合には1、用いない場合には0の2値の係数を考え
る。CiとCjを分類可能とする属性値は係数ikを用い
論理和の形に表現すると次式のようになる。
Considering that T k is a logical variable, a binary coefficient of 1 is used when it is used for classification, and 0 when it is not used. The attribute value that allows classification of C i and C j is expressed by the following equation when expressed in the form of a logical sum using a coefficient a ik .

【0035】 f(Ci,Cj)=ai11+・・・+aikk+・・・・ainn (2)[0035] f (C i, C j) = a i1 T 1 + ··· + a ik T k + ···· a in T n (2)

【0036】つまり(2)式においてCiとCjはf(C
i,Cj)=1となる場合に分類可能となり、f(Ci
j)の項の少なくとも一つの属性を用いればCiとCj
は分類できる。
That is, in equation (2), C i and C j are f (C
i , C j ) = 1, classification is possible, and f (C i ,
If at least one attribute of the term C j ) is used, C i and C j
Can be classified.

【0037】カテゴリーCNと他のカテゴリーとを分類
するために必要な属性を選択した結果を次に示す。
The result of selecting the attributes necessary for classifying the category C N from other categories is shown below.

【0038】 f(CN,Cbc)=TIb+TIc+TVb+TVc (3) f(CN,Cca)=TIa+TIc+TVa+TVc (4) f(CN,Cab)=TIa+TIb+TVa+TVb (5) f(CN,Ca)=TV0+TI0+TVa+TVb+TVc (6) f(CN,Cb)=TV0+TI0+TVa+TVb+TVc (7) f(CN,Cc)=TV0+TI0+TVa+TVb+TVc (8)F (C N , C bc ) = T Ib + T Ic + T Vb + T Vc (3) f (C N , C ca ) = T Ia + T Ic + T Va + T Vc (4) f (C N , C ab) ) = T Ia + T Ib + T Va + T Vb (5) f (C N , C a ) = T V0 + T I0 + T Va + T Vb + T Vc (6) f (C N , C b ) = T V0 + T I0 + T Va + T Vb + T Vc (7) f (C N , C c ) = T V0 + T I0 + T Va + T Vb + T Vc (8)

【0039】しかしながら、f(CN,CDa),f
(CN,CDb),f(CN,CDc)は属性Tkが状態
(i)である属性がない。先に提案した方法では、この
場合は識別木を作成することが不可能であった。
However, f (C N , C Da ), f
(C N , C Db ) and f (C N , C Dc ) have no attribute whose attribute T k is state (i). With the method proposed earlier, it was impossible to create an identification tree in this case.

【0040】2−2)注目カテゴリーの分類に必要な属
性の選択(図6のフローチャートの4に相当する)ここ
では、今注目しているカテゴリーCiと、ある属性Tk
状態(i)の状態のすべてのカテゴリーCjを分類可能
とする属性の組を求める。
2-2) Selection of Attributes Necessary for Classification of Attention Category (corresponding to 4 in the flowchart of FIG. 6) Here, the category C i of interest and a certain attribute T k are in state (i). A set of attributes that can classify all the categories C j in the state is obtained.

【0041】Ciと属性Tkが状態(i)である状態の一
つCjとを分類可能とする属性は式(2)で求まってい
る。従って、Ciと属性Tkが状態(i)である状態のす
べてのカテゴリーとを分類可能とするためにはCiとそ
れ以外のそれぞれのカテゴリーに対してf(Ci,Cj
(j=1,・・・,m,i≠j)の論理積を式(9)の
ように行う。
The attributes C i and attribute T k is to be classified and one C j state is the state (i) is been determined by equation (2). Thus, C i and attribute T k is f with respect to the state (i) a is all categories and the C i is to allow classify other each category of state (C i, C j)
The logical product of (j = 1,..., M, i ≠ j) is performed as in Expression (9).

【0042】 f(Ci)=f(Ci,C1)・・f(Ci,Cj)・・f(Ci,Cm) 但しi≠j (9)F (C i ) = f (C i , C 1 ) ·· f (C i , C j ) ·· f (C i , C m ) where i ≠ j (9)

【0043】すなわち、このf(Ci)の演算結果にお
ける論理積の形で与えられる属性の組は、それぞれ独立
して、Ciと属性Tkが状態(i)である状態のすべての
カテゴリーを分類可能とする属性の組である。
That is, the set of attributes given in the form of a logical product in the operation result of f (C i ) is independent of all the categories of the state in which C i and the attribute T k are in state (i). Is a set of attributes that can be classified.

【0044】すなわち、カテゴリーCiと属性Tkが状態
(i)の状態でない任意のCjに対してはf(Ci
j)がf(Ci)の論理積の一項としては含まれないこ
とになる。但し、Ciと他のすべてのカテゴリーにおい
てf(Ci,Cj)=0の場合は、f(Ci)を求めず、
次の計算ステップに移る。
[0044] That is, for any of C j category C i and attributes T k is not in the state of the state (i) f (C i,
C j ) is not included as a term of the logical product of f (C i ). However, if f (C i , C j ) = 0 in C i and all other categories, f (C i ) is not obtained, and
Move on to the next calculation step.

【0045】以上の式により、CNと属性Tkが状態
(i)である状態のすべてのカテゴリーCjとを分類す
るために必要な属性は次の(10)式のように式(3)
〜(8)の論理積で表すことができる。
According to the above equation, the attribute necessary for classifying C N and all the categories C j in the state where the attribute T k is the state (i) is expressed by the following equation (3) as in the following equation (10). )
To (8).

【0046】 f(CN)=f(CN,Cbc)f(CN,Cca)f(CN,Cab) f(CN,Ca)f(CN,Cb)f(CN,Cc) =TIcIaV0+TIcVaI0+TIcVaV0 +TVbIaI0+TVbIaV0+TVbIcI0 +TVbIcV0+TVbVa+TVbVc+TVcIaI0 +TVcIaV0+TVcVa (10) 式(10)において、12の項のそれぞれの属性の組に
よってCNは属性Tkが状態(i)である状態のすべてカ
テゴリーCjを分類可能とする。
F (C N ) = f (C N , C bc ) f (C N , C ca ) f (C N , C ab ) f (C N , C a ) f (C N , C b ) f (C N, C c) = T Ic T Ia T V0 + T Ic T Va T I0 + T Ic T Va T V0 + T Vb T Ia T I0 + T Vb T Ia T V0 + T Vb T Ic T I0 + T Vb T Ic T V0 + T Vb T Va + T Vb T Vc + T Vc T Ia T I0 + T Vc T Ia T V0 + T Vc T Va (10) In the expression (10), the CN has the attribute T k according to each attribute set of the 12 terms. All categories Cj in the state (i) can be classified.

【0047】2−3)属性Tkが状態(i)の状態であ
るカテゴリーすべてを分類可能な属性の選択(図6のフ
ローチャートの5に相当する)式(9)によって求まっ
た各カテゴリーが属性Tkが状態(i)の状態のカテゴ
リーを分類するのに必要な属性の組から、少なくとも1
組ずつを取り出し、それらのすべてを含む属性の組を用
いれば、属性Tkが状態(i)の状態のカテゴリーが分
類可能となる。つまり、属性Tkが状態(i)の状態の
カテゴリーを分類可能とするために必要な属性の組は、
各々のカテゴリーに対してf(Ci)=1(i=1,・
・・,m)とならしめる属性を見つけることによって求
まるから、それらの論理積を式(11)のように行う。
2-3) Selection of attributes that can classify all categories in which attribute T k is in state (i) (corresponding to 5 in the flowchart of FIG. 6) Each category determined by equation (9) is an attribute T k is at least 1 from the set of attributes required to classify the category of state in state (i).
By taking out each set and using a set of attributes including all of them, the category of the state where the attribute T k is state (i) can be classified. That is, a set of attributes necessary for the attribute T k to be able to classify the state category of the state (i) is:
For each category, f (C i ) = 1 (i = 1,.
.., m) are obtained by finding an attribute that can be expressed as: (m), and their logical product is performed as in Expression (11).

【0048】 E=f(C1)・・・f(Ci)・・・f(Cm) (11) この演算結果は、論理式の積和形となり次のように表せ
る。
E = f (C 1 )... F (C i )... F (C m ) (11) The operation result is a product-sum form of a logical expression and can be expressed as follows.

【0049】 E=T 1 ・T 2 ・T 3 ・・・+・・・+T a ・T b ・T c ・・・+・・・ +T p ・T q ・T r ・・・ ここでA 1 =T 1 ・T 2 ・T 3 ・・・、A x =T a b c ・・・、A p =T p ・T q r ・・・とすると、 E=A1+・・・+Ax+・・・+Ap (12)となる。 [0049] E = T 1 · T 2 · T 3 ··· + ··· + T a · T b · T c ··· + ··· + T p · T q · T r ··· where A 1 = T 1 · T 2 · T 3 ···, a x = T a T b T c ···, When a p = T p · T q · T r ···, E = a 1 + ·· · + a x + a ··· + a p (12).

【0050】従って、A1,・・・,Ax,・・・,Ap
は属性Tkが状態(i)の状態のカテゴリーを分類可能
とするのに必要な属性の組である。
Therefore, A 1 ,..., A x ,.
Is a set of attributes necessary for the attribute T k to classify the category of the state of the state (i).

【0051】以下同様に、f(Cbc),f(Cca),f
(Cab),f(Ca),f(Cb),f(Cc),f(C
Da),f(CDb),f(CDc)を求める属性Tkが状態
(i)の状態のカテゴリーを分類可能とする属性の組
は、
Similarly, f (C bc ), f (C ca ) and f (C ca )
(C ab ), f (C a ), f (C b ), f (C c ), f (C
A set of attributes that allows the attribute T k for obtaining Da ), f (C Db ), and f (C Dc ) to classify the category of the state of the state (i) is:

【0052】 E=f(CN)f(Cbc)f(Cca)f(Cab)f(Ca) f(Cb)f(Cc)f(CDa)f(CDb)f(CDc) =TIaIbVaVbVc+TIaIcVaVbVc+TIbIcVaVbVc (13) となる。これを次のように置き換える。E = f (C N ) f (C bc ) f (C ca ) f (C ab ) f (C a ) f (C b ) f (C c ) f (C Da ) f (C Db ) f (C Dc ) = T Ia T Ib T Va T Vb T Vc + T Ia T Ic T Va T Vb T Vc + T Ib T Ic T Va T Vb T Vc (13) Replace this with:

【0053】 A1=TIaIbVaVbVc,A2=TIaIcVaVbVc, A3=TIbIcVaVbVc (14)A 1 = T Ia T Ib T Va T Vb T Vc , A 2 = T Ia T Ic T Va T Vb T Vc , A 3 = T Ib T Ic T Va T Vb T Vc (14)

【0054】つまり、これらの3組は、それぞれ独立し
て、少なくとも1つの属性Tkが状態(i)である状態
のカテゴリーを分類可能とする属性の組である。また、
3の属性の組を選択した場合、TIb,TIc,TVa,T
Vb,TVc以外の属性は、分類に必要のない属性である。
In other words, these three sets are attribute sets that enable classification of a state category in which at least one attribute T k is state (i). Also,
If you choose a set of attributes of A 3, T Ib, T Ic , T Va, T
Attributes other than Vb and TVc are attributes that are not required for classification.

【0055】今までの手続きを考察してみると、求めら
れた3組の属性の組A1,A2,A3の属性を使うことに
より、図8の実線で結んだカテゴリー同士を分類でき
る。したがってA1,A2,A3の3組のそれぞれの属性
は実線で結ばれたカテゴリーは分類できるが、破線で結
ばれたカテゴリーは分類は完全にはできない。
Considering the procedures so far, the categories connected by the solid line in FIG. 8 can be classified by using the attributes of the three sets of attributes A 1 , A 2 , and A 3 obtained. . Therefore, for each of the three sets of attributes A 1 , A 2 , and A 3 , the category connected by the solid line can be classified, but the category connected by the broken line cannot be completely classified.

【0056】3)識別木の各ノードへの属性の配置(図
6のフローチャートの6に相当する)まず実線で結ばれ
たカテゴリーを分類するために選択した属性の組の最適
なものを選択し、さらには、最も効率的に配置するには
どうするかについて述べる。
3) Arrangement of attributes in each node of the identification tree (corresponding to 6 in the flowchart of FIG. 6) First, an optimal set of attributes selected to classify the categories connected by solid lines is selected. And how to arrange them most efficiently.

【0057】3−1)最適な属性を選ぶ評価方法 (1)非重なり度合いak(i,j) 属性値分布において、他の分布と重なりが全くない領域
を多くもつ属性値は分類のための貢献度が高くなる。そ
のような属性値を多く含む属性の組を用いて識別木を構
成した方が上位のノードにおいて分類が完了する確率が
大きくなり分類時間の短縮につながる。そこで、あるカ
テゴリーCiの属性値分布について全く重なっていない
領域がCjの属性値分布に対してどの程度占めるかを示
す非重なり度合いak(i,j)を次式で表す。これは
kがCiの分類に対してどの程度Cjの貢献があるかを
示すものである。
3-1) Evaluation method for selecting an optimal attribute (1) Degree of non-overlapping a k (i, j) In an attribute value distribution, an attribute value having many areas having no overlap with other distributions is classified. Contributes more. Constructing an identification tree using a set of attributes including a large number of such attribute values increases the probability of completion of classification at a higher-level node, leading to a reduction in classification time. Therefore, a non-overlapping degree a k (i, j) indicating how much a region that does not overlap at all with the attribute value distribution of a certain category C i occupies the attribute value distribution of C j is expressed by the following equation. This shows how T k is the contribution degree C j with respect to the classification of C i.

【0058】 ak(i,j)=lik/L(Ci) (15) ここでlik:Tkの属性値分布において、Ciの分布に対
してCjの分布により重なりがない領域の範囲(図9参
照) L(Ci):Ciの分布の範囲
A k (i, j) = l ik / L (C i ) (15) Here, in the attribute value distribution of l ik : T k , there is no overlap with the distribution of C i due to the distribution of C j. Range of region (see FIG. 9) L (C i ): range of distribution of C i

【0059】前掲の表2の測定データに基づいて非重な
り度合いak(i,j)をTV0について算出すると表3
のようになる。表3ではiは列、jは行を表す。
The non-overlapping degree a k (i, j) is calculated for T V0 based on the measurement data in Table 2 above, and Table 3
become that way. In Table 3, i represents a column and j represents a row.

【0060】[0060]

【表3】 [Table 3]

【0061】(2)出現頻度P1 次に、カテゴリー、すなわち事故の種類の出現頻度を求
める。その結果を表4に示す。
(2) Appearance Frequency P 1 Next, the category, that is, the appearance frequency of the type of accident is obtained. Table 4 shows the results.

【0062】[0062]

【表4】 [Table 4]

【0063】当然、出現頻度P1は正常時≫地絡事故>
短絡事故>断線事故である。
Naturally, the appearance frequency P 1 is normal time≫ground fault>
Short circuit accident> Disconnection accident.

【0064】(3)評価値F(Tk) 以上挙げた2つのパラメータak(i,j),P1を用い
て、各属性に対して次式に示すような評価関数を定め
た。
(3) Evaluation value F (T k ) Using the two parameters a k (i, j) and P 1 described above, an evaluation function as shown in the following equation is determined for each attribute.

【0065】[0065]

【数1】 (Equation 1)

【0066】このF(Tk)が大きいTkほど、出現頻度
の大きいカテゴリーに対して分類の可能性が大きい。
[0066] The F (T k) is larger T k, there is a high possibility of classification for large category of frequency of occurrence.

【0067】前述の例の場合、評価値は次のようにな
る。
In the case of the above example, the evaluation values are as follows.

【0068】[0068]

【表5】 [Table 5]

【0069】以下、定義2で進める。Hereinafter, the process proceeds with definition 2.

【0070】識別木作成に効果的な属性の組Aeffは、
1,A2,A3のそれぞれの属性の評価値F(Tk)の積
G(A)が最大となる組である。そこで各組について
G(A)を求める。
A set of attributes A eff effective for creating an identification tree is
This is a set that maximizes the product G (A x ) of the evaluation values F (T k ) of the respective attributes of A 1 , A 2 , and A 3 . Therefore, G (A x ) is obtained for each set.

【0071】 G(A1)=F(TIa)F(TIb)F(TVa)F(TVb)F(TVc) =5.364×10-12 (18) G(A2)=F(TIa)F(TIc)F(TVa)F(TVb)F(TVc) =5.364×10-12 (19) G(A3)=F(TIb)F(TIc)F(TVa)F(TVb)F(TVc) =8.648×10-12 (20) G(A3)の値が最大であるため、G(A3)をとる。G (A 1 ) = F (T Ia ) F (T Ib ) F (T Va ) F (T Vb ) F (T Vc ) = 5.364 × 10 −12 (18) G (A 2 ) = F (T Ia ) F (T Ic ) F (T Va ) F (T Vb ) F (T Vc ) = 5.364 × 10 -12 (19) G (A 3 ) = F (T Ib ) F ( T Ic ) F (T Va ) F (T Vb ) F (T Vc ) = 8.648 × 10 −12 (20) Since the value of G (A 3 ) is the maximum, G (A 3 ) is taken.

【0072】4)識別木の各ノードへの属性(図6のフ
ローチャートの7に相当する) 識別木の各ノードへの配置は次のようにする。まず根ノ
ードに関してはAeffのうち評価値F(Tk)が最も大き
い方を根ノードに考える。ここではF(TVa)=F(T
Vc)なのでTVaとする。属性の重なりの状態により、属
性の分布に重なりのない領域、属性の分布に重なる領域
に分かれる。
4) Attributes to each node of the identification tree (corresponding to 7 in the flowchart of FIG. 6) The arrangement of the identification tree to each node is as follows. First, regarding the root node, the one having the largest evaluation value F (T k ) of A eff is considered as the root node. Here, F (T Va ) = F (T
Vc), so the T Va. Depending on the state of the attribute overlap, the area is divided into an area where the attribute distribution does not overlap and an area where the attribute distribution overlaps.

【0073】属性がこれらの重なりのない領域の値にな
った場合には、根ノードで分類が完了する。重なりのあ
る領域はカテゴリー間の分類が不可能であり、他の属性
で再度分類する。すなわち、前者は葉ノードNeとし、
後者は再分類ノードNcとする。Ncにおける集合Nc
は例えば図10に示した領域1に関しては、(Cca,C
ab,Ca)となる。
When the attribute becomes the value of the non-overlapping area, the classification is completed at the root node. Overlapping regions cannot be classified between categories, and are re-classified with other attributes. That is, the former is the leaf node N e,
The latter is a re-classification node Nc . Set in N c N c '
For example, regarding the area 1 shown in FIG. 10, (C ca , C
ab , C a ).

【0074】次に再分類ノードに配置する属性は次のよ
うに選択する。領域1を例にとればSc’の要素の2つ
ずつのカテゴリーをそれぞれ分類可能とする。属性は次
式のようになる。但し、f(Ci,Cj)=f(Cj
i)である。
Next, the attribute to be arranged in the re-classification node is selected as follows. Taking region 1 as an example, it is possible to classify two categories of elements of S c ′. The attributes are as follows: Here, f (C i , C j ) = f (C j ,
C i ).

【0075】 f(Cca,Cab)=TIb+TIc+TVb+TVc (21) f(Cab,Ca)=TV0+TI0+TIa+TIb+TVb+TVc (22) f(Ca,Cca)=TV0+TI0+TIa+TIc+TVc (23)F (C ca , C ab ) = T Ib + T Ic + T Vb + T Vc (21) f (C ab , C a ) = T V0 + T I0 + T Ia + T Ib + T Vb + T Vc (22) f (C a , C ca ) = T V0 + T I0 + T Ia + T Ic + T Vc (23)

【0076】Sc’の全要素を分類可能とする属性は、
これらの論理積により次式のように求まる。
An attribute that allows all elements of S c ′ to be classified is
The logical product of these results in the following equation.

【0077】 f(Cca,Cab)f(Cab,Ca)f(Ca,Cca) =TV0Ib+TV0Ic+TI0Ib+TI0Ic+TIaIb+TIaIc +TIbIc+TVc+TV0Vb+TI0Vb+TIaVb+TIcVb (24)F (C ca , C ab ) f (C ab , C a ) f (C a , C ca ) = T V0 T Ib + T V0 T Ic + T I0 T Ib + T I0 T Ic + T Ia T Ib + T Ia T Ic + T Ib T Ic + T Vc + T V0 T Vb + T I0 T Vb + T Ia T Vb + T Ic T Vb (24)

【0078】この結果、Aeffの部分集合となっている
属性はTVc,TIbIc,TIcVbである。この3つの属
性の組について、それぞれの属性の評価値F(Tk)の
積G(A)を求めるとTVcの属性の組が最大となるの
でTVcを配置する。
As a result, the attributes that are a subset of A eff are T Vc , T Ib T Ic , and T Ic T Vb . The set of three attributes, the set of attributes of the product G (A X) Request the T Vc of the evaluation value F for each attribute (T k) is to place the T Vc since the maximum.

【0079】以上のような操作をAeffの部分集合の属
性を使って行う。その結果の一部を図11に示す。但
し、*印をつけたノードは、これまでの手続きでは分離
することができない。
The above operation is performed using the attributes of the subset of A eff . FIG. 11 shows a part of the result. However, nodes marked with * cannot be separated by the conventional procedures.

【0080】5)カテゴリーの分割(図6のフローチャ
ートの8に相当する) ある属性分布Tkにおいてあるs個のカテゴリーC1
…,Ci,…,Csが重なりあっている場合、すなわちs
個のカテゴリーのすべての組み合わせが図2の状態(i
i)または状態(iii)の場合、以下の方法でカテゴ
リーの分割を行う。
[0080] 5) divided categories (corresponding to 8 in the flowchart of FIG. 6) s number of category C 1, which is in the attribute distribution T k with,
.., C i ,..., C s overlap, ie, s
All combinations of the categories are in the state (i
In the case of i) or state (iii), the category is divided by the following method.

【0081】ある属性Tkにおいて任意のカテゴリーCi
は他の全てのカテゴリーと重なりのない部分、任意のカ
テゴリーCiと他の任意の一個のカテゴリーが重なる部
分、任意のカテゴリーCiと他の任意の二個のカテゴリ
ーが重なる部分、・・・、任意のカテゴリーCiと他の
任意のs−2個のカテゴリーが重なる部分、任意のカテ
ゴリーCiと他の任意のs−1個のカテゴリーが重なる
部分に分けることができる。上記の分割により、分割し
た新たなカテゴリーを作ることができる。また任意のカ
テゴリーCiと他の任意のs−n個のカテゴリーが重な
る部分の組み合わせの数はss−n+1で与えられる。ま
た分割したカテゴリーがすべての属性Tkに対して空集
合の場合、新たなカテゴリーは作らないとする。
For any attribute T k , any category C i
Is a portion that does not overlap with all other categories, a portion where any category C i overlaps with any other one category, a portion where any category C i overlaps with any other two categories, ... , An arbitrary category C i and another arbitrary s−2 categories overlap, and an arbitrary category C i and another arbitrary s−1 categories overlap. With the above division, a new divided category can be created. In addition, the number of combinations of a portion where an arbitrary category C i and another arbitrary sn category overlap with each other is given by s C s−n + 1 . If the divided category is an empty set for all the attributes T k , no new category is created.

【0082】具体的に図12で子ノードが3個のカテゴ
リーC1,C2,C3が区別できない場合を考える。ここ
での属性をT1,T2とする。
More specifically, consider a case in FIG. 12 in which categories C 1 , C 2 and C 3 having three child nodes cannot be distinguished. The attributes here are T 1 and T 2 .

【0083】ここでカテゴリーCiが他の全てのカテゴ
リーと重なりのない部分によって新しくできたカテゴリ
ーをC1*とする。例えば図12の属性T1のC1*であ
り、この例のように属性の分布が分離する場合もある。
任意のカテゴリーCiと他の任意の一つのCjカテゴリー
が重なる部分によって、新しくできたカテゴリーをCij
とする。以下任意のカテゴリーCiと他の任意の2つの
カテゴリーが重なる部分によって、新しくできたカテゴ
リーを同様に定義する。図12の属性T1におけるC2*
ならびにC3*は、空集合のため新たなカテゴリーを作ら
ないとする。このとき新たに作られたカテゴリーは、す
べての任意の2つの組み合わせにおいて状態(1)を満
たす。属性Tkは上記の方法によりカテゴリーの分割を
行うことができる。
Here, a category newly created by a portion where the category C i does not overlap with all other categories is defined as C 1 * . For example, C 1 * attributes T 1 of the FIG. 12, there is a case where the distribution of the attribute as in this example are separated.
The newly created category is represented by C ij by the portion where any category C i overlaps with any one other C j category.
And Hereinafter, a newly created category is similarly defined by a portion where an arbitrary category C i and another arbitrary two categories overlap. C 2 * in attribute T 1 in FIG.
And C 3 * does not create a new category due to the empty set. At this time, the newly created category satisfies state (1) in all arbitrary two combinations. The attribute T k can be divided into categories by the above method.

【0084】上記方法で、ノードのカテゴリーの分割を
行う。この図11の*印では通常2つのカテゴリーを分
類できない場合が多いが、*1のように四つのカテゴリ
ーCN,CDa,CDb,CDcが認識できない場合がある。
With the above method, the category of the node is divided. Usually, two categories cannot be classified by the mark * in FIG. 11, but there are cases where the four categories C N , C Da , C Db , and C Dc cannot be recognized as shown by * 1.

【0085】*1について考えると、属性Tkにおいて
任意のカテゴリーCiは他の全てのカテゴリーと重なり
のない部分のカテゴリー、この場合CN*,CDa*
Db*,CDc*を作ることができるが、CN*はすべての属
性に対して空集合のため、カテゴリーCN*を作ることは
できない。以下同様に任意のカテゴリーCiと他の任意
の一つのカテゴリーが重なる部分のカテゴリー、Ci
他の任意の2つのカテゴリーが重なる部分のカテゴリ
ー、Ciと他の任意の三つのカテゴリーが重なる部分の
カテゴリーにより、新たな八個のカテゴリーCDa*,C
Db*,CDc*,CDaDb*,CDbDc*,CDbDc*,CDaDbDc*
NDaDbDc*を作ることができる。そのカテゴリーの属性
値の分布を表6に示す。
Considering * 1, an arbitrary category C i in the attribute T k is a category of a portion that does not overlap with all other categories, in this case, C N * , C Da * ,
Although C Db * and C Dc * can be created, category C N * cannot be created because C N * is an empty set for all attributes. Similarly, the category of a portion where any category C i overlaps with any other one category, the category of a portion where C i overlaps with any other two categories, and the category where C i overlaps with any three other categories Depending on the category of the part, eight new categories C Da * , C
Db * , C Dc * , C DaDb * , C DbDc * , C DbDc * , C DaDbDc * ,
C NDaDbDc * can be made. Table 6 shows the distribution of the attribute values of the category.

【0086】[0086]

【表6】 [Table 6]

【0087】6)分離した属性を持たないカテゴリー分
類 属性値の分布が完全に分離していないカテゴリーに対し
てカテゴリーの分割により、新たなカテゴリーを生成す
る。どの属性を使ってそれらの分類を行うかを考えるた
め、属性の確率分布を考える。
6) Category Classification without Separated Attributes A new category is generated by dividing a category into categories whose attribute value distributions are not completely separated. To consider which attributes are used to classify them, consider the probability distribution of the attributes.

【0088】6−1)属性の確率分布(図6のフローチ
ャートの9に相当する) 属性値はいくつかのパラメータを用いて計算される。例
えば断線事故の電流値の場合、事故前の電流と事故点が
パラメータである。それらのパラメータの確率分布が判
れば属性の確率分布を知ることができ、ある任意の2つ
のカテゴリーにおいて、属性の分布に重なりのある場
合、それぞれのカテゴリーの重なりのある部分の確率と
重なりのない部分の確率を知ることができる。
6-1) Attribute probability distribution (corresponding to 9 in the flowchart of FIG. 6) Attribute values are calculated using several parameters. For example, in the case of a current value of a disconnection accident, the current before the accident and the accident point are parameters. If the probability distribution of those parameters is known, the probability distribution of the attribute can be known. If the distribution of the attribute overlaps in any two categories, the probability of the overlapping part of each category does not overlap. You can know the probability of the part.

【0089】ここでは離散的な、2次元の確率分布を例
にとって考え方を説明する。二つの確率変数X,Yは互
いに独立で、それぞれ任意の値xiとyiにおいて、それ
ぞれ確率piならびにqjとすると、
Here, the concept will be described using a discrete two-dimensional probability distribution as an example. The two random variables X and Y are independent of each other, and given arbitrary values x i and y i , respectively, the probabilities p i and q j are given by

【0090】 P(X=xi)=pi (25) P(Y=yj)=qj (26) とおくことができ、任意のi,jに対して P(X=xi,Y=yj)=P(X=xi)P(Y=yj) (27) すなわち pij=pij (28) が成り立つ。P (X = x i ) = p i (25) P (Y = y j ) = q j (26), and P (X = x i , Y = y j) = P ( X = x i) P (Y = y j) (27) i.e. p ij = p i q j ( 28) holds.

【0091】いま、属性Tkが変数X,Yの関数hとし
て表すことができるとすると、(29)式のように表す
ことができ、 Tk=h(X,Y) (29)
Now, assuming that the attribute T k can be expressed as a function h of the variables X and Y, it can be expressed as in equation (29), and T k = h (X, Y) (29)

【0092】したがって例えば断線事故の電流値の場
合、二つのパラメータの事故前の電流値xiと事故点yj
とその確率piとpjからh(X,Y)とpijの総和を求
めることにより、属性Tkの確率分布を求めることがで
きる。したがって属性Tkの確率分布をZとし、pij
総和の確率をzkとすると、属性Tkの確率分布は P(Z=zk) (30) とおくことができ、任意の属性Tkの属性分布において
a≦Z≦bの範囲の確率は、 P(a≦Z≦b)=Σ*pr (31) ただし、Σ*rはa≦Z≦bである確率の総和を表す。
したがって任意の属性TkのZでの確率ならびに属性Tk
の属性分布においてa≦Z≦bの範囲の確率を求めるこ
とができる。
[0092] Thus for example, in the case of the current value of accidental disconnection, before the accident two parameters current value x i and the fault point y j
By calculating the sum of h (X, Y) and p ij from the probability and the probabilities p i and p j , the probability distribution of the attribute T k can be obtained. Therefore, assuming that the probability distribution of the attribute T k is Z and the probability of the sum of p ij is z k , the probability distribution of the attribute T k can be expressed as P (Z = z k ) (30). In the attribute distribution of k , the probability in the range of a ≦ Z ≦ b is as follows: P (a ≦ Z ≦ b) = Σ * pr (31) where Σ * pr is the sum of the probability that a ≦ Z ≦ b. Represent.
Therefore, the probability of any attribute T k at Z and the attribute T k
Can be obtained in the attribute distribution of a ≦ Z ≦ b.

【0093】6−2)属性の選択 前節で求めた確率分布を用い、子ノードの分類に効果的
な属性の選択を行う。属性値分布において、他の分布と
重なりのない部分の確率の高い属性値は分類のための貢
献度が高くなる。そこで、ある属性Tkにおけるカテゴ
リーCiのCjに対して全く重なっていない領域の属性値
の確率分布を求め、その確率をΣ*r(i,j)とす
る。実際には図4(1)における斜線部以外の確率であ
る。これはTkがCiの分類に対してどの程度Cjの影響
があるかを示すものである。確率Σ*r(i,j)とカ
テゴリーの出現頻度Piを使い、次の評価関数を定め
る。
6-2) Attribute Selection Using the probability distribution obtained in the previous section, an attribute is selected which is effective for classifying child nodes. In the attribute value distribution, an attribute value having a high probability of a portion that does not overlap with other distributions has a high contribution for classification. Therefore, a probability distribution of attribute values of a region of a certain attribute T k that does not overlap C j of the category C i at all is obtained, and the probability is defined as Σ * pr (i, j). Actually, it is the probability other than the shaded portion in FIG. This shows how T k is the effect of extent C j with respect to the classification of C i. Probability Σ * p r (i, j ) and use the frequency of occurrence P i of the category, define the following evaluation function.

【0094】[0094]

【数2】 (Equation 2)

【0095】ここで(17)式で定めたak(i,j)
は、属性Tkの確率分布が一様に分布している場合のΣ*
r(i,j)と一致している。このF*(Tk)が大き
い属性Tkを用いて、全ての属性に対し属性値の分布が
完全に分離していない子ノードの分類は8)で述べたカ
テゴリーの分割によって新しくできたカテゴリーにより
分類を行う。
Here, a k (i, j) determined by equation (17)
Is Σ * when the probability distribution of the attribute T k is uniformly distributed
p r (i, j). Using the attribute T k having a large F * (T k ), the classification of the child node in which the distribution of the attribute values is not completely separated for all the attributes is a category newly formed by the category division described in 8). Classify according to

【0096】6−3)属性の確率分布の実施例 ここでは1線断線時の各相の電流値を例とする。その電
流値は三相負荷かつ力率100%の場合、事故点におけ
る事故時の電流は断線相で0A、他の2相の電流は事故
前の電流の半分となる。また事故点以前の負荷は変動し
ない。例えば図7のc配電線のちょうど中央で断線した
と仮定し、正常時の電源端の電流を200Aとした場
合、負荷は均等負荷のため、電流端での断線相の電流
は、c配電線の中央までの負荷の100Aが流れること
となる。他の2相の電流はcの中央までの負荷の100
Aと断線点以降の50Aの計150Aが流れることにな
る。
6-3) Embodiment of attribute probability distribution Here, the current value of each phase when one line is broken is taken as an example. When the current value is a three-phase load and the power factor is 100%, the current at the time of the fault at the fault point is 0 A in the disconnection phase and the currents of the other two phases are half the current before the fault. The load before the accident point does not fluctuate. For example, assuming that the disconnection was made exactly at the center of the c-distribution line in FIG. 7 and the current at the power supply end in a normal state was 200 A, the load was an equal load. 100A of the load to the center of the current flows. The other two phase currents are 100% of the load to the center of c.
A and a total of 150A of 50A after the disconnection point flow.

【0097】事故前の負荷予測の電流値の確率分布は正
規分布が得られ、また事故は配電線上に一様に起きると
考えられることより、事故点の確率分布は一様分布と考
えてよい。したがって、断線時の各相の電流値の確率分
布は(30)式により上記の二つの確率変数の2次元確
率分布から算出することができる。
Since the probability distribution of the current value in the load prediction before the accident is a normal distribution, and the accident is considered to occur uniformly on the distribution line, the probability distribution of the accident point may be considered to be a uniform distribution. . Therefore, the probability distribution of the current value of each phase at the time of disconnection can be calculated from the two-dimensional probability distribution of the above two random variables by the equation (30).

【0098】ここでは確率を連続値と考え、図13にa
相断線時のa,b,c相の電流の確率密度関数とその正
常時の確率密度関数を示す。カテゴリーCDaの属性TIa
の属性分布がカテゴリーCNの属性TIaの属性分布と重
なり合わない部分の確率は図13のグラフで0〜176
Aまでの確率密度関数の面積から算出でき、その確率は
0.88で、同様に重なりのある部分の確率は0.12
と求めることができる。属性TIaの属性値が180Aと
得られ、カテゴリーCDaもしくはカテゴリーCNの分類
が他の属性ではできなかった場合の確率は図13の確率
密度関数より、CDaは0.005、CNは0.0016
と得られる。しかしながら、表4よりカテゴリーの出現
頻度Piまで考慮すると、断線事故の確率は小さいた
め、CDaは1.05×10-4、CNは1.58×10-4
であり、正常である確率が高い。
Here, the probability is considered as a continuous value, and FIG.
The probability density functions of the currents of the a, b, and c phases at the time of phase disconnection and the probability density functions of the normal times are shown. Attribute T Ia of category C Da
The probability of the portion where the attribute distribution does not overlap with the attribute distribution of the attribute T Ia of the category C N is 0 to 176 in the graph of FIG.
A can be calculated from the area of the probability density function up to A, the probability is 0.88, and the probability of the overlapping part is 0.12.
Can be requested. Attribute value of the attribute T Ia is obtained and 180A, the probability when the classification categories C Da or category C N is not possible with other attributes than the probability density function of FIG. 13, C Da is 0.005, C N Is 0.0016
Is obtained. However, considering the category occurrence frequency P i from Table 4, the probability of a disconnection accident is small, so C Da is 1.05 × 10 −4 and C N is 1.58 × 10 −4.
And the probability of normality is high.

【0099】また、属性TIaの属性値が150Aと得ら
れた場合、図13の確率密度関数より、確率は0.00
5、表4のカテゴリーの出現頻度Piまで考慮すると、
Daである確率は1.05×10-4と求めることができ
る。
When the attribute value of the attribute T Ia is obtained as 150 A, the probability becomes 0.00 from the probability density function shown in FIG.
5. Considering the appearance frequency P i of the category in Table 4,
The probability of being C Da can be obtained as 1.05 × 10 −4 .

【0100】従来の断線検出の一番初歩的な方法は上述
の通り、電源端での電流値検出である。しかしながら、
この方法の最大の欠点は、末端近くで、断線事故が発生
した場合、断線事故が発生したのか、ただ負荷が減少し
たのかわからない点にある。したがって配電線の末端で
センサー情報すなわち属性値を使って断線事故を検出す
る方法もあるが、変電所までの通信線を設置しなければ
ならず、コストがかかる。電源端検出で断線事故を末端
まで完全に検出するのは原理的に不可能であることがわ
かっている。
As described above, the most rudimentary method of the conventional disconnection detection is the current value detection at the power supply end. However,
The biggest disadvantage of this method is that if a disconnection accident occurs near the end, it is not known whether the disconnection accident has occurred or the load has simply decreased. Therefore, there is a method of detecting a disconnection accident using sensor information, that is, an attribute value at the end of a distribution line, but a communication line to a substation must be installed, which increases costs. It has been found in principle that it is impossible in principle to completely detect a disconnection accident to the end by detecting the power supply end.

【0101】したがって、断線事故か正常かより高い確
度で分類するには、負荷予測の精度を高める必要があ
る。例えば一時間前の負荷予測は、今回データとして用
いた5時間前の負荷予測よりも、予測の相対誤差が小さ
くなると考えられる。すなわち図13の正規分布の確率
分布が、200Aの近くに集まることにより、CNのT
Ia、TIb、TIcのとる属性分布の範囲が狭くなる。した
がって断線事故を検出する確率を高くすることができ
る。それにより、短時間負荷予測により、負荷予測の精
度を高め、時間によって変わる負荷変動を考慮にいれ、
その時々の診断アルゴリズムを識別木学習で作ることに
より、従来検出できなかったより末端に近い断線事故も
検出できるようになる。
Therefore, in order to classify a disconnection accident or normal with higher accuracy, it is necessary to increase the accuracy of load prediction. For example, it is considered that the load prediction one hour ago has a smaller relative error in the prediction than the load prediction five hours ago used as the current data. That probability distribution of the normal distribution of FIG. 13, by gathering near the 200A, the C N T
The range of attribute distributions taken by Ia , T Ib , and T Ic becomes narrow. Therefore, the probability of detecting a disconnection accident can be increased. As a result, short-time load prediction improves the accuracy of load prediction and takes into account load fluctuations that change with time.
By making the diagnosis algorithm at that time by discriminating tree learning, it becomes possible to detect a disconnection accident closer to the end than was previously impossible.

【0102】6−4)評価関数F*(Tk)の算出ならび
に子ノードの分類 ここでは四つのカテゴリーCN,CDa,CDb,CDcでの
評価関数F*(Tk)を表4の出現頻度Piと、(31)
式より求めるΣ*r(i,j)により、式(32)で評
価関数F*(Tk)の算出を行う。Σ*r(i,j)は前
節で求めたように例えば属性TIaのCDaのCNに対して
全く重なっていない領域の確率は0.88と得らる。そ
の結果を表7に示す。この場合、F*(TVa)=F*(T
Vb)=F*(TVc)であるので、属性TVaにより分類す
る。子ノードとしてカテゴリーCDa*,CDb*
DbDc*,CNDaDbDc*を分類することができる。その結
果を図11に示す。
[0102] 6-4) Table four categories C N, C Da, C Db , * the evaluation function F at C Dc to (T k), where classification calculation Narabiniko node evaluation function F * (T k) 4, the appearance frequency P i and (31)
The evaluation function F * (T k ) is calculated by Expression (32) using Σ * pr (i, j) obtained from the expression. As for Σ * pr (i, j), for example, the probability of a region not overlapping at all with C N of C Da of the attribute T Ia is obtained as 0.88 as obtained in the previous section. Table 7 shows the results. In this case, F * (T Va ) = F * (T
Since Vb ) = F * (T Vc ), classification is based on the attribute T Va . Categories C Da * , C Db * ,
C DbDc * and C NDaDbDc * can be classified. The result is shown in FIG.

【0103】[0103]

【表7】 [Table 7]

【0104】図14〜図19は、前述した実施例におい
て用いた数値を使用して具体的に事故診断を行うための
データの分類を行うフローチャートを示している。
FIGS. 14 to 19 show flowcharts for classifying data for concretely diagnosing an accident using the numerical values used in the above-described embodiment.

【0105】以上、第1実施例について説明した。この
第1実施例は、最も効率的な識別木およびフローチャー
トの作成方法であるが、効率をある程度犠牲にしても同
様な分類を行うことができる。その例を以下に示す。
The first embodiment has been described above. Although the first embodiment is the most efficient method for creating an identification tree and a flowchart, similar classification can be performed even if efficiency is sacrificed to some extent. An example is shown below.

【0106】(B)第2実施例 本実施例では少なくとも一つの属性が状態(i)である
カテゴリーの組合せにおいてカテゴリーCiと他のすべ
てのカテゴリーを分類する属性の組を求め、さらにはす
べてのカテゴリーを分類する属性の組を求めるという2
段階のステップを行っていたが本実施例では上記ステッ
プを一度に行うところにある。第1実施例の2−1)ま
では同じなので説明を省略する。
(B) Second Embodiment In this embodiment, in a combination of categories in which at least one attribute is state (i), a set of attributes for classifying category C i and all other categories is obtained. To find a set of attributes that classify categories
Although the steps of the steps are performed, in the present embodiment, the above steps are performed at once. The description up to 2-1) of the first embodiment is omitted because it is the same.

【0107】2−2’)属性Tkが状態(i)の状態で
あるカテゴリーすべてを分類可能な属性の選択を行う。
2-2 ') Select an attribute capable of classifying all categories in which the attribute T k is in the state (i).

【0108】少なくとも一つ以上の属性値の分布が完全
に分離しているカテゴリーの組み合わせを識別可能な属
性集合の組は、f(Ci,Cj)=1となるすべての組み
合わせに対してf(Ci,Cj)(i=1,・・・,n、
j=1,・・・,m、i≠j)の論理積をとることによ
り求めることができ、式(33)で求めることができ
る。
A set of attribute sets that can identify a combination of categories in which the distribution of at least one or more attribute values is completely separated corresponds to all combinations where f (C i , C j ) = 1. f (C i , C j ) (i = 1,..., n,
j = 1,..., m, i ≠ j), and can be obtained by equation (33).

【0109】 E=f(C1,C1)・・f(C1,Cj)・・f(C1,Cm) ・ ・ ・ ・ ・ ・ f(Ci,C1)・・f(Ci,Cj)・・f(Ci,Cm) ・ ・ ・ ・ ・ ・ f(Cn,C1)・・f(Cn,Cj)・・f(Cn,Cm) 但し、i≠j (33)E = f (C 1 , C 1 ) ·· f (C 1 , C j ) ··· f (C 1 , C m ) ······· f (C i , C 1 ) ·· f (C i , C j ) f (C i , C m ) f (C n , C 1 ) f (C n , C j ) f (C n , C m) ) Where i ≠ j (33)

【0110】この演算結果は、論理式の積和形となり
のように表せる。 E=T 1 ・T 2 ・T 3 ・・・+・・・+T a ・T b ・T c ・・・+・・・ +T p ・T q ・T r ・・・ ここでA 1 =T 1 ・T 2 ・T 3 ・・・、A x =T a b c ・・・、A p =T p ・T q r ・・・とすると、 E=A1+・・・+Ax+・・・+Ap (34)となる。
The result of the operation is a product-sum form of a logical expression and can be expressed as follows. E = T 1 · T 2 · T 3 ··· + + T a · T b · T c ··· + + T p · T q · T r ··· where A 1 = T 1 ··· T 2 · T 3 ···, A x = T a T b T c ···, A p = T p · T q · T r ··· E = A 1 +... + A x + ... + A p (34) .

【0111】したがって、A1,・・・,Ax,・・・,
pは、少なくとも一つ以上の属性Tkの属性値の分布が
完全に分離しているカテゴリーの組み合わせを分類可能
な属性集合である。
Therefore, A 1 ,..., A x ,.
A p is the attribute set that can classify the combination of category distribution of the attribute values of the at least one attribute T k are completely separated.

【0112】式(33)によって少なくとも一つ以上の
属性値の分布が完全に分離しているカテゴリーの組み合
わせすべてを分類可能な属性集合の組が選択できる。
According to equation (33), a set of attribute sets that can classify all combinations of categories in which the distribution of at least one or more attribute values is completely separated can be selected.

【0113】 E=TIaIbVaVbVc+TIaIcVaVbVc+TIbIcVaVbVc (35) となる。これを次のように置き換える。 A1=TIaIbVaVbVc,A2=TIaIcVaVbVc3=TIbIcVaVbVc (36)E = T Ia T Ib T Va T Vb T Vc + T Ia T Ic T Va T Vb T Vc + T Ib T Ic T Va T Vb T Vc (35) Replace this with: A 1 = T Ia T Ib T Va T Vb T Vc , A 2 = T Ia T Ic T Va T Vb T Vc A 3 = T Ib T Ic T Va T Vb T Vc (36)

【0114】つまり、これらの3組は、それぞれ独立し
て属性Tkが状態(i)である状態のカテゴリーを分類
可能とする属性の組である。
That is, these three sets are sets of attributes that allow the category of the state in which the attribute T k is state (i) to be classified independently.

【0115】今までの手続きを考察してみると、求めら
れた3組の属性の組A1,A2,A3の属性を使うことに
より、図8の実線で結んだカテゴリー同士を分類でき
る。したがってA1,A2,A3の3組のそれぞれの属性
は実線で結ばれたカテゴリーは分類できるが、破線で結
ばれたカテゴリーは分類は完全にはできない。
Considering the procedure so far, the categories connected by the solid line in FIG. 8 can be classified by using the attributes of the three sets of attributes A 1 , A 2 , and A 3 obtained. . Therefore, for each of the three sets of attributes A 1 , A 2 , and A 3 , the category connected by the solid line can be classified, but the category connected by the broken line cannot be completely classified.

【0116】以下は、第1実施例における3)以降と同
様であるので、説明を省略する。
The following is the same as 3) and subsequent steps in the first embodiment, and a description thereof will not be repeated.

【0117】()第実施例 本実施例は、少なくとも一つの属性が状態(i)のカテ
ゴリーの組み合わせにおいて、分類する属性の組を求
め、求めた組の中から、任意に1組を選び、さらに選択
した属性の組をノードに配置する際にも、任意の属性を
配置するものである。これは、効率的な属性の組を選択
する点とさらにはその属性の組をノードに配置する際に
は効率的な属性から配置するということが考慮されず、
任意に選択配置する点が第1実施例と異なる。
( C ) Third Embodiment In this embodiment, in a combination of categories in which at least one attribute is state (i), a set of attributes to be classified is obtained, and one set is arbitrarily selected from the obtained sets. When arranging a selected and further set of selected attributes in a node, an arbitrary attribute is arranged. This is because it does not take into account the point of selecting an efficient attribute set, and furthermore, when arranging the attribute set in the node, from the efficient attribute.
It differs from the first embodiment in that it is arbitrarily selected and arranged.

【0118】第1実施例の2−3)までは同じなので説
明を省略する。また2−3)項のあとに以下の事項を加
える。
Since the steps up to 2-3) of the first embodiment are the same, the description will be omitted. The following items are added after section 2-3).

【0119】(14)式のA1、A2、A3の任意の一組
を選択する。ここではA3を選択するものとする。A3
属性の組の中で任意の属性を根ノードと考える。ここで
はTVaとする。
An arbitrary set of A 1 , A 2 and A 3 in the equation (14) is selected. Here, it is assumed to select the A 3. Any attribute in the set of attributes of A 3 considered the root node. Here, let it be T Va .

【0120】属性の重なりの状態により、属性の分布に
重なりのない領域、属性の分布に重なる領域に分かれ
る。
Depending on the state of the attribute overlap, the area is divided into an area where the attribute distribution does not overlap and an area where the attribute distribution overlaps.

【0121】属性がこれらの重なりのない領域の値にな
った場合には、根ノードで分類が完了する。重なりのあ
る領域はカテゴリー間の分類が不可能であり、他の属性
で再度分類する。すなわち、前者は葉ノードNeとし、
後者は再分類ノードNcとする。Ncにおける集合Nc
は例えば図10に示した領域1に関しては、(Cca,C
ab,Ca)となる。
When the attribute becomes the value of these non-overlapping areas, the classification is completed at the root node. Overlapping regions cannot be classified between categories, and are re-classified with other attributes. That is, the former is the leaf node N e,
The latter is a re-classification node Nc . Set in N c N c '
For example, regarding the area 1 shown in FIG. 10, (C ca , C
ab , C a ).

【0122】次に再分類ノードに配置する属性は次のよ
うに選択する。領域1を例にとればSc’の要素の2つ
ずつのカテゴリーをそれぞれ分類可能とする。属性は次
式のようになる。但し、f(Ci,Cj)=f(Cj
i)である。
Next, the attribute to be arranged in the re-classification node is selected as follows. Taking region 1 as an example, it is possible to classify two categories of elements of S c ′. The attributes are as follows: Here, f (C i , C j ) = f (C j ,
C i ).

【0123】 f(Cca,Cab)=TIb+TIc+TVb+TVc (21) f(Cab,Ca)=TV0+TI0+TIa+TIb+TVb+TVc (22) f(Ca,Cca)=TV0+TI0+TIa+TIc+TVc (23)F (C ca , C ab ) = T Ib + T Ic + T Vb + T Vc (21) f (C ab , C a ) = T V0 + T I0 + T Ia + T Ib + T Vb + T Vc (22) f (C a , C ca ) = T V0 + T I0 + T Ia + T Ic + T Vc (23)

【0124】Sc’の全要素を分類可能とする属性は、
これらの論理積により次式のように求まる。
An attribute that allows all elements of S c ′ to be classified is
The logical product of these results in the following equation.

【0125】 f(Cca,Cab)f(Cab,Ca)f(Ca,Cca) =TV0Ib+TV0Ic+TI0Ib+TI0Ic+TIaIb+TIaIc +TIbIc+TVc+TV0Vb+TI0Vb+TIaVb+TIcVb (24)F (C ca , C ab ) f (C ab , C a ) f (C a , C ca ) = T V0 T Ib + T V0 T Ic + T I0 T Ib + T I0 T Ic + T Ia T Ib + T Ia T Ic + T Ib T Ic + T Vc + T V0 T Vb + T I0 T Vb + T Ia T Vb + T Ic T Vb (24)

【0126】この結果、A3の部分集合となっている属
性はTVc,TIbIc,TIcVbである。この3つの属性
の組について、ここでは任意のTVcを配置する。
[0126] As a result, the attribute that is a subset of A 3 is a T Vc, T Ib T Ic, T Ic T Vb. For this set of three attributes, an arbitrary TVc is placed here.

【0127】以上のような操作をA3の部分集合の属性
を使って行う。その結果の一部を図11に示す。但し、
*印をつけたノードは、これまでの手続きでは分離する
ことができない。
[0127] or more of such an operation performed using the attributes of a subset of A 3. FIG. 11 shows a part of the result. However,
Nodes marked with * cannot be separated by the previous procedure.

【0128】以下、第1実施例の5)以降と同じなので
省略する。
Hereinafter, since it is the same as 5) and subsequent steps of the first embodiment, the description is omitted.

【0129】()第実施例 本実施例では、少なくとも一つの属性が状態(i)のカ
テゴリーの組み合わせの分類する属性の組を求め、求め
た組の中から最も効率的な属性の組を求め、さらにその
属性の組をノードに配置する際は任意に属性を選択して
ノードに配置するものである。したがって、第1,第2
実施例とは、属性の組を選択するところまでは効率を考
慮して同じであるが、その属性の組をノードに配置する
場合において、任意に選択することとしており、その
点、効率が考慮されていない点が相違する。
( D ) Fourth Embodiment In this embodiment, a set of attributes in which at least one attribute is classified as a combination of categories of state (i) is obtained, and the most efficient attribute set is obtained from the obtained sets. Is obtained, and when the attribute set is arranged in the node, the attribute is arbitrarily selected and arranged in the node. Therefore, the first and second
The embodiment is the same in consideration of efficiency up to the point of selecting a set of attributes. However, when the set of attributes is arranged in a node, it is arbitrarily selected. The difference is that it is not done.

【0130】第1実施例の3)までは同じなので省略す
る。
Up to 3) of the first embodiment, the description is omitted because it is the same.

【0131】4)識別木の各ノードへの属性(図6のフ
ローチャートの7に相当する) 識別木の各ノードへの配置は次のようにする。まず根ノ
ードに関してはAeffのうち任意のTVaとする。属性の
重なりの状態により、属性の分布に重なりのない領域、
属性の分布に重なる領域に分かれる。
4) Attributes to each node of the identification tree (corresponding to 7 in the flowchart of FIG. 6) The arrangement of the identification tree to each node is as follows. First, an arbitrary T Va of A eff is set for the root node. Depending on the state of attribute overlap, areas where attribute distribution does not overlap,
It is divided into areas that overlap the distribution of attributes.

【0132】属性がこれらの重なりのない領域の値にな
った場合には、根ノードで分類が完了する。重なりのあ
る領域はカテゴリー間の分類が不可能であり、他の属性
で再度分類する。すなわち、前者は葉ノードNeとし、
後者は再分類ノードNcとする。Ncにおける集合Nc
は例えば図10に示した領域1に関しては、(Cca,C
ab,Ca)となる。
When the attribute becomes the value of these non-overlapping areas, the classification is completed at the root node. Overlapping regions cannot be classified between categories, and are re-classified with other attributes. That is, the former is the leaf node N e,
The latter is a re-classification node Nc . Set in N c N c '
For example, regarding the area 1 shown in FIG. 10, (C ca , C
ab , C a ).

【0133】次に再分類ノードに配置する属性は次のよ
うに選択する。領域1を例にとればSc’の要素の2つ
ずつのカテゴリーをそれぞれ分類可能とする。属性は次
式のようになる。但し、f(Ci,Cj)=f(Cj
i)である。
Next, the attribute to be arranged in the re-classification node is selected as follows. Taking region 1 as an example, it is possible to classify two categories of elements of S c ′. The attributes are as follows: Here, f (C i , C j ) = f (C j ,
C i ).

【0134】 f(Cca,Cab)=TIb+TIc+TVb+TVc (21) f(Cab,Ca)=TV0+TI0+TIa+TIb+TVb+TVc (22) f(Ca,Cca)=TV0+TI0+TIa+TIc+TVc (23)F (C ca , C ab ) = T Ib + T Ic + T Vb + T Vc (21) f (C ab , C a ) = T V0 + T I0 + T Ia + T Ib + T Vb + T Vc (22) f (C a , C ca ) = T V0 + T I0 + T Ia + T Ic + T Vc (23)

【0135】Sc’の全要素を分類可能とする属性は、
これらの論理積により次式のように求まる。
An attribute that allows all elements of S c ′ to be classified is
The logical product of these results in the following equation.

【0136】 f(Cca,Cab)f(Cab,Ca)f(Ca,Cca) =TV0Ib+TV0Ic+TI0Ib+TI0Ic+TIaIb+TIaIc +TIbIc+TVc+TV0Vb+TI0Vb+TIaVb+TIcVb (24)F (C ca , C ab ) f (C ab , C a ) f (C a , C ca ) = T V0 T Ib + T V0 T Ic + T I0 T Ib + T I0 T Ic + T Ia T Ib + T Ia T Ic + T Ib T Ic + T Vc + T V0 T Vb + T I0 T Vb + T Ia T Vb + T Ic T Vb (24)

【0137】この結果、Aeffの部分集合となっている
属性はTVc,TIbIc,TIcVbである。この3つの属
性の組について、ここでは任意のTVcを配置する。
As a result, the attributes that are a subset of A eff are T Vc , T Ib T Ic , and T Ic T Vb . For this set of three attributes, an arbitrary TVc is placed here.

【0138】以上のような操作をAeffの部分集合の属
性を使って行う。その結果の一部を図11に示す。但
し、*印をつけたノードは、これまでの手続きでは分離
することができない。
The above operation is performed using the attributes of the subset of A eff . FIG. 11 shows a part of the result. However, nodes marked with * cannot be separated by the conventional procedures.

【0139】以下、第1実施例の5)以降と同じなので
省略する。
Hereinafter, since it is the same as 5) and subsequent steps of the first embodiment, the description is omitted.

【0140】()第実施例 本実施例では、少なくとも一つの属性が状態(i)のカ
テゴリーの組み合わせの分類する属性の組を求め、求め
た組のすべての組のそれぞれの属性に対し、評価関数に
基づいて評価し、上記で求めた互いに識別可能な属性の
組の中で任意の組を選択し、その選択した属性の組をノ
ードに配置する際は、識別が効率的になるように効率的
な属性から優先して配置する。したがって本実施例では
効率的な属性の組は選択されていないが、選択された属
性の組をノードに配置する際においては効率的な属性を
優先して配置するようにしている。
( E ) Fifth Embodiment In this embodiment, a set of attributes in which at least one attribute is a combination of the category of the state (i) is obtained, and the attribute of each of all the obtained sets is determined. When an arbitrary set is selected from the set of mutually identifiable attributes evaluated based on the evaluation function and determined above, and the selected set of attributes is arranged in the node, the identification becomes efficient. So that priority is given to efficient attributes. Therefore, in the present embodiment, an efficient attribute set is not selected, but when arranging the selected attribute set in the node, the efficient attribute is preferentially arranged.

【0141】第1実施例3)の(3)項中、定義2で進
めるところまでは同じである。(14)式の組の中でA
3を選択する。
In the section (3) of the first embodiment 3), the description is the same up to the point of proceeding with the definition 2. A in the set of (14)
Select 3 .

【0142】4)識別木の各ノードへの属性(図6のフ
ローチャートの7に相当する) 識別木の各ノードへの配置は次のようにする。まず根ノ
ードに関してはA3のうち評価値F(Tk)が最も大きい
方を根ノードに考える。ここではF(TVa)=F
(TVc)なのでTVaとする。属性の重なりの状態によ
り、属性の分布に重なりのない領域、属性の分布に重な
る領域に分かれる。
4) Attributes to each node of the identification tree (corresponding to 7 in the flowchart of FIG. 6) The arrangement of the identification tree to each node is as follows. First, regarding the root node, the one having the largest evaluation value F (T k ) of A 3 is considered as the root node. Here, F (T Va ) = F
(T Vc ), so T Va . Depending on the state of the attribute overlap, the area is divided into an area where the attribute distribution does not overlap and an area where the attribute distribution overlaps.

【0143】属性がこれらの重なりのない領域の値にな
った場合には、根ノードで分類が完了する。重なりのあ
る領域はカテゴリー間の分類が不可能であり、他の属性
で再度分類する。すなわち、前者は葉ノードNeとし、
後者は再分類ノードNcとする。Ncにおける集合Nc
は例えば図10に示した領域1に関しては、(Cca,C
ab,Ca)となる。
When the attribute becomes the value of these non-overlapping areas, the classification is completed at the root node. Overlapping regions cannot be classified between categories, and are re-classified with other attributes. That is, the former is the leaf node N e,
The latter is a re-classification node Nc . Set in N c N c '
For example, regarding the area 1 shown in FIG. 10, (C ca , C
ab , C a ).

【0144】次に再分類ノードに配置する属性は次のよ
うに選択する。領域1を例にとればSc’の要素の2つ
ずつのカテゴリーをそれぞれ分類可能とする。属性は次
式のようになる。但し、f(Ci,Cj)=f(Cj
i)である。
Next, the attribute to be arranged in the re-classification node is selected as follows. Taking region 1 as an example, it is possible to classify two categories of elements of S c ′. The attributes are as follows: Here, f (C i , C j ) = f (C j ,
C i ).

【0145】 f(Cca,Cab)=TIb+TIc+TVb+TVc (21) f(Cab,Ca)=TV0+TI0+TIa+TIb+TVb+TVc (22) f(Ca,Cca)=TV0+TI0+TIa+TIc+TVc (23)F (C ca , C ab ) = T Ib + T Ic + T Vb + T Vc (21) f (C ab , C a ) = T V0 + T I0 + T Ia + T Ib + T Vb + T Vc (22) f (C a , C ca ) = T V0 + T I0 + T Ia + T Ic + T Vc (23)

【0146】Sc’の全要素を分類可能とする属性は、
これらの論理積により次式のように求まる。
An attribute that allows all elements of S c ′ to be classified is
The logical product of these results in the following equation.

【0147】 f(Cca,Cab)f(Cab,Ca)f(Ca,Cca) =TV0Ib+TV0Ic+TI0Ib+TI0Ic+TIaIb+TIaIc +TIbIc+TVc+TV0Vb+TI0Vb+TIaVb+TIcVb (24)F (C ca , C ab ) f (C ab , C a ) f (C a , C ca ) = T V0 T Ib + T V0 T Ic + T I0 T Ib + T I0 T Ic + T Ia T Ib + T Ia T Ic + T Ib T Ic + T Vc + T V0 T Vb + T I0 T Vb + T Ia T Vb + T Ic T Vb (24)

【0148】この結果、A3の部分集合となっている属
性はTVc,TIbIc,TIcVbである。この3つの属性
の組について、それぞれの属性の評価値F(Tk)が最
も大きい方を根ノードと考える。ここではTVcの属性の
組が最大となるのでTVcを配置する。
[0148] As a result, the attribute that is a subset of A 3 is a T Vc, T Ib T Ic, T Ic T Vb. Regarding a set of these three attributes, the one having the largest evaluation value F (T k ) of each attribute is considered as a root node. Wherein the set of attributes of the T Vc is to place the T Vc since the maximum.

【0149】以上のような操作をA3の部分集合の属性
を使って行う。その結果の一部を図11に示す。但し、
*印をつけたノードは、これまでの手続きでは分離する
ことができない。
[0149] or more of such an operation performed using the attributes of a subset of A 3. FIG. 11 shows a part of the result. However,
Nodes marked with * cannot be separated by the previous procedure.

【0150】以下は第1実施例の5)以降と同じなので
省略する。
The following is the same as 5) et seq. Of the first embodiment, and a description thereof will be omitted.

【0151】()第実施例 本実施例では、子ノードの分割を行う際には、最も効率
的な属性を選択せず、任意の属性を選択するものであ
る。したがって、本実施例は子ノードの分割を行う際、
効率的な属性を選択しない点が特徴である。
( F ) Sixth Embodiment In this embodiment, when dividing a child node, an arbitrary attribute is selected without selecting the most efficient attribute. Therefore, in this embodiment, when dividing a child node,
The feature is that efficient attributes are not selected.

【0152】第1実施例の5)までは同じである。第1
実施例の6−1),6−2),6−3)を省き、6−
4)を以下のように変更する。
Up to 5) of the first embodiment is the same. First
6-1), 6-2) and 6-3) of the embodiment are omitted, and 6-
4) is changed as follows.

【0153】6−4)子ノードの識別 任意の属性TVaより識別する子ノードとしてカテゴリー
Da*,CDb*,CDbDc*,CNDaDbDc*を識別することが
できる。その結果を図11に示す。
6-4) Identification of Child Nodes Categories C Da * , C Db * , C DbDc * , and C NDaDbDc * can be identified as child nodes to be identified from an arbitrary attribute T Va . The result is shown in FIG.

【0154】図14〜図19は、前述した実施例におい
て用いた数値を使用して具体的に事故診断を行うための
データの分類を行うフローチャートを示している。
FIGS. 14 to 19 show flowcharts for classifying data for concretely diagnosing an accident using the numerical values used in the above-described embodiment.

【0155】[0155]

【発明の効果】以上に述べたように、本発明によれば下
記の効果を奏する。
As described above, the present invention has the following effects.

【0156】(1)任意の2つのカテゴリーにおいて、
属性値の分布が完全に分離していなくても、属性値の重
なりのない部分は分類することができる。
(1) In any two categories,
Even if the distribution of the attribute values is not completely separated, a portion where the attribute values do not overlap can be classified.

【0157】(2)重なりのある部分、すなわちカテゴ
リーが識別できない部分についても、属性の確率分布を
求めることにより、重なりのある部分の確率を求め、カ
テゴリーの推定を行うことができる。
(2) Even for an overlapping portion, that is, a portion in which a category cannot be identified, the probability of the overlapping portion can be obtained by obtaining the probability distribution of the attribute, and the category can be estimated.

【0158】(3)任意の属性値が得られた場合、出現
確率を求めることができ、その属性によってカテゴリー
が分離できなかった場合、どちらのカテゴリーに属する
かの確度を知ることができる。
(3) When an arbitrary attribute value is obtained, an appearance probability can be obtained. When categories cannot be separated by the attribute, it is possible to know the certainty to which category the attribute belongs.

【0159】(4)識別木およびフローチャートより、
どんなカテゴリーが分類できないかがわかり、そのとき
の属性値の範囲を知ることができる。
(4) From the identification tree and the flowchart,
You can see what categories cannot be classified, and you can know the range of attribute values at that time.

【0160】(5)データの属性値が分布をもつ場合、
診断、パターン認識、画像処理などいろいろな分類に適
用できる。
(5) When the attribute values of data have a distribution,
It can be applied to various classifications such as diagnosis, pattern recognition, and image processing.

【0161】(6)シミュレータなどで属性値の分布を
求めている場合、シミュレータのパラメータを変えて
も、その変化に伴いデータの分類を機械学習により学習
させることにより、迅速に作成することができる。
(6) When the distribution of attribute values is obtained by a simulator or the like, even if the parameters of the simulator are changed, the data can be quickly created by learning the classification of the data by machine learning in accordance with the change. .

【0162】(7)人間の主観が入らないアルゴリズム
を自動的に作成することができる。
(7) It is possible to automatically create an algorithm that does not allow human subjectivity.

【0163】(8)効率のよいアルゴリズムを作成する
ことができる。
(8) An efficient algorithm can be created.

【0164】(9)データに不要な属性を知ることがで
きる。
(9) Attributes unnecessary for data can be known.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 表1のデータに基づく識別木学習の結果を示
す説明図である。
FIG. 1 is an explanatory diagram showing a result of discrimination tree learning based on data in Table 1.

【図2】 属性値分布と任意の2つのカテゴリーの関係
を示す説明図である。
FIG. 2 is an explanatory diagram showing a relationship between an attribute value distribution and two arbitrary categories.

【図3】 一部に重なりがある場合のカテゴリーの分類
を示す説明図である。
FIG. 3 is an explanatory diagram showing classification of a category in a case where there is a partial overlap.

【図4】 属性に重なりのある部分の出現確率と任意の
値での出現確率を表す説明図である。
FIG. 4 is an explanatory diagram showing an appearance probability of a part having an attribute overlap and an appearance probability at an arbitrary value.

【図5】 本発明におけるアルゴリズムの作成の手順を
示す概念図である。
FIG. 5 is a conceptual diagram showing a procedure of creating an algorithm according to the present invention.

【図6】 本発明の全体的なフローチャートである。FIG. 6 is an overall flowchart of the present invention.

【図7】 本発明実施例における配電線線路モデルの系
統図である。
FIG. 7 is a system diagram of a distribution line model in an embodiment of the present invention.

【図8】 カテゴリー間の分類可能,不可能の関係を示
す説明図である。
FIG. 8 is an explanatory diagram showing a classifiable / impossible relationship between categories.

【図9】 属性が重なるカテゴリーの分布の説明図であ
る。
FIG. 9 is an explanatory diagram of a distribution of categories in which attributes overlap.

【図10】 各カテゴリーの属性値の分布の例を示す図
である。
FIG. 10 is a diagram showing an example of a distribution of attribute values of each category.

【図11】 本発明実施例における識別木の説明図であ
る。
FIG. 11 is an explanatory diagram of an identification tree in the embodiment of the present invention.

【図12】 本発明におけるカテゴリーの分割の例を示
す説明図である。
FIG. 12 is an explanatory diagram showing an example of category division in the present invention.

【図13】 本発明における電流の確率分布の例を示す
グラフである。
FIG. 13 is a graph showing an example of a probability distribution of a current in the present invention.

【図14】 本発明を事故診断に適用した例を示すフロ
ーチャートの(1)である。
FIG. 14 is a flowchart (1) showing an example in which the present invention is applied to an accident diagnosis.

【図15】 本発明を事故診断に適用した例を示すフロ
ーチャートの(2)である。
FIG. 15 is a flowchart (2) showing an example in which the present invention is applied to an accident diagnosis.

【図16】 本発明を事故診断に適用した例を示すフロ
ーチャートの(3)である。
FIG. 16 is a flowchart (3) showing an example in which the present invention is applied to an accident diagnosis.

【図17】 本発明を事故診断に適用した例を示すフロ
ーチャートの(4)である。
FIG. 17 is a flowchart (4) showing an example in which the present invention is applied to an accident diagnosis.

【図18】 本発明を事故診断に適用した例を示すフロ
ーチャートの(5)である。
FIG. 18 is a flowchart (5) showing an example in which the present invention is applied to an accident diagnosis.

【図19】 本発明を事故診断に適用した例を示すフロ
ーチャートの(6)である。
FIG. 19 is a flowchart (6) showing an example in which the present invention is applied to an accident diagnosis.

フロントページの続き (56)参考文献 特許3019227(JP,B2) 情報処理学会第43回(平成3年後期) 全国大会 7D−6「配電線事故診断シ ステムにおける決定木の学習検討」戸上 正人他Continued on the front page (56) References Patent No. 3019227 (JP, B2) Information Processing Society of Japan 43rd (late 1991) National Convention 7D-6 "Learning Study of Decision Tree in Distribution Line Accident Diagnosis System" Masato Togami et al.

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】(a)データを分類するカテゴリーC 1
i 〜C m を設定し、それぞれのカテゴリーが持つ属性T
1 〜T j 〜T n 毎に測定データを集計するかあるいは計算
によりシミュレートし、その結果を、対応するカテゴリ
ーに区分けして各属性毎に上限値と下限値で表された分
布を表す属性値分布テーブルとして、記憶装置に格納す
るステップと、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なりのある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、カテゴリーC i と他のすべてのカテゴリーとを
分類可能とする属性の組の集合を、ステップ(c)で求
めた論理式の集合の論理積で求める処理を行うステップ
と、 (e)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、すべてのカテゴリーを互いに分類可能とするた
めの属性の組の集合をステップ(d)で求めた論理式の
集合の論理積の論理積で求める処理を行うステップと、 (f)前記属性の組の集合の中から識別木作成に最も効
率的な属性の組を選択す るために、属性値の分布の重な
り状態とカテゴリーC i の出現頻度に基づく評価関数に
より評価を行い、最も効率的な属性の組を選択する処理
を行うステップと、 (g)前記ステップ(f)において選択した属性の組の
中で、評価が最大となる属性をそれに含まれるカテゴリ
ーと共に親ノードとして配置し、(g−1)親ノードに
含まれるあるカテゴリーにおける属性の属性値の分布が
他のカテゴリーにおける当該属性の属性値の分布と重な
っていないときは前記あるカテゴリーを当該親ノードに
対する子ノードとして配置することで分類を完了させ、
(g−2)重なっているときは他のカテゴリーと分類で
きなかったカテゴリーの組を当該親ノードに対する子ノ
ードとして配置し、(g−3)その子ノードのカテゴリ
ーの組の間で前記ステップ(b)〜(e)の処理を行っ
てステップ(f)で選択した属性の組の中で評価が当該
子ノードに対する親ノードでの分類に使用した属性を除
いた属性の内で最大となる属性を、当該子ノードを親ノ
ードとする子ノードの分類に使用する属性として配置
し、(g−4)前記(g−1)〜(g−3)の処理をカ
テゴリーC i と状態(i)にあるカテゴリーC j との間に
おいて分類すべき子ノードがなくなるまで行う処理を行
うステップと、 (h)前記ステップ(g)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
k についての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割された新たなカテゴ
リーを作る処理を行うステップと、 (i)属性毎に属性値の範囲の確率分布を用いて、ステ
ップ(h)で作られた新たなカテゴリーC i とカテゴリ
ーC j の全く重なっていない領域の属性値の確率を演算
するステップと、 (j)前記ステップ(a)で記憶装置に格納された属性
値テーブルの属性値から カテゴリーの出現頻度を求め、
その出現頻度とステップ(i)で求めた属性値の分布の
重なりの確率を用いた評価関数により評価を行い、子ノ
ードの分類に最も効果的な属性の選択を行うステップ
と、 (k)前記ステップ(c)〜(g)で分類できなかった
子ノードに対し、前記子ノードの分類に最も効果的な属
性を用いて前記ステップ(h)で求めたカテゴリーの分
割によってできた新しいカテゴリーで分類する処理を行
うステップと、 (l)前記ステップ(b)〜(k)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うことを特徴とするデータの分
類方法。
[Claim 1] (a) category C 1 ~ to classify the data
C i to C m are set, and the attribute T of each category is set.
1 through T j through T n aggregates the measurement data for each or calculated
And simulate the result with the corresponding category
And the upper and lower limits for each attribute
Stored in the storage device as an attribute value distribution table representing cloth
That the reference and the step, the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
If, on the combination of; (d) Category C i and C j is the state (i)
, The category C i and all other categories
A set of attribute sets that can be classified is obtained in step (c).
Performing the process of calculating the logical product of the set of logical expressions
If, on the combination of (e) the category C i and C j is the state (i)
To make all categories classifiable with each other.
A set of attribute sets for the logical expression obtained in step (d)
(F) performing the process of obtaining the identification tree from the set of the attribute sets;
In order to select a set of rate attributes, heavy ne of the distribution of the attribute values
Evaluation function based on the state of appearance and the appearance frequency of category C i
Process to evaluate more and select the most efficient attribute set
(G) setting the attribute set selected in the step (f).
Of the attributes that have the highest rating
-And placed as parent node, and (g-1) parent node
The distribution of attribute values of attributes in a category included
Overlap with the distribution of attribute values of the attribute in other categories
If not, assign the category to the parent node.
Classification is completed by placing it as a child node to
(G-2) When overlapping, use another category and classification
The set of unsuccessful categories is assigned to the child node for the parent node.
(G-3) The category of the child node
The steps (b) to (e) are performed between
The evaluation in the set of attributes selected in step (f)
Excludes attributes used for classification at parent node for child nodes.
The attribute that is the largest of the attributes
Placed as attributes used to classify child nodes as nodes
(G-4) The processing of the above (g-1) to (g-3)
Between the category C j in Tegori C i and state (i)
Process until there are no more child nodes to be classified in
Cormorants and steps not completed classification in (h) wherein step (g)
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Other than the case of empty set
Performing a process to make Lee, using the probability distribution in the range of attribute values for each (i) attribute, stearyl
New category C i and category created in top (h)
-Calculate the attribute value probabilities of areas where C j does not overlap at all
Step a, the attribute stored in the storage device (j) said step (a) to
From the attribute values in the value table, find the frequency of the category,
The frequency of occurrence and the distribution of attribute values obtained in step (i)
Evaluation is performed using an evaluation function that uses the probability of overlap, and
Steps to select the attributes that are most effective for classifying the code
When could not be classified in (k) the step (c) ~ (g)
For the child node, the attribute that is most effective in classifying the child node
Of the category obtained in step (h) using the property
Perform processing to classify in a new category created by splitting
And (l) the knowledge created by the steps (b) to (k).
Create and store data classification flowcharts from different trees
Storing the data in a device, and classifying the data according to the flowchart.
【請求項2】(a)データを分類するカテゴリーC 1
i 〜C m を設定し、それぞれのカテゴリーが持つ属性T
1 〜T j 〜T n 毎に測定データを集計するかあるいは計算
によりシミュレートし、その結果を、対応するカテゴリ
ーに区分けして各属性毎に上限値と下限値で表された分
布を表す属性値分布テーブルとして、記憶装置に格納す
るステップと、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なりのある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せの
すべてのカテゴリーにおいて、すべてのカテゴリーを互
いに分類可能とする属性の組の集合を、ステップ(c)
で求めた論理式の集合の論理積で求める処理を行うステ
ップと、 (e)前記属性の組の集合の中から識別木作成に最も効
率的な属性の組を選択するために、属性値の分布の重な
り状態とカテゴリーC i の出現頻度に基づく評価関数に
より評価を行い、最も効率的な属性の組を選択する処理
を行うステップと、 (f)前記ステップ(e)において選択した属性の組の
中で、評価が最大となる属性をそれに含まれるカテゴリ
ーと共に親ノードとして配置し、(f−1)親ノードに
含まれるあるカテゴリーにおける属性の属性値の分布が
他のカテゴリーにおける当該属性の属性値の分布と重な
っていないときは前記あるカテゴリーを当該親ノードに
対する子ノードとして配置することで分類を完了させ、
(f−2)重なっているときは他のカテゴリーと分類で
きなかったカテゴリーの組を当該親ノードに対する子ノ
ードとして配置し、(f−3)その子ノードのカテゴリ
ーの組の間で前記ステップ(b)〜(d)の処理を行っ
てステップ(e)で選択した属性の組の中で評価が当該
子ノードに対する親ノードでの分類に使用した属性を除
いた属性の内で最大となる属性を、当該子ノードを親ノ
ードとする子ノードの分類に使用する属性として配置
し、(f−4)前記(f−1)〜(f−3)の処理をカ
テゴリーC i と状態(i)にあるカテゴリーC j との間に
おいて分類すべき子ノードがなくなるまで行う処理を行
うステップと、 (g)前記ステップ(f)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
k についての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割された新たなカテゴ
リーを作る処理を行うステップと、 (h)属性毎に属性値の範囲の確率分布を用いて、ステ
ップ(g)で作られた新たなカテゴリーC i とカテゴリ
ーC j の全く重なっていない領域の属性値の確率を演算
するステップと、 (i)前記ステップ(a)で記憶装置に格納された属性
値テーブルの属性値からカテゴリーの出現頻度を求め、
その出現頻度とステップ(h)で求めた属性値の分布の
重なりの確率を用いた評価関数により評価を行い、子ノ
ードの分類に最も効果的な属性の選択を行うステップ
と、 (j)前記ステップ(c)〜(f)で分類できなかった
子ノードに対し、前記子ノードの分類に最も効果的な属
性を用いて前記ステップ(g)で求めたカテゴリーの分
割によってできた新しいカテゴリーで分類する処理を行
うステップと、 (k)前記ステップ(b)〜(j)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うことを特徴とするデータの分
類方法。
2. (a) Categories C 1 to C for Classifying Data
C i to C m are set, and the attribute T of each category is set.
1 through T j through T n aggregates the measurement data for each or calculated
And simulate the result with the corresponding category
And the upper and lower limits for each attribute
Stored in the storage device as an attribute value distribution table representing cloth
That the reference and the step, the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
And (d) the categories C i and C j are combinations of the state (i)
In all categories, all categories
In step (c), a set of attribute sets that can be classified
Step for performing the process of obtaining the logical product of the set of logical expressions obtained in
And (e) the most effective way to create an identification tree from the set of attribute sets.
In order to select a rational set of attributes,
Evaluation function based on the state of appearance and the appearance frequency of category C i
Process to evaluate more and select the most efficient attribute set
And (f) the set of attributes selected in step (e).
Of the attributes that have the highest rating
-And placed as parent node together with (f-1) parent node
The distribution of attribute values of attributes in a category included
Overlap with the distribution of attribute values of the attribute in other categories
If not, assign the category to the parent node.
Classification is completed by placing it as a child node to
(F-2) If they overlap, use another category and classification
The set of unsuccessful categories is assigned to the child node for the parent node.
(F-3) Category of its child node
The steps (b) to (d) are performed between pairs of
Of the attribute set selected in step (e)
Excludes attributes used for classification at parent node for child nodes.
The attribute that is the largest of the attributes
Placed as attributes used to classify child nodes as nodes
(F-4) The processing of the above (f-1) to (f-3) is performed
Between the category C j in Tegori C i and state (i)
Process until there are no more child nodes to be classified in
Cormorants and steps not completed classification (g) In step (f)
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Other than the case of empty set
And the step of performing a process to make Lee, using the probability distribution of the range of attribute values for each (h) attribute, stearyl
New category C i and category created in top (g)
-Calculate the attribute value probabilities of areas where C j does not overlap at all
Step a, the attribute stored in the storage device by (i) step (a) to
From the attribute values in the value table, find the frequency of the category,
The frequency of occurrence and the distribution of attribute values obtained in step (h)
Evaluation is performed using an evaluation function that uses the probability of overlap, and
Steps to select the attributes that are most effective for classifying the code
When could not be classified in (j) said step (c) ~ (f)
For the child node, the attribute that is most effective in classifying the child node
Of the category obtained in step (g) using the property
Perform processing to classify in a new category created by splitting
Cormorants and step, identification created by (k) the step (b) ~ (j)
Create and store data classification flowcharts from different trees
Storing the data in a device, and classifying the data according to the flowchart.
【請求項3】(a)データを分類するカテゴリーC 1
i 〜C m を設定し、それぞれのカテゴリーが持つ属性T
1 〜T j 〜T n 毎に測定データを集計するかあるいは計算
によりシミュレートし、その結果を、対応するカテゴリ
ーに区分けして各属性毎に上限値と下限値で表された分
布を表す属性値分布テーブルとして、記憶装置に格納す
るステップと、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なりのある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を 定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、カテゴリーC i と他のすべてのカテゴリーとを
分類可能とする属性の組の集合を、ステップ(c)で求
めた論理式の集合の論理積で求める処理を行うステップ
と、 (e)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、すべてのカテゴリーを互いに分類可能とするた
めの属性の組の集合をステップ(d)で求めた論理式の
集合の論理積の論理積で求める処理を行うステップと、 (f)前記ステップ(e)で求めた属性の組の集合の中
から任意の属性の組を1組選択する処理を行うステップ
と、 (g)前記ステップ(f)において選択した属性の組の
中で、任意の属性をそれに含まれるカテゴリーと共に親
ノードとして配置し、(g−1)親ノードに含まれるあ
るカテゴリーにおける属性の属性値の分布が他のカテゴ
リーにおける当該属性の属性値の分布と重なっていない
ときは前記あるカテゴリーを当該親ノードに対する子ノ
ードとして配置することで分類を完了させ、(g−2)
重なっているときは他のカテゴリーと分類できなかった
カテゴリーの組を当該親ノードに対する子ノードとして
配置し、(g−3)その子ノードの組の間で前記ステッ
プ(b)〜(e)の処理を行って当該子ノードに対する
親ノードでの分類に使用した属性を除いた属性の内で任
意の属性を、前記子ノードを親ノードとする子ノードと
して配置し、(g−4)前記(g−1)〜(g−3)の
処理をカテゴリーC i と状態(i)にあるカテゴリーC j
との間において分類すべき子ノードがなくなるまで行う
処理を行うステップと、 (h)前記ステップ(g)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
kについての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、 任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割された新たなカテゴ
リーを作る処理を行うステップと、 (i)属性毎に属性値の範囲の確率分布を用いて、ステ
ップ(h)で作られた新たなカテゴリーC i とカテゴリ
ーC j の全く重なっていない領域の属性値の確率を演算
するステップと、 (j)前記ステップ(a)で記憶装置に格納された属性
値テーブルの属性値からカテゴリーの出現頻度を求め、
その出現頻度とステップ(i)で求めた属性値の分布の
重なりの確率を用いた評価関数により評価を行い、子ノ
ードの分類に最も効果的な属性の選択を行うステップ
と、 (k)前記ステップ(c)〜(g)で分類できなかった
子ノードに対し、前記子ノードの分類に最も効果的な属
性を用いて前記ステップ(h)で求めたカテゴリーの分
割によってできた新しいカテゴリーで分類する処理を行
うステップと、 (l)前記ステップ(b)〜(k)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うことを特徴とするデータの分
類方法。
3. (a) Categories C 1 to C for Classifying Data
C i to C m are set, and the attribute T of each category is set.
1 through T j through T n aggregates the measurement data for each or calculated
And simulate the result with the corresponding category
And the upper and lower limits for each attribute
Stored in the storage device as an attribute value distribution table representing cloth
That the reference and the step, the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
If, on the combination of; (d) Category C i and C j is the state (i)
, The category C i and all other categories
A set of attribute sets that can be classified is obtained in step (c).
Performing the process of calculating the logical product of the set of logical expressions
If, on the combination of (e) the category C i and C j is the state (i)
To make all categories classifiable with each other.
A set of attribute sets for the logical expression obtained in step (d)
(F) performing a process of obtaining a logical product of the logical product of the sets; and (f) selecting a set of the attribute sets obtained in the step (e).
Performing a process of selecting one set of arbitrary attributes from the set
When, the set of attributes selected in (g) said step (f)
Inside the parent attribute with any attributes
Placed as a node, and (g-1)
Distribution of attribute values of attributes in other categories
Does not overlap with the distribution of attribute values for that attribute in the
In some cases, the certain category is
(G-2)
When overlapped, it could not be classified into another category
A set of categories as child nodes for the parent node
(G-3) step between the set of its child nodes.
(B) to (e) and perform processing on the child node.
Any of the attributes except those used for classification at the parent node
Attribute is a child node having the child node as a parent node.
(G-4) of the above (g-1) to (g-3)
The process is defined as category C i and category C j in state (i).
Until there are no more child nodes to classify between
And performing a process, not completed classification in (h) wherein step (g)
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Other than the case of empty set
Performing a process to make Lee, using the probability distribution in the range of attribute values for each (i) attribute, stearyl
New category C i and category created in top (h)
-Calculate the attribute value probabilities of areas where C j does not overlap at all
Step a, the attribute stored in the storage device (j) said step (a) to
From the attribute values in the value table, find the frequency of the category,
The frequency of occurrence and the distribution of attribute values found in step (i)
Evaluation is performed using an evaluation function that uses the probability of overlap, and
Steps to select the attributes that are most effective for classifying the code
When could not be classified in (k) the step (c) ~ (g)
For the child node, the attribute that is most effective in classifying the child node
Of the category obtained in step (h) using the property
Perform processing to classify in a new category created by splitting
And (l) the knowledge created by the steps (b) to (k).
Create and store data classification flowcharts from different trees
Storing the data in a device, and classifying the data according to the flowchart.
【請求項4】(a)データを分類するカテゴリーC 1
i 〜C m を設定し、それぞれのカテゴリーが持つ属性T
1 〜T j 〜T n 毎に測定データを集計するかあるいは計算
によりシミュレートし、その結果を、対応するカテゴリ
ーに区分けして各属性毎に上限値と下限値で表された分
布を表す属性値分布テーブルとして、記憶装置に格納す
るステップと、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なり のある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、カテゴリーC i と他のすべてのカテゴリーとを
分類可能とする属性の組の集合を、ステップ(c)で求
めた論理式の集合の論理積で求める処理を行うステップ
と、 (e)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、すべてのカテゴリーを互いに分類可能とするた
めの属性の組の集合をステップ(d)で求めた論理式の
集合の論理積の論理積で求める処理を行うステップと、 (f)前記属性の組の集合の中から識別木作成に最も効
率的な属性の組を選択するために、属性値の分布の重な
り状態とカテゴリーC i の出現頻度に基づく評価関数に
より評価を行い、最も効率的な属性の組を選択する処理
を行うステップと、 (g)前記ステップ(f)において選択した属性の組の
中で、任意の属性をそれに含まれるカテゴリーと共に親
ノードとして配置し、(g−1)親ノードに含まれるあ
るカテゴリーにおける属性の属性値の分布が他のカテゴ
リーにおける当該属性の属性値の分布と重なっていない
ときは前記あるカテゴリーを当該親ノードに対する子ノ
ードとして配置することで分類を完了させ、(g−2)
重なっているときは他のカテゴリーと分類できなかった
カテゴリーの組を当該親ノードに対する子ノードとして
配置し、(g−3)その子ノードのカテゴリーの組の間
で前記ステップ(b)〜(e)の処理を行ってステップ
(f)で選択した属性の組の中で当該子ノードに対する
親ノードでの分類に使用した属性を除いた任意の属性
を、当該子ノードを親ノードとする子ノードの分類に使
用する属性として配置し、(g−4)前記(g−1)〜
(g−3)の処理をカテゴリーC i と状態(i)に あるカ
テゴリーC j との間において分類すべき子ノードがなく
なるまで行う処理を行うステップと、 (h)前記ステップ(g)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
k についての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割された新たなカテゴ
リーを作る処理を行うステップと、 (i)属性毎に属性値の範囲の確率分布を用いて、ステ
ップ(h)で作られた新たなカテゴリーC i とカテゴリ
ーC j の全く重なっていない領域の属性値の確率を演算
するステップと、 (j)前記ステップ(a)で記憶装置に格納された属性
値テーブルの属性値からカテゴリーの出現頻度を求め、
その出現頻度とステップ(i)で求めた属性値の分布の
重なりの確率を用いた評価関数により評価を行い、子ノ
ードの分類に最も効果的な属性の選択を行うステップ
と、 (k)前記ステップ(c)〜(g)で分類できなかった
子ノードに対し、前記子ノードの分類に最も効果的な属
性を用いて前記ステップ(h)で求めたカテゴリーの分
割によってできた新しいカテゴリーで分類する処理を行
うステップと、 (l)前記ステップ(b)〜(k)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うことを特徴とするデータの分
類方法。
4. (a) Categories C 1 to C for Classifying Data
C i to C m are set, and the attribute T of each category is set.
1 through T j through T n aggregates the measurement data for each or calculated
And simulate the result with the corresponding category
And the upper and lower limits for each attribute
Stored in the storage device as an attribute value distribution table representing cloth
That the reference and the step, the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
If, on the combination of; (d) Category C i and C j is the state (i)
, The category C i and all other categories
A set of attribute sets that can be classified is obtained in step (c).
Performing the process of calculating the logical product of the set of logical expressions
If, on the combination of (e) the category C i and C j is the state (i)
To make all categories classifiable with each other.
A set of attribute sets for the logical expression obtained in step (d)
(F) performing the process of obtaining the identification tree from the set of the attribute sets;
In order to select a rational set of attributes,
Evaluation function based on the state of appearance and the appearance frequency of category C i
Process to evaluate more and select the most efficient attribute set
(G) setting the attribute set selected in the step (f).
Inside the parent attribute with any attributes
Placed as a node, and (g-1)
Distribution of attribute values of attributes in other categories
Does not overlap with the distribution of attribute values for that attribute in the
In some cases, the certain category is
(G-2)
When overlapped, it could not be classified into another category
A set of categories as child nodes for the parent node
(G-3) between a set of categories of its child nodes
Performs the processing of steps (b) to (e)
In the attribute set selected in (f), the child node
Arbitrary attributes except those used for classification at the parent node
Is used to classify child nodes whose parent node is the child node.
(G-4) The above (g-1) ~
Ca in the (g-3) processing the category C i and state (i)
There is no child node to classify with the category C j
And (h) the classification is not completed in the step (g).
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Other than the case of empty set
Performing a process to make Lee, using the probability distribution in the range of attribute values for each (i) attribute, stearyl
New category C i and category created in top (h)
-Calculate the attribute value probabilities of areas where C j does not overlap at all
Step a, the attribute stored in the storage device (j) said step (a) to
From the attribute values in the value table, find the frequency of the category,
The frequency of occurrence and the distribution of attribute values obtained in step (i)
Evaluation is performed using an evaluation function that uses the probability of overlap, and
Steps to select the attributes that are most effective for classifying the code
When could not be classified in (k) the step (c) ~ (g)
For the child node, the attribute that is most effective in classifying the child node
Of the category obtained in step (h) using the property
Perform processing to classify in a new category created by splitting
And (l) the knowledge created by the steps (b) to (k).
Create and store data classification flowcharts from different trees
Storing the data in a device, and classifying the data according to the flowchart.
【請求項5】(a)データを分類するカテゴリーC 1
i 〜C m を設定し、それぞれのカテゴリーが持つ属性T
1 〜T j 〜T n 毎に測定データを集計するかあるいは計算
によりシミュレートし、その結果を、対応するカテゴリ
ーに区分けして各属性毎に上限 値と下限値で表された分
布を表す属性値分布テーブルとして、記憶装置に格納す
るステップと、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なりのある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、カテゴリーC i と他のすべてのカテゴリーとを
分類可能とする属性の組の集合を、ステップ(c)で求
めた論理式の集合の論理積で求める処理を行うステップ
と、 (e)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、すべてのカテゴリーを互いに分類可能とするた
めの属性の組の集合をステップ(d)で求めた論理式の
集合の論理積の論理積で求める処理を行うステップと、 (f)前記ステップ(e)で求めた属性の組の集合の中
から任意の属性の組を1組選択する処理を行うステップ
と、 (g)前記ステップ(f)で選択した属性の組の中から
識別木作成に最も効率的な属性のノードへの配置をする
ために、属性値の分布の重なり状態とカテゴリーC i
出現頻度に基づく評価関数により評価を行う処理を行う
ステップと、 (h)前記ステップ(f)において選択した属性の組の
中で、前記ステップ(g)における評価が最大となる属
性をそれに含まれるカテゴリーと共に親ノードとして配
置し、(h−1)親ノードに含まれるあるカテゴリーに
おける属性の属性 値の分布が他のカテゴリーにおける当
該属性の属性値の分布と重なっていないときは前記ある
カテゴリーを当該親ノードに対する子ノードとして配置
することで分類を完了させ、(h−2)重なっていると
きは他のカテゴリーと分類できなかったカテゴリーの組
を当該親ノードに対する子ノードとして配置し、(h−
3)その子ノードのカテゴリーの組の間で前記ステップ
(b)〜(e)の処理を行ってステップ(f)で選択し
た属性の組の中で前記ステップ(g)における評価が当
該子ノードに対する親ノードでの分類に使用した属性を
除いた属性の内で最大となる属性を、当該子ノードを親
ノードとする子ノードの分類に使用する属性として配置
し、(h−4)前記(h−1)〜(h−3)の処理をカ
テゴリーC i と状態(i)にあるカテゴリーC j との間に
おいて分類すべき子ノードがなくなるまで行う処理を行
うステップと、 (i)前記ステップ(h)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
k についての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割された新たなカテゴ
リーを作る処理を行うステップと、 (j)属性毎に属性値の範囲の確率分布を用いて、ステ
ップ(i)で作られた新たなカテゴリーC i とカテゴリ
ーC j の全く重なっていない領域の属性値の確率を演算
するステップと、 (k)前記ステップ(a)で記憶装置に格納された属性
値テーブルの属性値からカテゴリーの出現頻度を求め、
その出現頻度とステップ(j)で求めた属性値の分布の
重なりの確率を用いた評価関数により評価を行い、子ノ
ードの分類に最も効果的な属性の選択を行うステップ
と、 (l)前記ステップ(c)〜(h)で分類できなかった
子ノードに対し、前記子ノードの分類に最も効果的な属
性を用いて前記ステップ(i)で求めたカテゴリ ーの分
割によってできた新しいカテゴリーで分類する処理を行
うステップと、 (m)前記ステップ(b)〜(l)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うことを特徴とするデータの分
類方法。
5. (a) Categories C 1 to C for Classifying Data
C i to C m are set, and the attribute T of each category is set.
1 through T j through T n aggregates the measurement data for each or calculated
And simulate the result with the corresponding category
And the upper and lower limits for each attribute
Stored in the storage device as an attribute value distribution table representing cloth
That the reference and the step, the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
If, on the combination of; (d) Category C i and C j is the state (i)
, The category C i and all other categories
A set of attribute sets that can be classified is obtained in step (c).
Performing the process of calculating the logical product of the set of logical expressions
If, on the combination of (e) the category C i and C j is the state (i)
To make all categories classifiable with each other.
A set of attribute sets for the logical expression obtained in step (d)
(F) performing a process of obtaining a logical product of the logical product of the sets; and (f) selecting a set of the attribute sets obtained in the step (e).
Performing a process of selecting one set of arbitrary attributes from the set
And (g) from the set of attributes selected in step (f) above.
Place the most efficient attributes on the nodes for creating the identification tree
In order, the distribution of attribute values overlapping state and category C i
Perform evaluation processing using an evaluation function based on the frequency of appearance
And (h) the set of attributes selected in step (f).
And the group having the highest evaluation in step (g)
Property with its included categories as a parent node.
(H-1) in a certain category included in the parent node
Distribution of attribute values in other categories
If there is no overlap with the attribute value distribution of the attribute,
Place category as child node for the parent node
To complete the classification, and (h-2)
A group of categories that could not be classified with other categories
Is arranged as a child node to the parent node, and (h−
3) step between the set of categories of its child nodes
Perform the processing of (b) to (e) and select in step (f)
The evaluation in step (g) above is
The attribute used for classification at the parent node for the child node
Set the largest attribute among the excluded attributes to the parent node of the child node.
Arranged as attributes used to classify child nodes as nodes
(H-4) The processing of (h-1) to (h-3) is
Between the category C j in Tegori C i and state (i)
Process until there are no more child nodes to be classified in
Cormorants and steps not completed classification in (i) wherein step (h)
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Other than the case of empty set
Performing a process to make Lee, using the probability distribution in the range of attribute values for each (j) attribute, stearyl
New category C i and category created in step (i)
-Calculate the attribute value probabilities of areas where C j does not overlap at all
Step a, the attribute stored in the storage device (k) the step (a) to
From the attribute values in the value table, find the frequency of the category,
Of the frequency of occurrence and the distribution of attribute values found in step (j)
Evaluation is performed using an evaluation function that uses the probability of overlap, and
Steps to select the attributes that are most effective for classifying the code
When could not be classified in (l) said step (c) ~ (h)
For the child node, the attribute that is most effective in classifying the child node
Min category determined in step (i) with sex
Perform processing to classify in a new category created by splitting
Cormorants and step, identification created by (m) the step (b) ~ (l)
Create and store data classification flowcharts from different trees
Storing the data in a device, and classifying the data according to the flowchart.
【請求項6】(a)データを分類するカテゴリーC 1
i 〜C m を設定し、それぞれのカテゴリーが持つ属性T
1 〜T j 〜T n 毎に測定データを集計するかあるいは計算
によりシミュレートし、その結果を、対応するカテゴリ
ーに区分けして各属性毎に上限値と下限値で表された分
布を表す属性値分布テーブルとして、記憶装置に格納す
るステップと、 (b)前記記憶装置に格納された属性値テーブルを参照
して、各属性毎に、あるカテゴリーC i と他のカテゴリ
ーC j との属性値の分布の重なりの状態を分析して、少
なくとも1つの属性についての属性値の分布の状態が、
カテゴリーC i の属性値の分布からカテゴリーC j の属性
値の分布を完全に識別できる状態(i)か、カテゴリー
i の属性値の分布がカテゴリーC j の属性値の分布と一
部分重なりのある状態(ii)か、またはカテゴリーC
j の属性値の分布がC i の属性値の分布に包含される状態
(iii)のいずれの状態に属するかを判別する処理を
行うステップと、 (c)各属性が前記状態(i)にあるときは1、その他
のときは0という係数を定義すると共に、各属性を論理
変数として、前記カテゴリーC i と他のカテゴリーC j
を分類可能とする属性の集合を、前記係数をそれぞれ乗
じた属性の論理変数の論理和の論理式に表現し、前記論
理式を属性の集合として選択する処理を行うステップ
と、 (d)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、カテゴリーC i と他のすべてのカテゴリーとを
分類可能とする属性の組の集合を、ステップ(c)で求
めた論理式の集合の論理積で求める処理を行うステップ
と、 (e)前記カテゴリーC i とC j が状態(i)の組合せに
おいて、すべてのカテゴリーを互いに分類可能とするた
めの属性の組の集合をステップ(d)で求めた論 理式の
集合の論理積の論理積で求める処理を行うステップと、 (f)前記属性の組の集合の中から識別木作成に最も効
率的な属性の組を選択するために、属性値の分布の重な
り状態とカテゴリーC i の出現頻度に基づく評価関数に
より評価を行い、最も効率的な属性の組を選択する処理
を行うステップと、 (g)前記ステップ(f)において選択した属性の組の
中で、評価が最大となる属性をそれに含まれるカテゴリ
ーと共に親ノードとして配置し、(g−1)親ノードに
含まれるあるカテゴリーにおける属性の属性値の分布が
他のカテゴリーにおける当該属性の属性値の分布と重な
っていないときは前記あるカテゴリーを当該親ノードに
対する子ノードとして配置することで分類を完了させ、
(g−2)重なっているときは他のカテゴリーと分類で
きなかったカテゴリーの組を当該親ノードに対する子ノ
ードとして配置し、(g−3)その子ノードのカテゴリ
ーの組の間で前記ステップ(b)〜(e)の処理を行っ
てステップ(f)で選択した属性の組の中で評価が当該
子ノードに対する親ノードでの分類に使用した属性を除
いた属性の内で最大となる属性を、当該子ノードを親ノ
ードとする子ノードの分類に使用する属性として配置
し、(g−4)前記(g−1)〜(g−3)の処理をカ
テゴリーC i と状態(i)にあるカテゴリーC j との間に
おいて分類すべき子ノードがなくなるまで行う処理を行
うステップと、 (h)前記ステップ(g)において分類が完了しなかっ
た子ノードについて、カテゴリーの分割を、ある属性T
k についての属性値の分布が、あるs個のカテゴリー
1 ,…,C i ,…C s において重なりあっている場合、
ある属性T k についての属性値の分布が、任意のカテゴ
リーC i と他のすべてのカテゴリーとが重ならない部
分、任意のカテゴリーC i と他の任意の1個のカテゴリ
ーが重なる部分、任意のカテゴリーC i と他の任意の2
個のカテゴリーが重なる部分、・・・、任意のカテゴリ
ーC i と他の任意のs−1個のカテゴリーが重なる部分
に分け、これらに分割したカテゴリーが属性T k に対し
て空集合の場合以外について、分割された新たなカテゴ
リーを作る処理を行うステップと、 (i)前記ステップ(c)〜(g)で分類できなかった
子ノードに対し、任意の属性を用いて前記ステップ
(h)で求めたカテゴリーの分割によってできた新し
カテゴリーで分類する処理を行うステップと、 (j)前記ステップ(b)〜(i)により作成された識
別木よりデータの分類のフローチャートを作成して記憶
装置に格納するステップ とを有し、このフローチャート
によりデータの分類を行うことを特徴とするデータの分
類方法。
6. (a) Categories C 1 to C for Classifying Data
C i to C m are set, and the attribute T of each category is set.
1 through T j through T n aggregates the measurement data for each or calculated
And simulate the result with the corresponding category
And the upper and lower limits for each attribute
Stored in the storage device as an attribute value distribution table representing cloth
That the reference and the step, the attribute value table stored in (b) the storage device
Then, for each attribute, a certain category C i and another category C i
-Analysis of the state of overlap of the attribute value distribution with C j
The state of attribute value distribution for at least one attribute is
Attributes of the category C j from the distribution of the attribute values of category C i
Whether the distribution of values can be completely identified (i) or category
The distribution of the attribute values of the distribution of category C j of attribute values of C i and one
Partial overlap (ii) or category C
state distribution of the attribute values of j are included in the distribution of the attribute values of C i
The process of determining which state (iii) it belongs to
And performing, 1 if (c) each attribute is in the state (i), other
In the case of, define a coefficient of 0 and logically define each attribute.
As variables, and the category C i and other categories C j
The set of attributes that can classify
The logical expression of the logical variable with the same attribute
Step of selecting a formula as a set of attributes
If, on the combination of; (d) Category C i and C j is the state (i)
, The category C i and all other categories
A set of attribute sets that can be classified is obtained in step (c).
Performing the process of calculating the logical product of the set of logical expressions
If, on the combination of (e) the category C i and C j is the state (i)
To make all categories classifiable with each other.
A set of set of eyes of the attribute step (d) in the obtained logical formula
(F) performing the process of obtaining the identification tree from the set of the attribute sets;
In order to select a rational set of attributes,
Evaluation function based on the state of appearance and the appearance frequency of category C i
Process to evaluate more and select the most efficient attribute set
(G) setting the attribute set selected in the step (f).
Of the attributes that have the highest rating
-And placed as parent node, and (g-1) parent node
The distribution of attribute values of attributes in a category included
Overlap with the distribution of attribute values of the attribute in other categories
If not, assign the category to the parent node.
Classification is completed by placing it as a child node to
(G-2) When overlapping, use another category and classification
The set of unsuccessful categories is assigned to the child node for the parent node.
(G-3) The category of the child node
The steps (b) to (e) are performed between
The evaluation in the set of attributes selected in step (f)
Excludes attributes used for classification at parent node for child nodes.
The attribute that is the largest of the attributes
Placed as attributes used to classify child nodes as nodes
(G-4) The processing of the above (g-1) to (g-3)
Between the category C j in Tegori C i and state (i)
Process until there are no more child nodes to be classified in
Cormorants and steps not completed classification in (h) wherein step (g)
For each child node, the category is divided into an attribute T
The distribution of attribute values for k is s categories
C 1, ..., if C i, are overlapping in ... C s,
The distribution of attribute values for a certain attribute T k is
Part where Lee C i does not overlap with all other categories
Min, any category C i and any other one category
-Overlap, any category C i and any other 2
Where the categories overlap, ..., any category
-Part where C i and any other s-1 categories overlap
To divide, for these to split the category attribute T k
Other than the case of empty set
Performing a process of making a lie, and (i) Classification failed in the above steps (c) to (g)
For the child node, use any attribute
New made by the division of the obtained category in (h)
Performing a process of classifying by category; and (j) the knowledge created in steps (b) to (i).
Create and store data classification flowcharts from different trees
Storing the data in a device, and classifying the data according to the flowchart.
JP04130083A 1992-04-22 1992-04-22 How to classify data Expired - Fee Related JP3096353B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04130083A JP3096353B2 (en) 1992-04-22 1992-04-22 How to classify data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04130083A JP3096353B2 (en) 1992-04-22 1992-04-22 How to classify data

Publications (2)

Publication Number Publication Date
JPH0675985A JPH0675985A (en) 1994-03-18
JP3096353B2 true JP3096353B2 (en) 2000-10-10

Family

ID=15025577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04130083A Expired - Fee Related JP3096353B2 (en) 1992-04-22 1992-04-22 How to classify data

Country Status (1)

Country Link
JP (1) JP3096353B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342589B2 (en) 2008-07-30 2016-05-17 Nec Corporation Data classifier system, data classifier method and data classifier program stored on storage medium
US9361367B2 (en) 2008-07-30 2016-06-07 Nec Corporation Data classifier system, data classifier method and data classifier program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0867054A (en) * 1995-09-25 1996-03-12 Canon Inc Printing control method
JP2005149317A (en) 2003-11-18 2005-06-09 Canon Inc Information processor, jam recovery method, program, recording medium, and print system
JP2007058842A (en) * 2005-07-26 2007-03-08 Sony Corp Information processor, feature extraction method, recording medium, and program
US8611676B2 (en) 2005-07-26 2013-12-17 Sony Corporation Information processing apparatus, feature extraction method, recording media, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
情報処理学会第43回(平成3年後期)全国大会 7D−6「配電線事故診断システムにおける決定木の学習検討」戸上正人他

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342589B2 (en) 2008-07-30 2016-05-17 Nec Corporation Data classifier system, data classifier method and data classifier program stored on storage medium
US9361367B2 (en) 2008-07-30 2016-06-07 Nec Corporation Data classifier system, data classifier method and data classifier program

Also Published As

Publication number Publication date
JPH0675985A (en) 1994-03-18

Similar Documents

Publication Publication Date Title
Gracia et al. Best ANN structures for fault location in single-and double-circuit transmission lines
EP0807348B1 (en) Method and apparatus for learning network behavior trends and predicting future behavior of communications networks
CN107203450A (en) The sorting technique and equipment of failure
CN108681973A (en) Sorting technique, device, computer equipment and the storage medium of power consumer
CN109902721A (en) Outlier detection model verification method, device, computer equipment and storage medium
CN101871994B (en) Method for diagnosing faults of analog circuit of multi-fractional order information fusion
JP3096353B2 (en) How to classify data
US5712796A (en) Method for evaluating the faulted sections and states in a power transmission line
CN109670611A (en) A kind of power information system method for diagnosing faults and device
CN110188823A (en) A kind of Fault Tree Diagnosis Decision method and computer-readable medium
CN112464439A (en) Three-layer data mining-based power system fault type analysis method and device
CN115015683A (en) Cable production performance test method, device, equipment and storage medium
DE102021006561A1 (en) Big data for error detection in battery systems
Singh et al. Power system fault diagnosis using fuzzy decision tree
JP2666870B2 (en) Transmission and distribution line accident diagnosis method
JP3019227B2 (en) Transmission and distribution line accident diagnosis method
CN113490857A (en) Method and test device
CN115734274A (en) Cellular network fault diagnosis method based on deep learning and knowledge graph
KR102495822B1 (en) An intelligent system for power transformer fault diagnosis
JPH0530684A (en) Fault diagnosing method for transmission/distribution line
CN111311042B (en) Electric power emergency plan evaluation method and device
Ypsilantis et al. Adaptive, rule based fault diagnostician for power distribution networks
CN113610350A (en) Complex working condition fault diagnosis method, equipment, storage medium and device
JP2518195B2 (en) Transmission and distribution line accident diagnosis method and attribute value setting method therefor
CN112202162A (en) Method for planning an electric energy transmission network, planning device and computer program product

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees