KR101811962B1 - Apparatus and method for evaluating class discrimination of nonlinear data - Google Patents

Apparatus and method for evaluating class discrimination of nonlinear data Download PDF

Info

Publication number
KR101811962B1
KR101811962B1 KR1020160166189A KR20160166189A KR101811962B1 KR 101811962 B1 KR101811962 B1 KR 101811962B1 KR 1020160166189 A KR1020160166189 A KR 1020160166189A KR 20160166189 A KR20160166189 A KR 20160166189A KR 101811962 B1 KR101811962 B1 KR 101811962B1
Authority
KR
South Korea
Prior art keywords
class
feature vector
feature
discrimination
separability
Prior art date
Application number
KR1020160166189A
Other languages
Korean (ko)
Inventor
김종면
김재영
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020160166189A priority Critical patent/KR101811962B1/en
Application granted granted Critical
Publication of KR101811962B1 publication Critical patent/KR101811962B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/08Computing arrangements based on specific mathematical models using chaos models or non-linear system models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/04Bearings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Nonlinear Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an apparatus and a method for evaluating class discrimination of nonlinear data which can accurately select a feature combination with high discrimination between classes. According to an embodiment of the present invention, the method for evaluating class discrimination of nonlinear data comprises: a step of acquiring a signal from a machine; a step of extracting features for a degradation state from the acquired signal to generate feature vectors; a step of generating combinations of the generated feature vectors to generate feature combination candidate groups; a step of calculating internal density of classes and separability between classes to calculate an evaluation index, and evaluating discrimination between classes for the generated feature combination candidate groups based on the calculated evaluation index; and a step of selecting a combination of feature vectors with a maximum value of the evaluation index for the evaluated discrimination between classes.

Description

비선형 데이터의 클래스 변별성 평가 방법 및 장치{APPARATUS AND METHOD FOR EVALUATING CLASS DISCRIMINATION OF NONLINEAR DATA}[0001] APPARATUS AND METHOD FOR EVALUATING CLASS DISCRIMINATION OF NONLINEAR DATA [0002]

본 발명은 비선형 데이터의 클래스 변별성 평가 방법 및 장치에 관한 것으로서, 더욱 상세하게는 비선형 데이터로부터 추출된 특징들 중 클래스 간 변별성이 높은 특징조합을 선택할 수 있는 평가지표를 계산하고 그 계산된 평가지표를 기초로 하여 클래스간 변별성을 평가함으로써, 클래스간 변별성이 높은 특징 조합을 정확하게 선택할 수 있는, 비선형 데이터의 클래스 변별성 평가 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for evaluating class discrimination of nonlinear data, and more particularly, to a method and apparatus for evaluating class discrimination of nonlinear data by calculating an evaluation index capable of selecting a feature combination having high discrimination among classes extracted from nonlinear data, To a method and an apparatus for evaluating class discrimination of nonlinear data capable of accurately selecting feature combinations having high discrimination between classes by evaluating discrimination between classes.

베어링의 결함 검출에 있어, 실제 산업현장에서는 소음과 진동의 특성을 이용하여 비파괴검사에 이용함으로써 베어링부의 수명연장 등 유지 보전에 큰 도움을 주고 있다.In the detection of defects in bearings, it is used for non-destructive inspection by using characteristics of noise and vibration in real industrial field, which is greatly helping maintenance maintenance such as extension of bearing life.

베어링 고장원인으로는 불충분한 윤활, 부적절한 윤활재의 사용, 베어링의 잘못된 설치, 축계의 과도한 변형 등이 있다. 과거에는 숙련된 기술자에 의하여 이러한 문제들을 진단하고 고장 여부를 판단하였으나, 대부분 진단시간이 길고, 주관적이며, 경우에 따라 기기 시스템의 작동을 중단해야 하는 단점을 지니고 있다. 최근에는 기기 시스템의 작동을 유지하면서, 베어링의 고장을 진단할 수 있는 시스템이 요구됨에 따라 지속적으로 베어링 작동 상태를 진단하여 고장 전에 미리 이상을 발견할 수 있는 형태의 기술로 발전되고 있다.Causes of bearing failure include insufficient lubrication, improper use of lubricant, misalignment of bearings, and excessive deformation of shaft. In the past, experienced technicians diagnosed these problems and judged whether they were faulty. However, most of them have a long diagnosis time, subjective, and sometimes have to stop the operation of the equipment system. In recent years, a system capable of diagnosing a failure of a bearing has been required while maintaining the operation of a device system, and thus the bearing operating state is continuously diagnosed and developed as a type of technology capable of detecting an abnormality before a failure.

도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.

도 1의 (a)는 베어링의 구조를, (b) 베어링 외륜 결함을, (c)는 베어링 내륜 결함을 나타냄으로, 이와 같이 고장이 발생할 수 있는 기계의 위치에 센서를 부착하여 신호를 취득하고, (d)에 도시된 바와 같이 취득된 신호로부터 특징을 추출하고 상태 진단 영역에서 특징의 패턴을 분석하여 고장을 진단할 수 있다.Fig. 1 (a) shows the structure of the bearing, (b) shows the bearing outer ring defect, and (c) shows the inner ring of the bearing. The sensor is attached to the position of the machine, , it is possible to extract a feature from the acquired signal and diagnose the failure by analyzing the pattern of the feature in the state diagnosis area as shown in (d).

도 2는 종래기술에 따른 고장 진단 방법에 따라 선택된 특징선택의 예시들을 나타낸 도면이다.2 is a diagram showing examples of feature selection selected according to the prior art fault diagnosis method.

종래기술에 따른 고장 진단 방법은 기계 등에서 발생하는 신호로부터 특징을 추축한다. 즉, 고장 진단 방법은 신호로부터 신호의 특성을 나타내는 값들을 추출한다.In the fault diagnosis method according to the related art, features are extracted from signals generated in a machine or the like. That is, the fault diagnosis method extracts values representing characteristics of a signal from a signal.

상태 진단에 사용되는 특징들의 예들은 하기의 [수학식 1]과 같이 나타낼 수 있다. Examples of the features used in the state diagnosis can be expressed as Equation (1) below.

Figure 112016120209623-pat00001
Figure 112016120209623-pat00001

상기 [수학식 1]과 같이, 제곱평균제곱근(Root-mean-square), 커토시스 값(Kurtosis value), 셰이프 팩터(Shape factor), 제곱근평균제곱(Square-mean-Root) 등으로 특징들이 추출될 수 있다.The features are extracted by a root-mean-square, a kurtosis value, a shape factor, and a square-mean-root, as shown in Equation (1) .

추출된 특징으로부터 상태 모니터링 및 진단에 유용한 특징들을 선택하게 된다.From the extracted features, features that are useful for status monitoring and diagnosis are selected.

도 2의 (a) 및 (b)에 도시된 바와 같이, 잘된 특징선택의 예와 잘못된 특징 선택의 예가 나타나 있다.As shown in Figs. 2 (a) and 2 (b), examples of good feature selection and examples of wrong feature selection are shown.

도 2의 (a)에 도시된 바와 같이, 잘된 특징선택의 예에서는 정상 특징 및 결함 특징들이 서로 분리되어 분포되고 있다.As shown in Fig. 2 (a), in the example of the feature selection, the normal feature and the defect feature are distributed separately from each other.

반면, 도 2의 (b)에 도시된 바와 같이, 잘못된 특징선택의 예에서는 정상 특징 및 결함 특징들이 서로 분리되지 않고 모여서 분포되고 있다.On the other hand, as shown in Fig. 2 (b), in the example of erroneous feature selection, the normal feature and the defect feature are gathered together without being separated from each other.

도 3은 종래의 변별성 평가 방법을 이용한 선형적 분포 및 비선형적 분포의 평가 과정을 설명하기 위한 도면이다.3 is a diagram for explaining a process of evaluating a linear distribution and a non-linear distribution using a conventional discriminant evaluation method.

종래의 변별성 평가 방법은 상기 특징들을 평가하기 위해, 특징 조합의 클래스간 변별성을 평가한다.Conventional differentiating evaluation methods evaluate the discrimination between classes of feature combinations in order to evaluate the features.

이러한 변별성 평가 방법은 같은 클래스 내의 밀도와 다른 클래스 간의 분리성을 계산한다. 그리고 평가 방법은 이에 대한 비율의 크기로 평가한다.This differentiability evaluation method calculates the density within the same class and the separability between different classes. The evaluation method is evaluated by the ratio of the ratio.

첫째, 클래스 내 밀도에 대해서는, 평가 방법은 같은 클래스 내 특징 벡터들과 특징벡터들의 중심점과의 거리의 합을 이용하여 계산한다.First, regarding the density in the class, the evaluation method is calculated by using the sum of the distances between the feature vectors in the same class and the center points of the feature vectors.

둘째, 클래스간 분리성에 대해서는, 평가 방법은 서로 다른 클래스의 특징벡터들의 중심점과 전체 특징벡터들의 중심점 사이의 거리의 합을 이용하여 계산한다.Second, regarding the separability between classes, the evaluation method is calculated by using the sum of the distances between the center points of feature vectors of different classes and the center points of all feature vectors.

종래의 변별성 평가 방법을 이용하여 계산된 평가지표를 살펴보기로 한다.Hereinafter, evaluation indexes calculated using a conventional discriminant evaluation method will be described.

선형적 분포와 비선형적 분포가 도 3의 (a) 및 (b)에 도시되어 있다.Linear and nonlinear distributions are shown in Figures 3 (a) and 3 (b).

우선, 도 3의 (a)에 도시된 선형적 분포에 대해서 살펴보기로 한다.First, the linear distribution shown in FIG. 3 (a) will be described.

종래의 평가 방법은 클래스 A 내 특징 벡터들과 특징벡터들의 중심점 A과의 거리의 합을 이용하여 계산한다. 또한, 종래의 평가 방법은 클래스 B 내 특징 벡터들과 특징벡터들의 중심점 B과의 거리의 합을 이용하여 계산한다.The conventional evaluation method is calculated by using the sum of the distances between the feature vectors in the class A and the center points A of the feature vectors. Further, the conventional evaluation method is calculated by using the sum of distances between the feature vectors in the class B and the center points B of the feature vectors.

종래의 평가 방법은 서로 다른 클래스 A 및 B의 특징벡터들의 중심점 A 및 B와, 전체 특징벡터들의 전체 중심점 사이의 거리의 합을 이용하여 계산한다.The conventional evaluation method is calculated by using the sum of the distances between the center points A and B of the feature vectors of the different classes A and B and the total center points of all the feature vectors.

이와 같이, 종래의 평가 방법은 이러한 과정에 따라 클래스의 변별성을 정확하게 평가할 수 있다.Thus, the conventional evaluation method can accurately evaluate the class discrimination according to this process.

반면, 도 3의 (b)에 도시된 비선형적 분포는 종래의 변별성 평가 방법에 따라 정확하게 평가되지 못하게 된다. 즉, 비선형적 특징 분포에 대한 정확한 평가에 어려움이 발생한다.On the other hand, the nonlinear distribution shown in FIG. 3 (b) can not be accurately evaluated according to the conventional discriminant evaluation method. That is, it is difficult to accurately evaluate the nonlinear feature distribution.

도 3의 (b)에 도시된 바와 같이, 특징 분포가 비선형적 분포일 경우 클래스 내 특징벡터들의 중심점 A 및 B는 클래스 경계 바깥쪽으로 위치할 수 있다. 그러므로 중심점 A 및 B를 기준으로 클래스 A 및 B 내 밀도와, 클래스 A 및 B 간 분리성을 계산할 경우 평가 값이 정확하지 않게 된다.As shown in FIG. 3 (b), when the feature distribution is a nonlinear distribution, the center points A and B of the feature vectors in the class can be located outside the class boundary. Therefore, when calculating the density of classes A and B and the separability between classes A and B based on the center points A and B, the evaluation value becomes inaccurate.

대한민국 공개특허공보 제10-1998-0069423호(1998년10월26일)Korean Patent Publication No. 10-1998-0069423 (October 26, 1998)

본 발명의 실시 예들은 비선형 데이터로부터 추출된 특징들 중 클래스 간 변별성이 높은 특징조합을 선택할 수 있는 평가지표를 계산하고 그 계산된 평가지표를 기초로 하여 클래스간 변별성을 평가함으로써, 클래스간 변별성이 높은 특징 조합을 정확하게 선택할 수 있는, 비선형 데이터의 클래스 변별성 평가 방법 및 장치를 제공하고자 한다.The embodiments of the present invention calculate evaluation indexes capable of selecting feature combinations having high discrimination among classes among the features extracted from nonlinear data and evaluate the discrimination between classes on the basis of the calculated evaluation indexes, And to provide a method and apparatus for class discrimination evaluation of nonlinear data capable of accurately selecting high feature combinations.

본 발명의 제1 측면에 따르면, 기계로부터 신호를 획득하는 단계; 상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 단계; 상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 단계; 클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계; 및 상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 단계를 포함하는 비선형 데이터의 클래스 변별성 평가 방법이 제공될 수 있다.According to a first aspect of the present invention, there is provided a method comprising: obtaining a signal from a machine; Extracting characteristics of the deteriorated state from the obtained signal to generate characteristic vectors; Generating a feature combination candidate group by generating a combination of the generated feature vectors; Calculating intra-class density and class-to-class separability to calculate an evaluation index, and evaluating inter-class discrimination for each of the generated feature combination candidates based on the calculated evaluation index; And selecting the combination of the feature vectors having the largest evaluation index value for the evaluated inter-class discrimination.

상기 클래스 간 변별성을 평가하는 단계는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 단계; 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하는 단계; 및 상기 계산된 클래스 내부 밀도 및 상기 계산된 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계를 포함할 수 있다.Evaluating the inter-class discrimination comprises: calculating intra-class density using distances between feature vectors in each class; Calculating separability between classes using closest first and second feature vectors of a target class and other classes; And calculating the evaluation indices by calculating the calculated intra-class density and the calculated class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates using the calculated evaluation indexes .

상기 클래스 내부 밀도를 계산하는 단계는, 각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산할 수 있다.The step of calculating the intra-class density may calculate the intra-class density using the feature vector of each class and the feature vector closest to the feature vector in the class.

상기 클래스 내부 밀도를 계산하는 단계는, [수학식 2]

Figure 112016120209623-pat00002
, 여기서,
Figure 112016120209623-pat00003
는 클래스 내부 밀도,
Figure 112016120209623-pat00004
는 클래스의 개수,
Figure 112016120209623-pat00005
는 클래스 a의 특징벡터 개수,
Figure 112016120209623-pat00006
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00007
는 a 클래스 내에서
Figure 112016120209623-pat00008
와 가장 가까운 특징벡터를 나타내며, 상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산할 수 있다.Wherein the step of calculating the inner class density comprises:
Figure 112016120209623-pat00002
, here,
Figure 112016120209623-pat00003
Class density,
Figure 112016120209623-pat00004
The number of classes,
Figure 112016120209623-pat00005
The number of characteristic vectors of class a,
Figure 112016120209623-pat00006
Is an i-th feature vector of class a,
Figure 112016120209623-pat00007
Within a class
Figure 112016120209623-pat00008
And the inner density of the class can be calculated using the distance between the feature vectors in each class according to Equation (2).

상기 클래스 내부 밀도를 계산하는 단계는, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산할 수 있다.The step of calculating the inner class density may calculate the inner class density by searching the minimum value excluding the feature vector if the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation.

상기 클래스간 분리성을 계산하는 단계는, 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 단계; 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 단계; 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하는 단계; 및 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산하는 단계를 포함할 수 있다.Calculating the interclass separability comprises: searching for a nearest neighbor feature vector of the first feature vector and the nearest neighbor vector of the other class; Confirming whether the closest feature vector of the searched closest second feature vector is a first feature vector; Changing the class separability by adding the distance between the first and second feature vectors to the class separability when the checked condition is satisfied; And calculating the separability between classes by dividing the changed class separability by the number of distances added to the class separability.

상기 최근접 제2 특징벡터를 탐색하는 단계는, [수학식 3]

Figure 112016120209623-pat00009
여기서,
Figure 112016120209623-pat00010
는 타 클래스의 최근접 제2 특징벡터,
Figure 112016120209623-pat00011
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00012
는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며, 상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색할 수 있다.The step of searching for the nearest neighbor feature vector may include:
Figure 112016120209623-pat00009
here,
Figure 112016120209623-pat00010
Is a nearest neighbor feature vector of another class,
Figure 112016120209623-pat00011
Is an i-th feature vector of class a,
Figure 112016120209623-pat00012
Represents a jth feature vector of class b, and b represents one of remaining classes that are not a class, and it is possible to search for a first feature vector and a nearest neighbor feature vector of another class according to Equation (3) .

상기 제1 특징벡터인지를 확인하는 단계는, [수학식 4]

Figure 112016120209623-pat00013
여기서,
Figure 112016120209623-pat00014
는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터,
Figure 112016120209623-pat00015
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00016
는 b 클래스의 j번째 특징벡터를 나타내며, 상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인할 수 있다.The step of verifying whether the first feature vector is expressed by Equation (4)
Figure 112016120209623-pat00013
here,
Figure 112016120209623-pat00014
Is a nearest neighbor feature vector of the nearest neighbor feature vector searched,
Figure 112016120209623-pat00015
Is an i-th feature vector of class a,
Figure 112016120209623-pat00016
Denotes a j-th feature vector of class b, and it can be confirmed whether the nearest neighbor vector of the nearest neighbor vector is a first feature vector according to Equation (4).

상기 클래스 간 변별성을 평가하는 단계는, [수학식 7]

Figure 112016120209623-pat00017
여기서,
Figure 112016120209623-pat00018
는 평가지표,
Figure 112016120209623-pat00019
는 클래스 내부 밀도,
Figure 112016120209623-pat00020
는 클래스간 분리성을 나타내며, 상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산할 수 있다.The step of evaluating the discrimination between classes may be expressed by Equation (7)
Figure 112016120209623-pat00017
here,
Figure 112016120209623-pat00018
Is an evaluation index,
Figure 112016120209623-pat00019
Class density,
Figure 112016120209623-pat00020
Represents the separability between classes, and the evaluation index can be calculated by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7).

한편, 본 발명의 제2 측면에 따르면, 기계로부터 신호를 획득하는 신호 획득부; 상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 특징 추출부; 상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 후보군 생성부; 클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 변별성 평가부; 및 상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 조합 선택부를 포함하는 비선형 데이터의 클래스 변별성 평가 장치가 제공될 수 있다.According to a second aspect of the present invention, there is provided a signal processing apparatus comprising: a signal obtaining unit obtaining a signal from a machine; A feature extraction unit for extracting features of a deteriorated state from the obtained signal to generate feature vectors; A candidate group generation unit for generating a combination of the feature vectors to generate a feature combination candidate group; A discrimination evaluating unit for calculating an evaluation index by calculating the intra-class density and the class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates based on the calculated evaluation index; And a combination selector for selecting a combination of feature vectors having a maximum evaluation index value for the evaluated inter-class discrimination.

상기 변별성 평가부는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하고, 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가할 수 있다.The discrimination evaluating unit calculates the intra-class density using the distances between the feature vectors in each class, calculates the inter-class separability using the closest first and second feature vectors of the target class and the other class, The discrimination between classes can be evaluated for each of the generated feature combination candidates using the calculated evaluation index.

상기 변별성 평가부는, 각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산할 수 있다.The discrimination evaluating unit can calculate the class inner density using the feature vector of each class and the feature vector closest to the feature vector in the class.

상기 변별성 평가부는, [수학식 2]

Figure 112016120209623-pat00021
, 여기서,
Figure 112016120209623-pat00022
는 클래스 내부 밀도,
Figure 112016120209623-pat00023
는 클래스의 개수,
Figure 112016120209623-pat00024
는 클래스 a의 특징벡터 개수,
Figure 112016120209623-pat00025
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00026
는 a 클래스 내에서
Figure 112016120209623-pat00027
와 가장 가까운 특징벡터를 나타내며, 상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산할 수 있다.The discrimination evaluating unit may be configured so that,
Figure 112016120209623-pat00021
, here,
Figure 112016120209623-pat00022
Class density,
Figure 112016120209623-pat00023
The number of classes,
Figure 112016120209623-pat00024
The number of characteristic vectors of class a,
Figure 112016120209623-pat00025
Is an i-th feature vector of class a,
Figure 112016120209623-pat00026
Within a class
Figure 112016120209623-pat00027
And the inner density of the class can be calculated using the distance between the feature vectors in each class according to Equation (2).

상기 변별성 평가부는, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산할 수 있다.If the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation, the discrimination evaluator can calculate the inner class density by searching for the minimum value excluding the feature vector.

상기 변별성 평가부는, 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하고, 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하고, 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하고, 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산할 수 있다.The discrimination evaluating unit searches for a nearest neighbor feature vector of the first feature vector and a nearest neighbor vector of the other class, confirms whether the nearest feature vector of the nearest neighbor feature vector is the first feature vector, If the condition is satisfied, the distances between the first and second feature vectors are added to the class-to-class separability to change the class-to-class separability, and the class-to-class separability is divided by the number of distances added to the class- Can be calculated.

상기 변별성 평가부는, [수학식 3]

Figure 112016120209623-pat00028
여기서,
Figure 112016120209623-pat00029
는 타 클래스의 최근접 제2 특징벡터,
Figure 112016120209623-pat00030
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00031
는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며, 상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색할 수 있다.(3)
Figure 112016120209623-pat00028
here,
Figure 112016120209623-pat00029
Is a nearest neighbor feature vector of another class,
Figure 112016120209623-pat00030
Is an i-th feature vector of class a,
Figure 112016120209623-pat00031
Represents a jth feature vector of class b, and b represents one of remaining classes that are not a class, and it is possible to search for a first feature vector and a nearest neighbor feature vector of another class according to Equation (3) .

상기 변별성 평가부는, [수학식 4]

Figure 112016120209623-pat00032
여기서,
Figure 112016120209623-pat00033
는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터, 는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00035
는 b 클래스의 j번째 특징벡터를 나타내며, 상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인할 수 있다.The discrimination evaluating unit may be configured so that,
Figure 112016120209623-pat00032
here,
Figure 112016120209623-pat00033
Is a nearest neighbor feature vector of the nearest neighbor feature vector searched, Is an i-th feature vector of class a,
Figure 112016120209623-pat00035
Denotes a j-th feature vector of class b, and it can be confirmed whether the nearest neighbor vector of the nearest neighbor vector is a first feature vector according to Equation (4).

상기 변별성 평가부는, [수학식 7]

Figure 112016120209623-pat00036
여기서,
Figure 112016120209623-pat00037
는 평가지표,
Figure 112016120209623-pat00038
는 클래스 내부 밀도,
Figure 112016120209623-pat00039
는 클래스간 분리성을 나타내며, 상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산할 수 있다.The above-described discrimination evaluating unit may be configured so that,
Figure 112016120209623-pat00036
here,
Figure 112016120209623-pat00037
Is an evaluation index,
Figure 112016120209623-pat00038
Class density,
Figure 112016120209623-pat00039
Represents the separability between classes, and the evaluation index can be calculated by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7).

본 발명의 실시 예들은 비선형 데이터로부터 추출된 특징들 중 클래스 간 변별성이 높은 특징조합을 선택할 수 있는 평가지표를 계산하고 그 계산된 평가지표를 기초로 하여 클래스간 변별성을 평가함으로써, 클래스간 변별성이 높은 특징 조합을 정확하게 선택할 수 있다.The embodiments of the present invention calculate evaluation indexes capable of selecting feature combinations having high discrimination among classes among the features extracted from nonlinear data and evaluate the discrimination between classes on the basis of the calculated evaluation indexes, High feature combinations can be selected precisely.

도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.
도 2는 종래기술에 따른 고장 진단 방법에 따라 선택된 특징선택의 예시들을 나타낸 도면이다.
도 3은 종래의 변별성 평가 방법을 이용한 선형적 분포 및 비선형적 분포의 평가 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치의 구성도이다.
도 5는 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스 내부 밀도를 계산하는 과정에 대한 설명도이다.
도 6은 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스간 분리성을 계산하는 과정에 대한 설명도이다.
도 7은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에 대한 흐름도이다.
도 8은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에서의 클래스간 변별성 평가 과정에 대한 흐름도이다.
1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.
2 is a diagram showing examples of feature selection selected according to the prior art fault diagnosis method.
3 is a diagram for explaining a process of evaluating a linear distribution and a non-linear distribution using a conventional discriminant evaluation method.
4 is a configuration diagram of an apparatus for evaluating class discrimination of nonlinear data according to an embodiment of the present invention.
5 is an explanatory diagram illustrating a process of calculating a class internal density performed by the class differentiating device according to the embodiment of the present invention.
FIG. 6 is an explanatory diagram illustrating a process of calculating the class separability performed by the class differentiating device according to the embodiment of the present invention.
7 is a flowchart of a class differentiating property evaluation method of nonlinear data according to an embodiment of the present invention.
FIG. 8 is a flowchart of a process for evaluating the discrimination between classes in the method for evaluating class discrimination of nonlinear data according to the embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다. 본 발명의 실시 예를 설명하면서, 본 발명이 속하는 기술 분야에 익히 알려졌고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention. In describing the embodiments of the present invention, description of technical contents which are well known in the art to which the present invention belongs and which are not directly related to the present invention will be omitted. This is for the sake of clarity of the present invention without omitting the unnecessary explanation.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 동일한 참조부호를 부여할 수도 있다. 그러나 이와 같은 경우라 하더라도 해당 구성 요소가 실시 예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시 예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시 예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given to different drawings. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that it has the same function in different embodiments, and the function of each component is different from that of the corresponding embodiment Based on the description of each component in FIG.

도 4는 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치의 구성도이다.4 is a configuration diagram of an apparatus for evaluating class discrimination of nonlinear data according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치(100)는 신호 획득부(110), 특징 추출부(120), 후보군 생성부(130), 변별성 평가부(140) 및 조합 선택부(150)를 포함한다.4, an apparatus 100 for evaluating class discrimination of nonlinear data according to an exemplary embodiment of the present invention includes a signal acquisition unit 110, a feature extraction unit 120, a candidate group generation unit 130, (140) and a combination selector (150).

이하, 도 4의 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치(100)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.The specific configuration and operation of each element of the apparatus 100 for evaluating class discrimination of nonlinear data according to the embodiment of the present invention shown in Fig. 4 will be described below.

신호 획득부(110)는 기계로부터 신호를 획득한다. 여기서, 신호 획득부(110)는 기계로부터 진동 신호, 음향방출 신호, 또는 전류 신호 등의 신호를 획득한다.The signal acquisition unit 110 acquires a signal from the machine. Here, the signal acquisition unit 110 acquires a signal such as a vibration signal, an acoustic emission signal, or a current signal from a machine.

그리고 특징 추출부(120)는 신호 획득부(110)에서 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성한다.The feature extraction unit 120 extracts features of the degradation state from the signal obtained by the signal acquisition unit 110 to generate feature vectors.

이어서, 후보군 생성부(130)는 특징 추출부(120)에서 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성한다.Next, the candidate group generating unit 130 generates a combination of feature vectors generated by the feature extracting unit 120 to generate a feature combination candidate group.

이후, 변별성 평가부(140)는 클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산한다. 그리고 변별성 평가부(140)는 그 계산된 평가지표를 기초로 하여, 후보군 생성부(130)에서 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가한다.Then, the differentiating evaluating unit 140 calculates the evaluation indexes by calculating the intra-class density and the inter-class separability. Then, the discrimination evaluating unit 140 evaluates the discrimination between classes for each feature combination candidate group generated by the candidate group generating unit 130 based on the calculated evaluation index.

변별성 평가 과정을 구체적으로 살펴보면, 변별성 평가부(140)는 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산한다. 그리고 변별성 평가부(140)는 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산한다.Specifically, the discrimination evaluation unit 140 calculates the intra-class density using the distances between the feature vectors in each class. Then, the discrimination evaluating unit 140 calculates the separability between the classes using the closest first and second feature vectors of the target class and the other classes.

그리고 변별성 평가부(140)는 그 계산된 클래스 내부 밀도 및 그 계산된 클래스간 분리성을 이용하여 평가지표를 계산한다. 이어서, 변별성 평가부(140)는 그 계산된 평가지표를 이용하여 후보군 생성부(130)에서 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가할 수 있다.Then, the discrimination evaluation unit 140 calculates the evaluation index using the calculated intra-class density and the calculated inter-class separability. Then, the discrimination evaluation unit 140 can evaluate the discrimination between classes for each feature combination candidate group generated in the candidate group generation unit 130 by using the calculated evaluation index.

그리고 조합 선택부(150)는 변별성 평가부(140)에서 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택한다. 여기서, 조합 선택부(150)에서 선택된 특징벡터들의 조합은 기계 상태 모니터링 및 고장 진단 등에 이용될 수 있다.The combination selection unit 150 selects a combination of the feature vectors having the largest evaluation index value for the discrimination between classes evaluated by the differentiability evaluation unit 140. [ Here, the combination of the feature vectors selected by the combination selection unit 150 may be used for machine state monitoring and trouble diagnosis.

도 5는 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스 내부 밀도를 계산하는 과정에 대한 설명도이다.5 is an explanatory diagram illustrating a process of calculating a class internal density performed by the class differentiating device according to the embodiment of the present invention.

도 5에 도시된 바와 같이, 변별성 평가부(140)는 각 클래스의 특징벡터와, 클래스 내에서 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산한다.As shown in FIG. 5, the discrimination evaluation unit 140 calculates the class inner density using the feature vector of each class and the feature vector closest to the feature vector in the class.

Figure 112016120209623-pat00040
Figure 112016120209623-pat00040

여기서,

Figure 112016120209623-pat00041
는 클래스 내부 밀도,
Figure 112016120209623-pat00042
는 클래스의 개수,
Figure 112016120209623-pat00043
는 클래스 a의 특징벡터 개수,
Figure 112016120209623-pat00044
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00045
는 a 클래스 내에서
Figure 112016120209623-pat00046
와 가장 가까운 특징벡터를 나타낸다.here,
Figure 112016120209623-pat00041
Class density,
Figure 112016120209623-pat00042
The number of classes,
Figure 112016120209623-pat00043
The number of characteristic vectors of class a,
Figure 112016120209623-pat00044
Is an i-th feature vector of class a,
Figure 112016120209623-pat00045
Within a class
Figure 112016120209623-pat00046
And the nearest feature vector.

변별성 평가부(140)는 상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리(210)를 이용하여 클래스 내부 밀도를 계산할 수 있다.The differentiability evaluating unit 140 can calculate the class inner density using the distance 210 between the feature vectors in each class according to the above-mentioned [Equation 2].

여기서, 변별성 평가부(140)는 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산할 수 있다.Here, if the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation, the discrimination evaluator 140 can calculate the inner class density by searching for the minimum value excluding the feature vector.

도 6은 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스간 분리성을 계산하는 과정에 대한 설명도이다.FIG. 6 is an explanatory diagram illustrating a process of calculating the class separability performed by the class differentiating device according to the embodiment of the present invention.

도 6에 도시된 바와 같이, 변별성 평가부(140)는 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하고(210), 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인한다.As shown in FIG. 6, the discrimination evaluating unit 140 searches for a nearest neighbor feature vector of the first feature vector and a nearest neighbor vector of the other class (210) Is a first feature vector.

상기 확인 결과, 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인 조건을 만족할 경우, 변별성 평가부(140)는 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경한다. 여기서, 제1 및 제2 특징벡터 사이의 거리는 제1 특징벡터가 다수이면 다수 개의 거리가 더해질 수 있다.If it is determined that the nearest neighbor feature vector of the nearest neighbor feature vector satisfies the condition that is the first feature vector, the discrimination evaluation unit 140 may classify the distance between the first and second feature vectors as an interclass separation In addition to last name, we change the class separability. Here, the distance between the first and second feature vectors may be a plurality of distances if the first feature vector is plural.

그리고 변별성 평가부(140)는 그 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산한다.The differentiability evaluating unit 140 calculates the separability between classes by dividing the changed class separability by the number of distances added to the class separability.

이러한 변별성 평가 과정을 구체적으로 살펴보기로 한다.This evaluation process will be described in detail.

Figure 112016120209623-pat00047
Figure 112016120209623-pat00047

여기서,

Figure 112016120209623-pat00048
는 타 클래스의 최근접 제2 특징벡터,
Figure 112016120209623-pat00049
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00050
는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타낸다. here,
Figure 112016120209623-pat00048
Is a nearest neighbor feature vector of another class,
Figure 112016120209623-pat00049
Is an i-th feature vector of class a,
Figure 112016120209623-pat00050
Denotes a j-th feature vector of class b, and b denotes one of remaining classes other than class a.

우선, 변별성 평가부(140)는 상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색할 수 있다.First, the differentiating evaluating unit 140 can search for the first feature vector and the closest second feature vector of the other class according to the above-mentioned expression (3).

여기서, 변별성 평가부(140)는 최근접 특징벡터

Figure 112016120209623-pat00051
가 이전에 계산된 특징벡터일 경우를 제외하고 최근접 특징벡터를 탐색할 수 있다.Here, the differentiating evaluating unit 140 evaluates the nearest neighboring feature vector
Figure 112016120209623-pat00051
Can be searched for the closest feature vector except when the feature vector is a previously computed feature vector.

변별성 평가부(140)는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인할 수 있다.The discrimination evaluating unit 140 can check whether the closest feature vector of the nearest neighbor feature vector is the first feature vector.

Figure 112016120209623-pat00052
Figure 112016120209623-pat00052

여기서,

Figure 112016120209623-pat00053
는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터,
Figure 112016120209623-pat00054
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00055
는 b 클래스의 j번째 특징벡터를 나타낸다.here,
Figure 112016120209623-pat00053
Is a nearest neighbor feature vector of the nearest neighbor feature vector searched,
Figure 112016120209623-pat00054
Is an i-th feature vector of class a,
Figure 112016120209623-pat00055
Represents the jth feature vector of class b.

이때, 변별성 평가부(140)는 상기의 [수학식 4]에서 비교되는 a와 i는 [수학식 3]에서의 a와 i를 제외한다.At this time, the differentiability evaluating unit 140 excludes a and i in Equation (3) from a and i compared in Equation (4).

Figure 112016120209623-pat00056
Figure 112016120209623-pat00056

여기서,

Figure 112016120209623-pat00057
는 클래스간 분리성,
Figure 112016120209623-pat00058
는 [수학식 4]의
Figure 112016120209623-pat00059
클래스의
Figure 112016120209623-pat00060
번째 특징벡터,
Figure 112016120209623-pat00061
는 [수학식 3]의
Figure 112016120209623-pat00062
클래스의
Figure 112016120209623-pat00063
번째 특징벡터를 나타낸다. here,
Figure 112016120209623-pat00057
Class separability,
Figure 112016120209623-pat00058
Is expressed by Equation (4)
Figure 112016120209623-pat00059
Of the class
Figure 112016120209623-pat00060
Th feature vector,
Figure 112016120209623-pat00061
Is expressed by Equation (3)
Figure 112016120209623-pat00062
Of the class
Figure 112016120209623-pat00063
Th feature vector.

그리고 변별성 평가부(140)는 상기의 [수학식 5]에 따라 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경할 수 있다.Then, the discrimination evaluation unit 140 can change the class separability by adding the distance between the first and second feature vectors to the class separability according to the above-mentioned expression (5).

Figure 112016120209623-pat00064
Figure 112016120209623-pat00064

여기서,

Figure 112016120209623-pat00065
는 클래스간 분리성,
Figure 112016120209623-pat00066
는 더해진 거리들의 개수를 나타낸다.here,
Figure 112016120209623-pat00065
Class separability,
Figure 112016120209623-pat00066
Represents the number of added distances.

변별성 평가부(140)는 상기의 [수학식 6]에 따라 클래스간 분리성을 상기의 [수학식 5]에서 더해진 거리들의 개수로 나누어서 클래스간 분리성을 계산할 수 있다. 즉, 변별성 평가부(140)는 더해진 거리들의 평균을 구하여 클래스간 분리성을 계산할 수 있다.The differentiability evaluating unit 140 can calculate the interclass separability by dividing the interclass separability by the number of distances added in Equation (5) according to Equation (6). That is, the discrimination evaluating unit 140 can calculate the class separability by averaging the added distances.

한편, 변별성 평가부(140)는 상기의 [수학식 2]에서 계산된 클래스 내부 밀도(

Figure 112016120209623-pat00067
) 및 상기의 [수학식 6]에서 계산된 클래스간 분리성(
Figure 112016120209623-pat00068
)을 하기의 [수학식 7]과 같이 계산하여 평가지표를 계산한다. 즉, 변별성 평가부(140)는 클래스 내부 밀도(
Figure 112016120209623-pat00069
)를 클래스간 분리성(
Figure 112016120209623-pat00070
)으로 나누어 평가지표를 계산할 수 있다.On the other hand, the discrimination-evaluating unit 140 evaluates the class internal density < RTI ID = 0.0 > (
Figure 112016120209623-pat00067
) And the inter-class separability calculated in the above equation (6)
Figure 112016120209623-pat00068
) Is calculated according to the following equation (7), and the evaluation index is calculated. That is, the discrimination evaluating unit 140 evaluates the intra-class density (
Figure 112016120209623-pat00069
) To class separability (
Figure 112016120209623-pat00070
), The evaluation index can be calculated.

Figure 112016120209623-pat00071
Figure 112016120209623-pat00071

여기서,

Figure 112016120209623-pat00072
는 평가지표,
Figure 112016120209623-pat00073
는 클래스 내부 밀도,
Figure 112016120209623-pat00074
는 클래스간 분리성을 나타낸다.here,
Figure 112016120209623-pat00072
Is an evaluation index,
Figure 112016120209623-pat00073
Class density,
Figure 112016120209623-pat00074
Represents the separability between classes.

도 7은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에 대한 흐름도이다.7 is a flowchart of a class differentiating property evaluation method of nonlinear data according to an embodiment of the present invention.

클래스 변별성 평가 장치(100)는 기계로부터 신호를 획득한다(S101).The class discrimination evaluation apparatus 100 acquires a signal from a machine (S101).

그리고 클래스 변별성 평가 장치(100)는 그 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성한다(S102).Then, the class differentiating apparatus 100 extracts the characteristics of the deteriorated state from the obtained signal to generate characteristic vectors (S102).

이어서, 클래스 변별성 평가 장치(100)는 그 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성한다(S103).Next, the class differentiating device 100 generates a combination of the generated feature vectors to generate a feature combination candidate group (S103).

이후, 클래스 변별성 평가 장치(100)는 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산한다(S104).Thereafter, the class differentiating device 100 calculates the intra-class density using the distance between the feature vectors in each class (S104).

그리고 클래스 변별성 평가 장치(100)는 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산한다(S105).Then, the class discrimination evaluating apparatus 100 calculates the class separability using the closest first and second feature vectors of the target class and other classes (S105).

이어서, 클래스 변별성 평가 장치(100)는 그 계산된 클래스 내부 밀도 및 그 계산된 클래스간 분리성을 계산하여 평가지표를 계산한다(S106).Then, the class differentiating evaluating apparatus 100 calculates the calculated intra-class density and the calculated inter-class separability, and calculates an evaluation index (S106).

이후, 클래스 변별성 평가 장치(100)는 그 계산된 평가지표를 이용하여 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가한다(S107).Thereafter, the class differentiating device 100 evaluates the discrimination between classes for each feature combination candidates using the calculated evaluation index (S107).

그리고 클래스 변별성 평가 장치(100)는 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택한다(S108).Then, the class differentiating device 100 selects a combination of the feature vectors having the largest evaluation index value for the evaluated inter-class discrimination (S108).

도 8은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에서의 클래스간 변별성 평가 과정에 대한 흐름도이다.FIG. 8 is a flowchart of a process for evaluating the discrimination between classes in the method for evaluating class discrimination of nonlinear data according to the embodiment of the present invention.

우선, 클래스 변별성 평가 장치(100)는 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색한다(S201).First, the class differentiating device 100 searches for a nearest neighbor feature vector of the first feature vector and another class (S201).

그리고 클래스 변별성 평가 장치(100)는 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인한다(S202).Then, the class differentiating device 100 confirms whether the nearest neighbor feature vector of the nearest neighbor feature vector is the first feature vector (S202).

상기 확인 결과(S202), 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인 조건을 만족할 경우, 클래스 변별성 평가 장치(100)는 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경한다(S203).If the closest feature vector of the second closest neighbor feature vector satisfies the condition that is the first feature vector, the class differentiating device evaluates the distance between the first and second feature vectors (step S202) Is added to the class separability, and the class separability is changed (S203).

반면, 상기 확인 결과(S202), 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인 조건을 만족하지 않을 경우, 클래스 변별성 평가 장치(100)는 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 과정을 다시 수행한다.On the other hand, if the closest feature vector of the nearest neighbor feature vector does not satisfy the condition of the first feature vector (S202), the class differentiating device evaluates the classifier The process of confirming whether the nearest feature vector of the two feature vectors is the first feature vector is performed again.

그리고 클래스 변별성 평가 장치(100)는 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산한다(S204).Then, the class differentiating device 100 divides the changed class separability by the number of distances added to the class separability to calculate the class separability (S204).

이상에서 설명한 실시 예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 클래스 변별성 평가 장치
110; 신호 획득부
120: 특징 추출부
130: 후보군 생성부
140: 변별성 평가부
150: 조합 선택부
100: Class discrimination evaluation device
110; The signal-
120: Feature extraction unit
130: candidate group generating unit
140:
150: combination selection unit

Claims (18)

클래스 변별성 평가 장치에 의해 수행되는 비선형 데이터의 클래스 변별성 평가 방법에 있어서,
기계로부터 신호를 획득하는 단계;
상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 단계;
상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 단계;
클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계; 및
상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 단계를 포함하고,
상기 클래스 간 변별성을 평가하는 단계는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 단계; 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하는 단계; 및 상기 계산된 클래스 내부 밀도 및 상기 계산된 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계를 포함하고,
상기 클래스간 분리성을 계산하는 단계는, 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 단계; 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 단계; 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하는 단계; 및 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산하는 단계를 포함하는 비선형 데이터의 클래스 변별성 평가 방법.
A class discrimination evaluation method of nonlinear data performed by a class discrimination evaluation apparatus,
Obtaining a signal from the machine;
Extracting characteristics of the deteriorated state from the obtained signal to generate characteristic vectors;
Generating a feature combination candidate group by generating a combination of the generated feature vectors;
Calculating intra-class density and class-to-class separability to calculate an evaluation index, and evaluating inter-class discrimination for each of the generated feature combination candidates based on the calculated evaluation index; And
Selecting a combination of feature vectors having the largest evaluation index value for the evaluated inter-class discrimination,
Evaluating the inter-class discrimination comprises: calculating intra-class density using distances between feature vectors in each class; Calculating separability between classes using closest first and second feature vectors of a target class and other classes; And calculating the evaluation indices by calculating the calculated intra-class density and the calculated class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates using the calculated evaluation indexes Including,
Calculating the interclass separability comprises: searching for a nearest neighbor feature vector of the first feature vector and the nearest neighbor vector of the other class; Confirming whether the closest feature vector of the searched closest second feature vector is a first feature vector; Changing the class separability by adding the distance between the first and second feature vectors to the class separability when the checked condition is satisfied; And dividing the changed class separability by the number of distances added to the class separability to calculate the class separability.
삭제delete 제1항에 있어서,
상기 클래스 내부 밀도를 계산하는 단계는,
각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.
The method according to claim 1,
Wherein the step of calculating the class inner density comprises:
Calculating a class inner density using a feature vector of each class and a feature vector closest to the feature vector in the class;
제1항에 있어서,
상기 클래스 내부 밀도를 계산하는 단계는,
[수학식 2]
Figure 112016120209623-pat00075

여기서,
Figure 112016120209623-pat00076
는 클래스 내부 밀도,
Figure 112016120209623-pat00077
는 클래스의 개수,
Figure 112016120209623-pat00078
는 클래스 a의 특징벡터 개수,
Figure 112016120209623-pat00079
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00080
는 a 클래스 내에서
Figure 112016120209623-pat00081
와 가장 가까운 특징벡터를 나타내며,
상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.
The method according to claim 1,
Wherein the step of calculating the class inner density comprises:
&Quot; (2) "
Figure 112016120209623-pat00075

here,
Figure 112016120209623-pat00076
Class density,
Figure 112016120209623-pat00077
The number of classes,
Figure 112016120209623-pat00078
The number of characteristic vectors of class a,
Figure 112016120209623-pat00079
Is an i-th feature vector of class a,
Figure 112016120209623-pat00080
Within a class
Figure 112016120209623-pat00081
And the nearest feature vector,
Calculating a class inner density using distances between feature vectors in each class according to Equation (2) above.
제1항에 있어서,
상기 클래스 내부 밀도를 계산하는 단계는,
클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.
The method according to claim 1,
Wherein the step of calculating the class inner density comprises:
A method for evaluating class discrimination of nonlinear data, the method comprising the steps of: calculating a class inner density by finding a minimum value excluding a feature vector of a feature vector in a class when the feature vector closest to the feature vector is a feature vector used in a previous calculation;
삭제delete 제1항에 있어서,
상기 최근접 제2 특징벡터를 탐색하는 단계는,
[수학식 3]
Figure 112017102810172-pat00082

여기서,
Figure 112017102810172-pat00083
는 타 클래스의 최근접 제2 특징벡터,
Figure 112017102810172-pat00084
는 a 클래스의 i번째 특징벡터,
Figure 112017102810172-pat00085
는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며,
상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 비선형 데이터의 클래스 변별성 평가 방법.
The method according to claim 1,
Wherein the step of searching for the nearest second feature vector comprises:
&Quot; (3) "
Figure 112017102810172-pat00082

here,
Figure 112017102810172-pat00083
Is a nearest neighbor feature vector of another class,
Figure 112017102810172-pat00084
Is an i-th feature vector of class a,
Figure 112017102810172-pat00085
Represents a j-th feature vector of class b, and b represents one of remaining classes that are not a class,
And searching for a nearest neighbor feature vector of the first feature vector and another class according to Equation (3) above.
제1항에 있어서,
상기 제1 특징벡터인지를 확인하는 단계는,
[수학식 4]
Figure 112017102810172-pat00086

여기서,
Figure 112017102810172-pat00087
는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터,
Figure 112017102810172-pat00088
는 a 클래스의 i번째 특징벡터,
Figure 112017102810172-pat00089
는 b 클래스의 j번째 특징벡터를 나타내며,
상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 비선형 데이터의 클래스 변별성 평가 방법.
The method according to claim 1,
The method of claim 1,
&Quot; (4) "
Figure 112017102810172-pat00086

here,
Figure 112017102810172-pat00087
Is a nearest neighbor feature vector of the nearest neighbor feature vector searched,
Figure 112017102810172-pat00088
Is an i-th feature vector of class a,
Figure 112017102810172-pat00089
Denotes a j-th feature vector of class b,
And determining whether the nearest neighbor feature vector of the nearest neighbor feature vector is a first feature vector according to Equation (4) above.
제1항에 있어서,
상기 클래스 간 변별성을 평가하는 단계는,
[수학식 7]
Figure 112017102810172-pat00090

여기서,
Figure 112017102810172-pat00091
는 평가지표,
Figure 112017102810172-pat00092
는 클래스 내부 밀도,
Figure 112017102810172-pat00093
는 클래스간 분리성을 나타내며,
상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.
The method according to claim 1,
The step of evaluating the discrimination between classes may comprise:
&Quot; (7) "
Figure 112017102810172-pat00090

here,
Figure 112017102810172-pat00091
Is an evaluation index,
Figure 112017102810172-pat00092
Class density,
Figure 112017102810172-pat00093
Indicates the separability between classes,
Calculating an evaluation index by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7) above.
기계로부터 신호를 획득하는 신호 획득부;
상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 특징 추출부;
상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 후보군 생성부;
클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 변별성 평가부; 및
상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 조합 선택부;를 포함하고,
상기 변별성 평가부는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하고, 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하되,
제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하고, 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하고, 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하고, 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산하는 비선형 데이터의 클래스 변별성 평가 장치.
A signal acquiring unit acquiring a signal from the machine;
A feature extraction unit for extracting features of a deteriorated state from the obtained signal to generate feature vectors;
A candidate group generation unit for generating a combination of the feature vectors to generate a feature combination candidate group;
A discrimination evaluating unit for calculating an evaluation index by calculating the intra-class density and the class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates based on the calculated evaluation index; And
And a combination selecting unit for selecting a combination of feature vectors having the largest evaluation index value for the evaluated inter-class discrimination,
The discrimination evaluating unit calculates the intra-class density using the distances between the feature vectors in each class, calculates the inter-class separability using the closest first and second feature vectors of the target class and the other class, Evaluating the discrimination between classes for each of the generated feature combination candidates using the calculated evaluation index,
Searching for a nearest neighbor feature vector of the first feature vector and a nearest neighbor vector of the other class to check whether the nearest neighbor vector of the nearest neighbor vector is a first feature vector, Class distinction is added to the inter-class separability by dividing the distance between the first and second characteristic vectors by the number of distances added to the inter-class separability, Of the class.
삭제delete 제10항에 있어서,
상기 변별성 평가부는,
각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.
11. The method of claim 10,
The discrimination-
And class density of each class is calculated using a feature vector of each class and a feature vector closest to the feature vector in the class.
제10항에 있어서,
상기 변별성 평가부는,
[수학식 2]
Figure 112016120209623-pat00094

여기서,
Figure 112016120209623-pat00095
는 클래스 내부 밀도,
Figure 112016120209623-pat00096
는 클래스의 개수,
Figure 112016120209623-pat00097
는 클래스 a의 특징벡터 개수,
Figure 112016120209623-pat00098
는 a 클래스의 i번째 특징벡터,
Figure 112016120209623-pat00099
는 a 클래스 내에서
Figure 112016120209623-pat00100
와 가장 가까운 특징벡터를 나타내며,
상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.
11. The method of claim 10,
The discrimination-
&Quot; (2) "
Figure 112016120209623-pat00094

here,
Figure 112016120209623-pat00095
Class density,
Figure 112016120209623-pat00096
The number of classes,
Figure 112016120209623-pat00097
The number of characteristic vectors of class a,
Figure 112016120209623-pat00098
Is an i-th feature vector of class a,
Figure 112016120209623-pat00099
Within a class
Figure 112016120209623-pat00100
And the nearest feature vector,
And calculates the class inner density using the distance between the feature vectors in each class according to Equation (2) above.
제10항에 있어서,
상기 변별성 평가부는,
클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.
11. The method of claim 10,
The discrimination-
And class density inside the class is calculated by finding a minimum value excluding the feature vector when the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation.
삭제delete 제10항에 있어서,
상기 변별성 평가부는,
[수학식 3]
Figure 112017102810172-pat00101

여기서,
Figure 112017102810172-pat00102
는 타 클래스의 최근접 제2 특징벡터,
Figure 112017102810172-pat00103
는 a 클래스의 i번째 특징벡터,
Figure 112017102810172-pat00104
는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며,
상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 비선형 데이터의 클래스 변별성 평가 장치.
11. The method of claim 10,
The discrimination-
&Quot; (3) "
Figure 112017102810172-pat00101

here,
Figure 112017102810172-pat00102
Is a nearest neighbor feature vector of another class,
Figure 112017102810172-pat00103
Is an i-th feature vector of class a,
Figure 112017102810172-pat00104
Represents a j-th feature vector of class b, and b represents one of remaining classes that are not a class,
And searches for a closest second feature vector of the first feature vector and the other class according to Equation (3) above.
제10항에 있어서,
상기 변별성 평가부는,
[수학식 4]
Figure 112017102810172-pat00105

여기서,
Figure 112017102810172-pat00106
는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터,
Figure 112017102810172-pat00107
는 a 클래스의 i번째 특징벡터,
Figure 112017102810172-pat00108
는 b 클래스의 j번째 특징벡터를 나타내며,
상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 비선형 데이터의 클래스 변별성 평가 장치.
11. The method of claim 10,
The discrimination-
&Quot; (4) "
Figure 112017102810172-pat00105

here,
Figure 112017102810172-pat00106
Is a nearest neighbor feature vector of the nearest neighbor feature vector searched,
Figure 112017102810172-pat00107
Is an i-th feature vector of class a,
Figure 112017102810172-pat00108
Denotes a j-th feature vector of class b,
Wherein the closest feature vector of the searched closest second feature vector is a first feature vector according to Equation (4) above.
제10항에 있어서,
상기 변별성 평가부는,
[수학식 7]
Figure 112017102810172-pat00109

여기서,
Figure 112017102810172-pat00110
는 평가지표,
Figure 112017102810172-pat00111
는 클래스 내부 밀도,
Figure 112017102810172-pat00112
는 클래스간 분리성을 나타내며,
상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.
11. The method of claim 10,
The discrimination-
&Quot; (7) "
Figure 112017102810172-pat00109

here,
Figure 112017102810172-pat00110
Is an evaluation index,
Figure 112017102810172-pat00111
Class density,
Figure 112017102810172-pat00112
Indicates the separability between classes,
Wherein the evaluation index is calculated by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7) above.
KR1020160166189A 2016-12-07 2016-12-07 Apparatus and method for evaluating class discrimination of nonlinear data KR101811962B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160166189A KR101811962B1 (en) 2016-12-07 2016-12-07 Apparatus and method for evaluating class discrimination of nonlinear data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160166189A KR101811962B1 (en) 2016-12-07 2016-12-07 Apparatus and method for evaluating class discrimination of nonlinear data

Publications (1)

Publication Number Publication Date
KR101811962B1 true KR101811962B1 (en) 2017-12-22

Family

ID=60936557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160166189A KR101811962B1 (en) 2016-12-07 2016-12-07 Apparatus and method for evaluating class discrimination of nonlinear data

Country Status (1)

Country Link
KR (1) KR101811962B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594202A (en) * 2018-07-25 2018-09-28 电子科技大学 A kind of neighborhood distributed architecture non-linear projection target's feature-extraction method
CN114112390A (en) * 2021-11-23 2022-03-01 哈尔滨工程大学 Early fault diagnosis method for nonlinear complex system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016516251A (en) * 2014-03-14 2016-06-02 シャオミ・インコーポレイテッド Clustering method, clustering device, terminal device, program, and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016516251A (en) * 2014-03-14 2016-06-02 シャオミ・インコーポレイテッド Clustering method, clustering device, terminal device, program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594202A (en) * 2018-07-25 2018-09-28 电子科技大学 A kind of neighborhood distributed architecture non-linear projection target's feature-extraction method
CN114112390A (en) * 2021-11-23 2022-03-01 哈尔滨工程大学 Early fault diagnosis method for nonlinear complex system
CN114112390B (en) * 2021-11-23 2024-03-22 哈尔滨工程大学 Nonlinear complex system early fault diagnosis method

Similar Documents

Publication Publication Date Title
KR101823746B1 (en) Method for bearing fault diagnosis
JP6076751B2 (en) Abnormality diagnosis method and apparatus
US8682824B2 (en) Method and device for monitoring the state of a facility
KR101797400B1 (en) Method and apparatus for diagnosing fault based on probabilistic density
KR102141391B1 (en) Failure data management method based on cluster estimation
Shakya et al. Bearing diagnosis based on Mahalanobis–Taguchi–Gram–Schmidt method
US20150346066A1 (en) Asset Condition Monitoring
CN110352389B (en) Information processing apparatus and information processing method
KR102123522B1 (en) Failure diagnostic method based on cluster of fault data
JP2014048697A (en) Facility state monitoring method, and facility state monitoring device
CN106022366B (en) A kind of rotating machinery method for diagnosing faults based on neighbour's evidence fusion
KR102265298B1 (en) Apparatus and method for fault diagnosis using fake data generated by machine learning
KR102069377B1 (en) Predictive Diagnosis Apparatus For Complex Defect of Nuclear Power Plant by Machine Learning
CN112528975A (en) Industrial quality inspection method, device and computer readable storage medium
CN110543907A (en) fault classification method based on microcomputer monitoring power curve
KR101811962B1 (en) Apparatus and method for evaluating class discrimination of nonlinear data
KR101808390B1 (en) Method for machine fault diagnosis
KR20230104527A (en) Partial Discharge Monitoring System And Partial Discharge Monitoring Method
CN117076935B (en) Digital twin-assisted mechanical fault data lightweight generation method and system
JP7354421B2 (en) Error factor estimation device and estimation method
JP2014170269A (en) Abnormality monitoring device and method for time series data and program
JP7107632B2 (en) Rotating machine diagnostic system and rotating machine diagnostic method
Bagheri et al. A stochastic asset life prediction method for large fleet datasets in big data environment
CN115112663A (en) Method and apparatus for adjusting condition for determining whether or not a test object is good
KR101754165B1 (en) System for detecting abnormal behavior and evaluating safety of structure for merging non-periodic acceleration data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant