KR101811962B1 - Apparatus and method for evaluating class discrimination of nonlinear data - Google Patents
Apparatus and method for evaluating class discrimination of nonlinear data Download PDFInfo
- Publication number
- KR101811962B1 KR101811962B1 KR1020160166189A KR20160166189A KR101811962B1 KR 101811962 B1 KR101811962 B1 KR 101811962B1 KR 1020160166189 A KR1020160166189 A KR 1020160166189A KR 20160166189 A KR20160166189 A KR 20160166189A KR 101811962 B1 KR101811962 B1 KR 101811962B1
- Authority
- KR
- South Korea
- Prior art keywords
- class
- feature vector
- feature
- discrimination
- separability
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/08—Computing arrangements based on specific mathematical models using chaos models or non-linear system models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M13/00—Testing of machine parts
- G01M13/04—Bearings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nonlinear Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 비선형 데이터의 클래스 변별성 평가 방법 및 장치에 관한 것으로서, 더욱 상세하게는 비선형 데이터로부터 추출된 특징들 중 클래스 간 변별성이 높은 특징조합을 선택할 수 있는 평가지표를 계산하고 그 계산된 평가지표를 기초로 하여 클래스간 변별성을 평가함으로써, 클래스간 변별성이 높은 특징 조합을 정확하게 선택할 수 있는, 비선형 데이터의 클래스 변별성 평가 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for evaluating class discrimination of nonlinear data, and more particularly, to a method and apparatus for evaluating class discrimination of nonlinear data by calculating an evaluation index capable of selecting a feature combination having high discrimination among classes extracted from nonlinear data, To a method and an apparatus for evaluating class discrimination of nonlinear data capable of accurately selecting feature combinations having high discrimination between classes by evaluating discrimination between classes.
베어링의 결함 검출에 있어, 실제 산업현장에서는 소음과 진동의 특성을 이용하여 비파괴검사에 이용함으로써 베어링부의 수명연장 등 유지 보전에 큰 도움을 주고 있다.In the detection of defects in bearings, it is used for non-destructive inspection by using characteristics of noise and vibration in real industrial field, which is greatly helping maintenance maintenance such as extension of bearing life.
베어링 고장원인으로는 불충분한 윤활, 부적절한 윤활재의 사용, 베어링의 잘못된 설치, 축계의 과도한 변형 등이 있다. 과거에는 숙련된 기술자에 의하여 이러한 문제들을 진단하고 고장 여부를 판단하였으나, 대부분 진단시간이 길고, 주관적이며, 경우에 따라 기기 시스템의 작동을 중단해야 하는 단점을 지니고 있다. 최근에는 기기 시스템의 작동을 유지하면서, 베어링의 고장을 진단할 수 있는 시스템이 요구됨에 따라 지속적으로 베어링 작동 상태를 진단하여 고장 전에 미리 이상을 발견할 수 있는 형태의 기술로 발전되고 있다.Causes of bearing failure include insufficient lubrication, improper use of lubricant, misalignment of bearings, and excessive deformation of shaft. In the past, experienced technicians diagnosed these problems and judged whether they were faulty. However, most of them have a long diagnosis time, subjective, and sometimes have to stop the operation of the equipment system. In recent years, a system capable of diagnosing a failure of a bearing has been required while maintaining the operation of a device system, and thus the bearing operating state is continuously diagnosed and developed as a type of technology capable of detecting an abnormality before a failure.
도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.
도 1의 (a)는 베어링의 구조를, (b) 베어링 외륜 결함을, (c)는 베어링 내륜 결함을 나타냄으로, 이와 같이 고장이 발생할 수 있는 기계의 위치에 센서를 부착하여 신호를 취득하고, (d)에 도시된 바와 같이 취득된 신호로부터 특징을 추출하고 상태 진단 영역에서 특징의 패턴을 분석하여 고장을 진단할 수 있다.Fig. 1 (a) shows the structure of the bearing, (b) shows the bearing outer ring defect, and (c) shows the inner ring of the bearing. The sensor is attached to the position of the machine, , it is possible to extract a feature from the acquired signal and diagnose the failure by analyzing the pattern of the feature in the state diagnosis area as shown in (d).
도 2는 종래기술에 따른 고장 진단 방법에 따라 선택된 특징선택의 예시들을 나타낸 도면이다.2 is a diagram showing examples of feature selection selected according to the prior art fault diagnosis method.
종래기술에 따른 고장 진단 방법은 기계 등에서 발생하는 신호로부터 특징을 추축한다. 즉, 고장 진단 방법은 신호로부터 신호의 특성을 나타내는 값들을 추출한다.In the fault diagnosis method according to the related art, features are extracted from signals generated in a machine or the like. That is, the fault diagnosis method extracts values representing characteristics of a signal from a signal.
상태 진단에 사용되는 특징들의 예들은 하기의 [수학식 1]과 같이 나타낼 수 있다. Examples of the features used in the state diagnosis can be expressed as Equation (1) below.
상기 [수학식 1]과 같이, 제곱평균제곱근(Root-mean-square), 커토시스 값(Kurtosis value), 셰이프 팩터(Shape factor), 제곱근평균제곱(Square-mean-Root) 등으로 특징들이 추출될 수 있다.The features are extracted by a root-mean-square, a kurtosis value, a shape factor, and a square-mean-root, as shown in Equation (1) .
추출된 특징으로부터 상태 모니터링 및 진단에 유용한 특징들을 선택하게 된다.From the extracted features, features that are useful for status monitoring and diagnosis are selected.
도 2의 (a) 및 (b)에 도시된 바와 같이, 잘된 특징선택의 예와 잘못된 특징 선택의 예가 나타나 있다.As shown in Figs. 2 (a) and 2 (b), examples of good feature selection and examples of wrong feature selection are shown.
도 2의 (a)에 도시된 바와 같이, 잘된 특징선택의 예에서는 정상 특징 및 결함 특징들이 서로 분리되어 분포되고 있다.As shown in Fig. 2 (a), in the example of the feature selection, the normal feature and the defect feature are distributed separately from each other.
반면, 도 2의 (b)에 도시된 바와 같이, 잘못된 특징선택의 예에서는 정상 특징 및 결함 특징들이 서로 분리되지 않고 모여서 분포되고 있다.On the other hand, as shown in Fig. 2 (b), in the example of erroneous feature selection, the normal feature and the defect feature are gathered together without being separated from each other.
도 3은 종래의 변별성 평가 방법을 이용한 선형적 분포 및 비선형적 분포의 평가 과정을 설명하기 위한 도면이다.3 is a diagram for explaining a process of evaluating a linear distribution and a non-linear distribution using a conventional discriminant evaluation method.
종래의 변별성 평가 방법은 상기 특징들을 평가하기 위해, 특징 조합의 클래스간 변별성을 평가한다.Conventional differentiating evaluation methods evaluate the discrimination between classes of feature combinations in order to evaluate the features.
이러한 변별성 평가 방법은 같은 클래스 내의 밀도와 다른 클래스 간의 분리성을 계산한다. 그리고 평가 방법은 이에 대한 비율의 크기로 평가한다.This differentiability evaluation method calculates the density within the same class and the separability between different classes. The evaluation method is evaluated by the ratio of the ratio.
첫째, 클래스 내 밀도에 대해서는, 평가 방법은 같은 클래스 내 특징 벡터들과 특징벡터들의 중심점과의 거리의 합을 이용하여 계산한다.First, regarding the density in the class, the evaluation method is calculated by using the sum of the distances between the feature vectors in the same class and the center points of the feature vectors.
둘째, 클래스간 분리성에 대해서는, 평가 방법은 서로 다른 클래스의 특징벡터들의 중심점과 전체 특징벡터들의 중심점 사이의 거리의 합을 이용하여 계산한다.Second, regarding the separability between classes, the evaluation method is calculated by using the sum of the distances between the center points of feature vectors of different classes and the center points of all feature vectors.
종래의 변별성 평가 방법을 이용하여 계산된 평가지표를 살펴보기로 한다.Hereinafter, evaluation indexes calculated using a conventional discriminant evaluation method will be described.
선형적 분포와 비선형적 분포가 도 3의 (a) 및 (b)에 도시되어 있다.Linear and nonlinear distributions are shown in Figures 3 (a) and 3 (b).
우선, 도 3의 (a)에 도시된 선형적 분포에 대해서 살펴보기로 한다.First, the linear distribution shown in FIG. 3 (a) will be described.
종래의 평가 방법은 클래스 A 내 특징 벡터들과 특징벡터들의 중심점 A과의 거리의 합을 이용하여 계산한다. 또한, 종래의 평가 방법은 클래스 B 내 특징 벡터들과 특징벡터들의 중심점 B과의 거리의 합을 이용하여 계산한다.The conventional evaluation method is calculated by using the sum of the distances between the feature vectors in the class A and the center points A of the feature vectors. Further, the conventional evaluation method is calculated by using the sum of distances between the feature vectors in the class B and the center points B of the feature vectors.
종래의 평가 방법은 서로 다른 클래스 A 및 B의 특징벡터들의 중심점 A 및 B와, 전체 특징벡터들의 전체 중심점 사이의 거리의 합을 이용하여 계산한다.The conventional evaluation method is calculated by using the sum of the distances between the center points A and B of the feature vectors of the different classes A and B and the total center points of all the feature vectors.
이와 같이, 종래의 평가 방법은 이러한 과정에 따라 클래스의 변별성을 정확하게 평가할 수 있다.Thus, the conventional evaluation method can accurately evaluate the class discrimination according to this process.
반면, 도 3의 (b)에 도시된 비선형적 분포는 종래의 변별성 평가 방법에 따라 정확하게 평가되지 못하게 된다. 즉, 비선형적 특징 분포에 대한 정확한 평가에 어려움이 발생한다.On the other hand, the nonlinear distribution shown in FIG. 3 (b) can not be accurately evaluated according to the conventional discriminant evaluation method. That is, it is difficult to accurately evaluate the nonlinear feature distribution.
도 3의 (b)에 도시된 바와 같이, 특징 분포가 비선형적 분포일 경우 클래스 내 특징벡터들의 중심점 A 및 B는 클래스 경계 바깥쪽으로 위치할 수 있다. 그러므로 중심점 A 및 B를 기준으로 클래스 A 및 B 내 밀도와, 클래스 A 및 B 간 분리성을 계산할 경우 평가 값이 정확하지 않게 된다.As shown in FIG. 3 (b), when the feature distribution is a nonlinear distribution, the center points A and B of the feature vectors in the class can be located outside the class boundary. Therefore, when calculating the density of classes A and B and the separability between classes A and B based on the center points A and B, the evaluation value becomes inaccurate.
본 발명의 실시 예들은 비선형 데이터로부터 추출된 특징들 중 클래스 간 변별성이 높은 특징조합을 선택할 수 있는 평가지표를 계산하고 그 계산된 평가지표를 기초로 하여 클래스간 변별성을 평가함으로써, 클래스간 변별성이 높은 특징 조합을 정확하게 선택할 수 있는, 비선형 데이터의 클래스 변별성 평가 방법 및 장치를 제공하고자 한다.The embodiments of the present invention calculate evaluation indexes capable of selecting feature combinations having high discrimination among classes among the features extracted from nonlinear data and evaluate the discrimination between classes on the basis of the calculated evaluation indexes, And to provide a method and apparatus for class discrimination evaluation of nonlinear data capable of accurately selecting high feature combinations.
본 발명의 제1 측면에 따르면, 기계로부터 신호를 획득하는 단계; 상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 단계; 상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 단계; 클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계; 및 상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 단계를 포함하는 비선형 데이터의 클래스 변별성 평가 방법이 제공될 수 있다.According to a first aspect of the present invention, there is provided a method comprising: obtaining a signal from a machine; Extracting characteristics of the deteriorated state from the obtained signal to generate characteristic vectors; Generating a feature combination candidate group by generating a combination of the generated feature vectors; Calculating intra-class density and class-to-class separability to calculate an evaluation index, and evaluating inter-class discrimination for each of the generated feature combination candidates based on the calculated evaluation index; And selecting the combination of the feature vectors having the largest evaluation index value for the evaluated inter-class discrimination.
상기 클래스 간 변별성을 평가하는 단계는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 단계; 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하는 단계; 및 상기 계산된 클래스 내부 밀도 및 상기 계산된 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계를 포함할 수 있다.Evaluating the inter-class discrimination comprises: calculating intra-class density using distances between feature vectors in each class; Calculating separability between classes using closest first and second feature vectors of a target class and other classes; And calculating the evaluation indices by calculating the calculated intra-class density and the calculated class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates using the calculated evaluation indexes .
상기 클래스 내부 밀도를 계산하는 단계는, 각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산할 수 있다.The step of calculating the intra-class density may calculate the intra-class density using the feature vector of each class and the feature vector closest to the feature vector in the class.
상기 클래스 내부 밀도를 계산하는 단계는, [수학식 2] , 여기서, 는 클래스 내부 밀도, 는 클래스의 개수, 는 클래스 a의 특징벡터 개수, 는 a 클래스의 i번째 특징벡터, 는 a 클래스 내에서 와 가장 가까운 특징벡터를 나타내며, 상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산할 수 있다.Wherein the step of calculating the inner class density comprises: , here, Class density, The number of classes, The number of characteristic vectors of class a, Is an i-th feature vector of class a, Within a class And the inner density of the class can be calculated using the distance between the feature vectors in each class according to Equation (2).
상기 클래스 내부 밀도를 계산하는 단계는, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산할 수 있다.The step of calculating the inner class density may calculate the inner class density by searching the minimum value excluding the feature vector if the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation.
상기 클래스간 분리성을 계산하는 단계는, 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 단계; 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 단계; 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하는 단계; 및 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산하는 단계를 포함할 수 있다.Calculating the interclass separability comprises: searching for a nearest neighbor feature vector of the first feature vector and the nearest neighbor vector of the other class; Confirming whether the closest feature vector of the searched closest second feature vector is a first feature vector; Changing the class separability by adding the distance between the first and second feature vectors to the class separability when the checked condition is satisfied; And calculating the separability between classes by dividing the changed class separability by the number of distances added to the class separability.
상기 최근접 제2 특징벡터를 탐색하는 단계는, [수학식 3] 여기서, 는 타 클래스의 최근접 제2 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며, 상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색할 수 있다.The step of searching for the nearest neighbor feature vector may include: here, Is a nearest neighbor feature vector of another class, Is an i-th feature vector of class a, Represents a jth feature vector of class b, and b represents one of remaining classes that are not a class, and it is possible to search for a first feature vector and a nearest neighbor feature vector of another class according to Equation (3) .
상기 제1 특징벡터인지를 확인하는 단계는, [수학식 4] 여기서, 는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터를 나타내며, 상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인할 수 있다.The step of verifying whether the first feature vector is expressed by Equation (4) here, Is a nearest neighbor feature vector of the nearest neighbor feature vector searched, Is an i-th feature vector of class a, Denotes a j-th feature vector of class b, and it can be confirmed whether the nearest neighbor vector of the nearest neighbor vector is a first feature vector according to Equation (4).
상기 클래스 간 변별성을 평가하는 단계는, [수학식 7] 여기서, 는 평가지표, 는 클래스 내부 밀도, 는 클래스간 분리성을 나타내며, 상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산할 수 있다.The step of evaluating the discrimination between classes may be expressed by Equation (7) here, Is an evaluation index, Class density, Represents the separability between classes, and the evaluation index can be calculated by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7).
한편, 본 발명의 제2 측면에 따르면, 기계로부터 신호를 획득하는 신호 획득부; 상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 특징 추출부; 상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 후보군 생성부; 클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 변별성 평가부; 및 상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 조합 선택부를 포함하는 비선형 데이터의 클래스 변별성 평가 장치가 제공될 수 있다.According to a second aspect of the present invention, there is provided a signal processing apparatus comprising: a signal obtaining unit obtaining a signal from a machine; A feature extraction unit for extracting features of a deteriorated state from the obtained signal to generate feature vectors; A candidate group generation unit for generating a combination of the feature vectors to generate a feature combination candidate group; A discrimination evaluating unit for calculating an evaluation index by calculating the intra-class density and the class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates based on the calculated evaluation index; And a combination selector for selecting a combination of feature vectors having a maximum evaluation index value for the evaluated inter-class discrimination.
상기 변별성 평가부는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하고, 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가할 수 있다.The discrimination evaluating unit calculates the intra-class density using the distances between the feature vectors in each class, calculates the inter-class separability using the closest first and second feature vectors of the target class and the other class, The discrimination between classes can be evaluated for each of the generated feature combination candidates using the calculated evaluation index.
상기 변별성 평가부는, 각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산할 수 있다.The discrimination evaluating unit can calculate the class inner density using the feature vector of each class and the feature vector closest to the feature vector in the class.
상기 변별성 평가부는, [수학식 2] , 여기서, 는 클래스 내부 밀도, 는 클래스의 개수, 는 클래스 a의 특징벡터 개수, 는 a 클래스의 i번째 특징벡터, 는 a 클래스 내에서 와 가장 가까운 특징벡터를 나타내며, 상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산할 수 있다.The discrimination evaluating unit may be configured so that, , here, Class density, The number of classes, The number of characteristic vectors of class a, Is an i-th feature vector of class a, Within a class And the inner density of the class can be calculated using the distance between the feature vectors in each class according to Equation (2).
상기 변별성 평가부는, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산할 수 있다.If the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation, the discrimination evaluator can calculate the inner class density by searching for the minimum value excluding the feature vector.
상기 변별성 평가부는, 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하고, 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하고, 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하고, 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산할 수 있다.The discrimination evaluating unit searches for a nearest neighbor feature vector of the first feature vector and a nearest neighbor vector of the other class, confirms whether the nearest feature vector of the nearest neighbor feature vector is the first feature vector, If the condition is satisfied, the distances between the first and second feature vectors are added to the class-to-class separability to change the class-to-class separability, and the class-to-class separability is divided by the number of distances added to the class- Can be calculated.
상기 변별성 평가부는, [수학식 3] 여기서, 는 타 클래스의 최근접 제2 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며, 상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색할 수 있다.(3) here, Is a nearest neighbor feature vector of another class, Is an i-th feature vector of class a, Represents a jth feature vector of class b, and b represents one of remaining classes that are not a class, and it is possible to search for a first feature vector and a nearest neighbor feature vector of another class according to Equation (3) .
상기 변별성 평가부는, [수학식 4] 여기서, 는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터를 나타내며, 상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인할 수 있다.The discrimination evaluating unit may be configured so that, here, Is a nearest neighbor feature vector of the nearest neighbor feature vector searched, Is an i-th feature vector of class a, Denotes a j-th feature vector of class b, and it can be confirmed whether the nearest neighbor vector of the nearest neighbor vector is a first feature vector according to Equation (4).
상기 변별성 평가부는, [수학식 7] 여기서, 는 평가지표, 는 클래스 내부 밀도, 는 클래스간 분리성을 나타내며, 상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산할 수 있다.The above-described discrimination evaluating unit may be configured so that, here, Is an evaluation index, Class density, Represents the separability between classes, and the evaluation index can be calculated by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7).
본 발명의 실시 예들은 비선형 데이터로부터 추출된 특징들 중 클래스 간 변별성이 높은 특징조합을 선택할 수 있는 평가지표를 계산하고 그 계산된 평가지표를 기초로 하여 클래스간 변별성을 평가함으로써, 클래스간 변별성이 높은 특징 조합을 정확하게 선택할 수 있다.The embodiments of the present invention calculate evaluation indexes capable of selecting feature combinations having high discrimination among classes among the features extracted from nonlinear data and evaluate the discrimination between classes on the basis of the calculated evaluation indexes, High feature combinations can be selected precisely.
도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.
도 2는 종래기술에 따른 고장 진단 방법에 따라 선택된 특징선택의 예시들을 나타낸 도면이다.
도 3은 종래의 변별성 평가 방법을 이용한 선형적 분포 및 비선형적 분포의 평가 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치의 구성도이다.
도 5는 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스 내부 밀도를 계산하는 과정에 대한 설명도이다.
도 6은 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스간 분리성을 계산하는 과정에 대한 설명도이다.
도 7은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에 대한 흐름도이다.
도 8은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에서의 클래스간 변별성 평가 과정에 대한 흐름도이다.1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.
2 is a diagram showing examples of feature selection selected according to the prior art fault diagnosis method.
3 is a diagram for explaining a process of evaluating a linear distribution and a non-linear distribution using a conventional discriminant evaluation method.
4 is a configuration diagram of an apparatus for evaluating class discrimination of nonlinear data according to an embodiment of the present invention.
5 is an explanatory diagram illustrating a process of calculating a class internal density performed by the class differentiating device according to the embodiment of the present invention.
FIG. 6 is an explanatory diagram illustrating a process of calculating the class separability performed by the class differentiating device according to the embodiment of the present invention.
7 is a flowchart of a class differentiating property evaluation method of nonlinear data according to an embodiment of the present invention.
FIG. 8 is a flowchart of a process for evaluating the discrimination between classes in the method for evaluating class discrimination of nonlinear data according to the embodiment of the present invention.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다. 본 발명의 실시 예를 설명하면서, 본 발명이 속하는 기술 분야에 익히 알려졌고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention. In describing the embodiments of the present invention, description of technical contents which are well known in the art to which the present invention belongs and which are not directly related to the present invention will be omitted. This is for the sake of clarity of the present invention without omitting the unnecessary explanation.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 동일한 참조부호를 부여할 수도 있다. 그러나 이와 같은 경우라 하더라도 해당 구성 요소가 실시 예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시 예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시 예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given to different drawings. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that it has the same function in different embodiments, and the function of each component is different from that of the corresponding embodiment Based on the description of each component in FIG.
도 4는 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치의 구성도이다.4 is a configuration diagram of an apparatus for evaluating class discrimination of nonlinear data according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치(100)는 신호 획득부(110), 특징 추출부(120), 후보군 생성부(130), 변별성 평가부(140) 및 조합 선택부(150)를 포함한다.4, an
이하, 도 4의 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 장치(100)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.The specific configuration and operation of each element of the
신호 획득부(110)는 기계로부터 신호를 획득한다. 여기서, 신호 획득부(110)는 기계로부터 진동 신호, 음향방출 신호, 또는 전류 신호 등의 신호를 획득한다.The
그리고 특징 추출부(120)는 신호 획득부(110)에서 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성한다.The
이어서, 후보군 생성부(130)는 특징 추출부(120)에서 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성한다.Next, the candidate
이후, 변별성 평가부(140)는 클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산한다. 그리고 변별성 평가부(140)는 그 계산된 평가지표를 기초로 하여, 후보군 생성부(130)에서 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가한다.Then, the differentiating evaluating
변별성 평가 과정을 구체적으로 살펴보면, 변별성 평가부(140)는 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산한다. 그리고 변별성 평가부(140)는 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산한다.Specifically, the
그리고 변별성 평가부(140)는 그 계산된 클래스 내부 밀도 및 그 계산된 클래스간 분리성을 이용하여 평가지표를 계산한다. 이어서, 변별성 평가부(140)는 그 계산된 평가지표를 이용하여 후보군 생성부(130)에서 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가할 수 있다.Then, the
그리고 조합 선택부(150)는 변별성 평가부(140)에서 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택한다. 여기서, 조합 선택부(150)에서 선택된 특징벡터들의 조합은 기계 상태 모니터링 및 고장 진단 등에 이용될 수 있다.The
도 5는 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스 내부 밀도를 계산하는 과정에 대한 설명도이다.5 is an explanatory diagram illustrating a process of calculating a class internal density performed by the class differentiating device according to the embodiment of the present invention.
도 5에 도시된 바와 같이, 변별성 평가부(140)는 각 클래스의 특징벡터와, 클래스 내에서 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산한다.As shown in FIG. 5, the
여기서, 는 클래스 내부 밀도, 는 클래스의 개수, 는 클래스 a의 특징벡터 개수, 는 a 클래스의 i번째 특징벡터, 는 a 클래스 내에서 와 가장 가까운 특징벡터를 나타낸다.here, Class density, The number of classes, The number of characteristic vectors of class a, Is an i-th feature vector of class a, Within a class And the nearest feature vector.
변별성 평가부(140)는 상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리(210)를 이용하여 클래스 내부 밀도를 계산할 수 있다.The
여기서, 변별성 평가부(140)는 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산할 수 있다.Here, if the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation, the
도 6은 본 발명의 실시 예에 따른 클래스 변별성 평가 장치에 의해 수행되는 클래스간 분리성을 계산하는 과정에 대한 설명도이다.FIG. 6 is an explanatory diagram illustrating a process of calculating the class separability performed by the class differentiating device according to the embodiment of the present invention.
도 6에 도시된 바와 같이, 변별성 평가부(140)는 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하고(210), 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인한다.As shown in FIG. 6, the
상기 확인 결과, 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인 조건을 만족할 경우, 변별성 평가부(140)는 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경한다. 여기서, 제1 및 제2 특징벡터 사이의 거리는 제1 특징벡터가 다수이면 다수 개의 거리가 더해질 수 있다.If it is determined that the nearest neighbor feature vector of the nearest neighbor feature vector satisfies the condition that is the first feature vector, the
그리고 변별성 평가부(140)는 그 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산한다.The
이러한 변별성 평가 과정을 구체적으로 살펴보기로 한다.This evaluation process will be described in detail.
여기서, 는 타 클래스의 최근접 제2 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타낸다. here, Is a nearest neighbor feature vector of another class, Is an i-th feature vector of class a, Denotes a j-th feature vector of class b, and b denotes one of remaining classes other than class a.
우선, 변별성 평가부(140)는 상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색할 수 있다.First, the differentiating evaluating
여기서, 변별성 평가부(140)는 최근접 특징벡터 가 이전에 계산된 특징벡터일 경우를 제외하고 최근접 특징벡터를 탐색할 수 있다.Here, the differentiating evaluating
변별성 평가부(140)는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인할 수 있다.The
여기서, 는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터를 나타낸다.here, Is a nearest neighbor feature vector of the nearest neighbor feature vector searched, Is an i-th feature vector of class a, Represents the jth feature vector of class b.
이때, 변별성 평가부(140)는 상기의 [수학식 4]에서 비교되는 a와 i는 [수학식 3]에서의 a와 i를 제외한다.At this time, the
여기서, 는 클래스간 분리성, 는 [수학식 4]의 클래스의 번째 특징벡터, 는 [수학식 3]의 클래스의 번째 특징벡터를 나타낸다. here, Class separability, Is expressed by Equation (4) Of the class Th feature vector, Is expressed by Equation (3) Of the class Th feature vector.
그리고 변별성 평가부(140)는 상기의 [수학식 5]에 따라 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경할 수 있다.Then, the
여기서, 는 클래스간 분리성, 는 더해진 거리들의 개수를 나타낸다.here, Class separability, Represents the number of added distances.
변별성 평가부(140)는 상기의 [수학식 6]에 따라 클래스간 분리성을 상기의 [수학식 5]에서 더해진 거리들의 개수로 나누어서 클래스간 분리성을 계산할 수 있다. 즉, 변별성 평가부(140)는 더해진 거리들의 평균을 구하여 클래스간 분리성을 계산할 수 있다.The
한편, 변별성 평가부(140)는 상기의 [수학식 2]에서 계산된 클래스 내부 밀도() 및 상기의 [수학식 6]에서 계산된 클래스간 분리성()을 하기의 [수학식 7]과 같이 계산하여 평가지표를 계산한다. 즉, 변별성 평가부(140)는 클래스 내부 밀도()를 클래스간 분리성()으로 나누어 평가지표를 계산할 수 있다.On the other hand, the discrimination-evaluating
여기서, 는 평가지표, 는 클래스 내부 밀도, 는 클래스간 분리성을 나타낸다.here, Is an evaluation index, Class density, Represents the separability between classes.
도 7은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에 대한 흐름도이다.7 is a flowchart of a class differentiating property evaluation method of nonlinear data according to an embodiment of the present invention.
클래스 변별성 평가 장치(100)는 기계로부터 신호를 획득한다(S101).The class
그리고 클래스 변별성 평가 장치(100)는 그 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성한다(S102).Then, the
이어서, 클래스 변별성 평가 장치(100)는 그 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성한다(S103).Next, the
이후, 클래스 변별성 평가 장치(100)는 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산한다(S104).Thereafter, the
그리고 클래스 변별성 평가 장치(100)는 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산한다(S105).Then, the class
이어서, 클래스 변별성 평가 장치(100)는 그 계산된 클래스 내부 밀도 및 그 계산된 클래스간 분리성을 계산하여 평가지표를 계산한다(S106).Then, the class differentiating evaluating
이후, 클래스 변별성 평가 장치(100)는 그 계산된 평가지표를 이용하여 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가한다(S107).Thereafter, the
그리고 클래스 변별성 평가 장치(100)는 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택한다(S108).Then, the
도 8은 본 발명의 실시 예에 따른 비선형 데이터의 클래스 변별성 평가 방법에서의 클래스간 변별성 평가 과정에 대한 흐름도이다.FIG. 8 is a flowchart of a process for evaluating the discrimination between classes in the method for evaluating class discrimination of nonlinear data according to the embodiment of the present invention.
우선, 클래스 변별성 평가 장치(100)는 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색한다(S201).First, the
그리고 클래스 변별성 평가 장치(100)는 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인한다(S202).Then, the
상기 확인 결과(S202), 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인 조건을 만족할 경우, 클래스 변별성 평가 장치(100)는 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경한다(S203).If the closest feature vector of the second closest neighbor feature vector satisfies the condition that is the first feature vector, the class differentiating device evaluates the distance between the first and second feature vectors (step S202) Is added to the class separability, and the class separability is changed (S203).
반면, 상기 확인 결과(S202), 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인 조건을 만족하지 않을 경우, 클래스 변별성 평가 장치(100)는 그 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 과정을 다시 수행한다.On the other hand, if the closest feature vector of the nearest neighbor feature vector does not satisfy the condition of the first feature vector (S202), the class differentiating device evaluates the classifier The process of confirming whether the nearest feature vector of the two feature vectors is the first feature vector is performed again.
그리고 클래스 변별성 평가 장치(100)는 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산한다(S204).Then, the
이상에서 설명한 실시 예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100: 클래스 변별성 평가 장치
110; 신호 획득부
120: 특징 추출부
130: 후보군 생성부
140: 변별성 평가부
150: 조합 선택부100: Class discrimination evaluation device
110; The signal-
120: Feature extraction unit
130: candidate group generating unit
140:
150: combination selection unit
Claims (18)
기계로부터 신호를 획득하는 단계;
상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 단계;
상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 단계;
클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계; 및
상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 단계를 포함하고,
상기 클래스 간 변별성을 평가하는 단계는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 단계; 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하는 단계; 및 상기 계산된 클래스 내부 밀도 및 상기 계산된 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 단계를 포함하고,
상기 클래스간 분리성을 계산하는 단계는, 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 단계; 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 단계; 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하는 단계; 및 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산하는 단계를 포함하는 비선형 데이터의 클래스 변별성 평가 방법.A class discrimination evaluation method of nonlinear data performed by a class discrimination evaluation apparatus,
Obtaining a signal from the machine;
Extracting characteristics of the deteriorated state from the obtained signal to generate characteristic vectors;
Generating a feature combination candidate group by generating a combination of the generated feature vectors;
Calculating intra-class density and class-to-class separability to calculate an evaluation index, and evaluating inter-class discrimination for each of the generated feature combination candidates based on the calculated evaluation index; And
Selecting a combination of feature vectors having the largest evaluation index value for the evaluated inter-class discrimination,
Evaluating the inter-class discrimination comprises: calculating intra-class density using distances between feature vectors in each class; Calculating separability between classes using closest first and second feature vectors of a target class and other classes; And calculating the evaluation indices by calculating the calculated intra-class density and the calculated class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates using the calculated evaluation indexes Including,
Calculating the interclass separability comprises: searching for a nearest neighbor feature vector of the first feature vector and the nearest neighbor vector of the other class; Confirming whether the closest feature vector of the searched closest second feature vector is a first feature vector; Changing the class separability by adding the distance between the first and second feature vectors to the class separability when the checked condition is satisfied; And dividing the changed class separability by the number of distances added to the class separability to calculate the class separability.
상기 클래스 내부 밀도를 계산하는 단계는,
각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.The method according to claim 1,
Wherein the step of calculating the class inner density comprises:
Calculating a class inner density using a feature vector of each class and a feature vector closest to the feature vector in the class;
상기 클래스 내부 밀도를 계산하는 단계는,
[수학식 2]
여기서, 는 클래스 내부 밀도, 는 클래스의 개수, 는 클래스 a의 특징벡터 개수, 는 a 클래스의 i번째 특징벡터, 는 a 클래스 내에서 와 가장 가까운 특징벡터를 나타내며,
상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.The method according to claim 1,
Wherein the step of calculating the class inner density comprises:
&Quot; (2) "
here, Class density, The number of classes, The number of characteristic vectors of class a, Is an i-th feature vector of class a, Within a class And the nearest feature vector,
Calculating a class inner density using distances between feature vectors in each class according to Equation (2) above.
상기 클래스 내부 밀도를 계산하는 단계는,
클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.The method according to claim 1,
Wherein the step of calculating the class inner density comprises:
A method for evaluating class discrimination of nonlinear data, the method comprising the steps of: calculating a class inner density by finding a minimum value excluding a feature vector of a feature vector in a class when the feature vector closest to the feature vector is a feature vector used in a previous calculation;
상기 최근접 제2 특징벡터를 탐색하는 단계는,
[수학식 3]
여기서, 는 타 클래스의 최근접 제2 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며,
상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 비선형 데이터의 클래스 변별성 평가 방법.The method according to claim 1,
Wherein the step of searching for the nearest second feature vector comprises:
&Quot; (3) "
here, Is a nearest neighbor feature vector of another class, Is an i-th feature vector of class a, Represents a j-th feature vector of class b, and b represents one of remaining classes that are not a class,
And searching for a nearest neighbor feature vector of the first feature vector and another class according to Equation (3) above.
상기 제1 특징벡터인지를 확인하는 단계는,
[수학식 4]
여기서, 는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터를 나타내며,
상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 비선형 데이터의 클래스 변별성 평가 방법.The method according to claim 1,
The method of claim 1,
&Quot; (4) "
here, Is a nearest neighbor feature vector of the nearest neighbor feature vector searched, Is an i-th feature vector of class a, Denotes a j-th feature vector of class b,
And determining whether the nearest neighbor feature vector of the nearest neighbor feature vector is a first feature vector according to Equation (4) above.
상기 클래스 간 변별성을 평가하는 단계는,
[수학식 7]
여기서, 는 평가지표, 는 클래스 내부 밀도, 는 클래스간 분리성을 나타내며,
상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산하는 비선형 데이터의 클래스 변별성 평가 방법.The method according to claim 1,
The step of evaluating the discrimination between classes may comprise:
&Quot; (7) "
here, Is an evaluation index, Class density, Indicates the separability between classes,
Calculating an evaluation index by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7) above.
상기 획득된 신호로부터 열화 상태에 대한 특징들을 추출하여 특징벡터들을 생성하는 특징 추출부;
상기 생성된 특징벡터들의 조합을 생성하여 특징 조합 후보군을 생성하는 후보군 생성부;
클래스 내부 밀도 및 클래스간 분리성을 계산하여 평가지표를 계산하고, 상기 계산된 평가지표를 기초로 하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하는 변별성 평가부; 및
상기 평가된 클래스 간 변별성에 대한 평가지표 값이 최대인 특징벡터들의 조합을 선택하는 조합 선택부;를 포함하고,
상기 변별성 평가부는, 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하고, 대상 클래스와 타 클래스의 최근접 제1 및 제2 특징벡터를 이용하여 클래스간 분리성을 계산하고, 상기 계산된 평가지표를 이용하여 상기 생성된 각 특징 조합 후보군들에 대해 클래스 간 변별성을 평가하되,
제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하고, 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하고, 상기 확인된 조건을 만족할 경우, 제1 및 제2 특징벡터 사이의 거리를 클래스간 분리성에 더하여 클래스간 분리성을 변경하고, 상기 변경된 클래스간 분리성을 클래스간 분리성에 더해진 거리들의 개수로 나누어 클래스간 분리성을 계산하는 비선형 데이터의 클래스 변별성 평가 장치.A signal acquiring unit acquiring a signal from the machine;
A feature extraction unit for extracting features of a deteriorated state from the obtained signal to generate feature vectors;
A candidate group generation unit for generating a combination of the feature vectors to generate a feature combination candidate group;
A discrimination evaluating unit for calculating an evaluation index by calculating the intra-class density and the class-to-class separability, and evaluating the discrimination between classes for each of the generated feature combination candidates based on the calculated evaluation index; And
And a combination selecting unit for selecting a combination of feature vectors having the largest evaluation index value for the evaluated inter-class discrimination,
The discrimination evaluating unit calculates the intra-class density using the distances between the feature vectors in each class, calculates the inter-class separability using the closest first and second feature vectors of the target class and the other class, Evaluating the discrimination between classes for each of the generated feature combination candidates using the calculated evaluation index,
Searching for a nearest neighbor feature vector of the first feature vector and a nearest neighbor vector of the other class to check whether the nearest neighbor vector of the nearest neighbor vector is a first feature vector, Class distinction is added to the inter-class separability by dividing the distance between the first and second characteristic vectors by the number of distances added to the inter-class separability, Of the class.
상기 변별성 평가부는,
각 클래스의 특징벡터와, 클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.11. The method of claim 10,
The discrimination-
And class density of each class is calculated using a feature vector of each class and a feature vector closest to the feature vector in the class.
상기 변별성 평가부는,
[수학식 2]
여기서, 는 클래스 내부 밀도, 는 클래스의 개수, 는 클래스 a의 특징벡터 개수, 는 a 클래스의 i번째 특징벡터, 는 a 클래스 내에서 와 가장 가까운 특징벡터를 나타내며,
상기의 [수학식 2]에 따라 각 클래스 내에서 특징벡터들 간의 거리를 이용하여 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.11. The method of claim 10,
The discrimination-
&Quot; (2) "
here, Class density, The number of classes, The number of characteristic vectors of class a, Is an i-th feature vector of class a, Within a class And the nearest feature vector,
And calculates the class inner density using the distance between the feature vectors in each class according to Equation (2) above.
상기 변별성 평가부는,
클래스 내에서 상기 특징벡터와 가장 가까운 특징벡터가 이전 계산에 이용된 특징벡터일 경우, 해당 특징벡터를 제외하고 최소값을 찾아 클래스 내부 밀도를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.11. The method of claim 10,
The discrimination-
And class density inside the class is calculated by finding a minimum value excluding the feature vector when the feature vector closest to the feature vector in the class is the feature vector used in the previous calculation.
상기 변별성 평가부는,
[수학식 3]
여기서, 는 타 클래스의 최근접 제2 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터, b는 a 클래스가 아닌 나머지 클래스 중 하나를 나타내며,
상기의 [수학식 3]에 따라 제1 특징벡터와 타 클래스의 최근접 제2 특징벡터를 탐색하는 비선형 데이터의 클래스 변별성 평가 장치.11. The method of claim 10,
The discrimination-
&Quot; (3) "
here, Is a nearest neighbor feature vector of another class, Is an i-th feature vector of class a, Represents a j-th feature vector of class b, and b represents one of remaining classes that are not a class,
And searches for a closest second feature vector of the first feature vector and the other class according to Equation (3) above.
상기 변별성 평가부는,
[수학식 4]
여기서, 는 탐색된 최근접 제2 특징벡터의 최근접 특징벡터, 는 a 클래스의 i번째 특징벡터, 는 b 클래스의 j번째 특징벡터를 나타내며,
상기의 [수학식 4]에 따라 상기 탐색된 최근접 제2 특징벡터의 최근접 특징벡터가 제1 특징벡터인지를 확인하는 비선형 데이터의 클래스 변별성 평가 장치.11. The method of claim 10,
The discrimination-
&Quot; (4) "
here, Is a nearest neighbor feature vector of the nearest neighbor feature vector searched, Is an i-th feature vector of class a, Denotes a j-th feature vector of class b,
Wherein the closest feature vector of the searched closest second feature vector is a first feature vector according to Equation (4) above.
상기 변별성 평가부는,
[수학식 7]
여기서, 는 평가지표, 는 클래스 내부 밀도, 는 클래스간 분리성을 나타내며,
상기의 [수학식 7]에 따라 상기 계산된 클래스 내부 밀도를 상기 계산된 클래스간 분리성으로 나누어 평가지표를 계산하는 비선형 데이터의 클래스 변별성 평가 장치.11. The method of claim 10,
The discrimination-
&Quot; (7) "
here, Is an evaluation index, Class density, Indicates the separability between classes,
Wherein the evaluation index is calculated by dividing the calculated intra-class density by the calculated inter-class separability according to Equation (7) above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160166189A KR101811962B1 (en) | 2016-12-07 | 2016-12-07 | Apparatus and method for evaluating class discrimination of nonlinear data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160166189A KR101811962B1 (en) | 2016-12-07 | 2016-12-07 | Apparatus and method for evaluating class discrimination of nonlinear data |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101811962B1 true KR101811962B1 (en) | 2017-12-22 |
Family
ID=60936557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160166189A KR101811962B1 (en) | 2016-12-07 | 2016-12-07 | Apparatus and method for evaluating class discrimination of nonlinear data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101811962B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108594202A (en) * | 2018-07-25 | 2018-09-28 | 电子科技大学 | A kind of neighborhood distributed architecture non-linear projection target's feature-extraction method |
CN114112390A (en) * | 2021-11-23 | 2022-03-01 | 哈尔滨工程大学 | Early fault diagnosis method for nonlinear complex system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016516251A (en) * | 2014-03-14 | 2016-06-02 | シャオミ・インコーポレイテッド | Clustering method, clustering device, terminal device, program, and recording medium |
-
2016
- 2016-12-07 KR KR1020160166189A patent/KR101811962B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016516251A (en) * | 2014-03-14 | 2016-06-02 | シャオミ・インコーポレイテッド | Clustering method, clustering device, terminal device, program, and recording medium |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108594202A (en) * | 2018-07-25 | 2018-09-28 | 电子科技大学 | A kind of neighborhood distributed architecture non-linear projection target's feature-extraction method |
CN114112390A (en) * | 2021-11-23 | 2022-03-01 | 哈尔滨工程大学 | Early fault diagnosis method for nonlinear complex system |
CN114112390B (en) * | 2021-11-23 | 2024-03-22 | 哈尔滨工程大学 | Nonlinear complex system early fault diagnosis method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101823746B1 (en) | Method for bearing fault diagnosis | |
JP6076751B2 (en) | Abnormality diagnosis method and apparatus | |
US8682824B2 (en) | Method and device for monitoring the state of a facility | |
KR101797400B1 (en) | Method and apparatus for diagnosing fault based on probabilistic density | |
KR102141391B1 (en) | Failure data management method based on cluster estimation | |
Shakya et al. | Bearing diagnosis based on Mahalanobis–Taguchi–Gram–Schmidt method | |
US20150346066A1 (en) | Asset Condition Monitoring | |
CN110352389B (en) | Information processing apparatus and information processing method | |
KR102123522B1 (en) | Failure diagnostic method based on cluster of fault data | |
JP2014048697A (en) | Facility state monitoring method, and facility state monitoring device | |
CN106022366B (en) | A kind of rotating machinery method for diagnosing faults based on neighbour's evidence fusion | |
KR102265298B1 (en) | Apparatus and method for fault diagnosis using fake data generated by machine learning | |
KR102069377B1 (en) | Predictive Diagnosis Apparatus For Complex Defect of Nuclear Power Plant by Machine Learning | |
CN112528975A (en) | Industrial quality inspection method, device and computer readable storage medium | |
CN110543907A (en) | fault classification method based on microcomputer monitoring power curve | |
KR101811962B1 (en) | Apparatus and method for evaluating class discrimination of nonlinear data | |
KR101808390B1 (en) | Method for machine fault diagnosis | |
KR20230104527A (en) | Partial Discharge Monitoring System And Partial Discharge Monitoring Method | |
CN117076935B (en) | Digital twin-assisted mechanical fault data lightweight generation method and system | |
JP7354421B2 (en) | Error factor estimation device and estimation method | |
JP2014170269A (en) | Abnormality monitoring device and method for time series data and program | |
JP7107632B2 (en) | Rotating machine diagnostic system and rotating machine diagnostic method | |
Bagheri et al. | A stochastic asset life prediction method for large fleet datasets in big data environment | |
CN115112663A (en) | Method and apparatus for adjusting condition for determining whether or not a test object is good | |
KR101754165B1 (en) | System for detecting abnormal behavior and evaluating safety of structure for merging non-periodic acceleration data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |