KR101797400B1 - Method and apparatus for diagnosing fault based on probabilistic density - Google Patents
Method and apparatus for diagnosing fault based on probabilistic density Download PDFInfo
- Publication number
- KR101797400B1 KR101797400B1 KR1020160161987A KR20160161987A KR101797400B1 KR 101797400 B1 KR101797400 B1 KR 101797400B1 KR 1020160161987 A KR1020160161987 A KR 1020160161987A KR 20160161987 A KR20160161987 A KR 20160161987A KR 101797400 B1 KR101797400 B1 KR 101797400B1
- Authority
- KR
- South Korea
- Prior art keywords
- probability density
- class
- feature vectors
- distance
- density function
- Prior art date
Links
Images
Classifications
-
- G06N7/005—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G06N99/005—
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Testing And Monitoring For Control Systems (AREA)
Abstract
Description
본 발명은 확률밀도 기반의 고장 진단 방법 및 장치에 관한 것으로서, 더욱 상세하게는 입력신호로부터 추출된 특징들에 대해 미리 학습된 확률밀도 기반의 분류기를 이용하여 결함을 분류함으로써, 분류성능의 변화가 작고 고장을 정확하게 진단할 수 있는, 확률밀도 기반의 고장 진단 방법 및 장치를 제공하고자 한다.More particularly, the present invention relates to a probability density-based fault diagnosis method and apparatus, and more particularly, to a fault diagnosis method and apparatus based on probability density, The present invention provides a fault diagnosis method and apparatus based on a probability density that can accurately diagnose small faults.
베어링의 결함 검출에 있어, 실제 산업현장에서는 소음과 진동의 특성을 이용하여 비파괴검사에 이용함으로써 베어링부의 수명연장 등 유지 보전에 큰 도움을 주고 있다.In the detection of defects in bearings, it is used for non-destructive inspection by using characteristics of noise and vibration in real industrial field, which is greatly helping maintenance maintenance such as extension of bearing life.
베어링 고장원인으로는 불충분한 윤활, 부적절한 윤활재의 사용, 베어링의 잘못된 설치, 축계의 과도한 변형 등이 있다. 과거에는 숙련된 기술자에 의하여 이러한 문제들을 진단하고 고장 여부를 판단하였으나, 대부분 진단시간이 길고, 주관적이며, 경우에 따라 기기 시스템의 작동을 중단해야 하는 단점을 지니고 있다. 최근에는 기기 시스템의 작동을 유지하면서, 베어링의 고장을 진단할 수 있는 시스템이 요구됨에 따라 지속적으로 베어링 작동 상태를 진단하여 고장 전에 미리 이상을 발견할 수 있는 형태의 기술로 발전되고 있다.Causes of bearing failure include insufficient lubrication, improper use of lubricant, misalignment of bearings, and excessive deformation of shaft. In the past, experienced technicians diagnosed these problems and judged whether they were faulty. However, most of them have a long diagnosis time, subjective, and sometimes have to stop the operation of the equipment system. In recent years, a system capable of diagnosing a failure of a bearing has been required while maintaining the operation of a device system, and thus the bearing operating state is continuously diagnosed and developed as a type of technology capable of detecting an abnormality before a failure.
도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.
도 1의 (a)는 베어링의 구조를, (b) 베어링 외륜 결함을, (c)는 베어링 내륜 결함을 나타냄으로, 이와 같이 고장이 발생할 수 있는 기계의 위치에 센서를 부착하여 신호를 취득하고, (d)에 도시된 바와 같이 취득된 신호로부터 특징을 추출하고 상태 진단 영역에서 특징의 패턴을 분석하여 고장을 진단할 수 있다.Fig. 1 (a) shows the structure of the bearing, (b) shows the bearing outer ring defect, and (c) shows the inner ring of the bearing. The sensor is attached to the position of the machine, , it is possible to extract a feature from the acquired signal and diagnose the failure by analyzing the pattern of the feature in the state diagnosis area as shown in (d).
도 2는 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining a map-based machine learning algorithm using a conventional k-NN classifier.
도 2에 도시된 바와 같이, 특징 1 및 특징 2를 기본 축으로 특징벡터들이 분포되어 있다. 클래스 1의 분석신호에 대한 특징벡터들(110)이 좌측에 분포되어 있다. 클래스2의 분석신호에 대한 특징벡터들(110)이 우측에 분포되어 있다.As shown in FIG. 2, the feature vectors are distributed on the basic axes of the
이때, k-NN(k-Nearest Neighbors) 분류기를 이용한 지도식 기계학습 알고리즘은 입력 신호에 대한 특징벡터(130)가 클래스 1에 속하는지 또는 클래스 2에 속하는지를 k개의 이웃한 특징벡터들을 기초로 하여 판단하게 된다.At this time, a map-based machine learning algorithm using a k-nearest neighbors (k-NN) classifier determines whether the
이러한 k-NN 분류기를 이용한 지도식 기계학습 알고리즘을 살펴보기로 한다.We will look at a map-based machine learning algorithm using the k-NN classifier.
우선, k-NN 분류기는 지도식 기계학습 알고리즘으로 입력 특징벡터와 이웃한 k 개의 학습 특징벡터를 찾고, 이 특징벡터들이 포함되는 클래스를 입력 특징벡터의 클래스로 정하는 분류기이다.First, the k-NN classifier is a classifier that finds input feature vectors and neighboring k learning feature vectors by a MAP learning algorithm, and classifies the classes including these feature vectors into classes of input feature vectors.
k-NN 분류기에서 수행되는 단계를 살펴보면 다음과 같다.The steps performed in the k-NN classifier are as follows.
단계 1에서, k-NN 분류기는 입력 데이터의 특징벡터(130)와 학습 데이터의 특징벡터들 사이의 유클리디안 거리를 계산한다.In
그리고 단계 2에서, k-NN 분류기는 입력 신호의 특징벡터(130)와 거리가 가장 가까운 k개의 이웃한 벡터들(111)을 선택한다.In
단계 3에서, k-NN 분류기는 2개의 그룹(예컨대, 클래스 1, 클래스 2) 중 이웃한 벡터들(111)을 가장 많이 포함하고 있는 클래스로 입력 신호의 특징벡터(130)를 분류한다. 도 2의 일례에서, k-NN 분류기는 이웃한 특징벡터들(111)이 모두 클래스 1에 포함되므로 입력 신호의 특징벡터(130)를 클래스 1로 분류한다.In
도 3은 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘에서 k 값이 분류결과에 미치는 영향을 설명하는 도면이다.FIG. 3 is a view for explaining the effect of k value on classification results in a conventional map-based machine learning algorithm using a k-NN classifier.
도 3을 참조하여 k 값이 분류결과에 미치는 영향을 살펴보기로 한다.Referring to FIG. 3, the effect of the k value on classification results will be described.
도 3에 도시된 바와 같이, 특징 1 및 특징 2를 기본 축으로 특징벡터들이 분포되어 있다. 클래스 1의 분석신호에 대한 특징벡터들(210)이 좌측 상단에 분포되어 있다. 클래스 2의 분석신호에 대한 특징벡터들(220)이 우측 하단에 분포되어 있다.As shown in FIG. 3, feature vectors are distributed on the basis of the
이때, k-NN 분류기를 이용한 지도식 기계학습 알고리즘은 입력 신호에 대한 특징벡터(230)가 클래스 1에 속하는지 또는 클래스 2에 속하는지를 k 개의 이웃한 특징벡터들을 기초로 하여 판단하게 된다. k-NN 분류기를 이용한 지도식 기계학습 알고리즘은 k=5인 경우 클래스 2로 분류하고 있다. 반면, k-NN 분류기를 이용한 지도식 기계학습 알고리즘은 k=3인 경우 클래스 1로 분류하고 있다.At this time, the MAP learning algorithm using the k-NN classifier determines whether the
이와 같이, k-NN 분류기의 k 값은 분류성능에 영향을 미치며 k 값의 변화에 따라 분류결과가 달라진다. 즉, 도 3의 예시와 같이, k 값이 3일 때와 k 값이 5일 때 분류결과가 달라지는 것을 보이고 있다.Thus, the k-value of the k-NN classifier affects the classification performance and the classification result is changed according to the change of the k value. That is, as shown in the example of FIG. 3, the classification result is different when the k value is 3 and the k value is 5.
본 발명의 실시 예들은 학습신호(예컨대, 진동 혹은 음향신호)로부터 각 결함들을 구분할 수 있는 특징들을 추출하여 확률밀도 기반의 분류기(예컨대, k-NN 분류기)에 미리 학습시키고, 입력신호로부터 추출된 특징들에 대해 미리 학습된 확률밀도 기반의 분류기를 이용하여 결함을 분류함으로써, 분류성능의 변화가 작고 고장을 정확하게 진단할 수 있는, 확률밀도 기반의 고장 진단 방법 및 장치를 제공하고자 한다.Embodiments of the present invention extract features that can distinguish each defect from a learning signal (e.g., vibration or sound signal), learn it in advance in a probability density-based classifier (e.g., k-NN classifier) The present invention is to provide a probability density-based fault diagnosis method and apparatus capable of accurately diagnosing faults with a small change in classification performance by classifying faults using a classifier based on a probability density learned in advance.
본 발명의 제1 측면에 따르면, 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 단계; 상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 단계; 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 단계; 상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 단계; 및 상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 단계를 포함하는 고장 진단 방법이 제공될 수 있다.According to a first aspect of the present invention, there is provided a method for generating a learning feature vector, the method comprising: generating learning feature vectors by extracting learning features for distinguishing defects from previously acquired defect- Learning the generated learning feature vectors into a probability density based classifier; Extracting input features that distinguish each defect from an input signal that is a classification target and generating an input feature vector; The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result ; And diagnosing a fault state through the calculated fault classification result.
상기 결함 분류 결과를 산출하는 단계는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하는 단계; 상기 계산된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하는 단계; 상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하는 단계; 및 상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류하는 단계를 포함할 수 있다.Wherein the step of calculating the defect classification result includes: calculating a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors; Calculating a value of a probability density function with respect to the input feature vector through the calculated distance probability density function of each class and calculating a classification probability of the probability density based classifier with respect to the input feature vector; Calculating a membership value of each class with respect to an input feature vector using the calculated probability density function and the calculated classification probability; And comparing the calculated membership values for each class to classify input feature vectors into classes having the largest membership value.
상기 거리 확률밀도함수를 산출하는 단계는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하는 단계; 상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하는 단계; 및 상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산하는 단계를 포함할 수 있다.The step of calculating the distance probability density function may further include using the generated learning feature vectors and the generated input feature vectors to calculate an input feature vector and a predetermined number of neighboring features Calculating distances from the vectors; Calculating a largest distance value among the distances of the calculated neighboring feature vectors; And calculating the distance probability density function of each class using the calculated maximum distance value.
상기 거리 확률밀도함수를 계산하는 단계는, 상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산할 수 있다.The step of calculating the distance probability density function may calculate a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.
상기 거리 확률밀도함수를 계산하는 단계는, 상기 입력 특징벡터의 분포가 정규분포이면, [수학식 3] , 는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산할 수 있다.Wherein the step of calculating the distance probability density function comprises: if the distribution of the input feature vectors is a normal distribution, , Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (3).
상기 거리 확률밀도함수를 계산하는 단계는, 상기 입력 특징벡터의 분포가 지수분포이면, [수학식 4] , 는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산할 수 있다.Wherein the step of calculating the distance probability density function comprises: if the distribution of the input feature vectors is an exponential distribution, , Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (4).
상기 확률밀도 기반 분류기는, 상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기일 수 있다.Wherein the probability density-based classifier is a probability density-based k-NN classifier for classifying the input feature vector on the basis of the distance probability density function using k learning feature vectors, which are the numbers of the input feature vectors and neighboring feature vectors, have.
상기 분류확률을 계산하는 단계는, 각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산할 수 있다.The step of calculating the classification probability may include calculating a classification probability of each class based on a probability density based classifier for the input feature vector, the ratio of learning feature vectors belonging to the class among a predetermined number of neighboring learning feature vectors .
상기 가장 큰 클래스로 입력 특징벡터를 분류하는 단계는, [수학식 5] , 는 클래스 i의 멤버십 값, 는 클래스 i에 대한 분류기의 분류확률, 는 클래스 i에 대한 확률밀도함수의 값, 는 클래스 i'의 멤버십 값, 는 클래스 i'에 대한 분류기의 분류확률, 는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산할 수 있다.The step of classifying the input feature vector into the largest class comprises: , Is the membership value of class i, Is the classification probability of the classifier for class i, Is the value of the probability density function for class i, Is the membership value of class i ' Is the classification probability of the classifier for class i ' Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) Can be calculated.
한편, 본 발명의 제2 측면에 따르면, 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 학습특징 추출부; 상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 분류기 학습부; 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 입력특징 추출부; 상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 결함 분류부; 및 상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 고장 진단부를 포함하는 고장 진단 장치가 제공될 수 있다.According to a second aspect of the present invention, there is provided a learning apparatus comprising: a learning feature extraction unit for extracting learning features for distinguishing defects from previously acquired learning signals for each defect to generate learning feature vectors; A classifier learning unit for learning the generated learning feature vectors in a probability density based classifier; An input feature extraction unit for extracting input features distinguishing each defect from an input signal to be classified and generating an input feature vector; The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result A defect classifier for classifying the defect classifiers; And a fault diagnosis unit for diagnosing a fault state through the calculated fault classification result.
상기 결함 분류부는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하고, 상기 산출된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하고, 상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하고, 상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류할 수 있다.The defect classification unit may calculate a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors and may calculate a distance probability density function of each class using the distance probability density function of each class, Calculating a value of a probability density function, calculating a classification probability of the probability density-based classifier with respect to the input feature vector, and using each of the calculated probability density function and the calculated classification probability, The input feature vector can be classified into the class having the largest membership value by comparing the membership values of the calculated classes.
상기 결함 분류부는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하고, 상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하고, 상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산할 수 있다.The defect classification unit may use the generated learning feature vectors and the generated input feature vectors to calculate a distance between an input feature vector and a predetermined number of neighboring feature vectors for all learning feature vectors in each class Calculates the largest distance value among the distances of the calculated neighboring feature vectors, and calculates the distance probability density function of each class using the calculated maximum distance value.
상기 결함 분류부는, 상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산할 수 있다.The defect classifier may calculate a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.
상기 결함 분류부는, 상기 입력 특징벡터의 분포가 정규분포이면, [수학식 3] , 는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산할 수 있다.The defect classifier may be configured such that if the distribution of the input feature vectors is a normal distribution, , Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (3).
상기 결함 분류부는, 상기 입력 특징벡터의 분포가 지수분포이면, [수학식 4] , 는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산할 수 있다.If the distribution of the input feature vectors is an exponential distribution, , Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (4).
상기 확률밀도 기반 분류기는, 상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기일 수 있다.Wherein the probability density-based classifier is a probability density-based k-NN classifier for classifying the input feature vector on the basis of the distance probability density function using k learning feature vectors, which are the numbers of the input feature vectors and neighboring feature vectors, have.
상기 결함 분류부는, 각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산할 수 있다.The defect classifier may calculate a ratio of a learning feature vector belonging to the class among a predetermined number of neighboring learning feature vectors for each class as a classification probability of a probability density based classifier for the input feature vector.
상기 결함 분류부는, [수학식 5] , 는 클래스 i의 멤버십 값, 는 클래스 i에 대한 분류기의 분류확률, 는 클래스 i에 대한 확률밀도함수의 값, 는 클래스 i'의 멤버십 값, 는 클래스 i'에 대한 분류기의 분류확률, 는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산할 수 있다.The defect classifying unit may be configured as follows. , Is the membership value of class i, Is the classification probability of the classifier for class i, Is the value of the probability density function for class i, Is the membership value of class i ' Is the classification probability of the classifier for class i ' Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) Can be calculated.
본 발명의 실시 예들은 학습신호(예컨대, 진동 혹은 음향신호)로부터 각 결함들을 구분할 수 있는 특징들을 추출하여 확률밀도 기반의 분류기(예컨대, k-NN 분류기)에 미리 학습시키고, 입력신호로부터 추출된 특징들에 대해 미리 학습된 확률밀도 기반의 분류기를 이용하여 결함을 분류함으로써, 분류성능의 변화가 작고 고장을 정확하게 진단할 수 있다.Embodiments of the present invention extract features that can distinguish each defect from a learning signal (e.g., vibration or sound signal), learn it in advance in a probability density-based classifier (e.g., k-NN classifier) By classifying faults using a classifier based on a probability density based on features learned in advance, the change in classification performance is small and the fault can be accurately diagnosed.
도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.
도 2는 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘을 설명하기 위한 도면이다.
도 3은 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘에서 k 값이 분류결과에 미치는 영향을 설명하는 도면이다.
도 4는 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치의 구성도이다.
도 5는 본 발명의 실시 예에 따른 이웃한 특징벡터들과의 거리를 계산하는 과정을 나타낸 도면이다.
도 6은 본 발명의 실시 예에 따른 확률밀도함수의 종류를 나타낸 도면이다.
도 7은 본 발명의 실시 예에 따른 각 클래스 및 입력 특징벡터에 대한 확률밀도함수의 값 및 분류확률을 계산하는 과정을 나타낸 도면이다.
도 8은 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 대한 흐름도이다.
도 9는 종래 기술과 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 의해 각각 수행된 분류성능을 나타낸 도면이다.1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.
FIG. 2 is a diagram for explaining a map-based machine learning algorithm using a conventional k-NN classifier.
FIG. 3 is a view for explaining the effect of k value on classification results in a conventional map-based machine learning algorithm using a k-NN classifier.
4 is a block diagram of a probability density based fault diagnosis apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a process of calculating a distance to neighboring feature vectors according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating the types of probability density functions according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating a process of calculating a value of a probability density function and a classification probability for each class and input feature vector according to an embodiment of the present invention. Referring to FIG.
8 is a flowchart of a probability density-based fault diagnosis method according to an embodiment of the present invention.
FIG. 9 is a diagram illustrating classification performance performed by the probability density-based fault diagnosis method according to the prior art and the embodiment of the present invention, respectively.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다. 본 발명의 실시 예를 설명하면서, 본 발명이 속하는 기술 분야에 익히 알려졌고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention. In describing the embodiments of the present invention, description of technical contents which are well known in the art to which the present invention belongs and which are not directly related to the present invention will be omitted. This is for the sake of clarity of the present invention without omitting the unnecessary explanation.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 동일한 참조부호를 부여할 수도 있다. 그러나 이와 같은 경우라 하더라도 해당 구성 요소가 실시 예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시 예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시 예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given to different drawings. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that it has the same function in different embodiments, and the function of each component is different from that of the corresponding embodiment Based on the description of each component in FIG.
도 4는 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치의 구성도이다.4 is a block diagram of a probability density based fault diagnosis apparatus according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치(300)는 학습특징 추출부(310), 분류기 학습부(320), 입력특징 추출부(330), 결함 분류부(340) 및 고장 진단부(350)를 포함한다.4, the probability density-based
이하, 도 4의 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치(300)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.The specific configuration and operation of each element of the probability density based
학습특징 추출부(310)는 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성한다. 학습특징 추출부(310)는 사전에 미리 취득한 결함별 학습신호로부터 각 결함들을 구분할 수 있는 특징들을 추출한다.The learning
그리고 분류기 학습부(320)는 학습특징 추출부(310)에서 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시킨다. 여기서, 확률밀도 기반 분류기는 입력 특징벡터와 이웃한 기설정된 k 개의 학습 특징벡터를 이용하여 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기일 수 있다. 분류기 학습부(320)는 추출된 특징들로부터 생성된 특징벡터들을 확률밀도 기반 k-NN 분류기에 학습시킬 수 있다.Then, the
이후, 입력특징 추출부(330)는 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성한다.Thereafter, the input
결함 분류부(340)는 입력특징 추출부(330)에서 생성된 입력 특징벡터들을 상기 학습시킨 확률밀도 기반 분류기에 입력시킨다. 그리고 결함 분류부(340)는 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출한다.The
그리고 고장 진단부(350)는 결함 분류부(340)에서 산출된 결함 분류 결과를 통해 고장 상태를 진단한다. 일례로, 고장 진단부(350)는 확률밀도 기반의 k-NN 분류기로부터 얻은 결함 분류 결과를 통해 베어링과 같은 기계 등의 현재 상태를 진단할 수 있다.The
이하, 도 5 내지 도 7을 참조하여 결함 분류 과정을 구체적으로 살펴보기로 한다.Hereinafter, the defect classification process will be described in detail with reference to FIGS. 5 to 7. FIG.
도 5는 본 발명의 실시 예에 따른 이웃한 특징벡터들과의 거리를 계산하는 과정을 나타낸 도면이다.5 is a diagram illustrating a process of calculating a distance to neighboring feature vectors according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 결함 분류부(340)는 학습 특징벡터들 및 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산한다. 결함 분류부(340)는 하기의 [수학식 1]에 따라 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산할 수 있다.As shown in FIG. 5, the
여기서, 는 클래스 i의 j번째 특징벡터와 k번째 이웃한 특징벡터와의 거리, 는 클래스 i의 j번째 특징벡터, 는 클래스 i의 j번째 특징벡터와 k번째 이웃한 특징벡터, i는 클래스 번호, j는 특징벡터 번호, k는 이웃한 특징벡터의 번호를 나타낸다.here, Is the distance between the jth feature vector of class i and the kth neighbor feature vector, Is the jth feature vector of class i, I is a class number, j is a feature vector number, and k is a number of a neighboring feature vector.
그리고 결함 분류부(340)는 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 하기의 [수학식 2]와 같이 계산한다.Then, the
여기서, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 클래스 i의 j번째 특징벡터와 k번째 이웃한 특징벡터와의 거리를 나타낸다. k는 이웃한 특징벡터의 번호를 나타낸다. 이때, k=3일 경우에 대해서, k는 1≤k≤3과 같은 범위를 가진다. 본 발명에 적용되는 k 값은 이웃하는 특징벡터들의 개수로서, 특정 개수으로 한정되지 않는다.here, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Represents the distance between the jth feature vector of class i and the kth neighbor feature vector. k denotes the number of neighboring feature vectors. At this time, for k = 3, k has a range such as 1? K? 3. The k value applied to the present invention is the number of neighboring feature vectors, and is not limited to a specific number.
결함 분류부(340)는 그 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산한다.The
이와 같이, 결함 분류부(340)는 학습특징 추출부(310)에서 생성된 학습 특징벡터들 및 입력특징 추출부(330)에서 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출한다.The
도 6은 본 발명의 실시 예에 따른 확률밀도함수의 종류를 나타낸 도면이다.FIG. 6 is a diagram illustrating the types of probability density functions according to an embodiment of the present invention.
도 6의 (a) 및 (b)에 도시된 바와 같이, 결함 분류부(340)는 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산한다.As shown in FIGS. 6A and 6B, the
일례로, 결함 분류부(340)는 입력 특징벡터의 분포가 정규분포이면 하기의 [수학식 3]에 따라 거리 확률밀도함수를 계산할 수 있다.For example, if the distribution of input feature vectors is a normal distribution, the
여기서, 는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타낸다.here, Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents the standard deviation of the distribution.
다른 예로, 결함 분류부(340)는 입력 특징벡터의 분포가 지수분포이면 하기의 [수학식 4]에 따라 거리 확률밀도함수를 계산할 수 있다.As another example, if the distribution of input feature vectors is an exponential distribution, the
도 7은 본 발명의 실시 예에 따른 각 클래스 및 입력 특징벡터에 대한 확률밀도함수의 값 및 분류확률을 계산하는 과정을 나타낸 도면이다.FIG. 7 is a diagram illustrating a process of calculating a value of a probability density function and a classification probability for each class and input feature vector according to an embodiment of the present invention. Referring to FIG.
도 7에 도시된 바와 같이, 결함 분류부(340)는 계산된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값(β)을 계산한다. As shown in FIG. 7, the
그리고 결함 분류부(340)는 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률(α)을 계산한다. 여기서, 결함 분류부(340)는 각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률(α)로 계산할 수 있다. 도 7에 도시된 예시에서, 클래스 i의 경우에는 3개의 이웃한 특징벡터들 중 2개가 클래스 i에 포함되므로 2/3이며, 클래스 i'의 경우에는 이웃한 특징벡터들 중 1개가 클래스 i'에 포함되므로 1/3로 분류확률이 계산될 수 있다.The
이후, 결함 분류부(340)는 계산된 확률밀도함수의 값(β)과 계산된 분류확률(α)을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값(MV)을 계산한다. 여기서, 결함 분류부(340)는 계산된 확률밀도 기반의 분류기의 분류확률(α)과 계산된 확률밀도함수의 값(β)을 하기의 [수학식 5]에 따라 각 클래스의 멤버십 값(MV)을 계산할 수 있다.Then, the
여기서, 는 클래스 i의 멤버십 값, 는 클래스 i에 대한 분류기의 분류확률, 는 클래스 i에 대한 확률밀도함수의 값, 는 클래스 i'의 멤버십 값, 는 클래스 i'에 대한 분류기의 분류확률, 는 클래스 i'에 대한 확률밀도함수의 값을 나타낸다.here, Is the membership value of class i, Is the classification probability of the classifier for class i, Is the value of the probability density function for class i, Is the membership value of class i ' Is the classification probability of the classifier for class i ' Represents the value of the probability density function for class i '.
그리고 결함 분류부(340)는 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류한다.The
도 8은 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 대한 흐름도이다.8 is a flowchart of a probability density-based fault diagnosis method according to an embodiment of the present invention.
고장 진단 장치(300)는 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성한다(S101).The
그리고 고장 진단 장치(300)는 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시킨다(S102).The
이후, 고장 진단 장치(300)는 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성한다(S103).Then, the
고장 진단 장치(300)는 생성된 학습 특징벡터들 및 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산한다(S104).The
고장 진단 장치(300)는 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산한다(S105).The
고장 진단 장치(300)는 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산한다(S106).The
고장 진단 장치(300)는 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산한다(S107).The
고장 진단 장치(300)는 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산한다(S108).The
고장 진단 장치(300)는 계산된 확률밀도함수의 값과 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산한다(S109).The
고장 진단 장치(300)는 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류한다(S110).The
고장 진단 장치(300)는 멤버십 값이 가장 큰 클래스로 분류된 입력 특징벡터가 포함된 결함 분류 결과를 통해 고장 상태를 진단한다(S111).The
도 9는 종래 기술과 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 의해 각각 수행된 분류성능을 나타낸 도면이다.FIG. 9 is a diagram illustrating classification performance performed by the probability density-based fault diagnosis method according to the prior art and the embodiment of the present invention, respectively.
종래 기술(Traditional)을 이용하여 고장을 진단한 결과, 종래 기술은 k 값의 변화에 따라 분류성능이 심하게 변화한다. As a result of diagnosing faults using the conventional technique, classification performance varies greatly according to the change of k value in the prior art.
반면, 본 발명의 실시 예(Proposed)에 따른 확률밀도 기반의 고장 진단 방법에 의해 수행된 분류성능은 k값이 변하여도 분류성능의 변화가 작다.On the other hand, the classification performance performed by the probability density based fault diagnosis method according to the embodiment of the present invention shows a small change in the classification performance even when the k value changes.
이와 같이, 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법은 종래 기술에 비해 전반적으로 높은 성능을 보이고 있다.As described above, the probability density-based fault diagnosis method according to the embodiment of the present invention shows overall higher performance than the prior art.
이상에서 설명한 실시 예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
300: 고장 진단 장치
310: 학습특징 추출부
320: 분류기 학습부
330: 입력특징 추출부
340: 결함 분류부
350: 고장 진단부300: Fault diagnosis device
310: learning feature extraction unit
320: classifier learning unit
330: input feature extraction unit
340: Defect classification part
350:
Claims (18)
미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 단계;
상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 단계;
분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 단계;
상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 단계; 및
상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 단계를 포함하고,
상기 결함 분류 결과를 산출하는 단계는,
상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하는 단계;
상기 계산된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하는 단계;
상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하는 단계; 및
상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류하는 단계를 포함하는 고장 진단 방법.A fault diagnosis method performed by a fault diagnosis apparatus,
Generating learning feature vectors by extracting learning features for distinguishing defects from previously acquired defect-specific learning signals;
Learning the generated learning feature vectors into a probability density based classifier;
Extracting input features that distinguish each defect from an input signal that is a classification target and generating an input feature vector;
The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result ; And
And diagnosing a fault state through the calculated defect classification result,
The step of calculating the defect classification result includes:
Calculating a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors;
Calculating a value of a probability density function with respect to the input feature vector through the calculated distance probability density function of each class and calculating a classification probability of the probability density based classifier with respect to the input feature vector;
Calculating a membership value of each class with respect to an input feature vector using the calculated probability density function and the calculated classification probability; And
And classifying the input feature vector into a class having the largest membership value by comparing the calculated membership values for each class.
상기 거리 확률밀도함수를 산출하는 단계는,
상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하는 단계;
상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하는 단계; 및
상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산하는 단계
를 포함하는 고장 진단 방법.The method according to claim 1,
The step of calculating the distance probability density function comprises:
Using the generated learning feature vectors and the generated input feature vectors, calculating a distance between an input feature vector and a predetermined number of neighboring feature vectors for all learning feature vectors in each class;
Calculating a largest distance value among the distances of the calculated neighboring feature vectors; And
Calculating a distance probability density function of each class using the calculated maximum distance value
Lt; / RTI >
상기 거리 확률밀도함수를 계산하는 단계는,
상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산하는 고장 진단 방법.The method of claim 3,
The step of calculating the distance probability density function comprises:
And calculating a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.
상기 거리 확률밀도함수를 계산하는 단계는,
상기 입력 특징벡터의 분포가 정규분포이면,
[수학식 3]
,
는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산하는 고장 진단 방법.The method of claim 3,
The step of calculating the distance probability density function comprises:
If the distribution of the input feature vectors is a normal distribution,
&Quot; (3) "
,
Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents a standard deviation of the distribution, and calculates a distance probability density function according to Equation (3) above.
상기 거리 확률밀도함수를 계산하는 단계는,
상기 입력 특징벡터의 분포가 지수분포이면,
[수학식 4]
,
는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산하는 고장 진단 방법.The method of claim 3,
The step of calculating the distance probability density function comprises:
If the distribution of the input feature vectors is an exponential distribution,
&Quot; (4) "
,
Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents a standard deviation of the distribution, and calculates a distance probability density function according to Equation (4) above.
상기 확률밀도 기반 분류기는,
상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기인 것을 특징으로 하는 고장 진단 방법.The method according to claim 1,
The probability density-
Wherein the k-NN classifier is a probability density-based k-NN classifier for classifying the input feature vectors based on the distance probability density function using k learning feature vectors, which are the number of feature vectors and neighboring feature vectors.
상기 분류확률을 계산하는 단계는,
각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산하는 고장 진단 방법.The method according to claim 1,
Wherein the step of calculating the classification probability comprises:
Calculating a ratio of a learning feature vector belonging to the class among a predetermined number of neighboring learning feature vectors for each class to a classification probability of a probability density based classifier for the input feature vector;
상기 가장 큰 클래스로 입력 특징벡터를 분류하는 단계는,
[수학식 5]
,
는 클래스 i의 멤버십 값, 는 클래스 i에 대한 분류기의 분류확률, 는 클래스 i에 대한 확률밀도함수의 값, 는 클래스 i'의 멤버십 값, 는 클래스 i'에 대한 분류기의 분류확률, 는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산하는 고장 진단 방법.The method according to claim 1,
Wherein classifying the input feature vector into the largest class comprises:
&Quot; (5) "
,
Is the membership value of class i, Is the classification probability of the classifier for class i, Is the value of the probability density function for class i, Is the membership value of class i ' Is the classification probability of the classifier for class i ' Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) A method of diagnosing faults.
상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 분류기 학습부;
분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 입력특징 추출부;
상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 결함 분류부; 및
상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 고장 진단부를 포함하고,
상기 결함 분류부는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하고, 상기 산출된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하고, 상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하고, 상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류하는 고장 진단 장치.A learning feature extraction unit for extracting learning features for distinguishing defects from previously acquired learning signals for each defect to generate learning feature vectors;
A classifier learning unit for learning the generated learning feature vectors in a probability density based classifier;
An input feature extraction unit for extracting input features distinguishing each defect from an input signal to be classified and generating an input feature vector;
The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result A defect classifier for classifying the defect classifiers; And
And a failure diagnosis unit for diagnosing a failure state through the calculated defect classification result,
The defect classification unit may calculate a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors and may calculate a distance probability density function of each class using the distance probability density function of each class, Calculating a value of a probability density function, calculating a classification probability of the probability density-based classifier with respect to the input feature vector, and using each of the calculated probability density function and the calculated classification probability, And classifies the input feature vector into a class having the largest membership value by comparing the calculated membership value for each class.
상기 결함 분류부는,
상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하고, 상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하고, 상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산하는 고장 진단 장치.11. The method of claim 10,
Wherein,
Calculating a distance between an input feature vector and all the learning feature vectors in each class and a predetermined number of neighboring feature vectors using the generated learning feature vectors and the generated input feature vectors, Calculating a distance probability density function of each class using the calculated maximum distance value, and calculating a distance probability density function of each class using the calculated maximum distance value.
상기 결함 분류부는,
상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산하는 고장 진단 장치.13. The method of claim 12,
Wherein,
And calculates a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.
상기 결함 분류부는,
상기 입력 특징벡터의 분포가 정규분포이면,
[수학식 3]
,
는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산하는 고장 진단 장치.13. The method of claim 12,
Wherein,
If the distribution of the input feature vectors is a normal distribution,
&Quot; (3) "
,
Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents a standard deviation of a distribution, and calculates a distance probability density function according to Equation (3) above.
상기 결함 분류부는,
상기 입력 특징벡터의 분포가 지수분포이면,
[수학식 4]
는 거리 확률밀도함수, 는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값, 는 분포의 평균, 는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산하는 고장 진단 장치.13. The method of claim 12,
Wherein,
If the distribution of the input feature vectors is an exponential distribution,
&Quot; (4) "
Is a distance probability density function, Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors, Is the mean of the distribution, Represents a standard deviation of the distribution, and calculates a distance probability density function according to Equation (4) above.
상기 확률밀도 기반 분류기는,
상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기인 것을 특징으로 하는 고장 진단 장치.11. The method of claim 10,
The probability density-
Wherein the k-NN classifier is a probability density-based k-NN classifier that classifies the input feature vectors based on the distance probability density function using k learning feature vectors that are the number of the input feature vectors and neighboring feature vectors.
상기 결함 분류부는,
각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산하는 고장 진단 장치.11. The method of claim 10,
Wherein,
For each class, a ratio of a learning feature vector belonging to the class among a predetermined number of neighboring learning feature vectors as a classification probability of a probability density based classifier for the input feature vector.
상기 결함 분류부는,
[수학식 5]
,
는 클래스 i의 멤버십 값, 는 클래스 i에 대한 분류기의 분류확률, 는 클래스 i에 대한 확률밀도함수의 값, 는 클래스 i'의 멤버십 값, 는 클래스 i'에 대한 분류기의 분류확률, 는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산하는 고장 진단 장치.11. The method of claim 10,
Wherein,
&Quot; (5) "
,
Is the membership value of class i, Is the classification probability of the classifier for class i, Is the value of the probability density function for class i, Is the membership value of class i ' Is the classification probability of the classifier for class i ' Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) Fault diagnosis device to calculate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160161987A KR101797400B1 (en) | 2016-11-30 | 2016-11-30 | Method and apparatus for diagnosing fault based on probabilistic density |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160161987A KR101797400B1 (en) | 2016-11-30 | 2016-11-30 | Method and apparatus for diagnosing fault based on probabilistic density |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101797400B1 true KR101797400B1 (en) | 2017-11-15 |
Family
ID=60386906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160161987A KR101797400B1 (en) | 2016-11-30 | 2016-11-30 | Method and apparatus for diagnosing fault based on probabilistic density |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101797400B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101936283B1 (en) | 2017-12-28 | 2019-01-08 | 주식회사 한국가스기술공사 | Diagnostic and prognostics method for machine fault |
KR20190099710A (en) * | 2018-02-19 | 2019-08-28 | 주식회사 케이티 | System and method for handling network failure |
KR102123522B1 (en) * | 2019-12-16 | 2020-06-16 | 주식회사 한국가스기술공사 | Failure diagnostic method based on cluster of fault data |
KR102141391B1 (en) * | 2019-12-16 | 2020-08-05 | 주식회사 한국가스기술공사 | Failure data management method based on cluster estimation |
CN114354188A (en) * | 2022-01-10 | 2022-04-15 | 郑州大学 | Rotary machine fault diagnosis method based on fully-adaptive noise set empirical mode decomposition |
KR20230165509A (en) | 2022-05-27 | 2023-12-05 | 라온피플 주식회사 | Apparatus and method for filtering unseen data |
-
2016
- 2016-11-30 KR KR1020160161987A patent/KR101797400B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
Pandya, D. H., et al. "Fault diagnosis of rolling element bearing with intrinsic mode function of acoustic emission data using APF-KNN." Expert Systems with Applications 40.10. 2013.* |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101936283B1 (en) | 2017-12-28 | 2019-01-08 | 주식회사 한국가스기술공사 | Diagnostic and prognostics method for machine fault |
KR20190099710A (en) * | 2018-02-19 | 2019-08-28 | 주식회사 케이티 | System and method for handling network failure |
KR102149930B1 (en) * | 2018-02-19 | 2020-08-31 | 주식회사 케이티 | System and method for handling network failure |
KR102123522B1 (en) * | 2019-12-16 | 2020-06-16 | 주식회사 한국가스기술공사 | Failure diagnostic method based on cluster of fault data |
KR102141391B1 (en) * | 2019-12-16 | 2020-08-05 | 주식회사 한국가스기술공사 | Failure data management method based on cluster estimation |
CN114354188A (en) * | 2022-01-10 | 2022-04-15 | 郑州大学 | Rotary machine fault diagnosis method based on fully-adaptive noise set empirical mode decomposition |
KR20230165509A (en) | 2022-05-27 | 2023-12-05 | 라온피플 주식회사 | Apparatus and method for filtering unseen data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101797400B1 (en) | Method and apparatus for diagnosing fault based on probabilistic density | |
KR101823746B1 (en) | Method for bearing fault diagnosis | |
EP3502966B1 (en) | Data generation apparatus, data generation method, and data generation program | |
US7444251B2 (en) | Detecting and diagnosing faults in HVAC equipment | |
CN112763214B (en) | Rolling bearing fault diagnosis method based on multi-label zero-sample learning | |
CN106528975B (en) | A kind of prognostic and health management method applied to Circuits and Systems | |
US20150346066A1 (en) | Asset Condition Monitoring | |
JP4605132B2 (en) | Anomaly detection device and anomaly detection method | |
CN108765373A (en) | A kind of insulator exception automatic testing method based on integrated classifier on-line study | |
US10235629B2 (en) | Sensor data confidence estimation based on statistical analysis | |
KR102265298B1 (en) | Apparatus and method for fault diagnosis using fake data generated by machine learning | |
CN108257365B (en) | Industrial alarm design method based on global uncertainty evidence dynamic fusion | |
KR102416474B1 (en) | Fault diagnosis apparatus and method based on machine-learning | |
KR102398046B1 (en) | Fault diagnosis device using unsupervised domain adaptation technique and fault diagnosis method using the same | |
KR101808390B1 (en) | Method for machine fault diagnosis | |
CN114356897A (en) | Electromechanical actuator fault diagnosis method based on data fusion | |
KR101967065B1 (en) | Fault diagnosis apparatus and method for robust to environmental change | |
CN112419243B (en) | Power distribution room equipment fault identification method based on infrared image analysis | |
CN110956112B (en) | Novel high-reliability slewing bearing service life assessment method | |
CN110057588B (en) | Bearing early fault detection and diagnosis method and system based on fusion of singular value and graph theory characteristics | |
Huo et al. | Bearing fault diagnosis using multi-sensor fusion based on weighted DS evidence theory | |
KR101811962B1 (en) | Apparatus and method for evaluating class discrimination of nonlinear data | |
CN110490218A (en) | A kind of rolling bearing fault self-learning method based on two-stage DBN | |
Zhang et al. | Applied sensor fault detection and validation using transposed input data PCA and ANNs | |
CN113537288B (en) | Method and system for training target model based on modification of sample signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |