KR101797400B1 - Method and apparatus for diagnosing fault based on probabilistic density - Google Patents

Method and apparatus for diagnosing fault based on probabilistic density Download PDF

Info

Publication number
KR101797400B1
KR101797400B1 KR1020160161987A KR20160161987A KR101797400B1 KR 101797400 B1 KR101797400 B1 KR 101797400B1 KR 1020160161987 A KR1020160161987 A KR 1020160161987A KR 20160161987 A KR20160161987 A KR 20160161987A KR 101797400 B1 KR101797400 B1 KR 101797400B1
Authority
KR
South Korea
Prior art keywords
probability density
class
feature vectors
distance
density function
Prior art date
Application number
KR1020160161987A
Other languages
Korean (ko)
Inventor
김종면
김재영
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020160161987A priority Critical patent/KR101797400B1/en
Application granted granted Critical
Publication of KR101797400B1 publication Critical patent/KR101797400B1/en

Links

Images

Classifications

    • G06N7/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • G06N99/005

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

The present invention relates to a method and an apparatus for diagnosing a fault based on a probability density. According to an embodiment of the present invention, the method for diagnosing a fault based on a probability density comprises the steps of: generating a learning feature vector by extracting learning features dividing each defect from a previously obtained learning signal for each defect; learning the generated learning feature vectors in a probability density-based classifier; generating input feature vectors by extracting input features dividing each defect from an input signal which is a classification target; inputting the generated input feature vectors to the learned probability density-based classifier, and calculating a classification probability on the input feature vectors and a distance probability density function of each class on the learning feature vectors so as to calculate a defect classification result; and diagnosing a fault state through the calculated defect classification result.

Description

확률밀도 기반의 고장 진단 방법 및 장치{METHOD AND APPARATUS FOR DIAGNOSING FAULT BASED ON PROBABILISTIC DENSITY}TECHNICAL FIELD [0001] The present invention relates to a fault diagnosis method and apparatus based on probability density,

본 발명은 확률밀도 기반의 고장 진단 방법 및 장치에 관한 것으로서, 더욱 상세하게는 입력신호로부터 추출된 특징들에 대해 미리 학습된 확률밀도 기반의 분류기를 이용하여 결함을 분류함으로써, 분류성능의 변화가 작고 고장을 정확하게 진단할 수 있는, 확률밀도 기반의 고장 진단 방법 및 장치를 제공하고자 한다.More particularly, the present invention relates to a probability density-based fault diagnosis method and apparatus, and more particularly, to a fault diagnosis method and apparatus based on probability density, The present invention provides a fault diagnosis method and apparatus based on a probability density that can accurately diagnose small faults.

베어링의 결함 검출에 있어, 실제 산업현장에서는 소음과 진동의 특성을 이용하여 비파괴검사에 이용함으로써 베어링부의 수명연장 등 유지 보전에 큰 도움을 주고 있다.In the detection of defects in bearings, it is used for non-destructive inspection by using characteristics of noise and vibration in real industrial field, which is greatly helping maintenance maintenance such as extension of bearing life.

베어링 고장원인으로는 불충분한 윤활, 부적절한 윤활재의 사용, 베어링의 잘못된 설치, 축계의 과도한 변형 등이 있다. 과거에는 숙련된 기술자에 의하여 이러한 문제들을 진단하고 고장 여부를 판단하였으나, 대부분 진단시간이 길고, 주관적이며, 경우에 따라 기기 시스템의 작동을 중단해야 하는 단점을 지니고 있다. 최근에는 기기 시스템의 작동을 유지하면서, 베어링의 고장을 진단할 수 있는 시스템이 요구됨에 따라 지속적으로 베어링 작동 상태를 진단하여 고장 전에 미리 이상을 발견할 수 있는 형태의 기술로 발전되고 있다.Causes of bearing failure include insufficient lubrication, improper use of lubricant, misalignment of bearings, and excessive deformation of shaft. In the past, experienced technicians diagnosed these problems and judged whether they were faulty. However, most of them have a long diagnosis time, subjective, and sometimes have to stop the operation of the equipment system. In recent years, a system capable of diagnosing a failure of a bearing has been required while maintaining the operation of a device system, and thus the bearing operating state is continuously diagnosed and developed as a type of technology capable of detecting an abnormality before a failure.

도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.

도 1의 (a)는 베어링의 구조를, (b) 베어링 외륜 결함을, (c)는 베어링 내륜 결함을 나타냄으로, 이와 같이 고장이 발생할 수 있는 기계의 위치에 센서를 부착하여 신호를 취득하고, (d)에 도시된 바와 같이 취득된 신호로부터 특징을 추출하고 상태 진단 영역에서 특징의 패턴을 분석하여 고장을 진단할 수 있다.Fig. 1 (a) shows the structure of the bearing, (b) shows the bearing outer ring defect, and (c) shows the inner ring of the bearing. The sensor is attached to the position of the machine, , it is possible to extract a feature from the acquired signal and diagnose the failure by analyzing the pattern of the feature in the state diagnosis area as shown in (d).

도 2는 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining a map-based machine learning algorithm using a conventional k-NN classifier.

도 2에 도시된 바와 같이, 특징 1 및 특징 2를 기본 축으로 특징벡터들이 분포되어 있다. 클래스 1의 분석신호에 대한 특징벡터들(110)이 좌측에 분포되어 있다. 클래스2의 분석신호에 대한 특징벡터들(110)이 우측에 분포되어 있다.As shown in FIG. 2, the feature vectors are distributed on the basic axes of the feature 1 and the feature 2. The feature vectors 110 for the class 1 analysis signal are distributed on the left side. The feature vectors 110 for the analysis signal of class 2 are distributed on the right side.

이때, k-NN(k-Nearest Neighbors) 분류기를 이용한 지도식 기계학습 알고리즘은 입력 신호에 대한 특징벡터(130)가 클래스 1에 속하는지 또는 클래스 2에 속하는지를 k개의 이웃한 특징벡터들을 기초로 하여 판단하게 된다.At this time, a map-based machine learning algorithm using a k-nearest neighbors (k-NN) classifier determines whether the feature vector 130 for the input signal belongs to class 1 or class 2 based on k neighboring feature vectors .

이러한 k-NN 분류기를 이용한 지도식 기계학습 알고리즘을 살펴보기로 한다.We will look at a map-based machine learning algorithm using the k-NN classifier.

우선, k-NN 분류기는 지도식 기계학습 알고리즘으로 입력 특징벡터와 이웃한 k 개의 학습 특징벡터를 찾고, 이 특징벡터들이 포함되는 클래스를 입력 특징벡터의 클래스로 정하는 분류기이다.First, the k-NN classifier is a classifier that finds input feature vectors and neighboring k learning feature vectors by a MAP learning algorithm, and classifies the classes including these feature vectors into classes of input feature vectors.

k-NN 분류기에서 수행되는 단계를 살펴보면 다음과 같다.The steps performed in the k-NN classifier are as follows.

단계 1에서, k-NN 분류기는 입력 데이터의 특징벡터(130)와 학습 데이터의 특징벡터들 사이의 유클리디안 거리를 계산한다.In step 1, the k-NN classifier calculates the Euclidean distance between the feature vectors 130 of the input data and the feature vectors of the training data.

그리고 단계 2에서, k-NN 분류기는 입력 신호의 특징벡터(130)와 거리가 가장 가까운 k개의 이웃한 벡터들(111)을 선택한다.In step 2, the k-NN classifier selects k adjacent vectors 111 closest to the feature vector 130 of the input signal.

단계 3에서, k-NN 분류기는 2개의 그룹(예컨대, 클래스 1, 클래스 2) 중 이웃한 벡터들(111)을 가장 많이 포함하고 있는 클래스로 입력 신호의 특징벡터(130)를 분류한다. 도 2의 일례에서, k-NN 분류기는 이웃한 특징벡터들(111)이 모두 클래스 1에 포함되므로 입력 신호의 특징벡터(130)를 클래스 1로 분류한다.In step 3, the k-NN classifier classifies the feature vector 130 of the input signal into two classes (e.g., class 1, class 2), which class includes the most neighboring vectors 111. In the example of FIG. 2, the k-NN classifier classifies the feature vector 130 of the input signal into a class 1 because all the neighboring feature vectors 111 are included in the class 1.

도 3은 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘에서 k 값이 분류결과에 미치는 영향을 설명하는 도면이다.FIG. 3 is a view for explaining the effect of k value on classification results in a conventional map-based machine learning algorithm using a k-NN classifier.

도 3을 참조하여 k 값이 분류결과에 미치는 영향을 살펴보기로 한다.Referring to FIG. 3, the effect of the k value on classification results will be described.

도 3에 도시된 바와 같이, 특징 1 및 특징 2를 기본 축으로 특징벡터들이 분포되어 있다. 클래스 1의 분석신호에 대한 특징벡터들(210)이 좌측 상단에 분포되어 있다. 클래스 2의 분석신호에 대한 특징벡터들(220)이 우측 하단에 분포되어 있다.As shown in FIG. 3, feature vectors are distributed on the basis of the features 1 and 2 as the basic axes. The feature vectors 210 for the analysis signal of class 1 are distributed at the upper left corner. And the feature vectors 220 for the analysis signal of class 2 are distributed in the lower right side.

이때, k-NN 분류기를 이용한 지도식 기계학습 알고리즘은 입력 신호에 대한 특징벡터(230)가 클래스 1에 속하는지 또는 클래스 2에 속하는지를 k 개의 이웃한 특징벡터들을 기초로 하여 판단하게 된다. k-NN 분류기를 이용한 지도식 기계학습 알고리즘은 k=5인 경우 클래스 2로 분류하고 있다. 반면, k-NN 분류기를 이용한 지도식 기계학습 알고리즘은 k=3인 경우 클래스 1로 분류하고 있다.At this time, the MAP learning algorithm using the k-NN classifier determines whether the feature vector 230 for the input signal belongs to class 1 or class 2 based on k neighboring feature vectors. The algorithm for teaching m-learning using k-NN classifier is classified as class 2 when k = 5. On the other hand, the map-based machine learning algorithm using k-NN classifier is classified as class 1 when k = 3.

이와 같이, k-NN 분류기의 k 값은 분류성능에 영향을 미치며 k 값의 변화에 따라 분류결과가 달라진다. 즉, 도 3의 예시와 같이, k 값이 3일 때와 k 값이 5일 때 분류결과가 달라지는 것을 보이고 있다.Thus, the k-value of the k-NN classifier affects the classification performance and the classification result is changed according to the change of the k value. That is, as shown in the example of FIG. 3, the classification result is different when the k value is 3 and the k value is 5.

대한민국 공개특허공보 제10-1998-0069423호(1998년10월26일)Korean Patent Publication No. 10-1998-0069423 (October 26, 1998)

본 발명의 실시 예들은 학습신호(예컨대, 진동 혹은 음향신호)로부터 각 결함들을 구분할 수 있는 특징들을 추출하여 확률밀도 기반의 분류기(예컨대, k-NN 분류기)에 미리 학습시키고, 입력신호로부터 추출된 특징들에 대해 미리 학습된 확률밀도 기반의 분류기를 이용하여 결함을 분류함으로써, 분류성능의 변화가 작고 고장을 정확하게 진단할 수 있는, 확률밀도 기반의 고장 진단 방법 및 장치를 제공하고자 한다.Embodiments of the present invention extract features that can distinguish each defect from a learning signal (e.g., vibration or sound signal), learn it in advance in a probability density-based classifier (e.g., k-NN classifier) The present invention is to provide a probability density-based fault diagnosis method and apparatus capable of accurately diagnosing faults with a small change in classification performance by classifying faults using a classifier based on a probability density learned in advance.

본 발명의 제1 측면에 따르면, 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 단계; 상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 단계; 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 단계; 상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 단계; 및 상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 단계를 포함하는 고장 진단 방법이 제공될 수 있다.According to a first aspect of the present invention, there is provided a method for generating a learning feature vector, the method comprising: generating learning feature vectors by extracting learning features for distinguishing defects from previously acquired defect- Learning the generated learning feature vectors into a probability density based classifier; Extracting input features that distinguish each defect from an input signal that is a classification target and generating an input feature vector; The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result ; And diagnosing a fault state through the calculated fault classification result.

상기 결함 분류 결과를 산출하는 단계는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하는 단계; 상기 계산된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하는 단계; 상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하는 단계; 및 상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류하는 단계를 포함할 수 있다.Wherein the step of calculating the defect classification result includes: calculating a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors; Calculating a value of a probability density function with respect to the input feature vector through the calculated distance probability density function of each class and calculating a classification probability of the probability density based classifier with respect to the input feature vector; Calculating a membership value of each class with respect to an input feature vector using the calculated probability density function and the calculated classification probability; And comparing the calculated membership values for each class to classify input feature vectors into classes having the largest membership value.

상기 거리 확률밀도함수를 산출하는 단계는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하는 단계; 상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하는 단계; 및 상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산하는 단계를 포함할 수 있다.The step of calculating the distance probability density function may further include using the generated learning feature vectors and the generated input feature vectors to calculate an input feature vector and a predetermined number of neighboring features Calculating distances from the vectors; Calculating a largest distance value among the distances of the calculated neighboring feature vectors; And calculating the distance probability density function of each class using the calculated maximum distance value.

상기 거리 확률밀도함수를 계산하는 단계는, 상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산할 수 있다.The step of calculating the distance probability density function may calculate a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.

상기 거리 확률밀도함수를 계산하는 단계는, 상기 입력 특징벡터의 분포가 정규분포이면, [수학식 3]

Figure 112016117715160-pat00001
,
Figure 112016117715160-pat00002
는 거리 확률밀도함수,
Figure 112016117715160-pat00003
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00004
는 분포의 평균,
Figure 112016117715160-pat00005
는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산할 수 있다.Wherein the step of calculating the distance probability density function comprises: if the distribution of the input feature vectors is a normal distribution,
Figure 112016117715160-pat00001
,
Figure 112016117715160-pat00002
Is a distance probability density function,
Figure 112016117715160-pat00003
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00004
Is the mean of the distribution,
Figure 112016117715160-pat00005
Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (3).

상기 거리 확률밀도함수를 계산하는 단계는, 상기 입력 특징벡터의 분포가 지수분포이면, [수학식 4]

Figure 112016117715160-pat00006
,
Figure 112016117715160-pat00007
는 거리 확률밀도함수,
Figure 112016117715160-pat00008
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00009
는 분포의 평균,
Figure 112016117715160-pat00010
는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산할 수 있다.Wherein the step of calculating the distance probability density function comprises: if the distribution of the input feature vectors is an exponential distribution,
Figure 112016117715160-pat00006
,
Figure 112016117715160-pat00007
Is a distance probability density function,
Figure 112016117715160-pat00008
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00009
Is the mean of the distribution,
Figure 112016117715160-pat00010
Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (4).

상기 확률밀도 기반 분류기는, 상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기일 수 있다.Wherein the probability density-based classifier is a probability density-based k-NN classifier for classifying the input feature vector on the basis of the distance probability density function using k learning feature vectors, which are the numbers of the input feature vectors and neighboring feature vectors, have.

상기 분류확률을 계산하는 단계는, 각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산할 수 있다.The step of calculating the classification probability may include calculating a classification probability of each class based on a probability density based classifier for the input feature vector, the ratio of learning feature vectors belonging to the class among a predetermined number of neighboring learning feature vectors .

상기 가장 큰 클래스로 입력 특징벡터를 분류하는 단계는, [수학식 5]

Figure 112016117715160-pat00011
,
Figure 112016117715160-pat00012
는 클래스 i의 멤버십 값,
Figure 112016117715160-pat00013
는 클래스 i에 대한 분류기의 분류확률,
Figure 112016117715160-pat00014
는 클래스 i에 대한 확률밀도함수의 값,
Figure 112016117715160-pat00015
는 클래스 i'의 멤버십 값,
Figure 112016117715160-pat00016
는 클래스 i'에 대한 분류기의 분류확률,
Figure 112016117715160-pat00017
는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산할 수 있다.The step of classifying the input feature vector into the largest class comprises:
Figure 112016117715160-pat00011
,
Figure 112016117715160-pat00012
Is the membership value of class i,
Figure 112016117715160-pat00013
Is the classification probability of the classifier for class i,
Figure 112016117715160-pat00014
Is the value of the probability density function for class i,
Figure 112016117715160-pat00015
Is the membership value of class i '
Figure 112016117715160-pat00016
Is the classification probability of the classifier for class i '
Figure 112016117715160-pat00017
Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) Can be calculated.

한편, 본 발명의 제2 측면에 따르면, 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 학습특징 추출부; 상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 분류기 학습부; 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 입력특징 추출부; 상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 결함 분류부; 및 상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 고장 진단부를 포함하는 고장 진단 장치가 제공될 수 있다.According to a second aspect of the present invention, there is provided a learning apparatus comprising: a learning feature extraction unit for extracting learning features for distinguishing defects from previously acquired learning signals for each defect to generate learning feature vectors; A classifier learning unit for learning the generated learning feature vectors in a probability density based classifier; An input feature extraction unit for extracting input features distinguishing each defect from an input signal to be classified and generating an input feature vector; The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result A defect classifier for classifying the defect classifiers; And a fault diagnosis unit for diagnosing a fault state through the calculated fault classification result.

상기 결함 분류부는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하고, 상기 산출된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하고, 상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하고, 상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류할 수 있다.The defect classification unit may calculate a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors and may calculate a distance probability density function of each class using the distance probability density function of each class, Calculating a value of a probability density function, calculating a classification probability of the probability density-based classifier with respect to the input feature vector, and using each of the calculated probability density function and the calculated classification probability, The input feature vector can be classified into the class having the largest membership value by comparing the membership values of the calculated classes.

상기 결함 분류부는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하고, 상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하고, 상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산할 수 있다.The defect classification unit may use the generated learning feature vectors and the generated input feature vectors to calculate a distance between an input feature vector and a predetermined number of neighboring feature vectors for all learning feature vectors in each class Calculates the largest distance value among the distances of the calculated neighboring feature vectors, and calculates the distance probability density function of each class using the calculated maximum distance value.

상기 결함 분류부는, 상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산할 수 있다.The defect classifier may calculate a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.

상기 결함 분류부는, 상기 입력 특징벡터의 분포가 정규분포이면, [수학식 3]

Figure 112016117715160-pat00018
,
Figure 112016117715160-pat00019
는 거리 확률밀도함수,
Figure 112016117715160-pat00020
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00021
는 분포의 평균,
Figure 112016117715160-pat00022
는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산할 수 있다.The defect classifier may be configured such that if the distribution of the input feature vectors is a normal distribution,
Figure 112016117715160-pat00018
,
Figure 112016117715160-pat00019
Is a distance probability density function,
Figure 112016117715160-pat00020
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00021
Is the mean of the distribution,
Figure 112016117715160-pat00022
Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (3).

상기 결함 분류부는, 상기 입력 특징벡터의 분포가 지수분포이면, [수학식 4]

Figure 112016117715160-pat00023
,
Figure 112016117715160-pat00024
는 거리 확률밀도함수,
Figure 112016117715160-pat00025
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00026
는 분포의 평균,
Figure 112016117715160-pat00027
는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산할 수 있다.If the distribution of the input feature vectors is an exponential distribution,
Figure 112016117715160-pat00023
,
Figure 112016117715160-pat00024
Is a distance probability density function,
Figure 112016117715160-pat00025
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00026
Is the mean of the distribution,
Figure 112016117715160-pat00027
Represents the standard deviation of the distribution, and the distance probability density function can be calculated according to Equation (4).

상기 확률밀도 기반 분류기는, 상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기일 수 있다.Wherein the probability density-based classifier is a probability density-based k-NN classifier for classifying the input feature vector on the basis of the distance probability density function using k learning feature vectors, which are the numbers of the input feature vectors and neighboring feature vectors, have.

상기 결함 분류부는, 각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산할 수 있다.The defect classifier may calculate a ratio of a learning feature vector belonging to the class among a predetermined number of neighboring learning feature vectors for each class as a classification probability of a probability density based classifier for the input feature vector.

상기 결함 분류부는, [수학식 5]

Figure 112016117715160-pat00028
,
Figure 112016117715160-pat00029
는 클래스 i의 멤버십 값,
Figure 112016117715160-pat00030
는 클래스 i에 대한 분류기의 분류확률,
Figure 112016117715160-pat00031
는 클래스 i에 대한 확률밀도함수의 값,
Figure 112016117715160-pat00032
는 클래스 i'의 멤버십 값,
Figure 112016117715160-pat00033
는 클래스 i'에 대한 분류기의 분류확률,
Figure 112016117715160-pat00034
는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산할 수 있다.The defect classifying unit may be configured as follows.
Figure 112016117715160-pat00028
,
Figure 112016117715160-pat00029
Is the membership value of class i,
Figure 112016117715160-pat00030
Is the classification probability of the classifier for class i,
Figure 112016117715160-pat00031
Is the value of the probability density function for class i,
Figure 112016117715160-pat00032
Is the membership value of class i '
Figure 112016117715160-pat00033
Is the classification probability of the classifier for class i '
Figure 112016117715160-pat00034
Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) Can be calculated.

본 발명의 실시 예들은 학습신호(예컨대, 진동 혹은 음향신호)로부터 각 결함들을 구분할 수 있는 특징들을 추출하여 확률밀도 기반의 분류기(예컨대, k-NN 분류기)에 미리 학습시키고, 입력신호로부터 추출된 특징들에 대해 미리 학습된 확률밀도 기반의 분류기를 이용하여 결함을 분류함으로써, 분류성능의 변화가 작고 고장을 정확하게 진단할 수 있다.Embodiments of the present invention extract features that can distinguish each defect from a learning signal (e.g., vibration or sound signal), learn it in advance in a probability density-based classifier (e.g., k-NN classifier) By classifying faults using a classifier based on a probability density based on features learned in advance, the change in classification performance is small and the fault can be accurately diagnosed.

도 1은 종래기술에 따른 고장 진단 방법의 기본 원리를 설명하기 위한 도면이다.
도 2는 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘을 설명하기 위한 도면이다.
도 3은 종래의 k-NN 분류기를 이용한 지도식 기계학습 알고리즘에서 k 값이 분류결과에 미치는 영향을 설명하는 도면이다.
도 4는 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치의 구성도이다.
도 5는 본 발명의 실시 예에 따른 이웃한 특징벡터들과의 거리를 계산하는 과정을 나타낸 도면이다.
도 6은 본 발명의 실시 예에 따른 확률밀도함수의 종류를 나타낸 도면이다.
도 7은 본 발명의 실시 예에 따른 각 클래스 및 입력 특징벡터에 대한 확률밀도함수의 값 및 분류확률을 계산하는 과정을 나타낸 도면이다.
도 8은 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 대한 흐름도이다.
도 9는 종래 기술과 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 의해 각각 수행된 분류성능을 나타낸 도면이다.
1 is a view for explaining a basic principle of a fault diagnosis method according to the prior art.
FIG. 2 is a diagram for explaining a map-based machine learning algorithm using a conventional k-NN classifier.
FIG. 3 is a view for explaining the effect of k value on classification results in a conventional map-based machine learning algorithm using a k-NN classifier.
4 is a block diagram of a probability density based fault diagnosis apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a process of calculating a distance to neighboring feature vectors according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating the types of probability density functions according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating a process of calculating a value of a probability density function and a classification probability for each class and input feature vector according to an embodiment of the present invention. Referring to FIG.
8 is a flowchart of a probability density-based fault diagnosis method according to an embodiment of the present invention.
FIG. 9 is a diagram illustrating classification performance performed by the probability density-based fault diagnosis method according to the prior art and the embodiment of the present invention, respectively.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다. 본 발명의 실시 예를 설명하면서, 본 발명이 속하는 기술 분야에 익히 알려졌고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention. In describing the embodiments of the present invention, description of technical contents which are well known in the art to which the present invention belongs and which are not directly related to the present invention will be omitted. This is for the sake of clarity of the present invention without omitting the unnecessary explanation.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 동일한 참조부호를 부여할 수도 있다. 그러나 이와 같은 경우라 하더라도 해당 구성 요소가 실시 예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시 예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시 예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given to different drawings. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that it has the same function in different embodiments, and the function of each component is different from that of the corresponding embodiment Based on the description of each component in FIG.

도 4는 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치의 구성도이다.4 is a block diagram of a probability density based fault diagnosis apparatus according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치(300)는 학습특징 추출부(310), 분류기 학습부(320), 입력특징 추출부(330), 결함 분류부(340) 및 고장 진단부(350)를 포함한다.4, the probability density-based fault diagnosis apparatus 300 according to an embodiment of the present invention includes a learning feature extraction unit 310, a classifier learning unit 320, an input feature extraction unit 330, And includes a classification unit 340 and a failure diagnosis unit 350.

이하, 도 4의 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 장치(300)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.The specific configuration and operation of each element of the probability density based fault diagnosis apparatus 300 according to the embodiment of the present invention shown in FIG. 4 will be described below.

학습특징 추출부(310)는 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성한다. 학습특징 추출부(310)는 사전에 미리 취득한 결함별 학습신호로부터 각 결함들을 구분할 수 있는 특징들을 추출한다.The learning feature extraction unit 310 extracts learning features that distinguish each defect from the learning signal for each defect acquired in advance and generates a learning feature vector. The learning feature extracting unit 310 extracts features that can distinguish each defect from the previously acquired defect-by-defect learning signal.

그리고 분류기 학습부(320)는 학습특징 추출부(310)에서 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시킨다. 여기서, 확률밀도 기반 분류기는 입력 특징벡터와 이웃한 기설정된 k 개의 학습 특징벡터를 이용하여 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기일 수 있다. 분류기 학습부(320)는 추출된 특징들로부터 생성된 특징벡터들을 확률밀도 기반 k-NN 분류기에 학습시킬 수 있다.Then, the classifier learning unit 320 learns the learning feature vectors generated by the learning feature extraction unit 310 in the probability density based classifier. Here, the probability density-based classifier may be a probability density-based k-NN classifier that classifies input feature vectors based on distance probability density functions using input feature vectors and neighboring predetermined k learning feature vectors. The classifier learning unit 320 may learn the feature vectors generated from the extracted features in the probability density based k-NN classifier.

이후, 입력특징 추출부(330)는 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성한다.Thereafter, the input feature extraction unit 330 extracts input features that distinguish each defect from the input signal, which is a classification target, and generates an input feature vector.

결함 분류부(340)는 입력특징 추출부(330)에서 생성된 입력 특징벡터들을 상기 학습시킨 확률밀도 기반 분류기에 입력시킨다. 그리고 결함 분류부(340)는 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출한다.The defect classifying unit 340 inputs the input feature vectors generated by the input feature extracting unit 330 to the learned probability density classifier. The defect classifying unit 340 calculates the classifying probability of the input feature vector and the distance probability density function of each class with respect to the learning feature vectors, thereby calculating the defect classification result.

그리고 고장 진단부(350)는 결함 분류부(340)에서 산출된 결함 분류 결과를 통해 고장 상태를 진단한다. 일례로, 고장 진단부(350)는 확률밀도 기반의 k-NN 분류기로부터 얻은 결함 분류 결과를 통해 베어링과 같은 기계 등의 현재 상태를 진단할 수 있다.The failure diagnosis unit 350 diagnoses the failure state based on the defect classification result calculated by the defect classification unit 340. For example, the failure diagnosis unit 350 can diagnose the current state of a machine such as a bearing through a defect classification result obtained from a probability density based k-NN classifier.

이하, 도 5 내지 도 7을 참조하여 결함 분류 과정을 구체적으로 살펴보기로 한다.Hereinafter, the defect classification process will be described in detail with reference to FIGS. 5 to 7. FIG.

도 5는 본 발명의 실시 예에 따른 이웃한 특징벡터들과의 거리를 계산하는 과정을 나타낸 도면이다.5 is a diagram illustrating a process of calculating a distance to neighboring feature vectors according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 결함 분류부(340)는 학습 특징벡터들 및 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산한다. 결함 분류부(340)는 하기의 [수학식 1]에 따라 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산할 수 있다.As shown in FIG. 5, the defect classifier 340 uses learning feature vectors and input feature vectors, and classifies the input feature vectors and all the learning feature vectors in each class into a predetermined number of neighboring feature vectors Lt; / RTI > The defect classifying unit 340 may calculate the distance between the input feature vector and neighboring feature vectors of a predetermined number of all the feature vectors in each class according to Equation (1) below.

Figure 112016117715160-pat00035
Figure 112016117715160-pat00035

여기서,

Figure 112016117715160-pat00036
는 클래스 i의 j번째 특징벡터와 k번째 이웃한 특징벡터와의 거리,
Figure 112016117715160-pat00037
는 클래스 i의 j번째 특징벡터,
Figure 112016117715160-pat00038
는 클래스 i의 j번째 특징벡터와 k번째 이웃한 특징벡터, i는 클래스 번호, j는 특징벡터 번호, k는 이웃한 특징벡터의 번호를 나타낸다.here,
Figure 112016117715160-pat00036
Is the distance between the jth feature vector of class i and the kth neighbor feature vector,
Figure 112016117715160-pat00037
Is the jth feature vector of class i,
Figure 112016117715160-pat00038
I is a class number, j is a feature vector number, and k is a number of a neighboring feature vector.

그리고 결함 분류부(340)는 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 하기의 [수학식 2]와 같이 계산한다.Then, the defect classifying unit 340 calculates the largest distance value among the distances of the calculated neighboring feature vectors as shown in the following equation (2).

Figure 112016117715160-pat00039
Figure 112016117715160-pat00039

여기서,

Figure 112016117715160-pat00040
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00041
는 클래스 i의 j번째 특징벡터와 k번째 이웃한 특징벡터와의 거리를 나타낸다. k는 이웃한 특징벡터의 번호를 나타낸다. 이때, k=3일 경우에 대해서, k는 1≤k≤3과 같은 범위를 가진다. 본 발명에 적용되는 k 값은 이웃하는 특징벡터들의 개수로서, 특정 개수으로 한정되지 않는다.here,
Figure 112016117715160-pat00040
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00041
Represents the distance between the jth feature vector of class i and the kth neighbor feature vector. k denotes the number of neighboring feature vectors. At this time, for k = 3, k has a range such as 1? K? 3. The k value applied to the present invention is the number of neighboring feature vectors, and is not limited to a specific number.

결함 분류부(340)는 그 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산한다.The defect classifier 340 calculates the distance probability density function of each class using the calculated maximum distance value.

이와 같이, 결함 분류부(340)는 학습특징 추출부(310)에서 생성된 학습 특징벡터들 및 입력특징 추출부(330)에서 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출한다.The defect classifying unit 340 calculates the distance probability density function of each class using the learning feature vectors generated by the learning feature extracting unit 310 and the input feature vectors generated by the input feature extracting unit 330 do.

도 6은 본 발명의 실시 예에 따른 확률밀도함수의 종류를 나타낸 도면이다.FIG. 6 is a diagram illustrating the types of probability density functions according to an embodiment of the present invention.

도 6의 (a) 및 (b)에 도시된 바와 같이, 결함 분류부(340)는 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산한다.As shown in FIGS. 6A and 6B, the defect classifier 340 calculates a distance probability density function in which a distribution of input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.

일례로, 결함 분류부(340)는 입력 특징벡터의 분포가 정규분포이면 하기의 [수학식 3]에 따라 거리 확률밀도함수를 계산할 수 있다.For example, if the distribution of input feature vectors is a normal distribution, the defect classifier 340 can calculate the distance probability density function according to the following equation (3).

Figure 112016117715160-pat00042
Figure 112016117715160-pat00042

여기서,

Figure 112016117715160-pat00043
는 거리 확률밀도함수,
Figure 112016117715160-pat00044
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00045
는 분포의 평균,
Figure 112016117715160-pat00046
는 분포의 표준편차를 나타낸다.here,
Figure 112016117715160-pat00043
Is a distance probability density function,
Figure 112016117715160-pat00044
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00045
Is the mean of the distribution,
Figure 112016117715160-pat00046
Represents the standard deviation of the distribution.

다른 예로, 결함 분류부(340)는 입력 특징벡터의 분포가 지수분포이면 하기의 [수학식 4]에 따라 거리 확률밀도함수를 계산할 수 있다.As another example, if the distribution of input feature vectors is an exponential distribution, the defect classifier 340 can calculate the distance probability density function according to the following equation (4).

Figure 112016117715160-pat00047
Figure 112016117715160-pat00047

도 7은 본 발명의 실시 예에 따른 각 클래스 및 입력 특징벡터에 대한 확률밀도함수의 값 및 분류확률을 계산하는 과정을 나타낸 도면이다.FIG. 7 is a diagram illustrating a process of calculating a value of a probability density function and a classification probability for each class and input feature vector according to an embodiment of the present invention. Referring to FIG.

도 7에 도시된 바와 같이, 결함 분류부(340)는 계산된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값(β)을 계산한다. As shown in FIG. 7, the defect classifier 340 calculates the value (?) Of the probability density function for the input feature vector through the calculated distance probability density function of each class.

그리고 결함 분류부(340)는 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률(α)을 계산한다. 여기서, 결함 분류부(340)는 각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률(α)로 계산할 수 있다. 도 7에 도시된 예시에서, 클래스 i의 경우에는 3개의 이웃한 특징벡터들 중 2개가 클래스 i에 포함되므로 2/3이며, 클래스 i'의 경우에는 이웃한 특징벡터들 중 1개가 클래스 i'에 포함되므로 1/3로 분류확률이 계산될 수 있다.The defect classifying unit 340 calculates a classification probability? Of the probability density-based classifier with respect to the input feature vector. Here, for each class, the defect classifier 340 classifies the ratio of the learning feature vectors belonging to the class among the predetermined number of neighbor learning feature vectors to the classification probability (? ). In the example shown in Fig. 7, two of the three neighboring feature vectors are included in class i in the case of class i, and therefore 2/3. In the case of class i ', one of neighboring feature vectors corresponds to class i' The classification probability can be calculated to 1/3.

이후, 결함 분류부(340)는 계산된 확률밀도함수의 값(β)과 계산된 분류확률(α)을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값(MV)을 계산한다. 여기서, 결함 분류부(340)는 계산된 확률밀도 기반의 분류기의 분류확률(α)과 계산된 확률밀도함수의 값(β)을 하기의 [수학식 5]에 따라 각 클래스의 멤버십 값(MV)을 계산할 수 있다.Then, the defect classifying unit 340 calculates the membership value (MV) of each class with respect to the input feature vector using the calculated probability density function value? And the calculated classification probability?. Here, the defect classifying unit 340 classifies the classification probability? Of the classifier based on the calculated probability density and the value? Of the calculated probability density function according to the following formula (5) ) Can be calculated.

Figure 112016117715160-pat00048
Figure 112016117715160-pat00048

여기서,

Figure 112016117715160-pat00049
는 클래스 i의 멤버십 값,
Figure 112016117715160-pat00050
는 클래스 i에 대한 분류기의 분류확률,
Figure 112016117715160-pat00051
는 클래스 i에 대한 확률밀도함수의 값,
Figure 112016117715160-pat00052
는 클래스 i'의 멤버십 값,
Figure 112016117715160-pat00053
는 클래스 i'에 대한 분류기의 분류확률,
Figure 112016117715160-pat00054
는 클래스 i'에 대한 확률밀도함수의 값을 나타낸다.here,
Figure 112016117715160-pat00049
Is the membership value of class i,
Figure 112016117715160-pat00050
Is the classification probability of the classifier for class i,
Figure 112016117715160-pat00051
Is the value of the probability density function for class i,
Figure 112016117715160-pat00052
Is the membership value of class i '
Figure 112016117715160-pat00053
Is the classification probability of the classifier for class i '
Figure 112016117715160-pat00054
Represents the value of the probability density function for class i '.

그리고 결함 분류부(340)는 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류한다.The defect classifier 340 compares the calculated membership values for each class and classifies the input feature vectors into classes having the largest membership value.

도 8은 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 대한 흐름도이다.8 is a flowchart of a probability density-based fault diagnosis method according to an embodiment of the present invention.

고장 진단 장치(300)는 미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성한다(S101).The fault diagnosis apparatus 300 generates learning characteristic vectors by extracting learning characteristics for distinguishing defects from previously acquired learning signals for each defect (S101).

그리고 고장 진단 장치(300)는 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시킨다(S102).The fault diagnosis apparatus 300 then causes the probability density-based classifier to learn the generated learning feature vectors (S102).

이후, 고장 진단 장치(300)는 분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성한다(S103).Then, the fault diagnosis apparatus 300 extracts input features that distinguish each defect from an input signal to be classified, and generates an input feature vector (S103).

고장 진단 장치(300)는 생성된 학습 특징벡터들 및 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산한다(S104).The fault diagnosis apparatus 300 uses the generated learning feature vectors and the generated input feature vectors to calculate a distance between an input feature vector and a predetermined number of neighboring feature vectors for all learning feature vectors in each class (S104).

고장 진단 장치(300)는 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산한다(S105).The fault diagnosis apparatus 300 calculates the largest distance value among the distances of the calculated neighboring feature vectors (S105).

고장 진단 장치(300)는 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산한다(S106).The fault diagnosis apparatus 300 calculates the distance probability density function of each class using the calculated maximum distance value (S106).

고장 진단 장치(300)는 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산한다(S107).The fault diagnosis apparatus 300 calculates the value of the probability density function for the input feature vector through the distance probability density function of each class (S107).

고장 진단 장치(300)는 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산한다(S108).The fault diagnosis apparatus 300 calculates the classification probability of the probability density-based classifier with respect to the input feature vector (S108).

고장 진단 장치(300)는 계산된 확률밀도함수의 값과 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산한다(S109).The fault diagnosis apparatus 300 calculates a membership value of each class with respect to the input feature vector using the calculated probability density function and the calculated classification probability (S109).

고장 진단 장치(300)는 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류한다(S110).The fault diagnosis apparatus 300 compares the calculated membership values for each class and classifies the input feature vectors into classes having the largest membership value (S110).

고장 진단 장치(300)는 멤버십 값이 가장 큰 클래스로 분류된 입력 특징벡터가 포함된 결함 분류 결과를 통해 고장 상태를 진단한다(S111).The fault diagnosis apparatus 300 diagnoses a fault state through a fault classification result including an input feature vector classified into a class having the largest membership value (S111).

도 9는 종래 기술과 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법에 의해 각각 수행된 분류성능을 나타낸 도면이다.FIG. 9 is a diagram illustrating classification performance performed by the probability density-based fault diagnosis method according to the prior art and the embodiment of the present invention, respectively.

종래 기술(Traditional)을 이용하여 고장을 진단한 결과, 종래 기술은 k 값의 변화에 따라 분류성능이 심하게 변화한다. As a result of diagnosing faults using the conventional technique, classification performance varies greatly according to the change of k value in the prior art.

반면, 본 발명의 실시 예(Proposed)에 따른 확률밀도 기반의 고장 진단 방법에 의해 수행된 분류성능은 k값이 변하여도 분류성능의 변화가 작다.On the other hand, the classification performance performed by the probability density based fault diagnosis method according to the embodiment of the present invention shows a small change in the classification performance even when the k value changes.

이와 같이, 본 발명의 실시 예에 따른 확률밀도 기반의 고장 진단 방법은 종래 기술에 비해 전반적으로 높은 성능을 보이고 있다.As described above, the probability density-based fault diagnosis method according to the embodiment of the present invention shows overall higher performance than the prior art.

이상에서 설명한 실시 예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

300: 고장 진단 장치
310: 학습특징 추출부
320: 분류기 학습부
330: 입력특징 추출부
340: 결함 분류부
350: 고장 진단부
300: Fault diagnosis device
310: learning feature extraction unit
320: classifier learning unit
330: input feature extraction unit
340: Defect classification part
350:

Claims (18)

고장 진단 장치에 의해 수행되는 고장 진단 방법에 있어서,
미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 단계;
상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 단계;
분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 단계;
상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 단계; 및
상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 단계를 포함하고,
상기 결함 분류 결과를 산출하는 단계는,
상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하는 단계;
상기 계산된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하는 단계;
상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하는 단계; 및
상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류하는 단계를 포함하는 고장 진단 방법.
A fault diagnosis method performed by a fault diagnosis apparatus,
Generating learning feature vectors by extracting learning features for distinguishing defects from previously acquired defect-specific learning signals;
Learning the generated learning feature vectors into a probability density based classifier;
Extracting input features that distinguish each defect from an input signal that is a classification target and generating an input feature vector;
The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result ; And
And diagnosing a fault state through the calculated defect classification result,
The step of calculating the defect classification result includes:
Calculating a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors;
Calculating a value of a probability density function with respect to the input feature vector through the calculated distance probability density function of each class and calculating a classification probability of the probability density based classifier with respect to the input feature vector;
Calculating a membership value of each class with respect to an input feature vector using the calculated probability density function and the calculated classification probability; And
And classifying the input feature vector into a class having the largest membership value by comparing the calculated membership values for each class.
삭제delete 제1항에 있어서,
상기 거리 확률밀도함수를 산출하는 단계는,
상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하는 단계;
상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하는 단계; 및
상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산하는 단계
를 포함하는 고장 진단 방법.
The method according to claim 1,
The step of calculating the distance probability density function comprises:
Using the generated learning feature vectors and the generated input feature vectors, calculating a distance between an input feature vector and a predetermined number of neighboring feature vectors for all learning feature vectors in each class;
Calculating a largest distance value among the distances of the calculated neighboring feature vectors; And
Calculating a distance probability density function of each class using the calculated maximum distance value
Lt; / RTI >
제3항에 있어서,
상기 거리 확률밀도함수를 계산하는 단계는,
상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산하는 고장 진단 방법.
The method of claim 3,
The step of calculating the distance probability density function comprises:
And calculating a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.
제3항에 있어서,
상기 거리 확률밀도함수를 계산하는 단계는,
상기 입력 특징벡터의 분포가 정규분포이면,
[수학식 3]
Figure 112016117715160-pat00055
,
Figure 112016117715160-pat00056
는 거리 확률밀도함수,
Figure 112016117715160-pat00057
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00058
는 분포의 평균,
Figure 112016117715160-pat00059
는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산하는 고장 진단 방법.
The method of claim 3,
The step of calculating the distance probability density function comprises:
If the distribution of the input feature vectors is a normal distribution,
&Quot; (3) "
Figure 112016117715160-pat00055
,
Figure 112016117715160-pat00056
Is a distance probability density function,
Figure 112016117715160-pat00057
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00058
Is the mean of the distribution,
Figure 112016117715160-pat00059
Represents a standard deviation of the distribution, and calculates a distance probability density function according to Equation (3) above.
제3항에 있어서,
상기 거리 확률밀도함수를 계산하는 단계는,
상기 입력 특징벡터의 분포가 지수분포이면,
[수학식 4]
Figure 112016117715160-pat00060
,
Figure 112016117715160-pat00061
는 거리 확률밀도함수,
Figure 112016117715160-pat00062
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00063
는 분포의 평균,
Figure 112016117715160-pat00064
는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산하는 고장 진단 방법.
The method of claim 3,
The step of calculating the distance probability density function comprises:
If the distribution of the input feature vectors is an exponential distribution,
&Quot; (4) "
Figure 112016117715160-pat00060
,
Figure 112016117715160-pat00061
Is a distance probability density function,
Figure 112016117715160-pat00062
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00063
Is the mean of the distribution,
Figure 112016117715160-pat00064
Represents a standard deviation of the distribution, and calculates a distance probability density function according to Equation (4) above.
제1항에 있어서,
상기 확률밀도 기반 분류기는,
상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기인 것을 특징으로 하는 고장 진단 방법.
The method according to claim 1,
The probability density-
Wherein the k-NN classifier is a probability density-based k-NN classifier for classifying the input feature vectors based on the distance probability density function using k learning feature vectors, which are the number of feature vectors and neighboring feature vectors.
제1항에 있어서,
상기 분류확률을 계산하는 단계는,
각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산하는 고장 진단 방법.
The method according to claim 1,
Wherein the step of calculating the classification probability comprises:
Calculating a ratio of a learning feature vector belonging to the class among a predetermined number of neighboring learning feature vectors for each class to a classification probability of a probability density based classifier for the input feature vector;
제1항에 있어서,
상기 가장 큰 클래스로 입력 특징벡터를 분류하는 단계는,
[수학식 5]
Figure 112017091596866-pat00065
,
Figure 112017091596866-pat00066
는 클래스 i의 멤버십 값,
Figure 112017091596866-pat00067
는 클래스 i에 대한 분류기의 분류확률,
Figure 112017091596866-pat00068
는 클래스 i에 대한 확률밀도함수의 값,
Figure 112017091596866-pat00069
는 클래스 i'의 멤버십 값,
Figure 112017091596866-pat00070
는 클래스 i'에 대한 분류기의 분류확률,
Figure 112017091596866-pat00071
는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산하는 고장 진단 방법.
The method according to claim 1,
Wherein classifying the input feature vector into the largest class comprises:
&Quot; (5) "
Figure 112017091596866-pat00065
,
Figure 112017091596866-pat00066
Is the membership value of class i,
Figure 112017091596866-pat00067
Is the classification probability of the classifier for class i,
Figure 112017091596866-pat00068
Is the value of the probability density function for class i,
Figure 112017091596866-pat00069
Is the membership value of class i '
Figure 112017091596866-pat00070
Is the classification probability of the classifier for class i '
Figure 112017091596866-pat00071
Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) A method of diagnosing faults.
미리 획득한 결함별 학습신호로부터 각 결함들을 구분하는 학습특징들을 추출하여 학습 특징벡터를 생성하는 학습특징 추출부;
상기 생성된 학습 특징벡터들을 확률밀도 기반 분류기에 학습시키는 분류기 학습부;
분류 대상인 입력 신호로부터 각 결함들을 구분하는 입력특징들을 추출하여 입력 특징벡터를 생성하는 입력특징 추출부;
상기 생성된 입력 특징벡터들을 상기 학습된 확률밀도 기반 분류기에 입력시키고, 상기 학습 특징벡터들에 대한 각 클래스의 거리 확률밀도함수와 상기 입력 특징벡터들에 대한 분류확률을 계산하여 결함 분류 결과를 산출하는 결함 분류부; 및
상기 산출된 결함 분류 결과를 통해 고장 상태를 진단하는 고장 진단부를 포함하고,
상기 결함 분류부는, 상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하여 각 클래스의 거리 확률밀도함수를 산출하고, 상기 산출된 각 클래스의 거리 확률밀도함수를 통해 입력 특징벡터에 대한 확률밀도함수의 값을 계산하고, 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률을 계산하고, 상기 계산된 확률밀도함수의 값과 상기 계산된 분류확률을 이용하여 입력 특징벡터에 대해 각 클래스의 멤버십 값을 계산하고, 상기 계산된 각 클래스에 대한 멤버십 값을 비교하여 멤버십 값이 가장 큰 클래스로 입력 특징벡터를 분류하는 고장 진단 장치.
A learning feature extraction unit for extracting learning features for distinguishing defects from previously acquired learning signals for each defect to generate learning feature vectors;
A classifier learning unit for learning the generated learning feature vectors in a probability density based classifier;
An input feature extraction unit for extracting input features distinguishing each defect from an input signal to be classified and generating an input feature vector;
The generated input feature vectors are input to the learned probability density classifier, and a classifying probability for each input feature vector and a distance probability density function of each class for the learning feature vectors are calculated to calculate a defect classification result A defect classifier for classifying the defect classifiers; And
And a failure diagnosis unit for diagnosing a failure state through the calculated defect classification result,
The defect classification unit may calculate a distance probability density function of each class using the generated learning feature vectors and the generated input feature vectors and may calculate a distance probability density function of each class using the distance probability density function of each class, Calculating a value of a probability density function, calculating a classification probability of the probability density-based classifier with respect to the input feature vector, and using each of the calculated probability density function and the calculated classification probability, And classifies the input feature vector into a class having the largest membership value by comparing the calculated membership value for each class.
삭제delete 제10항에 있어서,
상기 결함 분류부는,
상기 생성된 학습 특징벡터들 및 상기 생성된 입력 특징벡터들을 이용하되, 입력 특징벡터와 각 클래스 내의 모든 학습 특징벡터들에 대해 기설정된 개수의 이웃한 특징벡터들과의 거리를 계산하고, 상기 계산된 이웃한 특징벡터들의 거리 중 가장 큰 거리 값을 계산하고, 상기 계산된 가장 큰 거리 값을 이용하여 각 클래스의 거리 확률밀도함수를 계산하는 고장 진단 장치.
11. The method of claim 10,
Wherein,
Calculating a distance between an input feature vector and all the learning feature vectors in each class and a predetermined number of neighboring feature vectors using the generated learning feature vectors and the generated input feature vectors, Calculating a distance probability density function of each class using the calculated maximum distance value, and calculating a distance probability density function of each class using the calculated maximum distance value.
제12항에 있어서,
상기 결함 분류부는,
상기 입력 특징벡터의 분포가 정규분포 또는 지수분포에 따라 서로 다른 분포를 부합하는 거리 확률밀도함수를 계산하는 고장 진단 장치.
13. The method of claim 12,
Wherein,
And calculates a distance probability density function in which the distribution of the input feature vectors conforms to different distributions according to a normal distribution or an exponential distribution.
제12항에 있어서,
상기 결함 분류부는,
상기 입력 특징벡터의 분포가 정규분포이면,
[수학식 3]
Figure 112016117715160-pat00072
,
Figure 112016117715160-pat00073
는 거리 확률밀도함수,
Figure 112016117715160-pat00074
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00075
는 분포의 평균,
Figure 112016117715160-pat00076
는 분포의 표준편차를 나타내며, 상기의 [수학식 3]에 따라 거리 확률밀도함수를 계산하는 고장 진단 장치.
13. The method of claim 12,
Wherein,
If the distribution of the input feature vectors is a normal distribution,
&Quot; (3) "
Figure 112016117715160-pat00072
,
Figure 112016117715160-pat00073
Is a distance probability density function,
Figure 112016117715160-pat00074
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00075
Is the mean of the distribution,
Figure 112016117715160-pat00076
Represents a standard deviation of a distribution, and calculates a distance probability density function according to Equation (3) above.
제12항에 있어서,
상기 결함 분류부는,
상기 입력 특징벡터의 분포가 지수분포이면,
[수학식 4]
Figure 112016117715160-pat00077

Figure 112016117715160-pat00078
는 거리 확률밀도함수,
Figure 112016117715160-pat00079
는 클래스 i의 j번째 특징벡터와 이웃한 특징벡터들의 거리 중 가장 큰 거리 값,
Figure 112016117715160-pat00080
는 분포의 평균,
Figure 112016117715160-pat00081
는 분포의 표준편차를 나타내며, 상기의 [수학식 4]에 따라 거리 확률밀도함수를 계산하는 고장 진단 장치.
13. The method of claim 12,
Wherein,
If the distribution of the input feature vectors is an exponential distribution,
&Quot; (4) "
Figure 112016117715160-pat00077

Figure 112016117715160-pat00078
Is a distance probability density function,
Figure 112016117715160-pat00079
Is the largest distance value among the distance between the jth feature vector of class i and neighboring feature vectors,
Figure 112016117715160-pat00080
Is the mean of the distribution,
Figure 112016117715160-pat00081
Represents a standard deviation of the distribution, and calculates a distance probability density function according to Equation (4) above.
제10항에 있어서,
상기 확률밀도 기반 분류기는,
상기 입력 특징벡터와 이웃한 특징벡터의 번호인 k 개의 학습 특징벡터를 이용하여 상기 입력 특징벡터를 거리 확률밀도함수 기반으로 분류하는 확률밀도 기반의 k-NN 분류기인 것을 특징으로 하는 고장 진단 장치.
11. The method of claim 10,
The probability density-
Wherein the k-NN classifier is a probability density-based k-NN classifier that classifies the input feature vectors based on the distance probability density function using k learning feature vectors that are the number of the input feature vectors and neighboring feature vectors.
제10항에 있어서,
상기 결함 분류부는,
각 클래스에 대해서, 기설정된 개수의 이웃한 학습 특징벡터들 중에서 해당 클래스에 속하는 학습 특징벡터의 비율을 상기 입력 특징벡터에 대한 확률밀도 기반 분류기의 분류확률로 계산하는 고장 진단 장치.
11. The method of claim 10,
Wherein,
For each class, a ratio of a learning feature vector belonging to the class among a predetermined number of neighboring learning feature vectors as a classification probability of a probability density based classifier for the input feature vector.
제10항에 있어서,
상기 결함 분류부는,
[수학식 5]
Figure 112017091596866-pat00082
,
Figure 112017091596866-pat00083
는 클래스 i의 멤버십 값,
Figure 112017091596866-pat00084
는 클래스 i에 대한 분류기의 분류확률,
Figure 112017091596866-pat00085
는 클래스 i에 대한 확률밀도함수의 값,
Figure 112017091596866-pat00086
는 클래스 i'의 멤버십 값,
Figure 112017091596866-pat00087
는 클래스 i'에 대한 분류기의 분류확률,
Figure 112017091596866-pat00088
는 클래스 i'에 대한 확률밀도함수의 값을 나타내며, 상기 계산된 확률밀도 기반의 분류기의 분류확률과 상기 계산된 확률밀도함수의 값을 상기의 [수학식 5]에 따라 각 클래스의 멤버십 값을 계산하는 고장 진단 장치.
11. The method of claim 10,
Wherein,
&Quot; (5) "
Figure 112017091596866-pat00082
,
Figure 112017091596866-pat00083
Is the membership value of class i,
Figure 112017091596866-pat00084
Is the classification probability of the classifier for class i,
Figure 112017091596866-pat00085
Is the value of the probability density function for class i,
Figure 112017091596866-pat00086
Is the membership value of class i '
Figure 112017091596866-pat00087
Is the classification probability of the classifier for class i '
Figure 112017091596866-pat00088
Represents the value of the probability density function for class i ', and calculates the classification probability of the classifier based on the calculated probability density and the value of the calculated probability density function using the membership value of each class according to Equation (5) Fault diagnosis device to calculate.
KR1020160161987A 2016-11-30 2016-11-30 Method and apparatus for diagnosing fault based on probabilistic density KR101797400B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160161987A KR101797400B1 (en) 2016-11-30 2016-11-30 Method and apparatus for diagnosing fault based on probabilistic density

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160161987A KR101797400B1 (en) 2016-11-30 2016-11-30 Method and apparatus for diagnosing fault based on probabilistic density

Publications (1)

Publication Number Publication Date
KR101797400B1 true KR101797400B1 (en) 2017-11-15

Family

ID=60386906

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160161987A KR101797400B1 (en) 2016-11-30 2016-11-30 Method and apparatus for diagnosing fault based on probabilistic density

Country Status (1)

Country Link
KR (1) KR101797400B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101936283B1 (en) 2017-12-28 2019-01-08 주식회사 한국가스기술공사 Diagnostic and prognostics method for machine fault
KR20190099710A (en) * 2018-02-19 2019-08-28 주식회사 케이티 System and method for handling network failure
KR102123522B1 (en) * 2019-12-16 2020-06-16 주식회사 한국가스기술공사 Failure diagnostic method based on cluster of fault data
KR102141391B1 (en) * 2019-12-16 2020-08-05 주식회사 한국가스기술공사 Failure data management method based on cluster estimation
CN114354188A (en) * 2022-01-10 2022-04-15 郑州大学 Rotary machine fault diagnosis method based on fully-adaptive noise set empirical mode decomposition
KR20230165509A (en) 2022-05-27 2023-12-05 라온피플 주식회사 Apparatus and method for filtering unseen data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pandya, D. H., et al. "Fault diagnosis of rolling element bearing with intrinsic mode function of acoustic emission data using APF-KNN." Expert Systems with Applications 40.10. 2013.*

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101936283B1 (en) 2017-12-28 2019-01-08 주식회사 한국가스기술공사 Diagnostic and prognostics method for machine fault
KR20190099710A (en) * 2018-02-19 2019-08-28 주식회사 케이티 System and method for handling network failure
KR102149930B1 (en) * 2018-02-19 2020-08-31 주식회사 케이티 System and method for handling network failure
KR102123522B1 (en) * 2019-12-16 2020-06-16 주식회사 한국가스기술공사 Failure diagnostic method based on cluster of fault data
KR102141391B1 (en) * 2019-12-16 2020-08-05 주식회사 한국가스기술공사 Failure data management method based on cluster estimation
CN114354188A (en) * 2022-01-10 2022-04-15 郑州大学 Rotary machine fault diagnosis method based on fully-adaptive noise set empirical mode decomposition
KR20230165509A (en) 2022-05-27 2023-12-05 라온피플 주식회사 Apparatus and method for filtering unseen data

Similar Documents

Publication Publication Date Title
KR101797400B1 (en) Method and apparatus for diagnosing fault based on probabilistic density
KR101823746B1 (en) Method for bearing fault diagnosis
EP3502966B1 (en) Data generation apparatus, data generation method, and data generation program
US7444251B2 (en) Detecting and diagnosing faults in HVAC equipment
CN112763214B (en) Rolling bearing fault diagnosis method based on multi-label zero-sample learning
CN106528975B (en) A kind of prognostic and health management method applied to Circuits and Systems
US20150346066A1 (en) Asset Condition Monitoring
JP4605132B2 (en) Anomaly detection device and anomaly detection method
CN108765373A (en) A kind of insulator exception automatic testing method based on integrated classifier on-line study
US10235629B2 (en) Sensor data confidence estimation based on statistical analysis
KR102265298B1 (en) Apparatus and method for fault diagnosis using fake data generated by machine learning
CN108257365B (en) Industrial alarm design method based on global uncertainty evidence dynamic fusion
KR102416474B1 (en) Fault diagnosis apparatus and method based on machine-learning
KR102398046B1 (en) Fault diagnosis device using unsupervised domain adaptation technique and fault diagnosis method using the same
KR101808390B1 (en) Method for machine fault diagnosis
CN114356897A (en) Electromechanical actuator fault diagnosis method based on data fusion
KR101967065B1 (en) Fault diagnosis apparatus and method for robust to environmental change
CN112419243B (en) Power distribution room equipment fault identification method based on infrared image analysis
CN110956112B (en) Novel high-reliability slewing bearing service life assessment method
CN110057588B (en) Bearing early fault detection and diagnosis method and system based on fusion of singular value and graph theory characteristics
Huo et al. Bearing fault diagnosis using multi-sensor fusion based on weighted DS evidence theory
KR101811962B1 (en) Apparatus and method for evaluating class discrimination of nonlinear data
CN110490218A (en) A kind of rolling bearing fault self-learning method based on two-stage DBN
Zhang et al. Applied sensor fault detection and validation using transposed input data PCA and ANNs
CN113537288B (en) Method and system for training target model based on modification of sample signal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant