KR102387663B1 - Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same - Google Patents

Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same Download PDF

Info

Publication number
KR102387663B1
KR102387663B1 KR1020210114654A KR20210114654A KR102387663B1 KR 102387663 B1 KR102387663 B1 KR 102387663B1 KR 1020210114654 A KR1020210114654 A KR 1020210114654A KR 20210114654 A KR20210114654 A KR 20210114654A KR 102387663 B1 KR102387663 B1 KR 102387663B1
Authority
KR
South Korea
Prior art keywords
domain
dataset
loss
semantic clustering
feature
Prior art date
Application number
KR1020210114654A
Other languages
Korean (ko)
Inventor
윤병동
김명연
고진욱
이진욱
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210114654A priority Critical patent/KR102387663B1/en
Application granted granted Critical
Publication of KR102387663B1 publication Critical patent/KR102387663B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0275Fault isolation and identification, e.g. classify fault; estimate cause or root of failure
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0221Preprocessing measurements, e.g. data collection rate adjustment; Standardization of measurements; Time series or signal analysis, e.g. frequency analysis or wavelets; Trustworthiness of measurements; Indexes therefor; Measurements using easily measured parameters to estimate parameters difficult to measure; Virtual sensor creation; De-noising; Sensor fusion; Unconventional preprocessing inherently present in specific fault detection methods like PCA-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a diagnosis apparatus applied with a domain adaptation and semantic clustering algorithm. The apparatus comprises: a feature extractor unit learning a machine learning-based feature calculation model that calculates a first feature and a second feature from a first data set including labeled time series signal data and a second data set including non-labeled time series signal data; a label classifier unit learning a machine learning-based state classification model by using the first data set and calculating classifier loss (LC); a domain discrepancy unit learning a machine learning-based domain adaptation model that performs domain adaptation and calculating domain-related loss (LD); and a semantic clustering unit calculating semantic clustering loss (LSC). According to the present invention, the apparatus can efficiently diagnose a state of a target system without label information based on diagnosis data acquired from a source system.

Description

도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치 및 방법{APPARATUS FOR FAULT DIAGNOSIS USING DOMAIN ADAPTATION WITH SEMANTIC CLUSTERING ALGORITHM AND METHOD FOR FAULT DIAGNOSIS USING THE SAME}A diagnostic device and method to which domain adaptation and semantic clustering algorithms are applied

본 발명은 시스템의 고장 진단 기술에 관한 것으로서, 보다 상세하게는, 소스 시스템의 풍부한 진단 데이터를 기반으로 타겟 시스템의 상태를 효율적으로 진단하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치 및 방법에 관한 것이다.The present invention relates to a system failure diagnosis technology, and more particularly, to a diagnosis apparatus and method to which a domain adaptation and semantic clustering algorithm for efficiently diagnosing the state of a target system based on abundant diagnostic data of a source system is applied. .

다수의 산업 분야에서 다양한 유형의 기계 부품 및 시스템이 활용되며, 이러한 부품 혹은 시스템의 결함은 막대한 사회적, 재정적 손해를 발생시킨다. 기존에는 실제 시스템의 상태를 일일이 확인하고 정해진 규칙에 따라 그 성능을 판단하였기에 전문가와 도메인 지식에 크게 의존하였다.Various types of mechanical parts and systems are used in many industries, and defects in these parts or systems cause enormous social and financial damage. In the past, it relied heavily on experts and domain knowledge to check the actual system state one by one and judge its performance according to a set rule.

이를 극복하기 위하여 사전에 시스템의 상태를 예측할 수 있는 기술에 관한 연구가 활발히 수행 중이고, 특히 딥러닝 방식을 사용하여 시스템의 상태를 예측하는 기술은 시스템의 안정성 및 효율성을 높이고 있다. 이러한 예측의 정확도를 더욱 높이기 위해서는 시스템의 각 상태에 따른 다수의 신호 데이터를 분석해야 한다. 즉, 딥러닝을 사용하여 강력한 결함 진단 방법을 개발하려면 관심 있는 모든 시스템 상태에 대해 타겟 시스템에서 충분한 레이블이 지정된 데이터 세트가 마련되어야 한다.In order to overcome this, research on a technology that can predict the state of a system in advance is being actively conducted, and in particular, a technology that predicts the state of a system using a deep learning method is increasing the stability and efficiency of the system. In order to further increase the accuracy of the prediction, it is necessary to analyze a large number of signal data according to each state of the system. In other words, to develop robust fault diagnosis methods using deep learning, sufficient labeled data sets in the target system must be prepared for all system states of interest.

그러나 시스템에서 얻은 레이블 데이터의 양이 충분하지 않거나 훈련 및 테스트 데이터 세트에서 발견되는 분포 유형이 불일치하는 경우 높은 목표 진단 정확도를 얻기가 어렵다는 단점이 있다.However, it has the disadvantage that it is difficult to achieve high target diagnostic accuracy when the amount of label data obtained from the system is not sufficient or when the distribution types found in the training and test data sets are inconsistent.

이러한 문제점을 극복하고 타겟 진단 성능을 향상시키기 위해 레이블이 지정된 소스 데이터에서 얻은 지식이나 정보를 레이블이 지정되지 않은 타겟 도메인으로 전달할 수 있는 UDA(Unsupervised Domain Adaptation) 기반 오류 진단 방법이 널리 보급되었다. UDA의 주요 개념은 두 도메인에서 공유할 수 있는 공통 피쳐를 학습하는 것으로, 이는 서로 다르지만 관련된 두 도메인 간의 도메인 불일치를 줄임으로써 달성된다. 즉, 레이블 정보가 있는 소스 데이터를 사용하여 훈련된 분류기를 레이블이 지정되지 않은 타겟 도메인 진단에 채택할 수 있다. 학습 전략에 따라 몇 가지 유형의 신경망 기반 UDA 방법을 사용할 수 있다.In order to overcome this problem and improve target diagnostic performance, an unsupervised domain adaptation (UDA)-based error diagnosis method that can transfer knowledge or information obtained from labeled source data to an unlabeled target domain has become popular. The main concept of UDA is to learn common features that can be shared by two domains, which is achieved by reducing the domain mismatch between two different but related domains. That is, a classifier trained using source data with label information can be adapted for unlabeled target domain diagnosis. Several types of neural network-based UDA methods are available depending on the learning strategy.

첫째, 불일치 기반 방법은 CORAL(Correlation Alignment) 및 MMD(Maximum Mean Discrepancy)를 포함하는 특정 메트릭을 채택한다. 이러한 메트릭은 타겟 및 소스 도메인 간의 불일치를 수량화한다. 그런 다음 이러한 불일치 메트릭을 줄임으로써 도메인 불변 특성을 얻을 수 있다.First, the inconsistency-based method employs specific metrics including Correlation Alignment (CORAL) and Maximum Mean Discrepancy (MMD). These metrics quantify the discrepancy between the target and source domains. Then, by reducing these inconsistency metrics, domain invariant properties can be obtained.

둘째, 적대적 적응 접근법은 도메인 분류기와 특성 추출기가 서로 경쟁하는 적대적 훈련 방식을 기반으로 공통 특성을 얻는다.Second, adversarial adaptation approaches obtain common characteristics based on adversarial training methods in which domain classifiers and feature extractors compete with each other.

그러나 이러한 UDA 방법의 대부분은 두 개의 서로 다른 영역의 주변 분포에서 불일치를 최소화하는 데에만 중점을 둔다. 이 경우 주변 분포가 잘 정렬되어도 타겟 영역의 각 클래스에 대한 진단 성능이 만족스럽게 일반화되지 않을 수 있다. 이는 각 클래스의 타겟 샘플이 잘 클러스터링되지 않거나 동일한 클래스 레이블을 가진 소스 데이터와 잘 정렬되지 않을 수 있기 때문이다. 결과적으로 각 클래스의 경계 근처에 위치한 샘플은 쉽게 오분류될 수 있다.However, most of these UDA methods focus only on minimizing the discrepancy in the marginal distributions of two different regions. In this case, even if the marginal distribution is well-aligned, the diagnostic performance for each class of the target region may not generalize satisfactorily. This is because the target samples of each class may not cluster well or align well with the source data with the same class label. As a result, samples located near the boundaries of each class can be easily misclassified.

메트릭 학습은 샘플 간의 거리 또는 유사도 메트릭의 비교를 기반으로 우수한 표현을 학습할 수 있는 학습 전략이다. 이러한 거리 메트릭을 기반으로 유사한 샘플을 더 가깝게 매핑하고 유사하지 않은 샘플이 서로 떨어져 있도록 하여 더 나은 표현을 얻을 수 있다. 즉, 샘플을 클래스별로 더 잘 분리하는 우수한 피쳐를 학습함으로써 모델의 일반화 성능을 향상시킬 수 있다. 따라서 최근 고장 진단을 위해 진단 성능을 향상시키기 위한 metric learning이 많이 연구되고 있다.Metric learning is a learning strategy that can learn good representations based on comparison of distance or similarity metrics between samples. A better representation can be obtained by mapping similar samples closer based on these distance metrics and keeping dissimilar samples apart from each other. In other words, the generalization performance of the model can be improved by learning good features that better separate samples into classes. Therefore, recently, metric learning to improve diagnostic performance for fault diagnosis has been extensively studied.

따라서 UDA에서 앞서 언급한 문제를 해결하고 타겟 도메인에 대한 진단 성능을 향상시키기 위해 의미 클러스터링 방법을 사용한 새로운 도메인 적응 기술을 사용하여 한정된 측정 신호로부터 시스템의 상태를 파악할 수 있는 효율적인 진단 기술이 필요하다.Therefore, in order to solve the above-mentioned problem in UDA and improve the diagnostic performance for the target domain, an efficient diagnostic technology that can grasp the state of the system from the limited measurement signal using a new domain adaptation technology using the semantic clustering method is needed.

본 발명의 기술을 효과적으로 이해하기 위해 CNN(Convolutional Neural Network)과 UDA(Unsupervised Domain Adaptation)에 대해 설명한다.In order to effectively understand the technology of the present invention, a Convolutional Neural Network (CNN) and an Unsupervised Domain Adaptation (UDA) will be described.

먼저, CNN에 대해 설명한다. 기존의 딥러닝 방법 중 CNN(Convolutional Neural Network)은 가장 널리 사용되는 방법 중 하나이다. 컨볼루션 및 풀링 레이어와 같은 여러 레이어의 조합으로 구성되며, 기존의 완전히 연결된 신경망과 달리 CNN은 커널이라고 하는 입력 데이터보다 차원이 작은 가중치 행렬을 사용한다. 따라서 CNN은 입력 데이터의 작은 영역 내에서 로컬 패턴을 학습할 수 있는 로컬 연결 특성을 가지고 있다. 컨볼루션 레이어에서는 입력 데이터 내에서 커널을 슬라이딩하고 컨볼루션 연산을 수행하여 피쳐맵이라고 하는 출력 레이어가 생성된다. 이러한 작업을 기반으로 입력 데이터에서 피쳐가 추출된다. 또한, CNN은 입력 데이터의 모든 부분에서 컨볼루션 연산에 대해 동일한 가중치 값을 가진 커널을 사용한다. 이것을 매개변수 공유라고 한다. 결과적으로 CNN은 매개변수의 수를 크게 최소화하고 계산 효율성을 높일 수 있다. 풀링 레이어는 하위 영역에서 특정 값(즉, 최대값 또는 평균값)을 풀링한다. 따라서 이전 레이어의 피쳐맵이 축소된다. 또한, 다른 기존 신경망과 마찬가지로 비선형 피쳐를 학습하기 위해 ReLU(Rectified Linear Unit)와 같은 비선형 활성화 함수가 사용된다. 입력 데이터 차원에 따라 여러 유형의 CNN이 있다. 회전기계의 고장 진단을 위해서는 일반적으로 1차원 시계열 진동 신호가 입력 데이터이기 때문에 1차원 CNN(1D CNN)이 널리 활용되고 있다. 1D CNN의 경우 1D 진동 신호에서 적절한 특징 표현을 추출하기 위해 1D 커널이 사용된다. 분류기 역할을 하는 완전히 연결된 신경망은 CNN의 마지막 부분에 마련된다.First, CNN will be described. Among the existing deep learning methods, CNN (Convolutional Neural Network) is one of the most widely used methods. It consists of a combination of multiple layers, such as convolutional and pooling layers, and unlike traditional fully connected neural networks, CNNs use a weight matrix with a smaller dimension than the input data called a kernel. Therefore, CNNs have local connectivity characteristics that can learn local patterns within a small area of input data. In the convolutional layer, an output layer called a feature map is generated by sliding a kernel within the input data and performing a convolution operation. Based on these operations, features are extracted from the input data. Also, CNN uses a kernel with equal weight values for convolution operations on all parts of the input data. This is called parameter sharing. As a result, CNN can greatly minimize the number of parameters and increase computational efficiency. The pooling layer pools a specific value (ie, the maximum value or the average value) in the sub-region. Therefore, the feature map of the previous layer is reduced. Also, like other conventional neural networks, nonlinear activation functions such as Rectified Linear Unit (ReLU) are used to learn nonlinear features. There are different types of CNNs depending on the input data dimension. For fault diagnosis of rotating machines, one-dimensional CNN (1D CNN) is widely used because a one-dimensional time-series vibration signal is generally input data. In the case of 1D CNN, a 1D kernel is used to extract appropriate feature representations from 1D vibration signals. A fully connected neural network that acts as a classifier is provided at the end of the CNN.

다음으로 UDA에 대해 설명한다. 실제 회전 기계의 경우 레이블이 지정된 데이터의 충분한 양을 확보하는 데 비용이 많이 들고 쉽지 않을 수 있다. 또한, 테스트 데이터 분포는 노이즈, 작동 조건의 변화 또는 기타 요인(예: 다른 시스템에서 데이터를 얻은 경우)으로 인해 훈련에 사용된 데이터의 분포와 다른 경우가 많다. 이러한 상황에서 결함 진단 방법을 개발하기 위해 전이 학습이 활용될 수 있다. 전이 학습에 대한 명확한 설명을 위해 여기에서 표기법과 정의를 제시한다. 첫째, 도메인(D)은 한계 확률(P(X))과 특징 공간(x)으로 구성되며, 여기서 X∈x인 X는 입력 데이터를 의미한다. 태스크(τ)는 예측 함수(P(Y|X))와 레이블 공간(y)으로 구성되며, Y∈y={1, ......, C}인 Y는 건강 상태를 의미하고 C는 가능한 경우의 수를 나타낸다. 전이학습은 다른(그러나 관련이 있는) 소스 도메인에서 얻은 지식이나 정보를 사용하여 타겟 도메인에 적용 가능한 진단 모델을 생성하는 학습 전략을 의미한다. 한편, 본 발명의 배경이 되는 기술은 한국등록특허 제10-2015417호, 제10-2014820호에 개시된다.Next, UDAs will be described. For a real rotating machine, obtaining a sufficient amount of labeled data can be expensive and not easy. Additionally, the distribution of the test data is often different from the distribution of the data used for training due to noise, changes in operating conditions, or other factors (for example, if the data was obtained from a different system). In this situation, transfer learning can be utilized to develop a defect diagnosis method. For clarity on transfer learning, notations and definitions are presented here. First, the domain (D) is composed of a marginal probability (P(X)) and a feature space (x), where X, where X∈x, means input data. The task (τ) consists of a prediction function (P(Y|X)) and a label space (y), where Y ∈y={1, ......, C} means the health state and C represents the number of possible cases. Transfer learning refers to a learning strategy that uses knowledge or information obtained from another (but related) source domain to generate a diagnostic model applicable to a target domain. On the other hand, the technology that is the background of the present invention is disclosed in Korean Patent Registration Nos. 10-2015417 and 10-2014820.

본 발명의 목적은 상술한 종래의 문제점을 해결하기 위한 것으로서, 타겟 시스템을 모사한 소스 시스템의 풍부한 진단 데이터를 기반으로 타겟 시스템의 상태를 효율적으로 진단하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치 및 방법을 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to solve the conventional problems described above, and a diagnostic device to which a domain adaptation and semantic clustering algorithm for efficiently diagnosing the state of a target system based on abundant diagnostic data of a source system simulating a target system is applied; to provide a method.

상기 목적은, 본 발명에 따라, 레이블 정보가 부재된 기계 시스템의 상태 진단 시스템에 의해 수행되는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치에 있어서, 제1시스템에서 측정되어 레이블링된 시계열 신호 데이터를 포함하는 제1데이터셋(dataset)과 제2시스템에서 측정되어 레이블링되지 않은 시계열 신호 데이터를 포함하는 제2데이터셋으로부터 제1피쳐(feature)와 제2피쳐를 계산하는 머신러닝 기반의 피쳐계산 모델을 학습하는 피쳐익스트랙터부; 상기 제1데이터셋을 이용하여 상기 제1시스템의 상태를 분류하는 머신러닝 기반의 상태분류 모델을 학습하고, 분류손실(classifier loss, LC)을 계산하는 라벨클래시파이어부; 상기 제1데이터셋을 소스 도메인(source domain)으로 설정하고 상기 제2데이터셋을 타겟 도메인(target domain)으로 설정하여 도메인 어댑테이션(domain adaptation)을 수행하는 머신러닝 기반의 도메인 어댑테이션 모델을 학습하고, 도메인적응손실(domain-related loss, LD)을 계산하는 도메인디스크리펜시부; 및 상기 제1데이터셋의 레이블에 기초하여 상태별로 클러스터링하는 머신러닝 기반의 클러스터링 모델을 학습하고, 의미군집화손실(semantic clustering loss, LSC)을 계산하는 시멘틱클러스터링부를 포함하고, 상기 분류손실은, 수식 1에 기초하여 계산되며, 상기 도메인적응손실은, 수식 2에 기초하여 계산되며, 상기 의미군집화손실은, 수식 3에 기초하여 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치에 의해 달성된다.The above object is, according to the present invention, in a diagnosis apparatus to which a domain adaptation and semantic clustering algorithm performed by a state diagnosis system of a mechanical system without label information is applied, including time series signal data measured and labeled in the first system A machine learning-based feature calculation model that calculates the first features and the second features from the first dataset and the second dataset including unlabeled time-series signal data measured in the second system. learning feature extractor unit; a label classifier unit for learning a machine learning-based state classification model for classifying the state of the first system using the first dataset, and calculating a classifier loss ( LC ); Learning a machine learning-based domain adaptation model that performs domain adaptation by setting the first dataset as a source domain and setting the second dataset as a target domain as a target domain, a domain dispensing unit for calculating domain-related loss ( LD ); and a semantic clustering unit for learning a machine learning-based clustering model for clustering by state based on the label of the first dataset, and calculating a semantic clustering loss (L SC ), wherein the classification loss is, It is calculated based on Equation 1, the domain adaptation loss is calculated based on Equation 2, and the semantic clustering loss is calculated based on Equation 3. achieved by

삭제delete

{수식 1}{Formula 1}

Figure 112021099938487-pat00001
Figure 112021099938487-pat00001

(상기

Figure 112021099938487-pat00002
는 상기 분류손실, 상기 C는 상기 제1시스템의 상태의 수, 상기 Y는 라벨 벡터, 상기
Figure 112021099938487-pat00003
는 상기 Y의 k번째 노드의 값, 상기 p는 상기 Y의 k번째 노드에 해당하는 확률벡터)(remind
Figure 112021099938487-pat00002
is the classification loss, C is the number of states of the first system, Y is the label vector, and
Figure 112021099938487-pat00003
is the value of the k-th node of Y, and p is a probability vector corresponding to the k-th node of Y)

{수식 2}{Formula 2}

Figure 112021099938487-pat00004
Figure 112021099938487-pat00004

(상기

Figure 112021099938487-pat00005
는 상기 도메인적응손실, 상기 H는 universal RKHS(reproducing kernel Hilbert space), 상기 nS와 상기 nT는 각각 상기 제1데이터셋과 상기 제2데이터셋의 수, 상기
Figure 112021099938487-pat00006
와 상기
Figure 112021099938487-pat00007
는 각각 상기 제1피쳐와 상기 제2피쳐)(remind
Figure 112021099938487-pat00005
is the domain adaptation loss, H is a universal reproducing kernel Hilbert space (RKHS), n S and n T are the numbers of the first and second datasets, respectively, and
Figure 112021099938487-pat00006
and above
Figure 112021099938487-pat00007
is the first feature and the second feature, respectively)

{수식 3}{Formula 3}

Figure 112021099938487-pat00008
Figure 112021099938487-pat00008

(상기

Figure 112021099938487-pat00009
는 상기 의미군집화손실, 상기
Figure 112021099938487-pat00010
는 상기 시멘틱클러스터링부의 특성층의 수, 상기
Figure 112021099938487-pat00011
는 k번째 밸런싱 파라미터(balancing parameter), 상기
Figure 112021099938487-pat00012
는 상기 제1데이터셋의 수, 상기
Figure 112021099938487-pat00013
는 k번째 피쳐 레벨에서
Figure 112021099938487-pat00014
번째 상기 제1데이터셋의 피쳐 벡터, 상기
Figure 112021099938487-pat00015
Figure 112021099938487-pat00016
번째 데이터셋과
Figure 112021099938487-pat00017
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112021099938487-pat00018
의 값, 상기 d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값)(remind
Figure 112021099938487-pat00009
is the semantic clustering loss,
Figure 112021099938487-pat00010
is the number of characteristic layers of the semantic clustering part, the
Figure 112021099938487-pat00011
is the kth balancing parameter (balancing parameter), the
Figure 112021099938487-pat00012
is the number of the first dataset, the
Figure 112021099938487-pat00013
is at the kth feature level
Figure 112021099938487-pat00014
th feature vector of the first dataset, the
Figure 112021099938487-pat00015
Is
Figure 112021099938487-pat00016
the second dataset and
Figure 112021099938487-pat00017
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112021099938487-pat00018
value of , where d is a value controlling the minimum distance between two datasets in different states)

또한, 상기 피쳐익스트랙터부와 상기 도메인디스크리펜시부와 상기 시멘틱클러스터링부는, 상기 제1데이터셋과 상기 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상기 제1데이터셋과 상기 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상기 제1데이터셋과 상기 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.In addition, the feature extractor unit, the domain discrepancy unit, and the semantic clustering unit are trained in mini-batch units of the first dataset and the second dataset, and the first dataset and the When learning is performed on all small groups of the second dataset, small groups may be randomly re-extracted from the first dataset and the second dataset to be re-learned.

또한, 상기 피쳐익스트랙터부는, 수식 4에 기초하여 상기 제1피쳐와 상기 제2피쳐를 계산할 수 있다.Also, the feature extractor unit may calculate the first feature and the second feature based on Equation (4).

{수식 4}{Formula 4}

Figure 112021099938487-pat00019
Figure 112021099938487-pat00019

(상기

Figure 112021099938487-pat00020
는 상기 제1데이터셋 또는 상기 제2데이터셋, 상기
Figure 112021099938487-pat00021
는 상기
Figure 112021099938487-pat00022
으로부터 계산된 상기 제1피쳐 또는 상기 제2피쳐, 상기
Figure 112021099938487-pat00023
는 활성화함수(activation function), 상기
Figure 112021099938487-pat00024
는 웨이트(weight), 상기 bias는 상수)(remind
Figure 112021099938487-pat00020
is the first data set or the second data set, the
Figure 112021099938487-pat00021
is said
Figure 112021099938487-pat00022
The first feature or the second feature calculated from
Figure 112021099938487-pat00023
is an activation function, the
Figure 112021099938487-pat00024
is a weight, the bias is a constant)

또한, 본 발명은, 수식 5에 기초하여 전체손실(

Figure 112021099938487-pat00025
)을 계산하는 연산부를 더 포함하며, 상기 연산부는, 수식 6 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고, 상기 피쳐익스트랙터부와 상기 도메인디스크리펜시부와 상기 시멘틱클러스터링부는, 수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며, 상기 연산부는, 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 전체손실의 변화가 기설정된 비율보다 작은 경우 상기 피쳐익스트랙터부와 상기 도메인디스크리펜시부와 상기 시멘틱클러스터링부의 학습을 중단시켜 최종 진단 알고리즘을 도출할 수 있다.In addition, the present invention, based on Equation 5, the total loss (
Figure 112021099938487-pat00025
. , characterized in that re-learning is performed based on the corrected weight, and the calculating unit includes the feature extractor unit and the A final diagnostic algorithm may be derived by stopping the domain discrepancy unit and the semantic clustering unit learning.

{수식 5}{Formula 5}

Figure 112021099938487-pat00026
Figure 112021099938487-pat00026

(상기

Figure 112021099938487-pat00027
은 전체손실, 상기
Figure 112021099938487-pat00028
는 상기 분류손실, 상기
Figure 112021099938487-pat00029
는 상기 도메인적응손실, 상기
Figure 112021099938487-pat00030
는 상기 의미군집화손실, 상기
Figure 112021099938487-pat00031
Figure 112021099938487-pat00032
는 사용자가 기설정한 계수들)(remind
Figure 112021099938487-pat00027
is the total loss, above
Figure 112021099938487-pat00028
is the classification loss,
Figure 112021099938487-pat00029
is the domain adaptation loss, the
Figure 112021099938487-pat00030
is the semantic clustering loss,
Figure 112021099938487-pat00031
Wow
Figure 112021099938487-pat00032
is the coefficients set by the user)

{수식 6}{Formula 6}

Figure 112021099938487-pat00033
Figure 112021099938487-pat00033

(상기

Figure 112021099938487-pat00034
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00035
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00036
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00037
는 상기 웨이트에 대한 상기 전체손실의 미분값)(remind
Figure 112021099938487-pat00034
is the modified said weight, said
Figure 112021099938487-pat00035
is the weight before fertilization,
Figure 112021099938487-pat00036
is a constant set by the user,
Figure 112021099938487-pat00037
is the derivative of the total loss with respect to the weight)

또한, 상기 웨이트에 대한 상기 전체손실의 미분값은, 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.In addition, the differential value of the total loss with respect to the weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 상기 라벨클래시파이어부는, 수식 7 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고, 수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며, 상기 라벨클래시파이어부는, 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 분류손실의 변화가 기설정된 비율보다 작은 경우 학습이 중단되어 최종 머신러닝 기반의 상태분류 모델이 도출될 수 있다.In addition, the label classifier unit corrects the weight based on Equation 7 and gradient descent, and is re-learned based on the modified weight, wherein the label classifier unit, Even though the weight is corrected a preset number of times, if the change in the classification loss is smaller than a preset ratio, learning is stopped, and a final machine learning-based state classification model may be derived.

{수식 7}{Formula 7}

Figure 112021099938487-pat00038
Figure 112021099938487-pat00038

(상기

Figure 112021099938487-pat00039
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00040
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00041
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00042
는 상기 웨이트에 대한 상기 분류손실의 미분값)(remind
Figure 112021099938487-pat00039
is the modified said weight, said
Figure 112021099938487-pat00040
is the weight before fertilization,
Figure 112021099938487-pat00041
is a constant set by the user,
Figure 112021099938487-pat00042
is the differential value of the classification loss with respect to the weight)

또한, 상기 웨이트에 대한 상기 분류손실의 미분값은, 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.In addition, the differential value of the classification loss with respect to the weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 본 발명은, 상기 최종 진단 알고리즘을 이용하여 진단된 상기 제2시스템의 상태를 출력하는 출력부를 포함할 수 있다.In addition, the present invention may include an output unit for outputting the state of the second system diagnosed using the final diagnosis algorithm.

또한, 상기 피쳐익스트랙터부는, convolution neural network(CNN)를 사용하며, 상기 라벨클래시파이어부는, fully connected layer로 마련될 수 있다.In addition, the feature extractor unit uses a convolution neural network (CNN), and the label classifier unit may be provided as a fully connected layer.

상기 목적은, 본 발명에 따라, 레이블 정보가 부재된 기계 시스템의 상태 진단 시스템에 의해 수행되는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법에 있어서, 제1시스템에서 측정되어 레이블링된 시계열 신호 데이터를 포함하는 제1데이터셋(dataset)과 제2시스템에서 측정되어 레이블링되지 않은 시계열 신호 데이터를 포함하는 제2데이터셋으로부터 피쳐익스트랙터부가 제1피쳐(feature)와 제2피쳐를 계산하는 머신러닝 기반의 피쳐계산 모델을 학습하는 피쳐익스트랙터단계; 상기 제1데이터셋을 이용하여 라벨클래시파이어부가 상기 제1시스템의 상태를 분류하는 머신러닝 기반의 상태분류 모델을 학습하고, 분류손실(classifier loss, LC)을 계산하는 라벨클래시파이어단계; 상기 제1데이터셋을 소스 도메인(source domain)으로 설정하고 상기 제2데이터셋을 타겟 도메인(target domain)으로 설정하여 도메인디스크리펜시부가 도메인 어댑테이션(domain adaptation)을 수행하는 머신러닝 기반의 도메인 어댑테이션 모델을 학습하고, 도메인적응손실(domain-related loss, LD)을 계산하는 도메인디스크리펜시단계; 및 시멘틱클러스터링부가 상기 제1데이터셋의 레이블에 기초하여 상태별로 클러스터링하는 머신러닝 기반의 클러스터링 모델을 학습하고, 의미군집화손실(semantic clustering loss, LSC)을 계산하는 시멘틱클러스터링단계를 포함하고, 상기 분류손실은, 수식 1에 기초하여 계산되며, 상기 도메인적응손실은, 수식 2에 기초하여 계산되며, 상기 의미군집화손실은, 수식 3에 기초하여 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법에 의해 달성된다.The above object is, according to the present invention, a diagnosis method to which a domain adaptation and semantic clustering algorithm performed by a state diagnosis system of a mechanical system without label information is applied, including time series signal data measured and labeled in the first system A machine learning-based machine learning-based system in which the feature extractor calculates first features and second features from a second dataset including unlabeled time-series signal data measured in a second system a feature extractor step of learning a feature calculation model; A label classifier step in which the label classifier unit learns a machine learning-based state classification model that classifies the state of the first system using the first dataset, and calculates a classifier loss ( LC ) ; Machine learning-based domain adaptation in which a domain dispensing unit performs domain adaptation by setting the first dataset as a source domain and setting the second dataset as a target domain Learning the model, domain-related loss (domain-related loss, LD ) domain dispensing step of calculating; and a semantic clustering step of learning a machine learning-based clustering model in which a semantic clustering unit clusters by state based on the label of the first dataset, and calculating a semantic clustering loss (L SC ), The classification loss is calculated based on Equation 1, the domain adaptation loss is calculated based on Equation 2, and the semantic clustering loss is calculated based on Equation 3. This is achieved by the applied diagnostic method.

삭제delete

{수식 1}{Formula 1}

Figure 112021099938487-pat00043
Figure 112021099938487-pat00043

(상기

Figure 112021099938487-pat00044
는 상기 분류손실, 상기 C는 상기 제1시스템의 상태의 수, 상기 Y는 라벨 벡터, 상기
Figure 112021099938487-pat00045
는 상기 Y의 k번째 노드의 값, 상기 p는 상기 Y의 k번째 노드에 해당하는 확률벡터)(remind
Figure 112021099938487-pat00044
is the classification loss, C is the number of states of the first system, Y is the label vector, and
Figure 112021099938487-pat00045
is the value of the k-th node of Y, and p is a probability vector corresponding to the k-th node of Y)

{수식 2}{Formula 2}

Figure 112021099938487-pat00046
Figure 112021099938487-pat00046

(상기 H는 universal RKHS(reproducing kernel Hilbert space), 상기 nS와 상기 nT는 각각 상기 제1데이터셋과 상기 제2데이터셋의 수, 상기

Figure 112021099938487-pat00047
와 상기
Figure 112021099938487-pat00048
는 각각 상기 제1피쳐와 상기 제2피쳐)(wherein H is a universal reproducing kernel Hilbert space (RKHS), and n S and n T are the number of the first dataset and the second dataset, respectively, and
Figure 112021099938487-pat00047
and above
Figure 112021099938487-pat00048
is the first feature and the second feature, respectively)

{수식 3}{Formula 3}

Figure 112021099938487-pat00049
Figure 112021099938487-pat00049

(상기

Figure 112021099938487-pat00050
는 상기 의미군집화손실, 상기
Figure 112021099938487-pat00051
는 상기 시멘틱클러스터링단계의 특성층의 수, 상기
Figure 112021099938487-pat00052
는 k번째 밸런싱 파라미터(balancing parameter), 상기
Figure 112021099938487-pat00053
는 상기 제1데이터셋의 수, 상기
Figure 112021099938487-pat00054
는 k번째 피쳐 레벨에서
Figure 112021099938487-pat00055
번째 상기 제1데이터셋의 피쳐 벡터, 상기
Figure 112021099938487-pat00056
Figure 112021099938487-pat00057
번째 데이터셋과
Figure 112021099938487-pat00058
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112021099938487-pat00059
의 값, 상기 d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값)(remind
Figure 112021099938487-pat00050
is the semantic clustering loss,
Figure 112021099938487-pat00051
is the number of characteristic layers in the semantic clustering step,
Figure 112021099938487-pat00052
is the kth balancing parameter (balancing parameter), the
Figure 112021099938487-pat00053
is the number of the first dataset, the
Figure 112021099938487-pat00054
is at the kth feature level
Figure 112021099938487-pat00055
th feature vector of the first dataset, the
Figure 112021099938487-pat00056
Is
Figure 112021099938487-pat00057
the second dataset and
Figure 112021099938487-pat00058
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112021099938487-pat00059
value of , where d is a value controlling the minimum distance between two datasets in different states)

또한, 상기 피쳐익스트랙터단계와 상기 도메인디스크리펜시단계와 상기 시멘틱클러스터링단계는, 상기 제1데이터셋과 상기 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상기 제1데이터셋과 상기 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상기 제1데이터셋과 상기 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.In addition, in the feature extractor step, the domain discrepancy step, and the semantic clustering step, the first dataset and the second dataset are learned in mini-batch units, and the first dataset and When learning is performed on all small groups of the second dataset, small groups may be randomly re-extracted from the first dataset and the second dataset and re-learned.

또한, 상기 피쳐익스트랙터단계는, 수식 4에 기초하여 상기 제1피쳐와 상기 제2피쳐를 계산할 수 있다.In addition, the feature extractor step may calculate the first feature and the second feature based on Equation (4).

{수식 4}{Formula 4}

Figure 112021099938487-pat00060
Figure 112021099938487-pat00060

(상기

Figure 112021099938487-pat00061
는 상기 제1데이터셋 또는 상기 제2데이터셋, 상기
Figure 112021099938487-pat00062
는 상기
Figure 112021099938487-pat00063
으로부터 계산된 상기 제1피쳐 또는 상기 제2피쳐, 상기
Figure 112021099938487-pat00064
는 활성화함수(activation function), 상기
Figure 112021099938487-pat00065
는 웨이트(weight), 상기 bias는 상수)(remind
Figure 112021099938487-pat00061
is the first data set or the second data set, the
Figure 112021099938487-pat00062
is said
Figure 112021099938487-pat00063
The first feature or the second feature calculated from
Figure 112021099938487-pat00064
is an activation function, the
Figure 112021099938487-pat00065
is a weight, the bias is a constant)

또한, 본 발명은, 수식 5에 기초하여 연산부에 의해 전체손실(

Figure 112021099938487-pat00066
)을 계산하는 연산단계를 더 포함하며, 상기 연산단계는, 수식 6 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고, 상기 피쳐익스트랙터단계와 상기 도메인디스크리펜시단계와 상기 시멘틱클러스터링단계는, 수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며, 상기 연산단계는, 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 전체손실의 변화가 기설정된 비율보다 작은 경우 상기 피쳐익스트랙터단계와 상기 도메인디스크리펜시단계와 상기 시멘틱클러스터링단계의 학습을 중단시켜 최종 진단 알고리즘을 도출할 수 있다.In addition, the present invention, based on Equation 5, the total loss (
Figure 112021099938487-pat00066
. The clustering step is characterized in that re-learning is performed based on the modified weight, and the calculating step is performed when the change in the total loss is smaller than a predetermined ratio despite the weight being corrected a predetermined number of times. The final diagnostic algorithm can be derived by stopping the learning of the tractor step, the domain discrepancy step, and the semantic clustering step.

{수식 5}{Formula 5}

Figure 112021099938487-pat00067
Figure 112021099938487-pat00067

(상기

Figure 112021099938487-pat00068
은 전체손실, 상기
Figure 112021099938487-pat00069
는 상기 분류손실, 상기
Figure 112021099938487-pat00070
는 상기 도메인적응손실, 상기
Figure 112021099938487-pat00071
는 상기 의미군집화손실, 상기
Figure 112021099938487-pat00072
Figure 112021099938487-pat00073
는 사용자가 기설정한 계수들)(remind
Figure 112021099938487-pat00068
is the total loss, above
Figure 112021099938487-pat00069
is the classification loss,
Figure 112021099938487-pat00070
is the domain adaptation loss, the
Figure 112021099938487-pat00071
is the semantic clustering loss,
Figure 112021099938487-pat00072
Wow
Figure 112021099938487-pat00073
is the coefficients set by the user)

{수식 6}{Formula 6}

Figure 112021099938487-pat00074
Figure 112021099938487-pat00074

(상기

Figure 112021099938487-pat00075
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00076
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00077
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00078
는 상기 웨이트에 대한 상기 전체손실의 미분값)(remind
Figure 112021099938487-pat00075
is the modified said weight, said
Figure 112021099938487-pat00076
is the weight before fertilization,
Figure 112021099938487-pat00077
is a constant set by the user,
Figure 112021099938487-pat00078
is the derivative of the total loss with respect to the weight)

또한, 상기 웨이트에 대한 상기 전체손실의 미분값은, 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.In addition, the differential value of the total loss with respect to the weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 상기 라벨클래시파이어단계는, 수식 7 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고, 수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며, 상기 라벨클래시파이어단계는, 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 분류손실의 변화가 기설정된 비율보다 작은 경우 학습이 중단되어 최종 머신러닝 기반의 상태분류 모델이 도출될 수 있다.In addition, the label classifier step is characterized in that the weight is corrected based on Equation 7 and gradient descent, and re-learning is performed based on the modified weight, the label classifier step Although the weight is modified a preset number of times, when the change in the classification loss is smaller than a preset ratio, learning is stopped, and a final machine learning-based state classification model can be derived.

{수식 7}{Formula 7}

Figure 112021099938487-pat00079
Figure 112021099938487-pat00079

(상기

Figure 112021099938487-pat00080
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00081
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00082
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00083
는 상기 웨이트에 대한 상기 분류손실의 미분값)(remind
Figure 112021099938487-pat00080
is the modified said weight, said
Figure 112021099938487-pat00081
is the weight before fertilization,
Figure 112021099938487-pat00082
is a constant set by the user,
Figure 112021099938487-pat00083
is the differential value of the classification loss with respect to the weight)

또한, 상기 웨이트에 대한 상기 분류손실의 미분값은, 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.In addition, the differential value of the classification loss with respect to the weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 본 발명은, 상기 최종 진단 알고리즘을 이용하여 진단된 상기 제2시스템의 상태가 출력부에 의해 출력하는 출력단계를 포함할 수 있다.In addition, the present invention may include an output step of outputting the state of the second system diagnosed using the final diagnosis algorithm by an output unit.

또한, 상기 피쳐익스트랙터단계는, convolution neural network(CNN)을 사용하며, 상기 라벨클래시파이어단계는, fully connected layer로 마련될 수 있다.In addition, the feature extractor step uses a convolution neural network (CNN), and the label classifier step may be provided as a fully connected layer.

본 발명에 따르면, 소스 시스템에서 획득한 진단 데이터를 기반으로 레이블 정보가 없는 타겟 시스템의 상태를 효율적으로 진단할 수 있다.According to the present invention, it is possible to efficiently diagnose the state of the target system without label information based on the diagnostic data acquired from the source system.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.On the other hand, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within the range obvious to those skilled in the art from the description below.

도 1은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치의 진단 방식의 아키텍처를 도시한 것이고,
도 2는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치의 각 구성요소간 전기적 결합을 도시한 것이고,
도 3은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치에서 소스 도메인과 타겟 도메인 데이터의 분포 개념도를 도시한 것이고,
도 4는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법의 순서도를 도시한 것이고,
도 5는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법의 진단의 흐름을 도시한 것이고,
도 6은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법의 성능을 진단하기 위한 기계 시스템을 나타낸 것이고,
도 7은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 CWRU에 대한 시나리오 I의 진단 정확도를 비교한 것이고,
도 8은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 XJTU-SY에 대한 시나리오 I의 진단 정확도를 비교한 것이고,
도 9는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 CWRU와 IMS에 대한 시나리오 II의 진단 정확도를 비교한 것이고,
도 10은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 IMS와 XJTU-SY에 대한 시나리오 II의 진단 정확도를 비교한 것이고,
도 11은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 CWRU에 대한 시나리오 I의 작업에 대한 시각화 결과를 도시한 것이고,
도 12는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 CWRU와 IMS에 대한 시나리오 II의 작업에 대한 시각화 결과를 도시한 것이고,
도 13은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법이 분류손실과 도메인적응손실과 의미군집화손실을 고려함으로써 향상되는 진단 정확도 결과를 도시한 것이고,
도 14은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법과 다른 진단 방법의 평균 SCI 값을 도시한 것이다.
1 shows the architecture of a diagnosis method of a diagnosis apparatus to which domain adaptation and semantic clustering algorithms are applied according to an embodiment of the present invention;
2 is a diagram illustrating electrical coupling between components of a diagnostic apparatus to which domain adaptation and semantic clustering algorithms are applied according to an embodiment of the present invention;
3 is a diagram illustrating a distribution conceptual diagram of source domain and target domain data in a diagnostic apparatus to which a domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
4 is a flowchart illustrating a diagnosis method to which a domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
5 is a diagram illustrating a diagnosis flow of a diagnosis method to which a domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
6 is a diagram illustrating a mechanical system for diagnosing the performance of a diagnostic method to which a domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
7 is a comparison of the diagnostic accuracy of Scenario I for CWRU of another diagnostic method with the diagnostic method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
8 is a comparison of the diagnostic accuracy of Scenario I for XJTU-SY of the diagnostic method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention and another diagnostic method;
9 is a comparison of the diagnostic accuracy of Scenario II for CWRU and IMS of the diagnostic method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention and other diagnostic methods;
10 is a comparison of the diagnostic accuracy of Scenario II for IMS and XJTU-SY of the diagnostic method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention and other diagnostic methods;
11 is a diagram illustrating a visualization result of the operation of Scenario I for a CWRU of a diagnosis method different from the diagnosis method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
12 is a diagram showing the visualization results of the operation of Scenario II for CWRU and IMS of the diagnostic method to which the domain adaptation and semantic clustering algorithm is applied and other diagnostic methods according to an embodiment of the present invention;
13 is a diagram showing the diagnosis accuracy results improved by considering classification loss, domain adaptation loss, and semantic clustering loss in the diagnosis method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention;
14 is a diagram illustrating average SCI values of a diagnosis method to which a domain adaptation and semantic clustering algorithm is applied and another diagnosis method according to an embodiment of the present invention.

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings.

그리고 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.In the description of the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치에 대해서 상세히 설명한다.Hereinafter, a diagnosis apparatus to which a domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치의 진단 방식의 아키텍처를 도시한 것이고, 도 2는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치의 각 구성요소간 전기적 결합을 도시한 것이고, 도 3은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치에서 소스 도메인과 타겟 도메인 데이터의 분포 개념도를 도시한 것이다.1 shows the architecture of a diagnostic method of a diagnostic apparatus to which domain adaptation and semantic clustering algorithms are applied according to an embodiment of the present invention, and FIG. 2 shows domain adaptation and semantic clustering algorithms according to an embodiment of the present invention. The electrical coupling between each component of the diagnostic apparatus is illustrated, and FIG. 3 is a conceptual diagram illustrating the distribution of source domain and target domain data in the diagnostic apparatus to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied.

도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치(100)는 피쳐익스트랙터부(110)와 라벨클래시파이어부(120)와 도메인디스크리펜시부(130)와 시멘틱클러스터링부(140)와 연산부(150)와 출력부(160)를 포함한다.As shown in FIG. 1 , the diagnosis apparatus 100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied includes a feature extractor unit 110 , a label classifier unit 120 , and a domain discriminator. It includes a pensi unit 130 , a semantic clustering unit 140 , an operation unit 150 , and an output unit 160 .

여기서, 피쳐익스트랙터부(110)와 라벨클래시파이어부(120)와 도메인디스크리펜시부(130)와 시멘틱클러스터링부(140)와 연산부(150)는 하나의 PC(Personal Computer) 등의 단말기로 구현될 수 있으며, 기능과 목적에 따라 각각 별도의 장치로 마련될 수도 있다.Here, the feature extractor unit 110 , the label classifier unit 120 , the domain discrepancy unit 130 , the semantic clustering unit 140 , and the operation unit 150 are one terminal such as a personal computer (PC). may be implemented as a separate device, and may be provided as separate devices according to functions and purposes.

피쳐익스트랙터부(110)는 제1시스템에서 측정되어 레이블링된 시계열 신호 데이터를 포함하는 제1데이터셋(dataset)과 제2시스템에서 측정되어 레이블링되지 않은 시계열 신호 데이터를 포함하는 제2데이터셋으로부터 제1피쳐(feature)와 제2피쳐를 계산하는 머신러닝 기반의 피쳐계산 모델을 학습하는 구성으로 상술한 제1데이터셋과 상술한 제2데이터셋의 소집단(mini-batch) 단위로 학습될 수 있다.The feature extractor unit 110 is configured from a first dataset including labeled time-series signal data measured in the first system and a second dataset including unlabeled time-series signal data measured in the second system. As a configuration for learning a machine learning-based feature calculation model that calculates a first feature and a second feature, it can be learned in mini-batch units of the first dataset and the second dataset described above. there is.

여기서, 시계열 신호 데이터는 가속 신호로 마련될 수도 있고, 진동 신호로 마련될 수도 있다. 그러나 시스템의 상태를 구분 지을 수 있는 신호라면 어떠한 신호로 마련되더라도 무관하다.Here, the time series signal data may be provided as an acceleration signal or a vibration signal. However, as long as it is a signal that can distinguish the state of the system, it does not matter what kind of signal is provided.

또한, 피쳐익스트랙터부(110)는 상술한 제1데이터셋과 상술한 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상술한 제1데이터셋과 상술한 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.In addition, when learning is performed on all subgroups of the aforementioned first dataset and the aforementioned second dataset, the feature extractor unit 110 randomly selects small groups from the aforementioned first dataset and the aforementioned second dataset. This can be re-extracted and re-learned.

여기서, 피쳐익스트랙터부(110)는, 수식 4에 기초하여 상술한 제1피쳐와 상술한 제2피쳐를 계산한다.Here, the feature extractor unit 110 calculates the above-described first feature and the above-described second feature based on Equation (4).

{수식 4}{Formula 4}

Figure 112021099938487-pat00084
Figure 112021099938487-pat00084

여기서, 상술한

Figure 112021099938487-pat00085
는 상기 제1데이터셋 또는 상기 제2데이터셋을 나타내고, 상술한
Figure 112021099938487-pat00086
는 상술한
Figure 112021099938487-pat00087
으로부터 계산된 상술한 제1피쳐 또는 상술한 제2피쳐를 나타내고, 상술한
Figure 112021099938487-pat00088
는 활성화함수(activation function)를 나타내고, 상술한
Figure 112021099938487-pat00089
는 웨이트(weight)를 나타내고, 상기 bias는 상수를 나타낸다.Here, the above
Figure 112021099938487-pat00085
represents the first data set or the second data set, and
Figure 112021099938487-pat00086
is the above
Figure 112021099938487-pat00087
represents the above-mentioned first feature or the above-mentioned second feature calculated from
Figure 112021099938487-pat00088
represents an activation function, and
Figure 112021099938487-pat00089
denotes a weight, and the bias denotes a constant.

또한, 피쳐익스트랙터부(110)는 후술하는 연산부(150)에 의해 수정된 상술한 웨이트를 기초로 재학습될 수 있다. 여기서, 후술하는 연산부(150)는 bias도 수정할 수 있으며, 이 경우 피쳐익스트랙터부(110)는 수정된 웨이트와 bias를 기초로 재학습될 수 있다.In addition, the feature extractor unit 110 may be re-learned based on the above-described weight modified by the operation unit 150 to be described later. Here, the operation unit 150, which will be described later, may also correct the bias, and in this case, the feature extractor unit 110 may be re-learned based on the modified weight and bias.

또한, 피쳐익스트랙터부(110)는 convolution neural network(CNN)를 기초로 학습될 수 있다.Also, the feature extractor unit 110 may be trained based on a convolution neural network (CNN).

도 2에 도시된 바와 같이, 피쳐익스트랙터부(110)는 후술하는 라벨클래시파이어부(120)와 도메인디스크리펜시부(130)와 시멘틱클러스터링부(140)와 전기적으로 연결되어 있어 추출된 피쳐를 전달할 수 있고, 연산부(150)와 연결되어 수정된 웨이트와 bias를 전달받아 재학습될 수 있다. 또한, 후술하는 라벨클래시파이어부(120)와 도메인디스크리펜시부(130)와 시멘틱클러스터링부(140)는 상호 전기적으로 연결되어 신호를 교환할 수 있다. 또한, 후술하는 연산부(150)는 피쳐익스트랙터부(110) 및 후술하는 라벨클래시파이어부(120)와 도메인디스크리펜시부(130)와 시멘틱클러스터링부(140)와 전기적으로 연결될 수 있으며, 후술하는 출력부(160)는 후술하는 연산부(150) 및 후술하는 라벨클래시파이어부(120)와 전기적으로 연결될 수 있다.As shown in FIG. 2 , the feature extractor unit 110 is electrically connected to the label classifier unit 120 , the domain discrepancy unit 130 , and the semantic clustering unit 140 , which will be described later. The feature may be transmitted, and it may be re-learned by being connected to the operation unit 150 and receiving the modified weight and bias. In addition, the label classifier unit 120 , the domain dispensing unit 130 , and the semantic clustering unit 140 , which will be described later, are electrically connected to each other to exchange signals. In addition, the operation unit 150 to be described later may be electrically connected to the feature extractor unit 110 and the label classifier unit 120 to be described later, the domain declarative unit 130 and the semantic clustering unit 140, The output unit 160 to be described later may be electrically connected to a calculation unit 150 to be described later and a label classifier unit 120 to be described later.

라벨클래시파이어부(120)는 상술한 제1데이터셋을 이용하여 상술한 제1시스템의 상태를 분류하는 머신러닝 기반의 상태분류 모델을 학습하는 구성으로, 수식 1에 기초하여 분류손실(classifier loss, LC)를 계산한다.The label classifier unit 120 is configured to learn a machine learning-based state classification model for classifying the state of the first system by using the above-described first data set, and based on Equation 1, the classification loss (classifier) loss, L C ).

{수식 1}{Formula 1}

Figure 112021099938487-pat00090
Figure 112021099938487-pat00090

여기서, 상술한

Figure 112021099938487-pat00091
는 상기 분류손실을 나타내고, 상술한 C는 상술한 제1시스템의 상태의 수를 나타내고, 상술한 Y는 라벨 벡터를 나타내고, 상술한
Figure 112021099938487-pat00092
는 상술한 Y의 k번째 노드의 값을 나타내고, 상술한 p는 상술한 Y의 k번째 노드에 해당하는 확률벡터를 나타낸다.Here, the above
Figure 112021099938487-pat00091
denotes the classification loss, the aforementioned C denotes the number of states of the aforementioned first system, the aforementioned Y denotes the label vector, and the aforementioned
Figure 112021099938487-pat00092
denotes a value of the k-th node of Y described above, and p denotes a probability vector corresponding to the k-th node of Y described above.

여기서, 도 3(a)는 기존 접근 방식, 도 3(b)는 UDA 접근 방식, 도 3(c)은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치(100)의 DASC 접근 방식을 사용하여 학습된 피쳐 공간에서 도메인 불일치가 있는 소스 및 타겟 도메인 데이터의 분포 개념도를 나타내며, 파란 파선은 각 피쳐 공간에서 레이블이 지정된 소스 도메인 데이터를 사용하여 학습된 후술하는 라벨클래시파이어부(120)의 상태 결정 경계를 나타낸다. 이에 따르면, 라벨클래시파이어부(120)는 파란 파선에 해당하는 서로 다른 두 상태를 분류하는 기준을 학습하고 이에 따라 시스템의 상태를 진단한다. 또한, 원과 사각형은 다른 클래스를 나타내며, 색상은 레이블 정보를 나타낸다. 레이블이 지정되지 않은 타겟 도메인은 회색으로 표시되어 있다.Here, FIG. 3(a) is a conventional approach, FIG. 3(b) is a UDA approach, and FIG. 3(c) is a diagnosis apparatus 100 to which a domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied. A conceptual diagram of the distribution of source and target domain data with domain mismatch in the feature space trained using the DASC approach is shown, and the blue dashed line is a label classifier, which will be described later, trained using labeled source domain data in each feature space. Indicates the state determination boundary of the unit 120 . According to this, the label classifier unit 120 learns a criterion for classifying two different states corresponding to the blue dashed line, and diagnoses the state of the system accordingly. Also, circles and rectangles represent different classes, and colors represent label information. Unlabeled target domains are grayed out.

또한, 도 3에 도시된 바와 같이, 기존의 접근 방식에서는 타겟 도메인 데이터의 분류가 올바르게 이루어지지 않는 경우가 많으나, 도메인디스크리펜시부(130)를 통한 UDA 방식을 거치면 소스 도메인 데이터와 타겟 도메인 데이터가 공통 피쳐를 갖게 됨으로써 분류의 정확도가 증가한다. 그러나 여전히 두 레이블의 경계에 있는 데이터에 대한 분류는 정확하게 이루어지지 않는다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치(100)의 시멘틱클러스터링부(140)를 적용하게 되면, 동일한 레이블 사이의 거리는 줄이고, 서로 다른 레이블 사이의 거리는 증가시킴으로써 도 3(c)에 도시된 바와 같이 분류의 정확도를 대폭적으로 향상시킬 수 있는 효과가 있다.In addition, as shown in FIG. 3 , in many cases, the classification of target domain data is not performed correctly in the conventional approach. However, when the UDA method through the domain dispensing unit 130 is used, the source domain data and the target domain data are Classification accuracy is increased by having common features. However, classification of the data at the boundary between the two labels is still not done accurately. When the semantic clustering unit 140 of the diagnostic apparatus 100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention is applied, the distance between the same labels is reduced and the distance between different labels is increased, as shown in FIG. As shown in (c), there is an effect that can significantly improve the classification accuracy.

여기서, 라벨클래시파이어부(120)는 수식 7 및 경사하강법(gradient descent)에 기초하여 상술한 웨이트를 수정하고, 수정된 상술한 웨이트를 기초로 재학습될 수 있다.Here, the label classifier unit 120 may correct the above-described weight based on Equation 7 and gradient descent, and re-learn based on the modified weight.

{수식 7}{Formula 7}

Figure 112021099938487-pat00093
Figure 112021099938487-pat00093

여기서, 상술한

Figure 112021099938487-pat00094
은 수정된 상술한 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00095
는 수정전 상술한 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00096
는 사용자가 기설정한 상수를 나타내고, 상술한
Figure 112021099938487-pat00097
는 상술한 웨이트에 대한 상기 분류손실의 미분값을 나타낸다.Here, the above
Figure 112021099938487-pat00094
denotes the above-mentioned weight modified, and
Figure 112021099938487-pat00095
represents the above-mentioned weight before modification, and
Figure 112021099938487-pat00096
represents a constant preset by the user, and
Figure 112021099938487-pat00097
denotes the differential value of the classification loss with respect to the above-described weight.

여기서, 상기 웨이트에 대한 상기 분류손실의 미분값은 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.Here, the differential value of the classification loss with respect to the weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 라벨클래시파이어부(120)는 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 분류손실의 변화가 기설정된 비율보다 작은 경우 학습이 중단되어 최종 머신러닝 기반의 상태분류 모델이 도출될 수 있다.In addition, the label classifier unit 120 stops learning when the change in the classification loss is smaller than a preset rate even though the weight is corrected a preset number of times, so that a final machine learning-based state classification model can be derived. there is.

또한, 라벨클래시파이어부(120)는 fully connected layer로 마련될 수 있다.In addition, the label classifier unit 120 may be provided as a fully connected layer.

도메인디스크리펜시부(130)는 상술한 제1데이터셋을 소스 도메인(source domain)으로 설정하고 상술한 제2데이터셋을 타겟 도메인(target domain)으로 설정하여 도메인 어댑테이션(domain adaptation)을 수행하는 머신러닝 기반의 도메인 어댑테이션 모델을 학습하는 구성으로, 수식 2에 기초하여 도메인적응손실(domain-related loss, LD)를 계산한다. 여기서 도메인 어댑테이션은 학습 분포와 테스트 분포 간에 차이가 있을 때 분류기 또는 예측기의 학습 문제를 다루는 연구 분야이다. 즉, 소스 도메인과 타겟 도메인 사이의 매핑을 통해 소스 도메인에서 학습한 라벨클래시파이어부(120)가 타겟 도메인에서도 효과적으로 동작하도록 하는 것을 목표로 한다.The domain dispensing unit 130 performs domain adaptation by setting the above-described first dataset as a source domain and setting the above-described second dataset as a target domain. As a configuration for learning a machine learning-based domain adaptation model, a domain-related loss ( LD ) is calculated based on Equation 2. Here, domain adaptation is a research field that deals with the learning problem of a classifier or predictor when there is a difference between the learning distribution and the test distribution. That is, it aims to make the label classifier unit 120 learned in the source domain operate effectively in the target domain through the mapping between the source domain and the target domain.

{수식 2}{Formula 2}

Figure 112021099938487-pat00098
Figure 112021099938487-pat00098

여기서, 상술한

Figure 112021099938487-pat00099
는 상기 도메인적응손실을 나타내고, 상술한 H는 universal RKHS(reproducing kernel Hilbert space)를 나타내고, 상술한 nS와 상술한 nT는 각각 상기 제1데이터셋과 상기 제2데이터셋의 수를 나타내고, 상술한
Figure 112021099938487-pat00100
와 상기
Figure 112021099938487-pat00101
는 각각 상술한 제1피쳐와 상술한 제2피쳐를 나타낸다.Here, the above
Figure 112021099938487-pat00099
denotes the domain adaptation loss, the above-mentioned H denotes a universal reproducing kernel Hilbert space (RKHS), the above-mentioned n S and the above-mentioned n T denote the number of the first dataset and the second dataset, respectively, the above
Figure 112021099938487-pat00100
and above
Figure 112021099938487-pat00101
denotes the aforementioned first feature and the aforementioned second feature, respectively.

또한, 도메인디스크리펜시부(130)는 상술한 제1데이터셋과 상술한 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상술한 제1데이터셋과 상술한 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상술한 제1데이터셋과 상술한 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.In addition, the domain dispensing unit 130 is learned in units of a mini-batch of the above-described first dataset and the above-described second dataset, When learning is performed on all small groups, the small groups may be re-extracted randomly from the above-described first dataset and the above-described second dataset and re-learned.

또한, 도메인디스크리펜시부(130)는 후술하는 연산부(150)에 의해 수정된 상술한 웨이트를 기초로 재학습될 수 있다. 여기서, 후술하는 연산부(150)는 bias도 수정할 수 있으며, 이 경우 도메인디스크리펜시부(130)는 수정된 웨이트와 bias를 기초로 재학습될 수 있다.Also, the domain description unit 130 may be re-learned based on the above-described weight modified by the operation unit 150 to be described later. Here, the operation unit 150 to be described later may also correct the bias, and in this case, the domain dispensing unit 130 may be re-learned based on the modified weight and bias.

시멘틱클러스터링부(140)는 상술한 제1데이터셋의 레이블에 기초하여 상태별로 클러스터링하는 머신러닝 기반의 클러스터링 모델을 학습하는 구성으로, 수식 3에 기초하여 의미군집화손실(semantic clustering loss, LSC)를 계산한다.The semantic clustering unit 140 is configured to learn a machine learning-based clustering model for clustering by state based on the labels of the first dataset described above, and based on Equation 3, semantic clustering loss (L SC ) to calculate

{수식 3}{Formula 3}

Figure 112021099938487-pat00102
Figure 112021099938487-pat00102

여기서, 상술한

Figure 112021099938487-pat00103
는 상기 의미군집화손실을 나타내고, 상술한
Figure 112021099938487-pat00104
는 상술한 시멘틱클러스터링의 특성층의 수를 나타내고, 상술한
Figure 112021099938487-pat00105
는 k번째 밸런싱 파라미터(balancing parameter)를 나타내고, 상술한
Figure 112021099938487-pat00106
는 상기 제1데이터셋의 수를 나타내고, 상술한
Figure 112021099938487-pat00107
는 k번째 피쳐 레벨에서
Figure 112021099938487-pat00108
번째 상술한 제1데이터셋의 피쳐 벡터를 나타내고, 상술한
Figure 112021099938487-pat00109
Figure 112021099938487-pat00110
번째 데이터셋과
Figure 112021099938487-pat00111
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112021099938487-pat00112
의 값을 나타내고, 상술한 d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값을 나타낸다.Here, the above
Figure 112021099938487-pat00103
represents the semantic clustering loss, and
Figure 112021099938487-pat00104
represents the number of characteristic layers of the above-described semantic clustering, and
Figure 112021099938487-pat00105
represents the k-th balancing parameter (balancing parameter),
Figure 112021099938487-pat00106
represents the number of the first data set, and
Figure 112021099938487-pat00107
is at the kth feature level
Figure 112021099938487-pat00108
th represents the feature vector of the first dataset described above,
Figure 112021099938487-pat00109
Is
Figure 112021099938487-pat00110
the second dataset and
Figure 112021099938487-pat00111
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112021099938487-pat00112
represents a value of , and the above-mentioned d represents a value that controls the minimum distance between two datasets in different states.

여기서, 시멘틱클러스터링부(140)는 상술한 제1데이터셋과 상술한 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상술한 제1데이터셋과 상술한 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상술한 제1데이터셋과 상술한 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.Here, the semantic clustering unit 140 is trained in units of mini-batch of the aforementioned first dataset and the aforementioned second dataset, and all subgroups of the aforementioned first dataset and the aforementioned second dataset. When learning is performed, small groups are randomly re-extracted from each of the above-described first dataset and the above-described second dataset to be re-learned.

또한, 시멘틱클러스터링부(140)는 후술하는 연산부(150)에 의해 수정된 상술한 웨이트를 기초로 재학습될 수 있다. 여기서, 후술하는 연산부(150)는 bias도 수정할 수 있으며, 이 경우 시멘틱클러스터링부(140)는 수정된 웨이트와 bias를 기초로 재학습될 수 있다.In addition, the semantic clustering unit 140 may be re-learned based on the above-described weight modified by the operation unit 150 to be described later. Here, the calculation unit 150, which will be described later, may also correct the bias, and in this case, the semantic clustering unit 140 may be re-learned based on the modified weight and bias.

연산부(150)는 수식 5에 기초하여 전체손실(

Figure 112021099938487-pat00113
)을 계산하는 구성으로, 수식 6 및 경사하강법(gradient descent)에 기초하여 상술한 웨이트를 수정한다.The calculating unit 150 calculates the total loss (
Figure 112021099938487-pat00113
), the above-mentioned weight is corrected based on Equation 6 and gradient descent.

{수식 5}{Formula 5}

Figure 112021099938487-pat00114
Figure 112021099938487-pat00114

여기서, 상술한

Figure 112021099938487-pat00115
은 전체손실을 나타내고, 상술한
Figure 112021099938487-pat00116
는 상술한 분류손실을 나타내고, 상술한
Figure 112021099938487-pat00117
는 상술한 도메인적응손실을 나타내고, 상술한
Figure 112021099938487-pat00118
는 상술한 의미군집화손실을 나타내고, 상술한
Figure 112021099938487-pat00119
Figure 112021099938487-pat00120
는 사용자가 기설정한 계수들을 나타낸다.Here, the above
Figure 112021099938487-pat00115
represents the total loss, and
Figure 112021099938487-pat00116
represents the above-described classification loss, and
Figure 112021099938487-pat00117
represents the aforementioned domain adaptation loss, and
Figure 112021099938487-pat00118
represents the above-mentioned semantic clustering loss, and
Figure 112021099938487-pat00119
Wow
Figure 112021099938487-pat00120
denotes coefficients preset by the user.

{수식 6}{Formula 6}

Figure 112021099938487-pat00121
Figure 112021099938487-pat00121

여기서, 상술한

Figure 112021099938487-pat00122
은 수정된 상기 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00123
는 수정전 상술한 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00124
는 사용자가 기설정한 상수를 나타내고, 상술한
Figure 112021099938487-pat00125
는 상술한 웨이트에 대한 상술한 전체손실의 미분값을 나타낸다.Here, the above
Figure 112021099938487-pat00122
denotes the modified weight, and
Figure 112021099938487-pat00123
represents the above-mentioned weight before modification, and
Figure 112021099938487-pat00124
represents a constant preset by the user, and
Figure 112021099938487-pat00125
denotes the derivative of the above-mentioned total loss with respect to the above-mentioned weight.

여기서, 상술한 웨이트에 대한 상술한 전체손실의 미분값은 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.Here, the differential value of the above-described total loss with respect to the above-described weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 연산부(150)는 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 전체손실의 변화가 기설정된 비율보다 작은 경우 상술한 피쳐익스트랙터부(110)와 상술한 도메인디스크리펜시부(130)와 상술한 시멘틱클러스터링부(140)의 학습을 중단시켜 최종 진단 알고리즘을 도출할 수 있다.In addition, when the change in the total loss is smaller than a preset ratio despite the weight being corrected a preset number of times, the calculating unit 150 includes the feature extractor unit 110 and the domain discrepancy unit 130 described above. And by stopping the learning of the above-described semantic clustering unit 140, it is possible to derive a final diagnostic algorithm.

출력부(160)는 상술한 최종 진단 알고리즘 및 최종 머신러닝 기반의 상태분류 모델을 이용하여 진단된 상술한 제2시스템의 상태를 출력한다. 여기서 출력부(160)는 모니터의 형태로 마련될 수도 있고, 소리로 신호를 출력하는 스피커 형태로 마련될 수도 있다.The output unit 160 outputs the state of the second system diagnosed by using the final diagnosis algorithm and the final machine learning-based state classification model. Here, the output unit 160 may be provided in the form of a monitor, or may be provided in the form of a speaker that outputs a signal in sound.

상술한 바와 같은 피쳐익스트랙터부(110), 라벨클래시파이어부(120), 도메인디스크리펜시부(130), 시멘틱클러스터링부(140), 연산부(150), 출력부(160)를 포함하는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치(100)에 따르면, 소스 시스템에서 획득한 진단 데이터를 기반으로 레이블 정보가 없는 타겟 시스템의 상태를 효율적으로 진단할 수 있다.As described above, including the feature extractor unit 110, the label classifier unit 120, the domain delimiter unit 130, the semantic clustering unit 140, the operation unit 150, and the output unit 160 According to the diagnosis apparatus 100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied, it is possible to efficiently diagnose the state of the target system without label information based on the diagnosis data obtained from the source system.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에 대해서 상세히 설명한다.Hereinafter, the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied will be described in detail with reference to the accompanying drawings.

도 4는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 순서도를 도시한 것이고, 도 5는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 진단의 흐름을 도시한 것이다.4 is a flowchart of a diagnosis method S100 to which a domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, and FIG. 5 is a domain adaptation and semantic clustering algorithm to which an embodiment of the present invention is applied. The flow of diagnosis of the diagnosis method S100 is shown.

도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 피쳐익스트랙터단계(S110)와 라벨클래시파이어단계(S120)와 도메인디스크리펜시단계(S130)와 시멘틱클러스터링단계(S140)를 포함한다. 여기서, 라벨클래시파이어단계(S120)와 도메인디스크리펜시단계(S130)와 시멘틱클러스터링단계(S140)는 동시에 수행될 수 있다. 또한, 피쳐익스트랙터단계(S110)와 라벨클래시파이어단계(S120)와 도메인디스크리펜시단계(S130)와 시멘틱클러스터링단계(S140)는 각각 학습될 수도 있고, 별도로 학습되도록 마련될 수도 있다.As shown in Fig. 4, the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied is a feature extractor step (S110), a label classifier step (S120), and a domain discriminator. It includes a pensi step (S130) and a semantic clustering step (S140). Here, the label classifier step (S120), the domain discrepancy step (S130), and the semantic clustering step (S140) may be simultaneously performed. In addition, the feature extractor step (S110), the label classifier step (S120), the domain discrepancy step (S130), and the semantic clustering step (S140) may be learned, respectively, or may be separately learned.

피쳐익스트랙터단계(S110)는 제1시스템에서 측정되어 레이블링된 시계열 신호 데이터를 포함하는 제1데이터셋(dataset)과 제2시스템에서 측정되어 레이블링되지 않은 시계열 신호 데이터를 포함하는 제2데이터셋으로부터 피쳐익스트랙터부(110)가 제1피쳐(feature)와 제2피쳐를 계산하는 머신러닝 기반의 피쳐계산 모델을 학습하는 단계로 상술한 제1데이터셋과 상술한 제2데이터셋의 소집단(mini-batch) 단위로 학습될 수 있다.The feature extractor step S110 is performed from a first dataset including labeled time-series signal data measured in the first system and a second dataset including unlabeled time-series signal data measured in the second system. The feature extractor unit 110 is a step of learning a machine learning-based feature calculation model for calculating a first feature and a second feature. -batch) unit can be learned.

또한, 피쳐익스트랙터단계(S110)는 상술한 제1데이터셋과 상술한 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상술한 제1데이터셋과 상술한 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.In addition, in the feature extractor step ( S110 ), when learning is performed on all subgroups of the above-described first dataset and the above-described second dataset, randomly small groups in the above-described first dataset and the above-described second dataset, respectively This can be re-extracted and re-learned.

여기서, 피쳐익스트랙터단계(S110)는, 수식 4에 기초하여 상술한 제1피쳐와 상술한 제2피쳐를 계산한다.Here, in the feature extractor step ( S110 ), the above-described first feature and the above-described second feature are calculated based on Equation (4).

{수식 4}{Formula 4}

Figure 112021099938487-pat00126
Figure 112021099938487-pat00126

여기서, 상술한

Figure 112021099938487-pat00127
는 상기 제1데이터셋 또는 상기 제2데이터셋을 나타내고, 상술한
Figure 112021099938487-pat00128
는 상술한
Figure 112021099938487-pat00129
으로부터 계산된 상술한 제1피쳐 또는 상술한 제2피쳐를 나타내고, 상술한
Figure 112021099938487-pat00130
는 활성화함수(activation function)를 나타내고, 상술한
Figure 112021099938487-pat00131
는 웨이트(weight)를 나타내고, 상기 bias는 상수를 나타낸다.Here, the above
Figure 112021099938487-pat00127
represents the first data set or the second data set, and
Figure 112021099938487-pat00128
is the above
Figure 112021099938487-pat00129
represents the above-mentioned first feature or the above-mentioned second feature calculated from
Figure 112021099938487-pat00130
represents an activation function, and
Figure 112021099938487-pat00131
denotes a weight, and the bias denotes a constant.

또한, 피쳐익스트랙터단계(S110)는 후술하는 연산단계(S150)에 의해 수정된 상술한 웨이트를 기초로 재학습될 수 있다. 여기서, 후술하는 연산단계(S150)는 bias도 수정할 수 있으며, 이 경우 피쳐익스트랙터단계(S110)는 수정된 웨이트와 bias를 기초로 재학습될 수 있다.In addition, the feature extractor step ( S110 ) may be re-learned based on the above-described weight modified by an operation step ( S150 ) to be described later. Here, in the calculation step S150 to be described later, the bias may also be corrected, and in this case, the feature extractor step S110 may be re-learned based on the modified weight and bias.

또한, 피쳐익스트랙터단계(S110)는 convolution neural network(CNN)를 기초로 학습될 수 있다.Also, the feature extractor step S110 may be learned based on a convolution neural network (CNN).

도 2에 도시된 바와 같이, 피쳐익스트랙터단계(S110)는 후술하는 라벨클래시파이어단계(S120)와 도메인디스크리펜시단계(S130)와 시멘틱클러스터링단계(S140)와 전기적으로 연결되어 있어 추출된 피쳐를 전달할 수 있고, 연산단계(S150)와 연결되어 수정된 웨이트와 bias를 전달받아 재학습될 수 있다. 또한, 후술하는 라벨클래시파이어단계(S120)와 도메인디스크리펜시단계(S130)와 시멘틱클러스터링단계(S140)는 상호 전기적으로 연결되어 신호를 교환할 수 있다. 또한, 후술하는 연산단계(S150)는 피쳐익스트랙터단계(S110) 및 후술하는 라벨클래시파이어단계(S120)와 도메인디스크리펜시단계(S130)와 시멘틱클러스터링단계(S140)와 전기적으로 연결될 수 있으며, 후술하는 출력단계(S160)는 후술하는 연산단계(S150) 및 후술하는 라벨클래시파이어단계(S120)와 전기적으로 연결될 수 있다.As shown in Fig. 2, the feature extractor step (S110) is electrically connected to the label classifier step (S120), the domain discrepancy step (S130), and the semantic clustering step (S140), which will be described later. The feature can be delivered, and it can be re-learned by receiving the modified weight and bias in connection with the calculation step (S150). In addition, the label classifier step ( S120 ), the domain dispensing step ( S130 ), and the semantic clustering step ( S140 ), which will be described later, are electrically connected to each other to exchange signals. In addition, the calculation step (S150) to be described later may be electrically connected to the feature extractor step (S110), the label classifier step (S120), the domain dispensing step (S130), and the semantic clustering step (S140) to be described later. , an output step (S160) to be described later may be electrically connected to an operation step (S150) to be described later and a label classifier step (S120) to be described later.

라벨클래시파이어단계(S120)는 상술한 제1데이터셋을 이용하여 라벨클래시파이어부(120)가 상술한 제1시스템의 상태를 분류하는 머신러닝 기반의 상태분류 모델을 학습하는 단계로, 수식 1에 기초하여 분류손실(classifier loss, LC)를 계산한다.The label classifier step (S120) is a step of learning a machine learning-based state classification model for classifying the state of the first system by the label classifier unit 120 using the above-described first dataset, Calculate the classifier loss ( LC ) based on Equation 1.

{수식 1}{Formula 1}

Figure 112021099938487-pat00132
Figure 112021099938487-pat00132

여기서, 상술한

Figure 112021099938487-pat00133
는 상기 분류손실을 나타내고, 상술한 C는 상술한 제1시스템의 상태의 수를 나타내고, 상술한 Y는 라벨 벡터를 나타내고, 상술한
Figure 112021099938487-pat00134
는 상술한 Y의 k번째 노드의 값을 나타내고, 상술한 p는 상술한 Y의 k번째 노드에 해당하는 확률벡터를 나타낸다.Here, the above
Figure 112021099938487-pat00133
denotes the classification loss, the aforementioned C denotes the number of states of the aforementioned first system, the aforementioned Y denotes the label vector, and the aforementioned
Figure 112021099938487-pat00134
denotes a value of the k-th node of Y described above, and p denotes a probability vector corresponding to the k-th node of Y described above.

여기서, 도 3(a)는 기존 접근 방식, 도 3(b)는 UDA 접근 방식, 도 3(c)은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 접근 방식을 사용하여 학습된 피쳐 공간에서 도메인 불일치가 있는 소스 및 타겟 도메인 데이터의 분포 개념도를 나타내며, 파란 파선은 각 피쳐 공간에서 레이블이 지정된 소스 도메인 데이터를 사용하여 학습된 후술하는 라벨클래시파이어단계(S120)의 상태 결정 경계를 나타낸다. 이에 따르면, 라벨클래시파이어단계(S120)는 파란 파선에 해당하는 서로 다른 두 상태를 분류하는 기준을 학습하고 이에 따라 시스템의 상태를 진단한다. 또한, 원과 사각형은 다른 클래스를 나타내며, 색상은 레이블 정보를 나타낸다. 레이블이 지정되지 않은 타겟 도메인은 회색으로 표시되어 있다.Here, Fig. 3(a) is a conventional approach, Fig. 3(b) is a UDA approach, and Fig. 3(c) is a diagnosis method (S100) to which a domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied. A conceptual diagram of the distribution of source and target domain data with domain mismatch in the feature space trained using the DASC approach is shown, and the blue dashed line is a label classifier, which will be described later, trained using labeled source domain data in each feature space. Indicates the state determination boundary of step S120. According to this, the label classifier step (S120) learns a criterion for classifying two different states corresponding to the blue dashed line and diagnoses the state of the system accordingly. Also, circles and rectangles represent different classes, and colors represent label information. Unlabeled target domains are grayed out.

여기서, 라벨클래시파이어단계(S120)는 수식 7 및 경사하강법(gradient descent)에 기초하여 상술한 웨이트를 수정하고, 수정된 상술한 웨이트를 기초로 재학습될 수 있다.Here, the label classifier step S120 may correct the above-described weight based on Equation 7 and gradient descent, and re-learn based on the modified weight.

{수식 7}{Formula 7}

Figure 112021099938487-pat00135
Figure 112021099938487-pat00135

여기서, 상술한

Figure 112021099938487-pat00136
은 수정된 상술한 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00137
는 수정전 상술한 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00138
는 사용자가 기설정한 상수를 나타내고, 상술한
Figure 112021099938487-pat00139
는 상술한 웨이트에 대한 상기 분류손실의 미분값을 나타낸다.Here, the above
Figure 112021099938487-pat00136
denotes the above-mentioned weight modified, and
Figure 112021099938487-pat00137
represents the above-mentioned weight before modification, and
Figure 112021099938487-pat00138
represents a constant preset by the user, and
Figure 112021099938487-pat00139
denotes the differential value of the classification loss with respect to the above-described weight.

여기서, 상기 웨이트에 대한 상기 분류손실의 미분값은 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.Here, the differential value of the classification loss with respect to the weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 라벨클래시파이어단계(S120)는 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 분류손실의 변화가 기설정된 비율보다 작은 경우 학습이 중단되어 최종 머신러닝 기반의 상태분류 모델이 도출될 수 있다.In addition, in the label classifier step (S120), even though the weight is corrected a preset number of times, if the change in the classification loss is smaller than a preset ratio, learning is stopped, so that a final machine learning-based state classification model can be derived. there is.

또한, 라벨클래시파이어단계(S120)는 fully connected layer로 마련될 수 있다.In addition, the label classifier step (S120) may be provided as a fully connected layer.

도메인디스크리펜시단계(S130)는 상술한 제1데이터셋을 소스 도메인(source domain)으로 설정하고 상술한 제2데이터셋을 타겟 도메인(target domain)으로 설정하여 도메인디스크리펜시부(130)가 도메인 어댑테이션(domain adaptation)을 수행하는 머신러닝 기반의 도메인 어댑테이션 모델을 학습하는 단계로, 수식 2에 기초하여 도메인적응손실(domain-related loss, LD)를 계산한다.In the domain dispensing step (S130), the domain dispensing unit 130 sets the above-described first data set as a source domain and the above-described second data set as a target domain. As a step of learning a machine learning-based domain adaptation model performing domain adaptation, a domain-related loss ( LD ) is calculated based on Equation 2.

{수식 2}{Formula 2}

Figure 112021099938487-pat00140
Figure 112021099938487-pat00140

여기서, 상술한

Figure 112021099938487-pat00141
는 상기 도메인적응손실을 나타내고, 상술한 H는 universal RKHS(reproducing kernel Hilbert space)를 나타내고, 상술한 nS와 상술한 nT는 각각 상기 제1데이터셋과 상기 제2데이터셋의 수를 나타내고, 상술한
Figure 112021099938487-pat00142
와 상기
Figure 112021099938487-pat00143
는 각각 상술한 제1피쳐와 상술한 제2피쳐를 나타낸다.Here, the above
Figure 112021099938487-pat00141
denotes the domain adaptation loss, the above-mentioned H denotes a universal reproducing kernel Hilbert space (RKHS), the above-mentioned n S and the above-mentioned n T denote the number of the first dataset and the second dataset, respectively, the above
Figure 112021099938487-pat00142
and above
Figure 112021099938487-pat00143
denotes the aforementioned first feature and the aforementioned second feature, respectively.

또한, 도메인디스크리펜시단계(S130)는 상술한 제1데이터셋과 상술한 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상술한 제1데이터셋과 상술한 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상술한 제1데이터셋과 상술한 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.In addition, in the domain dispensing step ( S130 ), the above-described first dataset and the above-described second dataset are learned in mini-batch units, and the above-described first dataset and the above-described second dataset are learned. When learning is performed on all small groups, the small groups may be re-extracted randomly from the above-described first dataset and the above-described second dataset and re-learned.

또한, 도메인디스크리펜시단계(S130)는 후술하는 연산단계(S150)에 의해 수정된 상술한 웨이트를 기초로 재학습될 수 있다. 여기서, 후술하는 연산단계(S150)는 bias도 수정할 수 있으며, 이 경우 도메인디스크리펜시단계(S130)는 수정된 웨이트와 bias를 기초로 재학습될 수 있다.In addition, the domain discrepancy step ( S130 ) may be re-learned based on the above-described weight modified by the operation step ( S150 ) to be described later. Here, in the calculation step ( S150 ) to be described later, the bias may also be corrected, and in this case, the domain dispensing step ( S130 ) may be re-learned based on the modified weight and bias.

시멘틱클러스터링단계(S140)는 시멘틱클러스터링부(140)가 상술한 제1데이터셋의 레이블에 기초하여 상태별로 클러스터링하는 머신러닝 기반의 클러스터링 모델을 학습하는 단계로, 수식 3에 기초하여 의미군집화손실(semantic clustering loss, LSC)를 계산한다.The semantic clustering step (S140) is a step in which the semantic clustering unit 140 learns a machine learning-based clustering model that clusters by state based on the label of the first dataset described above. Based on Equation 3, the semantic clustering loss ( Calculate the semantic clustering loss, L SC ).

{수식 3}{Formula 3}

Figure 112021099938487-pat00144
Figure 112021099938487-pat00144

여기서, 상술한

Figure 112021099938487-pat00145
는 상기 의미군집화손실을 나타내고, 상술한
Figure 112021099938487-pat00146
는 상술한 시멘틱클러스터링의 특성층의 수를 나타내고, 상술한
Figure 112021099938487-pat00147
는 k번째 밸런싱 파라미터(balancing parameter)를 나타내고, 상술한
Figure 112021099938487-pat00148
는 상기 제1데이터셋의 수를 나타내고, 상술한
Figure 112021099938487-pat00149
는 k번째 피쳐 레벨에서
Figure 112021099938487-pat00150
번째 상술한 제1데이터셋의 피쳐 벡터를 나타내고, 상술한
Figure 112021099938487-pat00151
Figure 112021099938487-pat00152
번째 데이터셋과
Figure 112021099938487-pat00153
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112021099938487-pat00154
의 값을 나타내고, 상술한 d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값을 나타낸다.Here, the above
Figure 112021099938487-pat00145
represents the semantic clustering loss, and
Figure 112021099938487-pat00146
represents the number of characteristic layers of the above-described semantic clustering, and
Figure 112021099938487-pat00147
represents the k-th balancing parameter (balancing parameter),
Figure 112021099938487-pat00148
represents the number of the first data set, and
Figure 112021099938487-pat00149
is at the kth feature level
Figure 112021099938487-pat00150
th represents the feature vector of the first dataset described above,
Figure 112021099938487-pat00151
Is
Figure 112021099938487-pat00152
the second dataset and
Figure 112021099938487-pat00153
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112021099938487-pat00154
represents a value of , and the above-mentioned d represents a value that controls the minimum distance between two datasets in different states.

여기서, 시멘틱클러스터링단계(S140)는 상술한 제1데이터셋과 상술한 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상술한 제1데이터셋과 상술한 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상술한 제1데이터셋과 상술한 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습될 수 있다.Here, the semantic clustering step S140 is learned in units of mini-batch of the aforementioned first dataset and the aforementioned second dataset, and all subgroups of the aforementioned first dataset and the aforementioned second dataset When learning is performed, small groups are randomly re-extracted from each of the above-described first dataset and the above-described second dataset to be re-learned.

또한, 시멘틱클러스터링단계(S140)는 후술하는 연산단계(S150)에 의해 수정된 상술한 웨이트를 기초로 재학습될 수 있다. 여기서, 후술하는 연산단계(S150)는 bias도 수정할 수 있으며, 이 경우 시멘틱클러스터링단계(S140)는 수정된 웨이트와 bias를 기초로 재학습될 수 있다.In addition, the semantic clustering step ( S140 ) may be re-learned based on the above-described weight modified by the operation step ( S150 ) to be described later. Here, in the calculation step S150 to be described later, the bias may also be corrected, and in this case, the semantic clustering step S140 may be re-learned based on the modified weight and bias.

연산단계(S150)는 수식 5에 기초하여 연산부(150)에 의해 전체손실(

Figure 112021099938487-pat00155
)을 계산하는 단계로, 수식 6 및 경사하강법(gradient descent)에 기초하여 상술한 웨이트를 수정한다.Calculation step (S150) is based on Equation 5, the total loss (
Figure 112021099938487-pat00155
), the above-mentioned weight is corrected based on Equation 6 and gradient descent.

{수식 5}{Formula 5}

Figure 112021099938487-pat00156
Figure 112021099938487-pat00156

여기서, 상술한

Figure 112021099938487-pat00157
은 전체손실을 나타내고, 상술한
Figure 112021099938487-pat00158
는 상술한 분류손실을 나타내고, 상술한
Figure 112021099938487-pat00159
는 상술한 도메인적응손실을 나타내고, 상술한
Figure 112021099938487-pat00160
는 상술한 의미군집화손실을 나타내고, 상술한
Figure 112021099938487-pat00161
Figure 112021099938487-pat00162
는 사용자가 기설정한 계수들을 나타낸다.Here, the above
Figure 112021099938487-pat00157
represents the total loss, and
Figure 112021099938487-pat00158
represents the above-described classification loss, and
Figure 112021099938487-pat00159
represents the aforementioned domain adaptation loss, and
Figure 112021099938487-pat00160
represents the above-mentioned semantic clustering loss, and
Figure 112021099938487-pat00161
Wow
Figure 112021099938487-pat00162
denotes coefficients preset by the user.

{수식 6}{Formula 6}

Figure 112021099938487-pat00163
Figure 112021099938487-pat00163

여기서, 상술한

Figure 112021099938487-pat00164
은 수정된 상기 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00165
는 수정전 상술한 웨이트를 나타내고, 상술한
Figure 112021099938487-pat00166
는 사용자가 기설정한 상수를 나타내고, 상술한
Figure 112021099938487-pat00167
는 상술한 웨이트에 대한 상술한 전체손실의 미분값을 나타낸다.Here, the above
Figure 112021099938487-pat00164
denotes the modified weight, and
Figure 112021099938487-pat00165
represents the above-mentioned weight before modification, and
Figure 112021099938487-pat00166
represents a constant preset by the user, and
Figure 112021099938487-pat00167
denotes the derivative of the above-mentioned total loss with respect to the above-mentioned weight.

여기서, 상술한 웨이트에 대한 상술한 전체손실의 미분값은 역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산될 수 있다.Here, the differential value of the above-described total loss with respect to the above-described weight may be calculated according to a back-propagation algorithm and a chain rule.

또한, 연산단계(S150)는 기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 전체손실의 변화가 기설정된 비율보다 작은 경우 상술한 피쳐익스트랙터단계(S110)와 상술한 도메인디스크리펜시단계(S130)와 상술한 시멘틱클러스터링단계(S140)의 학습을 중단시켜 최종 진단 알고리즘을 도출할 수 있다.In addition, in the calculation step S150, the above-described feature extractor step S110 and the above-described domain dispensing step S130 are performed when the change in the total loss is smaller than a predetermined ratio even though the weight is corrected a predetermined number of times. ) and the above-described semantic clustering step (S140) can be stopped to derive a final diagnostic algorithm.

출력단계(S160)는 상술한 최종 진단 알고리즘 및 최종 머신러닝 기반의 상태분류 모델을 이용하여 진단된 상술한 제2시스템의 상태가 출력부(160)에 의해 출력되는 단계이다. 여기서 출력부(160)는 모니터의 형태로 마련될 수도 있고, 소리로 신호를 출력하는 스피커 형태로 마련될 수도 있다.The output step S160 is a step in which the state of the second system diagnosed by using the final diagnosis algorithm and the final machine learning-based state classification model is output by the output unit 160 . Here, the output unit 160 may be provided in the form of a monitor, or may be provided in the form of a speaker that outputs a signal in sound.

다음으로 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 원리에 대해 상세히 설명한다.Next, the principle of the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention will be described in detail.

도 6은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 성능을 진단하기 위한 기계 시스템을 나타낸 것이고, 도 7은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 CWRU에 대한 시나리오 I의 진단 정확도를 비교한 것이고, 도 8은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 XJTU-SY에 대한 시나리오 I의 진단 정확도를 비교한 것이고, 도 9는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 CWRU와 IMS에 대한 시나리오 II의 진단 정확도를 비교한 것이고, 도 10은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 IMS와 XJTU-SY에 대한 시나리오 II의 진단 정확도를 비교한 것이고, 도 11은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 CWRU에 대한 시나리오 I의 작업에 대한 시각화 결과를 도시한 것이고, 도 12는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 CWRU와 IMS에 대한 시나리오 II의 작업에 대한 시각화 결과를 도시한 것이고, 도 13은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)이 분류손실과 도메인적응손실과 의미군집화손실을 고려함으로써 향상되는 진단 정확도 결과를 도시한 것이고, 도 14은 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)과 다른 진단 방법의 평균 SCI 값을 도시한 것이다.6 shows a mechanical system for diagnosing the performance of the diagnostic method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, and FIG. The diagnostic accuracy of Scenario I for CWRU of another diagnostic method is compared with the diagnostic method (S100) to which the semantic clustering algorithm is applied and FIG. 8 is a diagnostic method to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention ( S100) and the diagnostic accuracy of Scenario I for XJTU-SY of other diagnostic methods are compared. A comparison of the diagnostic accuracy of Scenario II for CWRU and IMS of A comparison of the diagnostic accuracy of Scenario II for The visualization results are shown, and FIG. 12 is a visualization result for the operation of Scenario II for CWRU and IMS of the diagnostic method (S100) to which the domain adaptation and semantic clustering algorithm is applied and other diagnostic methods according to an embodiment of the present invention. 13 shows the diagnostic accuracy results in which the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention is improved by considering classification loss, domain adaptation loss, and semantic clustering loss. 14 shows the average SCI values of the diagnostic method S100 to which the domain adaptation and semantic clustering algorithm is applied and other diagnostic methods according to an embodiment of the present invention.

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 소스도메인(DS)에서 획득한 레이블 데이터를 사용하여 레이블 정보를 얻을 수 없는 타겟도메인(DT)에서 목표 진단 성능을 향상시키는 것을 목적으로 한다. 즉, 레이블이 지정되지 않은 데이터(

Figure 112021099938487-pat00168
)만 있는 타겟 도메인에 대한 진단 모델은 다른(그러나 관련이 있는) 소스 도메인에서 얻은 레이블이 지정된 데이터(
Figure 112021099938487-pat00169
)의 정보를 전송하여 개선된다. 여기서
Figure 112021099938487-pat00170
는 소스 샘플의 수를 나타내고,
Figure 112021099938487-pat00171
는 타겟 샘플의 수를 나타낸다. 다른 도메인은 다른 시스템이나 다른 작동 조건에서 얻은 데이터로 생각할 수 있다. 이러한 다른 도메인의 경우 도메인 불일치 또는 도메인 이동(예: DS ≠ DT)이 있다. 본 발명에서의 두 도메인은 동일한 레이블 공간(y (= yS = yT))을 갖는다. 이것은 두 도메인이 동일한 유형의 작동 상태를 가지고 있음을 의미한다. 동일한 유형의 오류 모드를 가진 유사한 시스템의 데이터가 전송되고 활용되기 때문에 이는 합리적이다. 이러한 종류의 전이 학습 문제를 UDA 문제라고 한다. 도메인 불일치로 인해 DS에서 직접 얻은 레이블이 지정된 데이터 세트로 훈련된 진단 모델을 DT에 적용할 수 없다. 이러한 문제를 해결하기 위해 UDA 알고리즘을 활용하여 도메인 불일치를 최소화하고 DT에서 일반화 성능을 극대화할 수 있다. 즉, UDA 알고리즘의 주요 목표는 두 도메인 간의 불일치를 최소화하여 두 도메인에서 공유할 수 있는 피쳐의 공통 표현을 결정하는 것이다. 그런 다음 이러한 공유 피쳐를 기반으로 DS의 레이블 정보를 사용하여 두 도메인 모두에서 잘 작동하는 결함 진단을 위한 모델을 개발할 수 있다. 이 학습 전략은 다음 공식으로 확인할 수 있다.The diagnostic method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied is a target domain (D T ) in which label information cannot be obtained by using the label data obtained from the source domain ( DS ). It aims to improve diagnostic performance. That is, unlabeled data (
Figure 112021099938487-pat00168
), a diagnostic model for a target domain with only labeled data (
Figure 112021099938487-pat00169
) is improved by sending the information of here
Figure 112021099938487-pat00170
represents the number of source samples,
Figure 112021099938487-pat00171
represents the number of target samples. Different domains can be thought of as data obtained from different systems or different operating conditions. For these other domains, there is a domain mismatch or domain shift (eg D S ≠ D T ). Both domains in the present invention have the same label space (y (= y S = y T )). This means that both domains have the same type of operational state. This makes sense because data from similar systems with the same type of failure mode is transmitted and utilized. This kind of transfer learning problem is called a UDA problem. A diagnostic model trained on labeled datasets obtained directly from DS cannot be applied to DT due to domain mismatch. To solve this problem, the UDA algorithm can be utilized to minimize the domain mismatch and maximize the generalization performance in DT. In other words, the main goal of the UDA algorithm is to determine a common representation of features that can be shared by both domains by minimizing the mismatch between the two domains. Then, based on these shared features, we can use the label information in DS to develop a model for fault diagnosis that works well in both domains. This learning strategy can be confirmed by the following formula.

Figure 112021099938487-pat00172
Figure 112021099938487-pat00172

여기서 η는 가설 클래스(H)에 속하는 훈련된 클래시파이어를 나타낸다.

Figure 112021099938487-pat00173
Figure 112021099938487-pat00174
에서 라벨클래시파이어부(120) η를 사용한 타겟 리스크를 나타내며,
Figure 112021099938487-pat00175
로 표현할 수 있다.
Figure 112021099938487-pat00176
Figure 112021099938487-pat00177
에서 라벨클래시파이어부(120) η를 사용한 소스 리스크를 나타낸다.
Figure 112021099938487-pat00178
는 도메인 불일치를 의미하며,
Figure 112021099938487-pat00179
Figure 112021099938487-pat00180
에서 파생된 샘플에 대한 경험적 발산을 나타낸다. 그리고 Const.는 모델 복잡도와 표본 크기에 의해 결정되는 상수항을 나타낸다. 즉, 타겟 영역에 대해 잘 작동하는 진단 모델을 결정하려면 소스 위험과 영역 불일치를 동시에 최소화해야 한다.where η denotes a trained classifier belonging to the hypothesis class (H).
Figure 112021099938487-pat00173
Is
Figure 112021099938487-pat00174
represents the target risk using the label classifier unit 120 η,
Figure 112021099938487-pat00175
can be expressed as
Figure 112021099938487-pat00176
Is
Figure 112021099938487-pat00177
In the label classifier 120 represents the source risk using η.
Figure 112021099938487-pat00178
means domain mismatch,
Figure 112021099938487-pat00179
Wow
Figure 112021099938487-pat00180
represents the empirical divergence for samples derived from And Const. represents a constant term determined by model complexity and sample size. In other words, to determine a diagnostic model that works well for the target area, the source risk and area mismatch must be minimized simultaneously.

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서는 DASC(Domain Adaptation with Semantic Clustering) 접근 방식을 사용하는 진단 기법을 제안한다. 이 접근 방식은 더 많은 판별되는 도메인 불변 특성을 학습함으로써 타겟 도메인에서 일반화 성능을 향상시키도록 설계되었다.In the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, a diagnosis technique using a DASC (Domain Adaptation with Semantic Clustering) approach is proposed. This approach is designed to improve the generalization performance in the target domain by learning more discriminated domain invariant properties.

진단 기술의 일반적인 목표는 입력 데이터(X)와 해당 레이블 벡터(Y)가 정확히 일치하는 우수한 결함 진단 모델을 얻는 것이다. 진단 모델을 개발하기 위해 분류손실(

Figure 112021099938487-pat00181
) 또는 레이블이 지정된 훈련 데이터의 예측 레이블과 실제 레이블 간의 오류를 최소화하기 위해 지도 학습을 수행한다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서는 시스템의 결함을 진단하는 지능적인 방법을 얻기 위해 CNN을 채택했다. CNN은 합성곱 계층과 풀링 계층의 집합을 기반으로 하는 피쳐익스트랙터부(110)와 완전 연결 계층을 기반으로 하는 라벨클래시파이어부(120)로 구성된다. 피쳐익스트랙터부(110)와 라벨클래시파이어부(120)를 통해 입력 데이터(X)는 다음과 같이 출력 벡터(
Figure 112021099938487-pat00182
)로 변환된다.The general goal of diagnostic techniques is to obtain a good fault diagnosis model in which the input data (X) and the corresponding label vector (Y) exactly match. To develop a diagnostic model, the classification loss (
Figure 112021099938487-pat00181
) or perform supervised learning to minimize the error between the predicted labels in the labeled training data and the actual labels. In the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, CNN is adopted to obtain an intelligent method for diagnosing system defects. CNN is composed of a feature extractor unit 110 based on a set of convolutional layers and pooling layers and a label classifier unit 120 based on a fully connected layer. Through the feature extractor unit 110 and the label classifier unit 120, the input data (X) is an output vector (
Figure 112021099938487-pat00182
) is converted to

Figure 112021099938487-pat00183
Figure 112021099938487-pat00183

여기서

Figure 112021099938487-pat00184
Figure 112021099938487-pat00185
는 각각 피쳐익스트랙터부(110) 및 라벨클래시파이어부(120) 내의 매개변수를 나타낸다. 또한,
Figure 112021099938487-pat00186
Figure 112021099938487-pat00187
는 피쳐익스트랙터부(110)와 라벨클래시파이어부(120)의 변환 함수를 나타낸다.here
Figure 112021099938487-pat00184
and
Figure 112021099938487-pat00185
denotes parameters in the feature extractor unit 110 and the label classifier unit 120, respectively. In addition,
Figure 112021099938487-pat00186
Wow
Figure 112021099938487-pat00187
denotes a conversion function of the feature extractor unit 110 and the label classifier unit 120 .

다중 클래스 진단 모델의 경우 출력 계층의 노드 수를 나타내는

Figure 112021099938487-pat00188
의 차원은 진단할 상태의 수량과 동일해야 한다. 그런 다음 softmax 함수를 사용하여 확률 벡터(p)를 다음과 같이 출력한다.For multi-class diagnostic models, it represents the number of nodes in the output layer.
Figure 112021099938487-pat00188
The dimension of should be equal to the quantity of the condition to be diagnosed. Then, using the softmax function, the probability vector (p) is output as follows.

Figure 112021099938487-pat00189
Figure 112021099938487-pat00189

여기서 C는 타겟 시스템의 상태 수를 나타낸다. 또한,

Figure 112021099938487-pat00190
Figure 112021099938487-pat00191
는 벡터 p와
Figure 112021099938487-pat00192
의 j번째 노드를 의미한다. 여기서,
Figure 112021099938487-pat00193
값은 데이터 X가 C 클래스들 중 j번째 상태 조건에 속할 확률로 해석될 수 있다.where C represents the number of states of the target system. In addition,
Figure 112021099938487-pat00190
Wow
Figure 112021099938487-pat00191
is the vector p and
Figure 112021099938487-pat00192
It means the j-th node of here,
Figure 112021099938487-pat00193
The value can be interpreted as the probability that data X belongs to the jth state condition among C classes.

진단 모델을 학습하기 위해 분류손실(

Figure 112021099938487-pat00194
)을 추정하기 위해 교차 엔트로피 손실을 사용하며, 이는 다음과 같이 나타낼 수 있다.In order to train a diagnostic model, the classification loss (
Figure 112021099938487-pat00194
) is used to estimate the cross-entropy loss, which can be expressed as

Figure 112021099938487-pat00195
Figure 112021099938487-pat00195

여기서,

Figure 112021099938487-pat00196
는 타겟 라벨 Y의 k번째 노드의 값을 나타낸다. 이와 같이 정의된 분류손실을 줄임으로써 레이블이 지정된 소스 도메인 데이터를 올바른 레이블로 잘 분류하는 좋은 진단 모델을 개발할 수 있다.here,
Figure 112021099938487-pat00196
denotes the value of the k-th node of the target label Y. By reducing the classification loss defined in this way, a good diagnostic model can be developed that classifies the labeled source domain data well into the correct label.

소스 데이터를 사용하여 학습된 라벨클래시파이어를 타겟 도메인으로 전송하여 UDA 문제를 해결하려면 도메인 불변 표현이 필요하다.

Figure 112021099938487-pat00197
Figure 112021099938487-pat00198
에서 공유할 수 있는 공통 피쳐를 학습하기 위해 불일치 기반 방법을 채택했다. 이 학습 방식의 전략은 먼저 두 도메인 간의 차이를 수량화하는 메트릭을 정의한 다음 해당 메트릭을 최소화하는 방식으로 피쳐를 학습한다. 여기서, MMD(Maximum Mean Disrepancy)는 서로 다른 도메인의 분포에 따른 불일치를 추정하는 데 사용된다. 이 비모수적 측정은 RKHS(Universal reproducing kernel Hilbert space)에서 함수에 대한 기대값의 가장 큰 차이로 결정될 수 있으며, 다음과 같이 표현할 수 있다.A domain invariant representation is needed to solve the UDA problem by sending the learned label classifier using the source data to the target domain.
Figure 112021099938487-pat00197
Wow
Figure 112021099938487-pat00198
We adopted a discrepancy-based method to learn common features that can be shared in The strategy of this learning method is to first define a metric that quantifies the difference between two domains, and then learn the features in a way that minimizes that metric. Here, MMD (Maximum Mean Disrepancy) is used to estimate the discrepancy according to the distribution of different domains. This non-parametric measurement can be determined as the largest difference between expected values for functions in RKHS (Universal reproducing kernel Hilbert space), and can be expressed as follows.

Figure 112021099938487-pat00199
Figure 112021099938487-pat00199

여기서 H는 universal RKHS를 나타낸다.

Figure 112021099938487-pat00200
는 H의 단위 공 함수 클래스 내의 함수를 나타낸다. xS와 xT는 확률 분포(pS 및 pT)의 임의의 변수를 나타낸다. 모집단 기대치를 샘플에 대해 계산된 경험적 기대치로 대체하면 MMD의 경험적 추정치를 찾을 수 있다.Here, H stands for universal RKHS.
Figure 112021099938487-pat00200
denotes a function within the unit empty function class of H. x S and x T represent arbitrary variables of the probability distribution (p S and p T ). An empirical estimate of the MMD can be found by replacing the population expectation with the empirical expectation calculated for the sample.

Figure 112021099938487-pat00201
Figure 112021099938487-pat00201

여기서,

Figure 112021099938487-pat00202
Figure 112021099938487-pat00203
는 분포 pS 및 pT에서 추출된 샘플을 나타낸다. nS와 nT는 표본 XS와 XT의 개수를 나타낸다. RKHS의 커널 평균 임베딩을 기반으로 MMD 제곱의 경험적 추정은 다음과 같이 커널 함수로써 계산될 수 있다.here,
Figure 112021099938487-pat00202
Wow
Figure 112021099938487-pat00203
represents samples extracted from the distributions p S and p T . n S and n T represent the number of samples X S and X T . Based on the kernel mean embedding of RKHS, the empirical estimate of the MMD square can be calculated as a kernel function as follows.

Figure 112021099938487-pat00204
Figure 112021099938487-pat00204

여기서,

Figure 112021099938487-pat00205
는 x부터 H까지의 피쳐 매핑(
Figure 112021099938487-pat00206
)간 내적(inner product)으로 정의되는 커널 함수를 나타낸다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서는 범용 커널로 검증된 가우시안 커널(
Figure 112021099938487-pat00207
)을 사용하여 MMD 제곱을 계산한다. MMD는 UDA 결과와 마찬가지로
Figure 112021099938487-pat00208
의 값에 따라 다르다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서는 MMD 기반 UDA 방법의 견고성과 성능을 향상시키기 위해 서로 다른
Figure 112021099938487-pat00209
값을 가진 서로 다른 커널을 활용하는 다중 커널 MMD를 사용한다. 마지막으로 이 MMD 메트릭을 사용하여 두 도메인(소스 및 타겟) 간의 도메인적응손실(LD)을 얻을 수 있다. 도메인적응손실은 두 도메인의 데이터에 대한 피쳐익스트랙터단계(S110)의 출력(
Figure 112021099938487-pat00210
Figure 112021099938487-pat00211
) 간의 MMD로 계산할 수 있다. 이 도메인적응손실은 UDA 작업을 수행하기 위해 도메인 불변 피쳐를 학습하는 데 필수적이다.here,
Figure 112021099938487-pat00205
is the feature mapping from x to H (
Figure 112021099938487-pat00206
) represents a kernel function defined as an inner product. In the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, the Gaussian kernel (
Figure 112021099938487-pat00207
) to calculate the MMD squared. MMD as well as UDA results
Figure 112021099938487-pat00208
depends on the value of In the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, in order to improve the robustness and performance of the MMD-based UDA method, different
Figure 112021099938487-pat00209
Use a multi-kernel MMD that utilizes different kernels with different values. Finally, we can use this MMD metric to obtain the domain adaptation loss ( LD ) between the two domains (source and target). The domain adaptation loss is the output (
Figure 112021099938487-pat00210
Wow
Figure 112021099938487-pat00211
) can be calculated as the MMD of the liver. This domain adaptation loss is essential for learning domain invariant features to perform UDA tasks.

기존 UDA 방법은 분류손실과 도메인적응손실을 모두 줄여 도메인 불변 특성을 찾는 것을 목표로 한다. 그러나 이러한 기존 UDA 방법은 서로 다른 도메인 데이터의 주변 분포에 대한 정렬만 고려한다. 즉, 클래스에 따른 피쳐의 분리 가능성을 고려하지 않는다. 따라서, 상당한 클래스 간 차이와 작은 클래스 내 변동이 있는 식별 피쳐를 일관되게 학습할 수 없다. 이는 낮은 타겟 도메인 일반화 성능을 초래한다. 이에 대처하기 위해 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 시멘틱클러스터링단계(S140)는 각 클래스의 샘플을 의미론적으로 잘 클러스터링하는 판별 표현을 학습하는 메트릭 학습 기반 접근 방식을 제안한다. 이는 동일한 클래스의 데이터를 서로 밀접하게 매핑하면서 다르게 분류된 데이터를 충분히 분리함으로써 달성할 수 있다. 이를 위해 다음과 같이 표현될 수 있는 의미군집화손실(LSC)이라는 추가 손실 항을 제안한다.The existing UDA method aims to find domain invariant properties by reducing both classification loss and domain adaptation loss. However, these existing UDA methods only consider the alignment of the marginal distributions of different domain data. That is, the separability of features according to classes is not considered. Therefore, it is not possible to consistently learn identification features with significant inter-class differences and small intra-class variations. This results in low target domain generalization performance. To cope with this, the semantic clustering step (S140) of the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied is a metric for learning a discriminant expression that semantically clusters samples of each class well. We propose a learning-based approach. This can be achieved by sufficiently segregating differently classified data while mapping the same class of data closely to each other. To this end, we propose an additional loss term called semantic clustering loss (L SC ) that can be expressed as follows.

Figure 112021099938487-pat00212
Figure 112021099938487-pat00212

여기서,

Figure 112021099938487-pat00213
는 k번째 피쳐 레벨에서
Figure 112021099938487-pat00214
번째 소스 샘플(
Figure 112021099938487-pat00215
)의 피쳐 벡처를 나타낸다.
Figure 112021099938487-pat00216
Figure 112021099938487-pat00217
번째 데이터셋과
Figure 112021099938487-pat00218
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112021099938487-pat00219
의 값을 나타낸다.
Figure 112021099938487-pat00220
는 시멘틱클러스터링단계(S140)의 특성층의 수를 나타낸다.
Figure 112021099938487-pat00221
는 k번째 밸런싱 파라미터(balancing parameter)를 나타낸다.
Figure 112021099938487-pat00222
는 제1데이터셋의 수를 나타낸다. d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값을 나타낸다.here,
Figure 112021099938487-pat00213
is at the kth feature level
Figure 112021099938487-pat00214
second source sample (
Figure 112021099938487-pat00215
) represents the feature vector.
Figure 112021099938487-pat00216
Is
Figure 112021099938487-pat00217
the second dataset and
Figure 112021099938487-pat00218
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112021099938487-pat00219
represents the value of
Figure 112021099938487-pat00220
denotes the number of characteristic layers in the semantic clustering step (S140).
Figure 112021099938487-pat00221
denotes a k-th balancing parameter (balancing parameter).
Figure 112021099938487-pat00222
denotes the number of the first data set. d represents a value that controls the minimum distance between two datasets in different states.

LSC는 모든 소스 샘플 간의 유사성 거리를 기반으로 계산되어 견고하고 의미적으로 잘 클러스터된 피쳐를 얻는다. 학습과정에서 LSC를 줄임으로써 같은 클래스(

Figure 112021099938487-pat00223
=1)의 샘플 쌍에 대해서 상호간 거리는 줄어든다. 그러나 다른 클래스(
Figure 112021099938487-pat00224
=0)의 샘플 쌍에 대한 상호간 거리는 증가한다. UDA 문제에서는 소스 도메인 레이블 정보만 사용할 수 있기 때문에 이 유사성 메트릭 기반 학습은 소스 데이터를 사용하여 수행된다. 두 도메인이 관련되어 있으므로 소스 데이터에 대한 의미군집화손실을 사용하는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 타겟 데이터도 각 클래스별로 잘 클러스터링되도록 한다. 또한, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서 의미군집화손실은 다중 피쳐 레벨에서 적용된다. 결과적으로 더 구별되는 특징 표현을 얻을 수 있으므로 시스템 상태에 따라 샘플을 의미적으로 더 잘 클러스터링할 수 있다. 이러한 시멘틱클러스터링단계(S140)에 의하면, 각 클래스의 경계 근처에 위치한 타겟 샘플에 대한 오분류율이 감소하는 효과가 있다. 결론적으로, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 타겟 시스템의 진단 성능을 향상시킬 수 있다.L SC is calculated based on the similarity distance between all source samples to obtain robust and semantically well clustered features. By reducing L SC in the learning process, the same class (
Figure 112021099938487-pat00223
=1), the distance between them decreases. However, other classes (
Figure 112021099938487-pat00224
= 0) the inter-reciprocal distance for the sample pair increases. Since only the source domain label information is available in the UDA problem, this similarity metric-based learning is performed using the source data. Since the two domains are related, the diagnosis method ( S100 ) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention using the semantic clustering loss for the source data is applied also allows the target data to be well clustered for each class. In addition, in the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied, the semantic clustering loss is applied at the multi-feature level. As a result, more distinct feature representations can be obtained, so that samples can be semantically better clustered according to the state of the system. According to this semantic clustering step (S140), there is an effect of reducing the misclassification rate of the target sample located near the boundary of each class. In conclusion, the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied can improve the diagnostic performance of the target system.

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에 따르면, 레이블 정보 없이 타겟 도메인에 대한 정확하고 강력한 진단 모델을 얻을 수 있다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)이 제안하는 DASC의 데이터 흐름 및 아키텍처는 도 1에 도시되어 있다.According to the diagnosis method ( S100 ) to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, an accurate and powerful diagnostic model for the target domain can be obtained without label information. The data flow and architecture of the DASC proposed by the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention is shown in FIG. 1 .

먼저, 피쳐익스트랙터단계(S110)는 두 그룹의 컨볼루션 및 풀링 레이어로 구성된다. 모든 컨볼루션 레이어에 대해 제로 패딩 및 ReLU가 있는 1D 커널이 사용된다. 여기서, 모든 풀링 계층(레이어)은 최대 풀링이 사용된다. First, the feature extractor step S110 consists of two groups of convolutional and pooling layers. A 1D kernel with zero padding and ReLU is used for all convolutional layers. Here, maximum pooling is used for all pooling layers (layers).

라벨클래시파이어단계(S120)는 256과 C의 차원을 가지는 2개의 레이어로 구성되는 완전 연결된 네트워크(fully connected network)가 사용되며, 여기서 C는 상태의 수를 나타낸다. DASC의 최종 목적 함수, 즉, 전체 손실은 다음과 같이 표현된다.In the label classifier step (S120), a fully connected network composed of two layers having dimensions of 256 and C is used, where C represents the number of states. The final objective function of DASC, that is, the total loss, is expressed as

Figure 112021099938487-pat00225
Figure 112021099938487-pat00225

여기서,

Figure 112021099938487-pat00226
은 전체손실,
Figure 112021099938487-pat00227
는 분류손실,
Figure 112021099938487-pat00228
는 도메인적응손실,
Figure 112021099938487-pat00229
는 의미군집화손실을 의미한다.
Figure 112021099938487-pat00230
Figure 112021099938487-pat00231
는 사용자가 기설정한 계수들, 즉, balancing parameter를 나타낸다.here,
Figure 112021099938487-pat00226
is the total loss,
Figure 112021099938487-pat00227
is the classification loss,
Figure 112021099938487-pat00228
is the domain adaptation loss,
Figure 112021099938487-pat00229
is the semantic clustering loss.
Figure 112021099938487-pat00230
Wow
Figure 112021099938487-pat00231
represents the coefficients preset by the user, that is, the balancing parameter.

레이블이 지정된 소스 데이터를 기반으로, 분류손실은 도 1에 도시된 바와 같이 라벨클래시파이어단계(S120)의 출력 레이어에서만 계산되며, 수식은 아래와 같다.Based on the labeled source data, the classification loss is calculated only in the output layer of the label classifier step S120 as shown in FIG. 1 , and the formula is as follows.

Figure 112021099938487-pat00232
Figure 112021099938487-pat00232

또한, 의미군집화손실은 도 1에 도시된 바와 같이 피쳐익스트랙터단계(S110)의 모든 풀링 레이어에서 계산되며, 수식은 아래와 같다.In addition, the semantic clustering loss is calculated in all pooling layers of the feature extractor step S110 as shown in FIG. 1 , and the formula is as follows.

Figure 112021099938487-pat00233
Figure 112021099938487-pat00233

도메인 불변 특성을 얻기 위해 최소화해야 하는 도메인적응손실은

Figure 112021099938487-pat00234
Figure 112021099938487-pat00235
에서의 제1피쳐와 제2피쳐 간의 MMD로 계산되며, 도 1에 도시된 바와 같이, 마지막 컨볼루션 및 풀링 계층의 결과로 발견되고, 수식은 아래와 같다.The domain adaptation loss that must be minimized to obtain domain invariant properties is
Figure 112021099938487-pat00234
Wow
Figure 112021099938487-pat00235
It is calculated as the MMD between the first feature and the second feature in , and is found as a result of the last convolution and pooling layer, as shown in FIG. 1 , the formula is as follows.

Figure 112021099938487-pat00236
Figure 112021099938487-pat00236

전체손실을 최소화함으로써

Figure 112021099938487-pat00237
의 레이블 정보를 이용하여 학습한 결함 진단 모델을
Figure 112021099938487-pat00238
에 사용할 수 있으며, 피쳐를 클래스에 따라 의미적으로 잘 클러스터링하여 보다 구별적인 파쳐를 학습할 수 있다.by minimizing the total loss.
Figure 112021099938487-pat00237
The fault diagnosis model learned using the label information of
Figure 112021099938487-pat00238
can be used, and more distinct features can be learned by semantically clustering features according to classes.

여기서, 분류손실과 의미군집화손실은 소스 도메인의 라벨 데이터 정보를 사용하지만 분류손실과 의미군집화손실의 목적과 효과는 상이하다. 분류손실의 경우 라벨클래시파이어단계(S120)의 초평면을 기준으로 레이블이 지정된 데이터의 위치만 고려한다. 즉, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서 소스 도메인 레이블이 지정된 데이터를 올바르게 분류하도록 하는 것을 목표로 한다.Here, the classification loss and the semantic clustering loss use the label data information of the source domain, but the purpose and effect of the classification loss and the semantic clustering loss are different. In the case of classification loss, only the location of the labeled data is considered based on the hyperplane of the label classifier step (S120). That is, it aims to correctly classify the source domain label-specified data in the diagnostic method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied.

그러나 의미군집화손실은 클래스에 따른 샘플 간의 상대적 거리인 레이블이 지정된 데이터의 분포를 고려하여 의미적으로 더 나은 클러스터링된 피쳐를 생성한다. 그 결과 분류손실과 도메인적응손실과 의미군집화손실을 고려한 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서 제안된 DASC 방법을 기반으로 타겟 일반화 성능이 높은 결함 진단 모델을 달성할 수 있다.However, semantic clustering loss takes into account the distribution of labeled data, which is the relative distance between samples according to class, to produce semantically better clustered features. As a result, based on the DASC method proposed in the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied in consideration of classification loss, domain adaptation loss, and semantic clustering loss, defect diagnosis with high target generalization performance model can be achieved.

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 소집단(mini-batch) 경사하강법을 사용하여 진단 모델을 훈련시킨다. 여기서 learning rate은 p가 0에서 1로 증가함에 따라 감소하는

Figure 112021099938487-pat00239
로 설정한다. 또한, 다중 커널 MMD를 계산하기 위한
Figure 112021099938487-pat00240
의 값으로 1e-6에서 1e6 사이의 10의 거듭제곱을 사용한다. 또한, 분류손실과 도메인적응손실과 의미군집화손실을 계산하기 위한 balancing parameter인
Figure 112021099938487-pat00241
Figure 112021099938487-pat00242
Figure 112021099938487-pat00243
는 1e-5와 1e-1 사이의 값으로 선택할 수 있다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)를 위한 더 상세한 정보는 아래 표와 같이 마련될 수 있다.The diagnostic method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied trains a diagnostic model using a mini-batch gradient descent method. Here, the learning rate decreases as p increases from 0 to 1.
Figure 112021099938487-pat00239
set to In addition, to calculate the multi-kernel MMD,
Figure 112021099938487-pat00240
Use a power of 10 between 1e-6 and 1e6 as the value of . In addition, it is a balancing parameter for calculating classification loss, domain adaptation loss, and semantic clustering loss.
Figure 112021099938487-pat00241
Wow
Figure 112021099938487-pat00242
Wow
Figure 112021099938487-pat00243
can be selected as a value between 1e-5 and 1e-1. More detailed information for the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention may be provided as shown in the table below.

Figure 112021099938487-pat00244
Figure 112021099938487-pat00244

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 기반 오류 진단 방법의 흐름도는 도 5에 도시되어 있다. 도 5에 도시된 바와 같이, 소스 도메인과 타겟 도메인에서 각각 측정된 소스 데이터셋과 타겟 데이터셋은 트레이닝 데이터셋으로 마련된다. 이후 사용자는 기입력하는 설정값을 입력하고 트레이닝 데이터셋을 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에 입력함으로써 학습을 시작한다. 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)을 통해 분류손실, 도메인적응손실, 의미군집화손실을 계산하고, 이들의 합인 전체손실과 분류손실을 최소화하는 방향으로 상술한 웨이트 및 bias를 수정함으로써 CNN 학습을 수행한다. 여기서, 전체손실과 분류손실을 최소화하는 방향은 상술한 수식 7에 기초한 학습으로 마련될 수 있다. 또한, 계산된 전체손실과 분류손실이 기설정된 횟수의 학습에도 불구하고 변화 비율이 기설정된 비율보다 작도록 유지될 경우 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 학습을 종료하고 최종 학습 모델을 도출할 수 있다. 도출된 최종 DASC 학습모델에 타겟 신호를 입력함으로써 타겟 시스템의 상태를 진단할 수 있다.A flowchart of a DASC-based error diagnosis method of the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention is shown in FIG. 5 . As shown in FIG. 5 , the source dataset and the target dataset respectively measured in the source domain and the target domain are prepared as a training dataset. Thereafter, the user starts learning by inputting a set value to be written and inputting the training dataset into the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied. Classification loss, domain adaptation loss, and semantic clustering loss are calculated through the diagnostic method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied, and the sum total loss and classification loss are minimized. CNN learning is performed by correcting the above-described weights and biases. Here, the direction of minimizing the total loss and the classification loss can be provided by learning based on Equation 7 described above. In addition, when the calculated total loss and classification loss are maintained to be smaller than the preset ratio despite the preset number of times of learning, the diagnosis method to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied (S100) ) can end learning and derive the final learning model. The state of the target system can be diagnosed by inputting the target signal to the derived final DASC learning model.

상술한 바와 같이, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)은 레이블이 지정된 소스 데이터를 사용하여 레이블이 지정되지 않은 다른 도메인에 적용할 수 있는 오류 진단 모델을 얻는다. 최종 목적 함수를 최소화함으로써 판별 영역 불변 표현을 확보할 수 있다. 따라서 타겟 도메인 진단 성능이 향상되는 효과가 있다.As described above, the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied is an error diagnosis model that can be applied to other unlabeled domains using labeled source data. to get By minimizing the final objective function, an invariant representation of the discriminant region can be obtained. Accordingly, there is an effect that the target domain diagnosis performance is improved.

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)을 도 6에 도시된 시스템에서 획득한 베어링 데이터에 적용하였다. 도 6(a)는 CWRU(Case Western Reserve University)의 볼 베어링 시스템을 도시한 것이고, 도 6(b)는 IMS(Center for Intelligent Maintenance Systems)에서 제공하는 스페리컬 롤러 베어링 시스템을 도시한 것이고, 도 6(c)는 Xi'an Jiaotong University, Institute of Design Science and Basic Component, Changxing Sumyoung Technology Co., Ltd.(XJTU-SY)의 볼 베어링 시스템을 도시한 것이다. 정상(N), 볼 결함(B), 내부 궤도 결함(IR) 및 외부 궤도 결함(OR)의 4가지 유형의 진단 상태에서 가속 신호를 측정하였다. CWRU의 경우 방전 가공을 통해 직경 0.007, 0.014 및 0.021인치의 결함이 베어링에 적용되었다. IMS 및 XJTU-SY의 경우 오류 데이터는 run-to-failure 실험을 통해 획득되었다. 또한, 다양한 작동 조건에서 CWRU 및 XJTU-SY 데이터를 획득하였다. 각 시스템에서 획득한 데이터의 정보는 아래 표와 같다.The diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied was applied to the bearing data obtained in the system shown in FIG. 6 . Figure 6 (a) shows a ball bearing system of CWRU (Case Western Reserve University), Figure 6 (b) shows a spherical roller bearing system provided by IMS (Center for Intelligent Maintenance Systems), Figure 6(c) shows the ball bearing system of Xi'an Jiaotong University, Institute of Design Science and Basic Component, Changxing Sumyoung Technology Co., Ltd. (XJTU-SY). Acceleration signals were measured in four types of diagnostic conditions: normal (N), ball defect (B), internal orbital defect (IR), and external orbital defect (OR). For the CWRU, 0.007, 0.014, and 0.021 inch diameter defects were applied to the bearings through electrical discharge machining. For IMS and XJTU-SY, error data were obtained through run-to-failure experiments. In addition, CWRU and XJTU-SY data were acquired under various operating conditions. The information of the data obtained from each system is shown in the table below.

Figure 112021099938487-pat00245
Figure 112021099938487-pat00245

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 효율성을 입증하기 위해 두 가지 UDA 기반 오류 진단 시나리오가 고려되었다. 먼저, 서로 다른 운영 조건으로 인해 발생하는 불일치가 있는 도메인 간의 UDA 문제(시나리오 I)를 고려하였다. 다음으로는 소스 데이터와 타겟 데이터가 별개의 회전 기계에서 수집될 때(시나리오 II)를 고려하였다.In order to prove the effectiveness of the diagnostic method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied, two UDA-based error diagnosis scenarios were considered. First, we considered the problem of UDA between domains with inconsistencies caused by different operating conditions (Scenario I). Next, we considered when the source data and the target data were collected on separate rotating machines (Scenario II).

모든 실험에서 각 진단 상태에 대한 데이터 세트는 길이가 1200포인트인 원시 진동 신호 샘플 4000개로 구성된다. 그 중 데이터 샘플의 70%가 훈련에 사용되었고, 30%는 진단 성능을 추정하기 위한 테스트 단계에서 사용하기 위해 할당되었다. 두 도메인으로부터 획득된 데이터는 UDA 기반 결함 진단 모델을 학습하는 데 사용되었다. 타겟 테스트 샘플은 이러한 UDA 기반 진단 모델의 타겟 도메인 일반화 성능을 평가하는 데 사용되었다.In all experiments, the data set for each diagnostic condition consisted of 4000 samples of raw vibration signals with a length of 1200 points. Among them, 70% of the data sample was used for training, and 30% was allocated for use in the test phase to estimate diagnostic performance. Data obtained from both domains were used to train a UDA-based defect diagnosis model. The target test sample was used to evaluate the target domain generalization performance of these UDA-based diagnostic models.

본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 효율을 검증하기 위하여 DASC와 기존 방법의 타겟 영역 진단 성능을 조사하였다. 먼저, UDA 알고리즘의 유효성 검증을 위해 소스 데이터만을 사용하여 훈련된 CNN을 비교하였다. 다음으로 결함 진단에 사용되는 기존의 여러 신경망 기반 UDA 알고리즘과 결과를 비교하였다. DANN은 적대적 적응 접근법의 대표적인 방법으로 채택하였고, 불일치 기반 방법으로 두 영역에서 특징의 공분산 차이를 줄여 바람직한 특징을 학습하는 Deep CORAL을 비교하였다.In order to verify the efficiency of the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied, the target region diagnosis performance of the DASC and the existing method was investigated. First, for validation of the UDA algorithm, CNNs trained using only source data were compared. Next, we compared the results with several existing neural network-based UDA algorithms used for fault diagnosis. DANN was adopted as a representative method of the adversarial adaptive approach, and Deep CORAL, which learns desirable features by reducing the difference in covariance of features in two domains, was compared as a discrepancy-based method.

또한, 소스 피쳐와 타겟 피쳐 간의 다중 커널 MMD를 최소화하는 방법을 비교하였다. 적대적 전략과 불일치 기반 전략을 동시에 사용하는 방법도 비교하였다. 이 방법은 나머지 부분에서 Adv+Disc로 축약되었다. 사용된 UDA 방법에만 의존하여 일반화 능력을 공정하고 효과적으로 비교하기 위해 동일한 CNN 아키텍처를 모든 비교 방법의 백본 모델로 채택하였다. 또한, 적대적 적응 전략을 위한 도메인 분류기는 256개 및 2개 노드를 포함하는 2계층 완전 연결된 네트워크로 구성된다. DANN에 대한 밸런싱 매개변수(balancing parameter)는 {0,0.5,1.0,1.5,2.0} 중에서 선택되었고, MMD에 대한 매개변수는 1e-5 내지 1e-1 범위 내에서 선택되었다.적대적 전략과 불일치 기반 전략을 동시에 사용하는 방법의 경우 DANN과 MMD와 동일한 매개변수를 사용하고 Deep CORAL의 경우 1e-6 내지 1e-2 범위에서 매개변수를 선택하였다. 또한, 공정한 비교를 위해 모든 비교 UDA 방법은 훈련 데이터와 테스트 데이터뿐만 아니라 옵티마이저, 학습 속도, 훈련 epoch, 배치 크기, 그리고 모멘텀을 동일하게 하였다. 또한, 각 방법의 테스트는 NVIDIA GeForce RTX 2080 Ti, Intel i7-8700, 16GB RAM이 장착된 동일한 컴퓨터에서 수행되었다.In addition, methods for minimizing multi-kernel MMD between source and target features were compared. Methods using both adversarial and disagreement-based strategies were also compared. This method is abbreviated as Adv+Disc in the remainder of the text. The same CNN architecture was adopted as the backbone model of all comparison methods in order to fairly and effectively compare the generalization ability, relying only on the UDA method used. In addition, the domain classifier for the adversarial adaptation strategy consists of a 2-layer fully connected network containing 256 and 2 nodes. The balancing parameter for DANN was selected from {0,0.5,1.0,1.5,2.0}, and the parameter for MMD was selected within the range of 1e-5 to 1e-1. Adversarial strategy and disagreement basis For the method using strategies simultaneously, the same parameters as DANN and MMD were used, and for Deep CORAL, parameters were selected in the range of 1e-6 to 1e-2. In addition, for fair comparison, all comparative UDA methods made the same optimizer, learning rate, training epoch, batch size, and momentum as well as training data and test data. Also, testing of each method was performed on the same computer with NVIDIA GeForce RTX 2080 Ti, Intel i7-8700, 16GB RAM.

먼저, 다양한 작동 조건(예: 부하 및 회전 속도)을 갖는 도메인 간의 진단(시나리오 I)에 대해 설명한다. 다양한 작동 조건에서 DASC의 성능 검증을 위해 다양한 작동 조건에서 진동 신호를 얻은 CWRU 및 XJTU-SY 데이터 세트를 사용한다. 먼저, CWRU 데이터 세트에 대해 서로 다른 소스 및 타겟 도메인을 사용하여 12가지 UDA 작업(1→2/3/4, 2→1/3/4, 3→1/2/4, 4→1,2,3, 여기서 좌측은 소스 도메인이고 우측은 타겟 도메인을 의미한다.)에 대해 제안된 방법을 평가하고 비교하였다. 여기서, 1, 2, 3, 4는 CWRU의 서로 다른 작동 조건을 의미하며, 그 결과는 도 7에 도시된 바와 같다. 여기서, 도 7(a)는 1→2/3/4를, 도 7(b)는 2→1/3/4를, 도 7(c)는 3→1/2/4를, 도 7(d)는 4→1,2,3를 의미한다. 실험에서 서로 다른 작동 조건으로 인한 불일치에 초점을 맞추기 위해 각 상태 조건 내에서 결함 크기로 인한 편차는 무시되었다. 즉, 결함 크기가 다른 동일한 상태의 샘플이 동일한 분류 범주로 그룹화되었음을 의미한다. 이러한 데이터 세트에는 네 가지 유형의 상태(N, B, IR, OR)가 있다. 따라서 상태의 수를 의미하는 C는 4이다. CWRU에서 제공하는 데이터 세트를 사용하여 다양한 작동 조건에서 대상 샘플에 대한 진단 정확도는 도 7에 도시되어 있다. 도 7에 도시된 그래프에서의 값은 서로 다른 3개의 타겟 도메인에서의 진단 정확도의 평균을 의미하며, 오차 막대는 표준 오차 값을 나타낸다.First, a diagnosis (Scenario I) between domains with different operating conditions (eg load and rotational speed) is described. To verify the performance of the DASC under various operating conditions, we use the CWRU and XJTU-SY data sets obtained with vibration signals under various operating conditions. First, 12 UDA operations (1→2/3/4, 2→1/3/4, 3→1/2/4, 4→1,2) using different source and target domains for the CWRU data set. ,3, where the left means the source domain and the right means the target domain), the proposed method was evaluated and compared. Here, 1, 2, 3, and 4 mean different operating conditions of the CWRU, and the results are as shown in FIG. 7 . Here, FIG. 7(a) shows 1→2/3/4, FIG. 7(b) shows 2→1/3/4, FIG. 7(c) shows 3→1/2/4, and FIG. 7( d) means 4→1,2,3. Deviations due to defect size within each state condition were neglected to focus on discrepancies due to different operating conditions in the experiment. That is, samples of the same state with different defect sizes were grouped into the same classification category. There are four types of states (N, B, IR, OR) in this data set. Therefore, C, meaning the number of states, is 4. The diagnostic accuracy for the target sample under various operating conditions using the data set provided by the CWRU is shown in FIG. 7 . A value in the graph shown in FIG. 7 means an average of diagnostic accuracy in three different target domains, and error bars indicate standard error values.

도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서 적용되는 DASC 방법이 타 진단 방법에 비해 높은 진단 정확도를 보임을 알 수 있다.As shown in FIG. 7 , it can be seen that the DASC method applied in the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied shows higher diagnostic accuracy than other diagnostic methods.

다음으로 XJTU-SY 데이터 세트를 사용하여 다양한 UDA 방법의 진단 성능을 평가하였다. 이 데이터세트에는 1→2/3, 2→1/3, 3→1/2를 포함하여 6개의 진단을 수행하였다. XJTU-SY1과 XJTU-SY2 데이터 세트에서 사용할 수 있는 건강 상태의 종류는 3가지(즉, N, IR, OR)뿐이므로 상태의 수인 C는 3으로 설정하였다. XJTU-SY의 진단 결과는 도 8에 도시되어 있다. 여기서, 도 8(a)는 1→2/3를, 도 8(b)는 2→1/3를, 도 8(c)는 3→1/2를 의미한다. 도 7과 마찬가지로 서로 다른 2개의 타겟 도메인에 대한 진단 정확도의 평균을 도시하였으며, 오차 막대는 표준 오차 값을 나타낸다. XJTU-SY 데이터셋에서도 의미군집화손실을 채택한 DASC의 타겟 진단 성능이 가장 높음을 알 수 있다.Next, the diagnostic performance of various UDA methods was evaluated using the XJTU-SY data set. Six diagnoses were performed in this dataset, including 1→2/3, 2→1/3, and 3→1/2. In the XJTU-SY1 and XJTU-SY2 data sets, there are only three types of health states (that is, N, IR, OR), so the number of states, C, is set to 3. The diagnosis result of XJTU-SY is shown in FIG. 8 . Here, FIG. 8(a) means 1→2/3, FIG. 8(b) means 2→1/3, and FIG. 8(c) means 3→1/2. As in FIG. 7 , averages of diagnostic accuracies for two different target domains are shown, and error bars indicate standard error values. It can be seen that even in the XJTU-SY dataset, the target diagnosis performance of DASC with semantic clustering loss is the highest.

다음으로는 서로 다른 회전 기계에서 얻은 도메인 간의 UDA 작업 결과(시나리오 II)를 설명한다. 먼저 CWRU와 IMS 데이터셋 간의 UDA 작업을 고려하였다. 각 데이터 세트에는 4가지 상태가 있으므로 C는 4이다. DASC의 일반화 성능과 견고성을 확인하기 위해 4가지 작동 상태에 대해 얻은 CWRU 데이터와 IMS 데이터 간의 UDA 작업에 대한 검증을 수행하였다. 여기서, 총 8개의 UDA 작업(CWRU1→IMS, CWRU2→IMS, CWRU3→IMS, CWRU4→IMS, IMS→CWRU1, IMS→CWRU2, IMS→CWRU3, IMS→CWRU4)을 수행하였다. CWRU→IMS와 IMS→CWRU의 평균 진단 정확도는 도 9에 도시되어 있다. 그 결과 DASC는 모든 경우에 기존 방식보다 우수한 진단 정확도를 보임을 알 수 있다.Next, we describe the results of UDA operations (Scenario II) between domains obtained from different rotating machines. First, we considered the UDA operation between CWRU and IMS dataset. Each data set has 4 states, so C is 4. In order to confirm the generalization performance and robustness of DASC, verification of UDA operation between CWRU data and IMS data obtained for four operating states was performed. Here, a total of 8 UDA tasks (CWRU1→IMS, CWRU2→IMS, CWRU3→IMS, CWRU4→IMS, IMS→CWRU1, IMS→CWRU2, IMS→CWRU3, IMS→CWRU4) were performed. The average diagnostic accuracy of CWRU→IMS and IMS→CWRU is shown in FIG. 9 . As a result, it can be seen that DASC shows better diagnostic accuracy than the conventional method in all cases.

다음으로, IMS와 XJTU-SY인 run-to-failure 실험을 통해 얻은 두 개의 서로 다른 데이터 세트 간의 UDA 작업을 수행하였다. 이때 두 데이터셋 간의 건전성 수를 맞추기 위해 4가지 장애유형(IMS 데이터와 동일)을 갖는 XJTU-SY3를 사용하였다. IMS와 XJTU-SY 데이터 세트 간의 목표 진단 결과는 도 10에 도시되어 있다. 이 경우에도 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC가 다른 UDA 방법 중 가장 좋은 성능을 나타냄을 나타낸다.Next, we performed UDA tasks between two different data sets obtained through run-to-failure experiments, which are IMS and XJTU-SY. At this time, XJTU-SY3 with 4 types of failure (same as IMS data) was used to match the number of soundness between the two datasets. The target diagnosis result between the IMS and the XJTU-SY data set is shown in FIG. 10 . Even in this case, the DASC of the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied shows the best performance among other UDA methods.

즉, UDA 작업을 통해 도메인이 다른 경우 회전 기계의 진단 성능을 향상시킬 수 있음을 알 수 있다. 또한, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 방법은 의미군집화손실이라는 추가 손실 항을 채택하고 이를 여러 특성 수준에서 줄이는 덕분에 모든 경우에서 다른 UDA 방법보다 성능이 우수함을 보여주었다. 이것은 클래스 간 거리가 충분히 크고 동시에 클래스 내 거리가 작은 의미론적으로 잘 클러스터된 판별 피쳐를 DASC에서 학습한 결과이다.In other words, it can be seen that the UDA operation can improve the diagnostic performance of rotating machines when the domains are different. In addition, the DASC method of the diagnostic method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied adopts an additional loss term called semantic clustering loss and reduces it at various characteristic levels, so it is different UDA in all cases. It has been shown that the performance is superior to the method. This is the result of learning semantically well-clustered discriminant features with sufficiently large inter-class distances and small intra-class distances in DASC.

학습된 특징 분포의 시각화를 통해 DASC의 효능을 확인하면 다음과 같다. 도 11과 도 12는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에서 학습된 특징 분포를 t-분산 t-SNE(Stochastic Neighboring Embedding) 방법을 사용하여 시각화한 것을 도시한다.The efficacy of DASC is confirmed through visualization of the learned feature distribution as follows. 11 and 12 are diagrams showing the feature distribution learned in the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention is visualized using the t-dispersion t-SNE (Stochastic Neighboring Embedding) method. show that

도 11은 CWRU에 대한 시나리오 I의 작업에 대한 시각화 결과를 보여준다. 도 11(a)는 CNN 방식, 도 11(b)는 DANN 방식, 도 11(c)는 MMD 방식, 도 11(d)는 Adv+Disc 방식, 도 11(e)는 deep CORAL 방식, 도 11(f)는 DASC 방식에 의한 시각화 결과를 보여준다. 도 11에 도시된 바와 같이, DASC에서 얻은 특성 분포가 클래스별로 데이터를 가장 잘 분리함을 보여준다. 이는 DASC 방식이 의미군집화손실을 적용하여 가장 판별적인 특징을 학습했기 때문이다. 그 결과, 서로 다른 클래스들 간의 겹침이 가장 적고, 같은 클래스들이 잘 클러스터되어 있음을 알 수 있다.11 shows a visualization result for the operation of Scenario I for CWRU. 11(a) is a CNN method, FIG. 11(b) is a DANN method, FIG. 11(c) is an MMD method, FIG. 11(d) is an Adv+Disc method, FIG. 11(e) is a deep CORAL method, FIG. (f) shows the visualization result by the DASC method. 11, it shows that the feature distribution obtained from DASC best separates the data by class. This is because the DASC method learns the most discriminant features by applying the semantic clustering loss. As a result, it can be seen that the overlap between different classes is minimal, and the same classes are well clustered.

도 12는 CWRU→IMS에 대한 시나리오 II의 작업에 대한 시각화 결과를 보여준다. 도 12(a)는 CNN 방식, 도 12(b)는 DANN 방식, 도 12(c)는 MMD 방식, 도 12(d)는 Adv+Disc 방식, 도 12(e)는 deep CORAL 방식, 도 12(f)는 DASC 방식에 의한 시각화 결과를 보여준다. 도 12(a)와 같이 소스 데이터만 사용한 CNN의 경우 타겟 데이터와의 관계를 고려하지 않기 때문에 도메인 격차가 크다. 반면, UDA 방법을 사용하면 도 12(b) 내지 도 12(f)와 같이 두 도메인에서 공유할 수 있는 도메인 불변 특성을 학습하기 위해 소스 도메인과 타겟 도메인 사이의 불일치를 줄인다. 또한, DASC의 경우 상태에 따라 의미적으로 잘 클러스터된 피쳐를 학습하여 판별 및 도메인 불변 표현을 모두 얻을 수 있다. 따라서 학습된 피쳐는 상당한 클래스 간 변동과 작은 클래스 내 변동의 특성을 가지고 있고, 결과적으로 이러한 잘 학습된 강력한 피쳐를 기반으로 타겟 영역에서 최상의 일반화 성능을 얻을 수 있다.12 shows a visualization result for the operation of Scenario II for CWRU→IMS. 12(a) is a CNN method, FIG. 12(b) is a DANN method, FIG. 12(c) is an MMD method, FIG. 12(d) is an Adv+Disc method, FIG. 12(e) is a deep CORAL method, FIG. (f) shows the visualization result by the DASC method. In the case of a CNN using only source data as shown in FIG. 12( a ), the domain gap is large because the relationship with the target data is not considered. On the other hand, when the UDA method is used, the mismatch between the source domain and the target domain is reduced in order to learn domain invariant properties that can be shared by both domains as shown in FIGS. 12(b) to 12(f). In addition, in the case of DASC, both discriminant and domain invariant representations can be obtained by learning semantically well clustered features according to states. Therefore, the learned features have the characteristics of significant inter-class variability and small intra-class variability, and as a result, the best generalization performance in the target region can be obtained based on these well-learned powerful features.

다음으로 ablation 연구를 통해 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 방식의 효과를 다른 방법과 비교함으로써 검증하였다. 첫 번째는 분류손실만 사용하는 CNN이고, 두 번째는 도메인적응손실을 사용하는 UDA이고, 세 번째는 특징 추출기의 마지막 계층에서만 의미군집화손실을 사용하는 Last_SC이고, 네 번째는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 방식이다. 시나리오 I과 시나리오 II의 모든 작업에 대한 진단 정확도 결과는 도 13에 도시된 바와 같다.Next, through an ablation study, the effect of the DASC method of the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied was verified by comparing it with other methods. The first is CNN using only classification loss, the second is UDA using domain adaptation loss, third is Last_SC using semantic clustering loss only in the last layer of the feature extractor, and fourth is an embodiment of the present invention This is the DASC method of the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm according to Diagnosis accuracy results for all tasks of scenario I and scenario II are shown in FIG. 13 .

도 13에 도시된 바와 같이, 도메인적응손실을 추가적으로 고려할 경우 분류손실만 사용한 CNN보다 더 높은 진단 정확도를 보였다. 또한, 의미군집화손실을 고려할 경우 분류 정확도가 더 향상되었다. 더 나아가, 다중 피쳐 레벨에서 의미군집화손실을 적용할 경우 가장 높은 진단 정확도를 보였다.As shown in FIG. 13 , when domain adaptation loss is additionally considered, it showed higher diagnostic accuracy than CNN using only classification loss. In addition, when the semantic clustering loss is considered, the classification accuracy is further improved. Furthermore, when the semantic clustering loss was applied at the multi-feature level, the highest diagnostic accuracy was shown.

마지막으로, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 방식이 달성하고자 하는 속성인 타겟 피쳐가 의미적으로 얼마나 잘 클러스터링되어 있는지 평가하기 위해 SCI(Semantic Clustering Index)라는 인덱스를 정의하였다. 여기서, SCI는 타겟 데이터에 대한 평균 클래스 간 거리와 평균 클래스 내 거리 간의 비율로 정의되며 다음과 같이 표현될 수 있다.Finally, in order to evaluate how well the target feature, which is a property to be achieved by the DASC method of the diagnosis method ( S100 ) to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, is semantically clustered, SCI (Semantic An index called Clustering Index) was defined. Here, the SCI is defined as the ratio between the average inter-class distance to the target data and the average intra-class distance, and may be expressed as follows.

Figure 112021099938487-pat00246
Figure 112021099938487-pat00246

여기서, C는 타겟 회전 기계의 상태 수를 나타내고,

Figure 112021099938487-pat00247
은 상태
Figure 112021099938487-pat00248
의 샘플 수를 나타내고,
Figure 112021099938487-pat00249
는 피쳐익스트랙터단계(S110)에 의해 도출된 샘플 xi의 피쳐벡터를 나타내며,
Figure 112021099938487-pat00250
은 추출된 피쳐 공간에서 레이블
Figure 112021099938487-pat00251
인 샘플의 중심을 나타낸다.where C denotes the number of states of the target rotating machine,
Figure 112021099938487-pat00247
silver state
Figure 112021099938487-pat00248
represents the number of samples in
Figure 112021099938487-pat00249
represents the feature vector of the sample x i derived by the feature extractor step (S110),
Figure 112021099938487-pat00250
is the label in the extracted feature space
Figure 112021099938487-pat00251
represents the center of the sample.

SCI 값이 클수록 타겟 샘플이 해당 클래스에 따라 의미적으로 더 잘 클러스터링됨을 의미한다. 즉, 타겟 샘플 피쳐는 클래스 내 변동이 작고 클래스 간 거리가 더 크다. 따라서 SCI 값이 큰 UDA 방법은 특히 각 클래스의 경계 근처에 위치한 데이터에 대해 높은 목표 일반화 성능을 가질 수 있다.A larger SCI value means that the target sample is semantically better clustered according to the corresponding class. That is, the target sample feature has a small intra-class variation and a larger inter-class distance. Therefore, the UDA method with a large SCI value can have high target generalization performance, especially for data located near the boundary of each class.

시나리오 I과 시나리오 II의 UDA 작업에 대해 비교된 모든 UDA 방법의 평균 SCI 값은 도 14에 도시된 바와 같다. 도 14에 도시된 바와 같이, DASC가 비교 UDA 중에서 가장 큰 SCI 값을 가지고 있음을 보여준다. 즉, DASC를 통해 학습된 피쳐가 가장 판별적인 분포를 가짐을 의미한다. 이는 DASC 방법이 여러 피쳐 수준에서 추가적인 의미군집화손실을 적용함으로써 의미적으로 잘 클러스터된 피쳐를 학습하기 때문이다. 이 결과는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC가 타겟 도메인에서 가장 높은 일반화 성능을 보이는 이유를 잘 설명한다. 즉, 레이블이 지정된 소스 도메인 데이터만을 기반으로 하는 의미군집화손실을 고려함으로써 서로 다르지만 관련성 있는 타겟 도메인 데이터의 클래스별 클러스터링 성능을 향상시킬 수 있음을 확인할 수 있다. 따라서 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC는 타겟 도메인 일반화 성능을 향상시킨다.The average SCI values of all UDA methods compared for the UDA tasks of scenario I and scenario II are shown in FIG. 14 . As shown in FIG. 14 , it shows that DASC has the largest SCI value among comparative UDAs. That is, it means that the features learned through DASC have the most discriminant distribution. This is because the DASC method learns semantically well clustered features by applying additional semantic clustering loss at multiple feature levels. This result well explains why the DASC of the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied shows the highest generalization performance in the target domain. That is, it can be confirmed that by considering the semantic clustering loss based only on the labeled source domain data, it is possible to improve the class-specific clustering performance of different but related target domain data. Accordingly, the DASC of the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied improves target domain generalization performance.

또한, 도 7 내지 도 10에 도시된 바와 같이 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)의 DASC 방식은 가장 작은 성능 편차를 보이므로 타겟 도메인 데이터에 대해 가장 안정적이고 강력한 진단 성능을 제공할 수 있음을 알 수 있다. 즉, 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에 따르면, 라벨 정보 획득이 어려운 환경에서 회전 기계에 대한 가장 정확하고 강력한 UDA 기반 진단 모델을 제공할 수 있는 효과가 있다.In addition, as shown in FIGS. 7 to 10 , the DASC method of the diagnosis method S100 to which the domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied shows the smallest performance deviation, so it is the most effective for the target domain data. It can be seen that stable and powerful diagnostic performance can be provided. That is, according to the diagnosis method (S100) to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, it is possible to provide the most accurate and powerful UDA-based diagnostic model for a rotating machine in an environment where it is difficult to obtain label information. It works.

상술한 바와 같은 피쳐익스트랙터단계(S110), 라벨클래시파이어단계(S120), 도메인디스크리펜시단계(S130), 시멘틱클러스터링단계(S140), 연산단계(S150), 출력단계(S160)를 포함하는 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법(S100)에 따르면, 소스 시스템에서 획득한 진단 데이터를 기반으로 레이블 정보가 없는 타겟 시스템의 상태를 효율적으로 진단할 수 있다.As described above, the feature extractor step (S110), the label classifier step (S120), the domain discrepancy step (S130), the semantic clustering step (S140), the calculation step (S150), the output step (S160). According to the diagnostic method (S100) to which the domain adaptation and semantic clustering algorithm is applied according to an embodiment of the present invention, the state of the target system without label information can be efficiently diagnosed based on the diagnostic data obtained from the source system. .

이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "comprises", "comprises" or "have" described above mean that the corresponding component may be inherent, unless otherwise specified, excluding other components. Rather, it should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms commonly used, such as those defined in the dictionary, should be interpreted as being consistent with the contextual meaning of the related art, and are not interpreted in an ideal or excessively formal meaning unless explicitly defined in the present invention.

그리고 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.And, the above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100 : 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치
110 : 피쳐익스트랙터부
120 : 라벨클래시파이어부
130 : 도메인디스크리펜시부
140 : 시멘틱클러스터링부
150 : 연산부
160 : 출력부
S100 : 본 발명의 일실시예에 따른 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법
S110 : 피쳐익스트랙터단계
S120 : 라벨클래시파이어단계
S130 : 도메인디스크리펜시단계
S140 : 시멘틱클러스터링단계
S150 : 연산단계
S160 : 출력단계
100: Diagnostic device to which domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied
110: feature extractor part
120: label classifier unit
130: domain disk refresh unit
140: semantic clustering unit
150: arithmetic unit
160: output unit
S100: Diagnosis method to which domain adaptation and semantic clustering algorithm according to an embodiment of the present invention is applied
S110: feature extractor stage
S120: Label classifier stage
S130: domain disk refresh step
S140: Semantic clustering step
S150: Calculation step
S160: output stage

Claims (20)

레이블 정보가 부재된 기계 시스템의 상태 진단 시스템에 의해 수행되는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치에 있어서,
제1시스템에서 측정되어 레이블링된 시계열 신호 데이터를 포함하는 제1데이터셋(dataset)과 제2시스템에서 측정되어 레이블링되지 않은 시계열 신호 데이터를 포함하는 제2데이터셋으로부터 제1피쳐(feature)와 제2피쳐를 계산하는 머신러닝 기반의 피쳐계산 모델을 학습하는 피쳐익스트랙터부;
상기 제1데이터셋을 이용하여 상기 제1시스템의 상태를 분류하는 머신러닝 기반의 상태분류 모델을 학습하고, 분류손실(classifier loss, LC)을 계산하는 라벨클래시파이어부;
상기 제1데이터셋을 소스 도메인(source domain)으로 설정하고 상기 제2데이터셋을 타겟 도메인(target domain)으로 설정하여 도메인 어댑테이션(domain adaptation)을 수행하는 머신러닝 기반의 도메인 어댑테이션 모델을 학습하고, 도메인적응손실(domain-related loss, LD)을 계산하는 도메인디스크리펜시부; 및
상기 제1데이터셋의 레이블에 기초하여 상태별로 클러스터링하는 머신러닝 기반의 클러스터링 모델을 학습하고, 의미군집화손실(semantic clustering loss, LSC)을 계산하는 시멘틱클러스터링부를 포함하고,
상기 분류손실은,
수식 1에 기초하여 계산되며,
상기 도메인적응손실은,
수식 2에 기초하여 계산되며,
상기 의미군집화손실은,
수식 3에 기초하여 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
{수식 1}
Figure 112022000583475-pat00252

(상기
Figure 112022000583475-pat00253
는 상기 분류손실, 상기 C는 상기 제1시스템의 상태의 수, 상기 Y는 라벨 벡터, 상기
Figure 112022000583475-pat00254
는 상기 Y의 k번째 노드의 값, 상기 p는 상기 Y의 k번째 노드에 해당하는 확률벡터)
{수식 2}
Figure 112022000583475-pat00255

(상기
Figure 112022000583475-pat00256
는 상기 도메인적응손실, 상기 H는 universal RKHS(reproducing kernel Hilbert space), 상기 nS와 상기 nT는 각각 상기 제1데이터셋과 상기 제2데이터셋의 수, 상기
Figure 112022000583475-pat00257
와 상기
Figure 112022000583475-pat00258
는 각각 상기 제1피쳐와 상기 제2피쳐)
{수식 3}
Figure 112022000583475-pat00259

(상기
Figure 112022000583475-pat00260
는 상기 의미군집화손실, 상기
Figure 112022000583475-pat00261
는 상기 시멘틱클러스터링부의 특성층의 수, 상기
Figure 112022000583475-pat00262
는 k번째 밸런싱 파라미터(balancing parameter), 상기
Figure 112022000583475-pat00263
는 상기 제1데이터셋의 수, 상기
Figure 112022000583475-pat00264
는 k번째 피쳐 레벨에서
Figure 112022000583475-pat00265
번째 상기 제1데이터셋의 피쳐 벡터, 상기
Figure 112022000583475-pat00266
Figure 112022000583475-pat00267
번째 데이터셋과
Figure 112022000583475-pat00268
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112022000583475-pat00269
의 값, 상기 d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값)
In the diagnosis apparatus to which a domain adaptation and semantic clustering algorithm performed by a state diagnosis system of a mechanical system without label information is applied,
A first feature and a first data set from a first dataset including time-series signal data measured and labeled in the first system and a second dataset including time-series signal data that is measured and unlabeled in the second system a feature extractor unit for learning a machine learning-based feature calculation model for calculating two features;
a label classifier unit for learning a machine learning-based state classification model for classifying the state of the first system using the first dataset, and calculating a classifier loss ( LC );
Learning a machine learning-based domain adaptation model that performs domain adaptation by setting the first dataset as a source domain and setting the second dataset as a target domain as a target domain, a domain dispensing unit for calculating domain-related loss ( LD ); and
A semantic clustering unit for learning a machine learning-based clustering model for clustering by state based on the label of the first dataset, and calculating a semantic clustering loss (L SC ),
The classification loss is
It is calculated based on Equation 1,
The domain adaptation loss is
It is calculated based on Equation 2,
The semantic clustering loss is
A diagnosis apparatus to which domain adaptation and semantic clustering algorithms are applied, characterized in that the calculation is based on Equation 3.
{Formula 1}
Figure 112022000583475-pat00252

(remind
Figure 112022000583475-pat00253
is the classification loss, C is the number of states of the first system, Y is the label vector, and
Figure 112022000583475-pat00254
is the value of the k-th node of Y, and p is a probability vector corresponding to the k-th node of Y)
{Formula 2}
Figure 112022000583475-pat00255

(remind
Figure 112022000583475-pat00256
is the domain adaptation loss, H is a universal reproducing kernel Hilbert space (RKHS), n S and n T are the numbers of the first and second datasets, respectively, and
Figure 112022000583475-pat00257
and above
Figure 112022000583475-pat00258
is the first feature and the second feature, respectively)
{Formula 3}
Figure 112022000583475-pat00259

(remind
Figure 112022000583475-pat00260
is the semantic clustering loss,
Figure 112022000583475-pat00261
is the number of characteristic layers of the semantic clustering part, the
Figure 112022000583475-pat00262
is the kth balancing parameter (balancing parameter), the
Figure 112022000583475-pat00263
is the number of the first dataset, the
Figure 112022000583475-pat00264
is at the kth feature level
Figure 112022000583475-pat00265
th feature vector of the first dataset, the
Figure 112022000583475-pat00266
Is
Figure 112022000583475-pat00267
the second dataset and
Figure 112022000583475-pat00268
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112022000583475-pat00269
value of , where d is a value controlling the minimum distance between two datasets in different states)
삭제delete 청구항 1에 있어서,
상기 피쳐익스트랙터부와 상기 도메인디스크리펜시부와 상기 시멘틱클러스터링부는,
상기 제1데이터셋과 상기 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상기 제1데이터셋과 상기 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상기 제1데이터셋과 상기 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
The method according to claim 1,
The feature extractor unit, the domain discrepancy unit, and the semantic clustering unit,
The first dataset and the second dataset are trained in mini-batch units, and when learning is performed on all the small groups of the first dataset and the second dataset, the first dataset and the second dataset A diagnostic device to which a domain adaptation and semantic clustering algorithm is applied, characterized in that small groups are re-extracted and re-learned at random from the second dataset.
청구항 3에 있어서,
상기 피쳐익스트랙터부는,
수식 4에 기초하여 상기 제1피쳐와 상기 제2피쳐를 계산하는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
{수식 4}
Figure 112021099938487-pat00270

(상기
Figure 112021099938487-pat00271
는 상기 제1데이터셋 또는 상기 제2데이터셋, 상기
Figure 112021099938487-pat00272
는 상기
Figure 112021099938487-pat00273
으로부터 계산된 상기 제1피쳐 또는 상기 제2피쳐, 상기
Figure 112021099938487-pat00274
는 활성화함수(activation function), 상기
Figure 112021099938487-pat00275
는 웨이트(weight), 상기 bias는 상수)
4. The method according to claim 3,
The feature extractor unit,
A diagnosis apparatus to which a domain adaptation and semantic clustering algorithm is applied, characterized in that the first feature and the second feature are calculated based on Equation (4).
{Formula 4}
Figure 112021099938487-pat00270

(remind
Figure 112021099938487-pat00271
is the first data set or the second data set, the
Figure 112021099938487-pat00272
is said
Figure 112021099938487-pat00273
The first feature or the second feature calculated from
Figure 112021099938487-pat00274
is an activation function, the
Figure 112021099938487-pat00275
is a weight, the bias is a constant)
청구항 4에 있어서,
수식 5에 기초하여 전체손실(
Figure 112021099938487-pat00276
)을 계산하는 연산부를 더 포함하며,
상기 연산부는,
수식 6 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고,
상기 피쳐익스트랙터부와 상기 도메인디스크리펜시부와 상기 시멘틱클러스터링부는,
수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며,
상기 연산부는,
기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 전체손실의 변화가 기설정된 비율보다 작은 경우 상기 피쳐익스트랙터부와 상기 도메인디스크리펜시부와 상기 시멘틱클러스터링부의 학습을 중단시켜 최종 진단 알고리즘을 도출하는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
{수식 5}
Figure 112021099938487-pat00277

(상기
Figure 112021099938487-pat00278
은 전체손실, 상기
Figure 112021099938487-pat00279
는 상기 분류손실, 상기
Figure 112021099938487-pat00280
는 상기 도메인적응손실, 상기
Figure 112021099938487-pat00281
는 상기 의미군집화손실, 상기
Figure 112021099938487-pat00282
Figure 112021099938487-pat00283
는 사용자가 기설정한 계수들)
{수식 6}
Figure 112021099938487-pat00284

(상기
Figure 112021099938487-pat00285
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00286
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00287
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00288
는 상기 웨이트에 대한 상기 전체손실의 미분값)
5. The method according to claim 4,
Based on Equation 5, the total loss (
Figure 112021099938487-pat00276
) further comprising an operator to calculate,
The calculation unit,
Modify the weight based on Equation 6 and gradient descent,
The feature extractor unit, the domain discrepancy unit, and the semantic clustering unit,
It is characterized in that it is re-learned based on the modified weight,
The calculation unit,
When the change in the total loss is smaller than a preset ratio even though the weight is corrected a preset number of times, the learning of the feature extractor unit, the domain discrepancy unit, and the semantic clustering unit is stopped to derive a final diagnostic algorithm A diagnostic device to which domain adaptation and semantic clustering algorithms are applied.
{Formula 5}
Figure 112021099938487-pat00277

(remind
Figure 112021099938487-pat00278
is the total loss, above
Figure 112021099938487-pat00279
is the classification loss,
Figure 112021099938487-pat00280
is the domain adaptation loss, the
Figure 112021099938487-pat00281
is the semantic clustering loss,
Figure 112021099938487-pat00282
Wow
Figure 112021099938487-pat00283
is the coefficients set by the user)
{Formula 6}
Figure 112021099938487-pat00284

(remind
Figure 112021099938487-pat00285
is the modified said weight, said
Figure 112021099938487-pat00286
is the weight before fertilization,
Figure 112021099938487-pat00287
is a constant set by the user,
Figure 112021099938487-pat00288
is the derivative of the total loss with respect to the weight)
청구항 5에 있어서,
상기 웨이트에 대한 상기 전체손실의 미분값은,
역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
6. The method of claim 5,
The derivative of the total loss with respect to the weight is,
A diagnostic device to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is calculated according to a back-propagation algorithm and a chain rule.
청구항 4에 있어서,
상기 라벨클래시파이어부는,
수식 7 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고, 수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며,
상기 라벨클래시파이어부는,
기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 분류손실의 변화가 기설정된 비율보다 작은 경우 학습이 중단되어 최종 머신러닝 기반의 상태분류 모델이 도출되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
{수식 7}
Figure 112021099938487-pat00289

(상기
Figure 112021099938487-pat00290
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00291
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00292
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00293
는 상기 웨이트에 대한 상기 분류손실의 미분값)
5. The method according to claim 4,
The label classifier unit,
It is characterized in that the weight is corrected based on Equation 7 and gradient descent, and re-learning is performed based on the modified weight,
The label classifier unit,
Even though the weight is modified a preset number of times, if the change in the classification loss is smaller than a preset ratio, learning is stopped and a final machine learning-based state classification model is derived. A domain adaptation and semantic clustering algorithm is applied diagnostic device.
{Formula 7}
Figure 112021099938487-pat00289

(remind
Figure 112021099938487-pat00290
is the modified said weight, said
Figure 112021099938487-pat00291
is the weight before fertilization,
Figure 112021099938487-pat00292
is a constant set by the user,
Figure 112021099938487-pat00293
is the differential value of the classification loss with respect to the weight)
청구항 7에 있어서,
상기 웨이트에 대한 상기 분류손실의 미분값은,
역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
8. The method of claim 7,
The differential value of the classification loss with respect to the weight is,
A diagnostic device to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is calculated according to a back-propagation algorithm and a chain rule.
청구항 6에 있어서,
상기 최종 진단 알고리즘을 이용하여 진단된 상기 제2시스템의 상태를 출력하는 출력부를 포함하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
7. The method of claim 6,
and an output unit for outputting the state of the second system diagnosed by using the final diagnosis algorithm.
청구항 6에 있어서,
상기 피쳐익스트랙터부는,
convolution neural network(CNN)를 사용하며,
상기 라벨클래시파이어부는,
fully connected layer로 마련되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 장치.
7. The method of claim 6,
The feature extractor unit,
It uses a convolution neural network (CNN),
The label classifier unit,
A diagnostic device to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is provided as a fully connected layer.
레이블 정보가 부재된 기계 시스템의 상태 진단 시스템에 의해 수행되는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법에 있어서,
제1시스템에서 측정되어 레이블링된 시계열 신호 데이터를 포함하는 제1데이터셋(dataset)과 제2시스템에서 측정되어 레이블링되지 않은 시계열 신호 데이터를 포함하는 제2데이터셋으로부터 피쳐익스트랙터부가 제1피쳐(feature)와 제2피쳐를 계산하는 머신러닝 기반의 피쳐계산 모델을 학습하는 피쳐익스트랙터단계;
상기 제1데이터셋을 이용하여 라벨클래시파이어부가 상기 제1시스템의 상태를 분류하는 머신러닝 기반의 상태분류 모델을 학습하고, 분류손실(classifier loss, LC)을 계산하는 라벨클래시파이어단계;
상기 제1데이터셋을 소스 도메인(source domain)으로 설정하고 상기 제2데이터셋을 타겟 도메인(target domain)으로 설정하여 도메인디스크리펜시부가 도메인 어댑테이션(domain adaptation)을 수행하는 머신러닝 기반의 도메인 어댑테이션 모델을 학습하고, 도메인적응손실(domain-related loss, LD)을 계산하는 도메인디스크리펜시단계; 및
시멘틱클러스터링부가 상기 제1데이터셋의 레이블에 기초하여 상태별로 클러스터링하는 머신러닝 기반의 클러스터링 모델을 학습하고, 의미군집화손실(semantic clustering loss, LSC)을 계산하는 시멘틱클러스터링단계를 포함하고,
상기 분류손실은,
수식 1에 기초하여 계산되며,
상기 도메인적응손실은,
수식 2에 기초하여 계산되며,
상기 의미군집화손실은,
수식 3에 기초하여 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
{수식 1}
Figure 112022000583475-pat00294

(상기
Figure 112022000583475-pat00295
는 상기 분류손실, 상기 C는 상기 제1시스템의 상태의 수, 상기 Y는 라벨 벡터, 상기
Figure 112022000583475-pat00296
는 상기 Y의 k번째 노드의 값, 상기 p는 상기 Y의 k번째 노드에 해당하는 확률벡터)
{수식 2}
Figure 112022000583475-pat00297

(상기 H는 universal RKHS(reproducing kernel Hilbert space), 상기 nS와 상기 nT는 각각 상기 제1데이터셋과 상기 제2데이터셋의 수, 상기
Figure 112022000583475-pat00298
와 상기
Figure 112022000583475-pat00299
는 각각 상기 제1피쳐와 상기 제2피쳐)
{수식 3}
Figure 112022000583475-pat00300

(상기
Figure 112022000583475-pat00301
는 상기 의미군집화손실, 상기
Figure 112022000583475-pat00302
는 상기 시멘틱클러스터링단계의 특성층의 수, 상기
Figure 112022000583475-pat00303
는 k번째 밸런싱 파라미터(balancing parameter), 상기
Figure 112022000583475-pat00304
는 상기 제1데이터셋의 수, 상기
Figure 112022000583475-pat00305
는 k번째 피쳐 레벨에서
Figure 112022000583475-pat00306
번째 상기 제1데이터셋의 피쳐 벡터, 상기
Figure 112022000583475-pat00307
Figure 112022000583475-pat00308
번째 데이터셋과
Figure 112022000583475-pat00309
번째 데이터셋이 같은 클래스에 속하면 1이고 다른 클래스라면 0인 행렬
Figure 112022000583475-pat00310
의 값, 상기 d는 서로 다른 상태의 두 데이터셋 사이의 최소 거리를 제어하는 값)
In the diagnosis method to which a domain adaptation and semantic clustering algorithm performed by a state diagnosis system of a mechanical system without label information is applied,
From a first dataset including time-series signal data that is measured and labeled in the first system and a second dataset that includes time-series signal data that is not measured and labeled in the second system, the feature extractor unit includes the first feature ( feature) and a feature extractor step of learning a machine learning-based feature calculation model for calculating a second feature;
A label classifier step in which the label classifier unit learns a machine learning-based state classification model that classifies the state of the first system using the first dataset, and calculates a classifier loss ( LC ) ;
Machine learning-based domain adaptation in which a domain dispensing unit performs domain adaptation by setting the first dataset as a source domain and setting the second dataset as a target domain Learning the model, domain-related loss (domain-related loss, LD ) domain dispensing step of calculating; and
The semantic clustering unit learns a machine learning-based clustering model that clusters by state based on the label of the first dataset, and includes a semantic clustering step of calculating semantic clustering loss (L SC ),
The classification loss is
It is calculated based on Equation 1,
The domain adaptation loss is
It is calculated based on Equation 2,
The semantic clustering loss is
A diagnosis method to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is calculated based on Equation 3.
{Formula 1}
Figure 112022000583475-pat00294

(remind
Figure 112022000583475-pat00295
is the classification loss, C is the number of states of the first system, Y is the label vector, and
Figure 112022000583475-pat00296
is the value of the k-th node of Y, and p is a probability vector corresponding to the k-th node of Y)
{Formula 2}
Figure 112022000583475-pat00297

(wherein H is a universal reproducing kernel Hilbert space (RKHS), and n S and n T are the number of the first dataset and the second dataset, respectively, and
Figure 112022000583475-pat00298
and above
Figure 112022000583475-pat00299
is the first feature and the second feature, respectively)
{Formula 3}
Figure 112022000583475-pat00300

(remind
Figure 112022000583475-pat00301
is the semantic clustering loss,
Figure 112022000583475-pat00302
is the number of characteristic layers in the semantic clustering step,
Figure 112022000583475-pat00303
is the kth balancing parameter (balancing parameter), the
Figure 112022000583475-pat00304
is the number of the first dataset, the
Figure 112022000583475-pat00305
is at the kth feature level
Figure 112022000583475-pat00306
th feature vector of the first dataset, the
Figure 112022000583475-pat00307
Is
Figure 112022000583475-pat00308
the second dataset and
Figure 112022000583475-pat00309
A matrix that is 1 if the second dataset belongs to the same class and 0 if it is a different class.
Figure 112022000583475-pat00310
value of , where d is a value controlling the minimum distance between two datasets in different states)
삭제delete 청구항 11에 있어서,
상기 피쳐익스트랙터단계와 상기 도메인디스크리펜시단계와 상기 시멘틱클러스터링단계는,
상기 제1데이터셋과 상기 제2데이터셋의 소집단(mini-batch) 단위로 학습되며, 상기 제1데이터셋과 상기 제2데이터셋의 모든 소집단에 대해 학습이 이루어지는 경우 상기 제1데이터셋과 상기 제2데이터셋에서 각각 랜덤하게 소집단이 재추출되어 재학습되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
12. The method of claim 11,
The feature extractor step, the domain discrepancy step, and the semantic clustering step are
The first dataset and the second dataset are trained in mini-batch units, and when learning is performed on all the small groups of the first dataset and the second dataset, the first dataset and the second dataset A diagnostic method to which a domain adaptation and semantic clustering algorithm is applied, characterized in that small groups are re-extracted at random from the second dataset and re-learned.
청구항 13에 있어서,
상기 피쳐익스트랙터단계는,
수식 4에 기초하여 상기 제1피쳐와 상기 제2피쳐를 계산하는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
{수식 4}
Figure 112021099938487-pat00311

(상기
Figure 112021099938487-pat00312
는 상기 제1데이터셋 또는 상기 제2데이터셋, 상기
Figure 112021099938487-pat00313
는 상기
Figure 112021099938487-pat00314
으로부터 계산된 상기 제1피쳐 또는 상기 제2피쳐, 상기
Figure 112021099938487-pat00315
는 활성화함수(activation function), 상기
Figure 112021099938487-pat00316
는 웨이트(weight), 상기 bias는 상수)
14. The method of claim 13,
The feature extractor step is
A diagnosis method to which a domain adaptation and semantic clustering algorithm is applied, characterized in that the first feature and the second feature are calculated based on Equation (4).
{Formula 4}
Figure 112021099938487-pat00311

(remind
Figure 112021099938487-pat00312
is the first data set or the second data set, the
Figure 112021099938487-pat00313
is said
Figure 112021099938487-pat00314
The first feature or the second feature calculated from
Figure 112021099938487-pat00315
is an activation function, the
Figure 112021099938487-pat00316
is a weight, the bias is a constant)
청구항 14에 있어서,
수식 5에 기초하여 연산부에 의해 전체손실(
Figure 112021099938487-pat00317
)을 계산하는 연산단계를 더 포함하며,
상기 연산단계는,
수식 6 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고,
상기 피쳐익스트랙터단계와 상기 도메인디스크리펜시단계와 상기 시멘틱클러스터링단계는,
수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며,
상기 연산단계는,
기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 전체손실의 변화가 기설정된 비율보다 작은 경우 상기 피쳐익스트랙터단계와 상기 도메인디스크리펜시단계와 상기 시멘틱클러스터링단계의 학습을 중단시켜 최종 진단 알고리즘을 도출하는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
{수식 5}
Figure 112021099938487-pat00318

(상기
Figure 112021099938487-pat00319
은 전체손실, 상기
Figure 112021099938487-pat00320
는 상기 분류손실, 상기
Figure 112021099938487-pat00321
는 상기 도메인적응손실, 상기
Figure 112021099938487-pat00322
는 상기 의미군집화손실, 상기
Figure 112021099938487-pat00323
Figure 112021099938487-pat00324
는 사용자가 기설정한 계수들)
{수식 6}
Figure 112021099938487-pat00325

(상기
Figure 112021099938487-pat00326
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00327
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00328
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00329
는 상기 웨이트에 대한 상기 전체손실의 미분값)
15. The method of claim 14,
Based on Equation 5, the total loss (
Figure 112021099938487-pat00317
) further comprising an operation step of calculating
The calculation step is
Modify the weight based on Equation 6 and gradient descent,
The feature extractor step, the domain discrepancy step, and the semantic clustering step are
It is characterized in that it is re-learned based on the modified weight,
The calculation step is
When the change in the total loss is smaller than a preset ratio even though the weight is corrected a preset number of times, the learning of the feature extractor step, the domain discrepancy step, and the semantic clustering step is stopped to derive a final diagnostic algorithm A diagnostic method to which domain adaptation and semantic clustering algorithms are applied.
{Formula 5}
Figure 112021099938487-pat00318

(remind
Figure 112021099938487-pat00319
is the total loss, above
Figure 112021099938487-pat00320
is the classification loss,
Figure 112021099938487-pat00321
is the domain adaptation loss, the
Figure 112021099938487-pat00322
is the semantic clustering loss,
Figure 112021099938487-pat00323
Wow
Figure 112021099938487-pat00324
is the coefficients set by the user)
{Formula 6}
Figure 112021099938487-pat00325

(remind
Figure 112021099938487-pat00326
is the modified said weight, said
Figure 112021099938487-pat00327
is the weight before fertilization,
Figure 112021099938487-pat00328
is a constant set by the user,
Figure 112021099938487-pat00329
is the derivative of the total loss with respect to the weight)
청구항 15에 있어서,
상기 웨이트에 대한 상기 전체손실의 미분값은,
역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
16. The method of claim 15,
The derivative of the total loss with respect to the weight is,
A diagnostic method to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is calculated according to a back-propagation algorithm and a chain rule.
청구항 14에 있어서,
상기 라벨클래시파이어단계는,
수식 7 및 경사하강법(gradient descent)에 기초하여 상기 웨이트를 수정하고, 수정된 상기 웨이트를 기초로 재학습되는 것을 특징으로 하며,
상기 라벨클래시파이어단계는,
기설정된 횟수로 상기 웨이트가 수정됨에도 불구하고 상기 분류손실의 변화가 기설정된 비율보다 작은 경우 학습이 중단되어 최종 머신러닝 기반의 상태분류 모델이 도출되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
{수식 7}
Figure 112021099938487-pat00330

(상기
Figure 112021099938487-pat00331
은 수정된 상기 웨이트, 상기
Figure 112021099938487-pat00332
는 수정전 상기 웨이트, 상기
Figure 112021099938487-pat00333
는 사용자가 기설정한 상수, 상기
Figure 112021099938487-pat00334
는 상기 웨이트에 대한 상기 분류손실의 미분값)
15. The method of claim 14,
The label classifier step is,
It is characterized in that the weight is corrected based on Equation 7 and gradient descent, and re-learning is performed based on the modified weight,
The label classifier step is,
Even though the weight is modified a preset number of times, if the change in the classification loss is smaller than a preset ratio, learning is stopped and a final machine learning-based state classification model is derived. A domain adaptation and semantic clustering algorithm is applied diagnostic method.
{Formula 7}
Figure 112021099938487-pat00330

(remind
Figure 112021099938487-pat00331
is the modified said weight, said
Figure 112021099938487-pat00332
is the weight before fertilization,
Figure 112021099938487-pat00333
is a constant set by the user,
Figure 112021099938487-pat00334
is the differential value of the classification loss with respect to the weight)
청구항 17에 있어서,
상기 웨이트에 대한 상기 분류손실의 미분값은,
역전파 알고리즘(back-propagation algorithm) 및 연쇄법칙(chain rule)에 따라 계산되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
18. The method of claim 17,
The differential value of the classification loss with respect to the weight is,
A diagnostic method to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is calculated according to a back-propagation algorithm and a chain rule.
청구항 16에 있어서,
상기 최종 진단 알고리즘을 이용하여 진단된 상기 제2시스템의 상태가 출력부에 의해 출력하는 출력단계를 포함하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
17. The method of claim 16,
and an output step of outputting the state of the second system diagnosed using the final diagnosis algorithm by an output unit.
청구항 16에 있어서,
상기 피쳐익스트랙터단계는,
convolution neural network(CNN)을 사용하며,
상기 라벨클래시파이어단계는,
fully connected layer로 마련되는 것을 특징으로 하는 도메인적응 및 의미군집화 알고리즘이 적용된 진단 방법.
17. The method of claim 16,
The feature extractor step is
It uses a convolution neural network (CNN),
The label classifier step is,
A diagnosis method to which a domain adaptation and semantic clustering algorithm is applied, characterized in that it is provided as a fully connected layer.
KR1020210114654A 2021-08-30 2021-08-30 Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same KR102387663B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210114654A KR102387663B1 (en) 2021-08-30 2021-08-30 Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210114654A KR102387663B1 (en) 2021-08-30 2021-08-30 Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same

Publications (1)

Publication Number Publication Date
KR102387663B1 true KR102387663B1 (en) 2022-04-19

Family

ID=81390746

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210114654A KR102387663B1 (en) 2021-08-30 2021-08-30 Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same

Country Status (1)

Country Link
KR (1) KR102387663B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116226784A (en) * 2023-02-03 2023-06-06 中国人民解放军92578部队 Federal domain adaptive fault diagnosis method based on statistical feature fusion
CN116777896A (en) * 2023-07-07 2023-09-19 浙江大学 Negative migration inhibition method for cross-domain classification and identification of apparent defects
CN116878885A (en) * 2023-09-04 2023-10-13 佛山科学技术学院 Bearing fault diagnosis method based on self-adaptive joint domain adaptive network
CN116956048A (en) * 2023-09-19 2023-10-27 北京航空航天大学 Industrial equipment fault diagnosis method and device based on cross-domain generalized label
WO2024071640A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Electronic device and method for training artificial intelligence model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931814A (en) * 2020-07-03 2020-11-13 浙江大学 Unsupervised anti-domain adaptation method based on intra-class structure compactness constraint
CN113255823A (en) * 2021-06-15 2021-08-13 中国人民解放军国防科技大学 Unsupervised domain adaptation method and unsupervised domain adaptation device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931814A (en) * 2020-07-03 2020-11-13 浙江大学 Unsupervised anti-domain adaptation method based on intra-class structure compactness constraint
CN113255823A (en) * 2021-06-15 2021-08-13 中国人民解放军国防科技大学 Unsupervised domain adaptation method and unsupervised domain adaptation device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071640A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Electronic device and method for training artificial intelligence model
CN116226784A (en) * 2023-02-03 2023-06-06 中国人民解放军92578部队 Federal domain adaptive fault diagnosis method based on statistical feature fusion
CN116777896A (en) * 2023-07-07 2023-09-19 浙江大学 Negative migration inhibition method for cross-domain classification and identification of apparent defects
CN116878885A (en) * 2023-09-04 2023-10-13 佛山科学技术学院 Bearing fault diagnosis method based on self-adaptive joint domain adaptive network
CN116878885B (en) * 2023-09-04 2023-12-19 佛山科学技术学院 Bearing fault diagnosis method based on self-adaptive joint domain adaptive network
CN116956048A (en) * 2023-09-19 2023-10-27 北京航空航天大学 Industrial equipment fault diagnosis method and device based on cross-domain generalized label
CN116956048B (en) * 2023-09-19 2023-12-15 北京航空航天大学 Industrial equipment fault diagnosis method and device based on cross-domain generalized label

Similar Documents

Publication Publication Date Title
KR102387663B1 (en) Apparatus for fault diagnosis using domain adaptation with semantic clustering algorithm and method for fault diagnosis using the same
Zhao et al. Deep multi-scale convolutional transfer learning network: A novel method for intelligent fault diagnosis of rolling bearings under variable working conditions and domains
Shen et al. Hybrid multi-mode machine learning-based fault diagnosis strategies with application to aircraft gas turbine engines
Zhang et al. Data-core-based fuzzy min–max neural network for pattern classification
He et al. Deep variational autoencoder classifier for intelligent fault diagnosis adaptive to unseen fault categories
Zhao et al. Deep multi-scale separable convolutional network with triple attention mechanism: A novel multi-task domain adaptation method for intelligent fault diagnosis
Saiti et al. Thyroid disease diagnosis based on genetic algorithms using PNN and SVM
CN111353373A (en) Correlation alignment domain adaptive fault diagnosis method
Han et al. Cross‐machine intelligent fault diagnosis of gearbox based on deep learning and parameter transfer
CN113609569B (en) Distinguishing type generalized zero sample learning fault diagnosis method
Gu et al. An improved sensor fault diagnosis scheme based on TA-LSSVM and ECOC-SVM
Maniak et al. Hierarchical spatial-temporal state machine for vehicle instrument cluster manufacturing
Sun et al. Ensemble learning and SMOTE based fault diagnosis system in self-organizing cellular networks
WO2019178930A1 (en) Fault diagnosis method for mechanical device
Nozari et al. Model-free fault detection and isolation of a benchmark process control system based on multiple classifiers techniques—A comparative study
Amin et al. Development of intelligent fault-tolerant control systems with machine leaprning, deep learning, and transfer learning algorithms: A review
Wang et al. An efficient anomaly detection for high-speed train braking system using broad learning system
Joshi et al. High accuracy sensor fault detection for energy management applications
Santana et al. Machine learning application for refrigeration showcase fault discrimination
Arellano–Espitia et al. Anomaly detection in electromechanical systems by means of deep-autoencoder
Brønstad Data-driven detection and identification of undesirable events in subsea oil wells
Xu et al. A novel imbalanced fault diagnosis method based on area identification conditional generative adversarial networks
Kalisch Fault detection method using context-based approach
Leake et al. Enhancing Case-Based Reasoning with Neural Networks
Mei et al. Discriminative angle feature learning for open-set deep fault classification

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant