KR20240107023A - Method and device for learning of auscultation sound analysis model - Google Patents
Method and device for learning of auscultation sound analysis model Download PDFInfo
- Publication number
- KR20240107023A KR20240107023A KR1020230194427A KR20230194427A KR20240107023A KR 20240107023 A KR20240107023 A KR 20240107023A KR 1020230194427 A KR1020230194427 A KR 1020230194427A KR 20230194427 A KR20230194427 A KR 20230194427A KR 20240107023 A KR20240107023 A KR 20240107023A
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- analysis model
- auscultation sound
- sound analysis
- data
- Prior art date
Links
- 238000002555 auscultation Methods 0.000 title claims abstract description 187
- 238000004458 analytical method Methods 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000002372 labelling Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 4
- 208000024891 symptom Diseases 0.000 claims description 148
- 239000013598 vector Substances 0.000 claims description 86
- 238000003062 neural network model Methods 0.000 claims description 31
- 230000000873 masking effect Effects 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003362 replicative effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000010076 replication Effects 0.000 description 5
- 238000013526 transfer learning Methods 0.000 description 5
- 230000007786 learning performance Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010339 medical test Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Primary Health Care (AREA)
- Molecular Biology (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Veterinary Medicine (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
청진음 분석모델을 학습시키는 방법 및 장치가 제공된다. 청진음 분석모델을 학습시키는 방법은, 청진음 데이터를 전처리하여 학습데이터를 획득하고, 학습데이터를 이용하여 청진음 분석모델을 사전 학습시키고, 학습데이터와 라벨링 데이터를 이용하여 사전 학습된 청진음 분석모델을 지도 학습시키는 단계를 포함한다. A method and device for learning an auscultation sound analysis model are provided. The method of learning the auscultation sound analysis model is to pre-process the auscultation sound data to obtain learning data, pre-train the auscultation sound analysis model using the learning data, and analyze the pre-learned auscultation sound using the learning data and labeling data. It includes the step of supervised learning of the model.
Description
본 발명은 청진음 분석모델을 학습시키는 방법 및 장치에 관한 것이다. The present invention relates to a method and device for learning an auscultation sound analysis model.
청진음 기반 진료는 다른 의학적 검사에 비해 단순한 방식이나 질병과 관련된 주요 징후를 탐지할 수 있다는 점에서 매우 중요한 진료기법으로, 호흡기 검사 등과 같은 다양한 의학 검사분야에서 널리 채택되고 있다. Auscultation sound-based treatment is a simple method compared to other medical tests, but it is a very important treatment technique in that it can detect key signs related to diseases, and is widely adopted in various medical testing fields such as respiratory examination.
최근에는, 디지털 청진 기술이 발전함에 따라 인공지능, 예컨대 신경망모델을 기반으로 하여 디지털 청진음 데이터를 분석하고, 그에 따라 환자의 증상을 진단하고자 하는 연구가 활발하게 시도되고 있다. Recently, as digital auscultation technology has developed, research has been actively attempted to analyze digital auscultation sound data based on artificial intelligence (e.g., neural network models) and diagnose patient symptoms accordingly.
인공지능 기반의 청진음 분석을 위해서는 수집된 디지털 청진음 데이터에서 유의미한 정보를 추출하도록 신경망모델을 학습시키고, 학습된 신경망모델을 이용하여 디지털 청진음 데이터에서 추출된 정보를 사용자에게 전달해야 한다. In order to analyze auscultation sounds based on artificial intelligence, a neural network model must be trained to extract meaningful information from the collected digital auscultation sound data, and the information extracted from the digital auscultation sound data must be delivered to the user using the learned neural network model.
그러나, 환자에 대한 개인정보 보호 등의 제약으로 인해 수집되는 디지털 청진음 데이터의 수가 적고, 수집된 디지털 청진음 데이터 중 정상 청진음을 갖는 데이터가 실제 증상에 대한 청진음을 갖는 데이터보다 높은 비율을 가지는 문제로 인해, 수집된 디지털 청진음 데이터를 이용한 신경망모델의 학습 성능이 저하되는 문제가 있다. However, due to limitations such as patient privacy protection, the number of collected digital auscultation sound data is small, and among the collected digital auscultation sound data, the data with normal auscultation sounds have a higher rate than the data with auscultation sounds for actual symptoms. Due to this problem, there is a problem that the learning performance of the neural network model using the collected digital auscultation sound data is deteriorated.
이와 같이, 희소데이터, 즉 신경망모델의 학습시키는 데이터의 수가 적은 환경에서 신경망모델의 학습 성능이 저하되는 것을 방지하기 위해 신경망모델에 대한 전이학습(transfer learning)이 제안되었다. 신경망모델의 전이학습은 별도의 데이터로 학습된 신경망모델의 가중치로 표현되는 지식을 희소데이터 학습의 기초로 삼음으로써 희소데이터에 대한 신경망모델의 과적합(overfitting) 문제를 해소할 수 있다. In this way, transfer learning for the neural network model was proposed to prevent the learning performance of the neural network model from deteriorating in an environment with sparse data, that is, a small number of data for training the neural network model. Transfer learning of a neural network model can solve the problem of overfitting of a neural network model to sparse data by using the knowledge expressed as the weights of the neural network model learned with separate data as the basis for learning on sparse data.
그러나, 디지털 청진음 데이터는 일반적인 이미지 또는 음성 데이터와 특징이 다르므로, 디지털 청진음 데이터에 대하여 신경망모델에 전이학습을 적용하는 경우에 학습 성능이 저하되는 문제가 발생된다. However, since digital auscultation sound data has different characteristics from general image or voice data, a problem of deterioration in learning performance occurs when transfer learning is applied to a neural network model for digital auscultation sound data.
예컨대, 청진음 데이터는 짧은 시간에 발생하는 증상에 따라 분류가 수행되어야 하는 특징으로 인해 일반적인 이미지 또는 음성 데이터와 대비하여 데이터 분포의 간극이 있다. 이러한 데이터 분포의 간극으로 인해 신경망모델의 전이학습 시 효율이 저하되는 문제가 발생된다. For example, auscultation sound data has a gap in data distribution compared to general image or voice data due to the characteristic that classification must be performed according to symptoms that occur in a short period of time. This gap in data distribution causes a problem of reduced efficiency during transfer learning of neural network models.
또한, 청진음 데이터는 이를 수집한 환경, 예컨대 환자의 나이, 성별, 체중, 호흡 패턴 등의 요소에 따라 동일 증상이라 하더라도 서로 다른 특징을 가질 수 있다. 이러한 청진음 데이터의 특징으로 인해 전이학습 시 신경망모델이 환자 별 특징을 개별 학습하게 되어 청진음 데이터에 대한 증상 분류의 정확도가 저하되는 문제가 발생된다. In addition, auscultation sound data may have different characteristics even for the same symptom depending on the environment in which it was collected, such as factors such as the patient's age, gender, weight, and breathing pattern. Due to these characteristics of auscultation sound data, the neural network model learns the characteristics of each patient individually during transfer learning, resulting in a problem that reduces the accuracy of symptom classification for auscultation sound data.
본 발명은 청진음 데이터의 수가 적은 환경에서도 환자 특징이 아닌 증상 특징에 집중되어 학습이 이루어지도록 할 수 있는 청진음 분석모델을 학습시키는 방법 및 장치를 제공하고자 하는 데 있다. The purpose of the present invention is to provide a method and device for learning an auscultation sound analysis model that can enable learning to focus on symptom characteristics rather than patient characteristics even in an environment with a small number of auscultation sound data.
본 발명의 실시예에 따른 청진음 분석모델을 학습시키는 방법은, 청진음 데이터를 전처리하여 학습데이터를 획득하는 단계; 상기 학습데이터를 청진음 분석모델에 제공하여 상기 청진음 분석모델을 사전 학습시키는 단계; 및 상기 학습데이터와 라벨링 데이터로 실제 증상정보 및 실제 환자정보를 사전 학습된 청진음 분석모델에 제공하여 상기 사전 학습된 청진음 분석모델을 지도 학습시키는 단계를 포함한다. A method of learning an auscultation sound analysis model according to an embodiment of the present invention includes the steps of preprocessing auscultation sound data to obtain learning data; Pre-training the auscultation sound analysis model by providing the learning data to the auscultation sound analysis model; And providing actual symptom information and actual patient information using the learning data and labeling data to a pre-learned auscultation sound analysis model to supervised learning the pre-learned auscultation sound analysis model.
상기 청진음 분석모델을 사전 학습시키는 단계는, 상기 청진음 분석모델의 증상 분류부를 복제하는 단계; 상기 학습데이터를 변환하여 변환 학습데이터를 획득하는 단계; 상기 학습데이터를 상기 증상 분류부에 입력하여 상기 증상 분류부로부터 출력되는 제1특징벡터를 획득하는 단계; 상기 변환 학습데이터를 복제된 증상 분류부에 입력하여 상기 복제된 증상 분류부로부터 출력되는 제2특징벡터를 획득하는 단계; 상기 제1특징벡터 및 상기 제2특징벡터에 기초하여 상기 증상 분류부에 대한 사전 학습 손실값을 결정하는 단계; 및 결정된 상기 사전 학습 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절하는 단계를 포함한다. The step of pre-training the auscultation sound analysis model includes: replicating a symptom classification unit of the auscultation sound analysis model; Obtaining converted learning data by converting the learning data; Inputting the learning data into the symptom classification unit to obtain a first feature vector output from the symptom classification unit; Inputting the converted learning data into a duplicated symptom classifier to obtain a second feature vector output from the duplicated symptom classifier; determining a prior learning loss value for the symptom classifier based on the first feature vector and the second feature vector; and adjusting parameter weights of the symptom classifier so that the determined pre-learning loss value is minimized.
상기 청진음 분석모델을 사전 학습시키는 단계는, 상기 제1특징벡터의 복수의 특징값 중 적어도 하나를 마스킹 처리하여 마스킹 특징벡터를 생성하는 단계를 더 포함한다. The step of pre-training the auscultation sound analysis model further includes generating a masking feature vector by masking at least one of the plurality of feature values of the first feature vector.
상기 사전 학습 손실값을 결정하는 단계는, 상기 마스킹 특징벡터 및 상기 제2특징벡터에 기초하여 상기 사전 학습 손실값을 결정하는 단계를 포함한다. Determining the pre-learning loss value includes determining the pre-learning loss value based on the masking feature vector and the second feature vector.
상기 청진음 분석모델을 사전 학습시키는 단계는, 상기 증상 분류부의 상기 파라미터 가중치에 대한 지수 이동 평균값을 획득하는 단계; 및 상기 지수 이동 평균값에 기초하여 상기 복제된 증상 분류부의 파라미터 가중치를 조절하는 단계를 더 포함한다. Pre-training the auscultation sound analysis model includes obtaining an exponential moving average value for the parameter weight of the symptom classification unit; and adjusting parameter weights of the replicated symptom classifier based on the exponential moving average value.
상기 변환 학습데이터를 획득하는 단계는, 상기 학습데이터의 시간 성분 또는 주파수 성분 중 적어도 하나를 변환하여 상기 변환 학습데이터를 획득하는 단계를 포함한다. Obtaining the transformed learning data includes obtaining the transformed learning data by transforming at least one of a time component or a frequency component of the learning data.
상기 사전 학습된 청진음 분석모델을 지도 학습시키는 단계는, 상기 학습데이터 및 상기 실제 증상정보를 상기 사전 학습된 청진음 분석모델의 증상 분류부로 제공하여 상기 증상 분류부로부터 상기 학습데이터에 대한 증상 분류 결과를 획득하는 단계; 상기 실제 증상데이터 및 상기 증상 분류 결과에 기초하여 지도 학습 손실값을 결정하는 단계; 상기 증상 분류부의 중간 출력값 및 상기 실제 환자정보를 상기 사전 학습된 청진음 분석모델의 환자정보 분류부로 제공하여 상기 환자정보 분류부로부터 상기 학습데이터에 대한 환자정보 분류 결과를 획득하는 단계; 상기 실제 환자정보와 상기 환자정보 분류 결과에 기초하여 적대적 손실값을 결정하는 단계; 상기 지도 학습 손실값 및 상기 적대적 손실값에 기초하여 상기 사전 학습된 청진음 분석모델에 대한 최종 손실값을 결정하는 단계; 및 결정된 상기 최종 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절하는 단계를 포함한다. The step of supervised learning of the pre-trained auscultation sound analysis model includes providing the learning data and the actual symptom information to a symptom classification unit of the pre-learned auscultation sound analysis model to classify symptoms for the learning data from the symptom classification unit. obtaining a result; determining a supervised learning loss value based on the actual symptom data and the symptom classification result; Providing the intermediate output value of the symptom classification unit and the actual patient information to a patient information classification unit of the pre-learned auscultation sound analysis model to obtain a patient information classification result for the learning data from the patient information classification unit; determining an adversarial loss value based on the actual patient information and the patient information classification result; Determining a final loss value for the pre-trained auscultation sound analysis model based on the supervised learning loss value and the adversarial loss value; and adjusting parameter weights of the symptom classification unit so that the determined final loss value is minimized.
상기 학습데이터를 획득하는 단계는, 상기 청진음 데이터를 2차원 벡터 형태의 시간-주파수 응답신호로 변환하여 상기 학습데이터를 획득하는 단계를 포함한다. The step of acquiring the learning data includes converting the auscultation sound data into a time-frequency response signal in a two-dimensional vector form to obtain the learning data.
본 발명의 실시예에 따른 청진음 분석모델 학습장치는, 신경망모델 학습 프로그램이 저장된 메모리; 및 상기 신경망모델 학습 프로그램을 실행하여, 청진음 데이터를 전처리하여 학습데이터를 획득하고, 상기 학습데이터를 청진음 분석모델에 제공하여 상기 청진음 분석모델을 사전 학습시키고, 상기 학습데이터를 사전 학습된 청진음 분석모델에 제공하여 상기 사전 학습된 청진음 분석모델을 지도 학습시키는 프로세서를 포함한다. The auscultation sound analysis model learning device according to an embodiment of the present invention includes a memory storing a neural network model learning program; And executing the neural network model learning program, preprocessing the auscultation sound data to obtain learning data, providing the learning data to the auscultation sound analysis model to pre-train the auscultation sound analysis model, and pre-training the learning data to the auscultation sound analysis model. It includes a processor for supervised learning of the pre-learned auscultation sound analysis model by providing it to an auscultation sound analysis model.
상기 프로세서는, 상기 청진음 분석모델의 증상 분류부를 복제하고, 상기 학습데이터를 변환하여 변환 학습데이터를 획득하고, 상기 학습데이터를 상기 증상 분류부에 입력하여 상기 증상 분류부로부터 출력되는 제1특징벡터를 획득하고, 상기 변환 학습데이터를 복제된 증상 분류부에 입력하여 상기 복제된 증상 분류부로부터 출력되는 제2특징벡터를 획득하고, 상기 제1특징벡터 및 상기 제2특징벡터에 기초하여 상기 증상 분류부에 대한 사전 학습 손실값을 결정하고, 결정된 상기 사전 학습 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절한다. The processor replicates the symptom classification unit of the auscultation sound analysis model, converts the learning data to obtain converted learning data, inputs the learning data into the symptom classification unit, and outputs a first feature from the symptom classification unit. Obtain a vector, input the converted learning data into the duplicated symptom classifier, obtain a second feature vector output from the duplicated symptom classifier, and based on the first feature vector and the second feature vector, A pre-learning loss value for the symptom classifier is determined, and parameter weights of the symptom classifier are adjusted so that the determined pre-learning loss value is minimized.
상기 프로세서는, 상기 제1특징벡터의 복수의 특징값 중 적어도 하나를 마스킹 처리하여 마스킹 특징벡터를 생성하고, 상기 마스킹 특징벡터 및 상기 제2특징벡터에 기초하여 상기 사전 학습 손실값을 결정한다. The processor generates a masking feature vector by masking at least one of the plurality of feature values of the first feature vector, and determines the dictionary learning loss value based on the masking feature vector and the second feature vector.
상기 프로세서는, 상기 증상 분류부의 상기 파라미터 가중치에 대한 지수 이동 평균값을 획득하고, 상기 지수 이동 평균값에 기초하여 상기 복제된 증상 분류부의 파라미터 가중치를 조절한다. The processor obtains an exponential moving average value for the parameter weight of the symptom classification unit, and adjusts the parameter weight of the replicated symptom classification unit based on the exponential moving average value.
상기 프로세서는, 상기 학습데이터의 시간 성분 또는 주파수 성분 중 적어도 하나를 변환하여 상기 변환 학습데이터를 획득한다. The processor obtains the converted learning data by converting at least one of the time component or the frequency component of the learning data.
상기 프로세서는, 상기 학습데이터 및 상기 실제 증상정보를 상기 사전 학습된 청진음 분석모델의 증상 분류부로 제공하여 상기 증상 분류부로부터 상기 학습데이터에 대한 증상 분류 결과를 획득하고, 상기 실제 증상데이터 및 상기 증상 분류 결과에 기초하여 지도 학습 손실값을 결정하고, 상기 증상 분류부의 중간 출력값 및 상기 실제 환자정보를 상기 사전 학습된 청진음 분석모델의 환자정보 분류부로 제공하여 상기 환자정보 분류부로부터 상기 학습데이터에 대한 환자정보 분류 결과를 획득하고, 상기 실제 환자정보와 상기 환자정보 분류 결과에 기초하여 적대적 손실값을 결정하고, 상기 지도 학습 손실값 및 상기 적대적 손실값에 기초하여 상기 사전 학습된 청진음 분석모델에 대한 최종 손실값을 결정하고, 결정된 상기 최종 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절한다. The processor provides the learning data and the actual symptom information to a symptom classification unit of the pre-learned auscultation sound analysis model to obtain a symptom classification result for the learning data from the symptom classification unit, and obtains a symptom classification result for the learning data from the symptom classification unit. A supervised learning loss value is determined based on the symptom classification results, and the intermediate output value of the symptom classification unit and the actual patient information are provided to the patient information classification unit of the pre-trained auscultation sound analysis model to obtain the learning data from the patient information classification unit. Obtain a patient information classification result, determine an adversarial loss value based on the actual patient information and the patient information classification result, and analyze the pre-learned auscultation sound based on the supervised learning loss value and the adversarial loss value. The final loss value for the model is determined, and the parameter weights of the symptom classifier are adjusted so that the determined final loss value is minimized.
상기 프로세서는, 상기 청진음 데이터를 2차원 벡터 형태의 시간-주파수 응답신호로 변환하여 상기 학습데이터를 획득한다.The processor acquires the learning data by converting the auscultation sound data into a time-frequency response signal in a two-dimensional vector form.
본 발명은 청진음 데이터로부터 생성된 학습데이터를 이용하여 청진음 분석모델을 사전 학습시킨 후, 사전 학습된 청진음 분석모델을 다시 지도 학습시킬 수 있다. The present invention can pre-train an auscultation sound analysis model using learning data generated from auscultation sound data, and then supervised learning the pre-trained auscultation sound analysis model again.
또한, 본 발명은 청진음 분석모델이 학습데이터에 포함된 환자정보의 분류에 집중되어 학습되지 않도록 적대적 손실값을 결정하여 청진음 분석모델의 파라미터를 업데이트할 수 있다. In addition, the present invention can update the parameters of the auscultation sound analysis model by determining an adversarial loss value so that the auscultation sound analysis model is not trained by focusing on the classification of patient information included in the learning data.
이에, 본 발명은 청진음 데이터 수가 적은 환경에서 모델 학습에 의해 발생하는 데이터 분포 간극을 좁힐 수 있고, 청진음 데이터로부터 환자정보가 아닌 증상에 대한 학습이 이루어지도록 할 수 있어, 청진음 분석모델의 학습 효율 및 성능을 높일 수 있다. Accordingly, the present invention can narrow the data distribution gap caused by model learning in an environment with a small number of auscultation sound data, and enable learning about symptoms rather than patient information from auscultation sound data, so that the auscultation sound analysis model Learning efficiency and performance can be improved.
도 1은 본 발명의 실시예에 따른 청진음 분석모델의 학습장치를 나타내는 도면이다.
도 2는 도 1의 신경망모델 학습 프로그램의 기능을 개념적으로 나타내는 도면이다.
도 3은 도 2의 모델 사전 학습부의 기능을 개념적으로 나타내는 도면이다.
도 4는 도 2의 모델 지도 학습부의 기능을 개념적으로 나타내는 도면이다.
도 5는 본 발명의 청진음 분석모델을 지도 학습시키는 방법을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 청진음 분석모델을 학습시키는 방법을 나타내는 도면이다.
도 7은 도 6의 청진음 분석모델을 사전 학습시키는 방법을 나타내는 도면이다.
도 8은 도 6의 청진음 분석모델을 지도 학습시키는 방법을 나타내는 도면이다. Figure 1 is a diagram showing a learning device for an auscultation sound analysis model according to an embodiment of the present invention.
FIG. 2 is a diagram conceptually showing the function of the neural network model learning program of FIG. 1.
FIG. 3 is a diagram conceptually showing the function of the model dictionary learning unit of FIG. 2.
FIG. 4 is a diagram conceptually showing the function of the model supervised learning unit of FIG. 2.
Figure 5 is a diagram showing a method for supervised learning of the auscultation sound analysis model of the present invention.
Figure 6 is a diagram showing a method of learning an auscultation sound analysis model according to an embodiment of the present invention.
Figure 7 is a diagram showing a method for pre-training the auscultation sound analysis model of Figure 6.
Figure 8 is a diagram showing a method of supervised learning of the auscultation sound analysis model of Figure 6.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to be understood by those skilled in the art It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if a detailed description of a known function or configuration is judged to unnecessarily obscure the gist of the present invention, the detailed description will be omitted. The terms described below are defined in consideration of functions in the embodiments of the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
도 1은 본 발명의 실시예에 따른 청진음 분석모델의 학습장치를 나타내는 도면이다. Figure 1 is a diagram showing a learning device for an auscultation sound analysis model according to an embodiment of the present invention.
도 1을 참조하면, 본 실시예의 청진음 분석모델 학습장치(100)는 입출력부(110), 프로세서(120) 및 메모리(130)를 포함할 수 있다. Referring to FIG. 1, the auscultation sound analysis model learning device 100 of this embodiment may include an input/output unit 110, a processor 120, and a memory 130.
입출력부(110)는 외부로부터 청진음 데이터를 수신할 수 있다. 또한, 입출력부(110)는 후술될 프로세서(120)를 통해 청진음 데이터로부터 생성된 학습데이터를 제공받아 청진음 분석모델(200)로 출력할 수 있다. The input/output unit 110 may receive stethoscope sound data from the outside. In addition, the input/output unit 110 may receive learning data generated from auscultation sound data through the processor 120, which will be described later, and output it to the auscultation sound analysis model 200.
프로세서(120)는 입출력부(110)를 통해 청진음 데이터가 수신되면, 메모리(130)에 저장된 신경망모델 학습 프로그램(140)을 이용하여 청진음 데이터에 대응되는 학습데이터를 생성할 수 있다. When the processor 120 receives auscultation sound data through the input/output unit 110, the processor 120 may generate learning data corresponding to the auscultation sound data using the neural network model learning program 140 stored in the memory 130.
또한, 프로세서(120)는 입출력부(110)를 통해 학습데이터를 청진음 분석모델(200)로 출력하여 상기 학습데이터를 이용해 청진음 분석모델(200)을 학습시킬 수 있다.In addition, the processor 120 may output learning data to the auscultation sound analysis model 200 through the input/output unit 110 and train the auscultation sound analysis model 200 using the learning data.
여기서, 청진음 분석모델(200)은 각각이 복수의 콘볼루션(convolution) 레이어를 포함하는 증상 분류부(210) 및 환자정보 분류부(220)를 포함할 수 있다. 이러한 청진음 분석모델(200)은 프로세서(120)에 의해 학습데이터를 이용하여 적어도 2번의 학습을 수행할 수 있다. Here, the auscultation sound analysis model 200 may include a symptom classification unit 210 and a patient information classification unit 220, each of which includes a plurality of convolution layers. This auscultation sound analysis model 200 can perform learning at least twice using learning data by the processor 120.
예컨대, 프로세서(120)는 학습데이터를 이용하여 청진음 분석모델(200)을 사전 학습시킬 수 있다. 또한, 프로세서(120)는 학습데이터를 이용하여 사전 학습된 청진음 분석모델(200)을 지도 학습시킬 수 있다. 이때, 프로세서(120)는 학습데이터와 함께 라벨링 데이터, 예컨대 실제 환자의 증상정보 또는 실제 환자의 정보를 학습데이터와 함께 청진음 분석모델(200)로 제공하여, 상기 청진음 분석모델(200)을 지도 학습시킬 수 있다. For example, the processor 120 may pre-train the auscultation sound analysis model 200 using learning data. In addition, the processor 120 may supervised learning the pre-trained auscultation sound analysis model 200 using the learning data. At this time, the processor 120 provides labeling data, such as actual patient symptom information or actual patient information, together with the learning data to the auscultation sound analysis model 200, and the auscultation sound analysis model 200 It can be supervised learning.
메모리(130)는 신경망모델 학습 프로그램(140) 및 이의 실행에 필요한 정보를 저장할 수 있다. 신경망모델 학습 프로그램(140)은 입출력부(110)를 통해 제공된 청진음 데이터로부터 청진음 분석모델(200)의 학습을 위한 학습데이터를 생성하고, 생성된 학습데이터를 이용하여 청진음 분석모델(200)을 학습시킬 수 있는 명령어들을 포함하는 소프트웨어일 수 있다. The memory 130 may store the neural network model learning program 140 and information necessary for its execution. The neural network model learning program 140 generates learning data for learning the auscultation sound analysis model 200 from the auscultation sound data provided through the input/output unit 110, and uses the generated learning data to create an auscultation sound analysis model (200). ) may be software that includes instructions that can learn.
이에, 프로세서(120)는 입출력부(110)로 청진음 데이터가 수신되면, 신경망모델 학습 프로그램(140)을 실행하여 청진음 데이터로부터 학습데이터를 생성하고, 이를 청진음 분석모델(200)로 출력하여 상기 청진음 분석모델(200)을 사전 학습 및 지도 학습시킬 수 있다. Accordingly, when the processor 120 receives auscultation sound data through the input/output unit 110, the processor 120 executes the neural network model learning program 140 to generate learning data from the auscultation sound data, and outputs it to the auscultation sound analysis model 200. Thus, the auscultation sound analysis model 200 can be pre-trained and supervised learned.
도 2는 도 1의 신경망모델 학습 프로그램의 기능을 개념적으로 나타내는 도면이고, 도 3은 도 2의 모델 사전 학습부의 기능을 개념적으로 나타내는 도면이고, 도 4는 도 2의 모델 지도 학습부의 기능을 개념적으로 나타내는 도면이고, 도 5는 본 발명의 청진음 분석모델을 지도 학습시키는 방법을 나타내는 도면이다. FIG. 2 is a diagram conceptually illustrating the function of the neural network model learning program of FIG. 1, FIG. 3 is a diagram conceptually illustrating the function of the model dictionary learning unit of FIG. 2, and FIG. 4 is a diagram conceptually illustrating the function of the model supervised learning unit of FIG. 2. , and Figure 5 is a diagram showing a method for supervised learning of the auscultation sound analysis model of the present invention.
도 2를 참조하면, 본 실시예의 신경망모델 학습 프로그램(140)은 데이터 전처리부(141), 모델 사전 학습부(143) 및 모델 지도 학습부(145)를 포함할 수 있다. Referring to FIG. 2, the neural network model learning program 140 of this embodiment may include a data pre-processing unit 141, a model pre-training unit 143, and a model supervised learning unit 145.
도 2에 도시된 데이터 전처리부(141), 모델 사전 학습부(143) 및 모델 지도 학습부(145)는 본 실시예의 신경망모델 학습 프로그램(140)의 기능을 쉽게 설명하기 위해 나눈 것으로, 본 발명은 이에 제한되지 않는다. The data pre-processing unit 141, model dictionary learning unit 143, and model guidance learning unit 145 shown in FIG. 2 are divided to easily explain the function of the neural network model learning program 140 of this embodiment, and are used according to the present invention. is not limited to this.
예컨대, 데이터 전처리부(141), 모델 사전 학습부(143) 및 모델 지도 학습부(145)는 그 기능이 병합되거나 분리될 수 있으며, 하나의 프로그램에 포함된 일련의 명령어들로 구현될 수도 있다. For example, the functions of the data pre-processing unit 141, the model dictionary learning unit 143, and the model supervised learning unit 145 may be merged or separated, and may be implemented as a series of instructions included in one program. .
데이터 전처리부(141)는 입출력부(110)를 통해 제공된 청진음 데이터를 전처리하여 복수의 학습데이터를 생성할 수 있다. The data pre-processing unit 141 may generate a plurality of learning data by pre-processing the auscultation sound data provided through the input/output unit 110.
예컨대, 입출력부(110)에 수신된 청진음 데이터는 1차원 벡터 형태의 파형신호일 수 있다. 이에, 데이터 전처리부(141)는 청진음 데이터를 아래 [수학식 1]에 기초하여 2차원 벡터 형태의 주파수-시간 응답신호로 변환하는 전처리를 수행하여 청진음 데이터로부터 학습데이터를 생성할 수 있다. For example, the stethoscope sound data received by the input/output unit 110 may be a one-dimensional vector waveform signal. Accordingly, the data preprocessor 141 performs preprocessing to convert the auscultation sound data into a frequency-time response signal in the form of a two-dimensional vector based on [Equation 1] below to generate learning data from the auscultation sound data. .
[수학식 1][Equation 1]
여기서, n은 디지털 오디오 신호에서의 시간 인덱스이고, m은 합성곱 연산을위한 추가 시간 인덱스이고, w는 합성곱 연산에 사용될 하안(Hann) 혹은 가우시안(Gaussian) 창문함수(Window Function)이고, R은 이산시간 푸리에 변환의 처리 간격(hop size)이고, 는 주파수 값이고 x(n)은 n번째 이산시간에서의 오디오 신호 강도이고, 는 이산시간 mR을 중심으로 한 데이터의 이산시간 푸리에 변환 값일 수 있다. Here, n is the time index in the digital audio signal, m is the additional time index for the convolution operation, w is the Hann or Gaussian window function to be used in the convolution operation, and R is the processing interval (hop size) of the discrete-time Fourier transform, is the frequency value and x(n) is the audio signal intensity at the nth discrete time, may be a discrete-time Fourier transform value of data centered on the discrete time mR.
모델 사전 학습부(143)는 데이터 전처리부(141)에서 생성된 학습데이터를 청진음 분석모델(200)에 제공하여 상기 청진음 분석모델(200)을 사전 학습시킬 수 있다. 여기서, 모델 사전 학습부(143)는 학습데이터를 이용하여 청진음 분석모델(200)의 증상 분류부(210)를 사전 학습시킬 수 있다. The model pre-learning unit 143 may provide the learning data generated in the data pre-processing unit 141 to the auscultation sound analysis model 200 to pre-train the auscultation sound analysis model 200. Here, the model pre-training unit 143 may pre-train the symptom classification unit 210 of the auscultation sound analysis model 200 using the learning data.
도 3을 참조하면, 본 실시예의 모델 사전 학습부(143)는 신경망모델 복제부(151), 학습데이터 변환부(152), 특징벡터 마스킹부(153), 사전 학습 손실 연산부(154) 및 모델 업데이트부, 예컨대 제1업데이트부(155)를 포함할 수 있다. Referring to FIG. 3, the model dictionary learning unit 143 in this embodiment includes a neural network model replication unit 151, a learning data conversion unit 152, a feature vector masking unit 153, a dictionary learning loss calculation unit 154, and a model It may include an update unit, for example, a first update unit 155.
여기서, 설명의 편의를 위하여, 모델 사전 학습부(143)의 모델 업데이트부는 제1업데이트부로 명명하고, 후술될 모델 지도 학습부(145)의 모델 업데이트부는 제2업데이트부(163)로 명명하여 설명하기로 한다. Here, for convenience of explanation, the model update unit of the model dictionary learning unit 143 will be referred to as the first update unit, and the model update unit of the model supervised learning unit 145, which will be described later, will be referred to as the second update unit 163. I decided to do it.
신경망모델 복제부(151)는 청진음 분석모델(200)의 증상 분류부(210)를 모사하여 복제할 수 있다. The neural network model replication unit 151 may replicate the symptom classification unit 210 of the auscultation sound analysis model 200.
전술한 바와 같이, 청진음 분석모델(200)의 증상 분류부(210)는 복수의 콘볼루션 레이어를 포함할 수 있다. 이에, 신경망모델 복제부(151)는 증상 분류부(210)의 복수의 콘볼루션 레이어 각각을 복제하여 복제된 증상 분류부를 구성할 수 있다. As described above, the symptom classification unit 210 of the auscultation sound analysis model 200 may include a plurality of convolutional layers. Accordingly, the neural network model replication unit 151 may construct a replicated symptom classification unit by replicating each of the plurality of convolutional layers of the symptom classification unit 210.
학습데이터 변환부(152)는 학습데이터를 변환하여 하나 이상의 변환 학습데이터를 생성할 수 있다. The learning data conversion unit 152 may convert the learning data to generate one or more converted learning data.
여기서, 학습데이터는 데이터 전처리부(141)에 의해 2차원 벡터 형태의 주파수-시간 응답신호일 수 있다. 학습데이터 변환부(152)는 전술된 학습데이터의 주파수 성분 또는 시간 성분 중 적어도 하나를 변환하여 학습데이터로부터 하나 이상의 변환 학습데이터를 생성할 수 있다. Here, the learning data may be a frequency-time response signal in the form of a two-dimensional vector generated by the data preprocessor 141. The learning data conversion unit 152 may generate one or more converted learning data from the learning data by converting at least one of the frequency component or the time component of the above-described learning data.
예컨대, 학습데이터 변환부(152)는 학습데이터의 주파수 성분 중 일부를 클리핑(clipping)하여 제1변환 학습데이터를 생성할 수 있다. 또한, 학습데이터 변환부(152)는 학습데이터의 시간 성분 중 일부를 클리핑하여 제2변환 학습데이터를 생성할 수 있다. For example, the learning data conversion unit 152 may generate first converted learning data by clipping some of the frequency components of the learning data. Additionally, the learning data conversion unit 152 may generate second converted learning data by clipping some of the time components of the learning data.
데이터 전처리부(141)를 통해 생성된 학습데이터는 청진음 분석모델(200)의 증상 분류부(210)에 입력으로 제공되고, 학습데이터 변환부(152)를 통해 생성된 변환 학습데이터는 복제된 증상 분류부에 입력으로 제공될 수 있다. 이에, 본 실시예의 청진음 분석모델(200)은 학습데이터 및 변환 학습데이터에 기초하여 사전 학습을 수행할 수 있다. The learning data generated through the data pre-processing unit 141 is provided as input to the symptom classification unit 210 of the auscultation sound analysis model 200, and the converted learning data generated through the learning data conversion unit 152 is replicated. It can be provided as input to a symptom classification unit. Accordingly, the auscultation sound analysis model 200 of this embodiment may perform dictionary learning based on the learning data and converted learning data.
특징벡터 마스킹부(153)는 증상 분류부(210)에서 학습데이터에 대해 출력한 제1특징벡터를 획득하고, 획득된 제1특징벡터의 복수의 특징값 중 적어도 하나를 마스킹 처리하여 마스킹 특징벡터를 생성할 수 있다. The feature vector masking unit 153 acquires the first feature vector output from the symptom classification unit 210 for the learning data, and masks at least one of the plurality of feature values of the obtained first feature vector to create a masked feature vector. can be created.
예컨대, 제1특징벡터는 복수의 특징값을 갖는 N(N은 2이상인 자연수)차원 벡터일 수 있다. 특징벡터 마스킹부(153)는 전술한 제1특징벡터의 복수의 특징값 중 적어도 하나의 특징값을 마스킹 처리, 예컨대 0으로 변경할 수 있는 특징값 마스크를 생성할 수 있다. 여기서, 특징값 마스크는 제1특징벡터와 동일한 수의 특징값을 가지되, 그 중 일부 특징값이 0으로 마스킹 된 벡터일 수 있다. For example, the first feature vector may be an N-dimensional vector (N is a natural number equal to or greater than 2) with a plurality of feature values. The feature vector masking unit 153 may generate a feature value mask that can mask at least one feature value among the plurality of feature values of the above-described first feature vector, for example, change it to 0. Here, the feature value mask may be a vector that has the same number of feature values as the first feature vector, but some of the feature values are masked to 0.
이에, 특징벡터 마스킹부(153)는 아래 [수학식 2]와 같이, 제1특징벡터와 특징값 마스크 간 요소 곱을 통해 제1특징벡터에 대한 마스킹 특징벡터를 생성할 수 있다. Accordingly, the feature vector masking unit 153 may generate a masking feature vector for the first feature vector through element product between the first feature vector and the feature value mask, as shown in [Equation 2] below.
[수학식 2][Equation 2]
여기서, F는 제1특징벡터이고, M은 특징값 마스크일 수 있다. Here, F may be the first feature vector, and M may be a feature value mask.
이와 같이, 특징벡터 마스킹부(153)가 제1특징벡터의 일부 특징값을 마스킹하여 마스킹 특징벡터를 생성함으로써, 데이터 변환부(152)의 변환 데이터 생성에서 다양성 부족 문제를 해소할 수 있다. 이는, 기존의 특징벡터에 무작위 마스킹을 통한 요동(perturbation)을 주어 특징벡터의 엔트로피가 증가하는 것으로 설명 가능하다.In this way, the feature vector masking unit 153 creates a masked feature vector by masking some feature values of the first feature vector, thereby solving the problem of lack of diversity in generating converted data of the data conversion unit 152. This can be explained by perturbing the existing feature vector through random masking, thereby increasing the entropy of the feature vector.
사전 학습 손실 연산부(154)는 복제된 증상 분류부로부터 변환 학습데이터에 대해 출력한 제2특징벡터를 획득하고, 특징벡터 마스킹부(153)를 통해 생성된 마스킹 특징벡터와 제2특징벡터에 기초하여 청진음 분석모델(200)의 사전 학습에 따른 손실값, 예컨대 증상 분류부(210)의 사전 학습 손실값을 결정할 수 있다. The dictionary learning loss calculation unit 154 acquires the second feature vector output for the converted learning data from the duplicate symptom classification unit, and calculates the second feature vector based on the masking feature vector and the second feature vector generated through the feature vector masking unit 153. Thus, the loss value according to the pre-learning of the auscultation sound analysis model 200, for example, the pre-learning loss value of the symptom classification unit 210 can be determined.
여기서, 사전 학습 손실값은 아래 [수학식 3]에 따라 벡터 간 거리기반 손실값으로 결정될 수 있다. Here, the pre-learning loss value can be determined as a distance-based loss value between vectors according to [Equation 3] below.
[수학식 3][Equation 3]
여기서, F'은 마스킹 벡터이고, F''은 제2특징벡터이고, i는 차원 인덱스이고, n은 특징벡터의 전체 차원 수 일 수 있다.Here, F' is a masking vector, F'' is a second feature vector, i is a dimension index, and n may be the total number of dimensions of the feature vector.
제1업데이트부(155)는 결정된 사전 학습 손실값에 기초하여 상기 사전 학습 손실값이 최소가 되도록 청진음 분석모델(200)의 증상 분류부(210)의 하나 이상의 파라미터에 대한 가중치를 조절할 수 있다. The first update unit 155 may adjust the weight of one or more parameters of the symptom classification unit 210 of the auscultation sound analysis model 200 so that the pre-learning loss value is minimized based on the determined pre-learning loss value. .
예컨대, 제1업데이트부(155)는 아래 [수학식 4]에 따라 가중치를 산출할 수 있다. For example, the first update unit 155 may calculate the weight according to [Equation 4] below.
[수학식 4][Equation 4]
여기서, 는 증상 분류부의 이전 파라미터 가중치이고, 는 파라미터 가중치의 업데이트 정도를 지정하는 학습률이고, 는 가중치 에 대한 손실함수로부터의 경사도이고, D는 이러한 손실함수 및 경사도를 연산하는 데에 주어지는 데이터 등 정보일 수 있다. here, is the previous parameter weight of the symptom classification unit, is the learning rate that specifies the degree of update of the parameter weights, is the weight is the gradient from the loss function for , and D may be information such as data given to calculate this loss function and gradient.
제1업데이트부(155)는 산출된 가중치에 기초하여 증상 분류부(210)의 파라미터 가중치를 조절할 수 있다. The first update unit 155 may adjust the parameter weights of the symptom classification unit 210 based on the calculated weights.
또한, 제1업데이트부(155)는 조절된 파라미터 가중치에 대한 지수 이동 평균값을 산출할 수 있다. 이어, 제1업데이트부(155)는 지수 이동 평균값에 기초하여 복제된 증상 분류부의 파라미터 가중치를 조절할 수 있다. Additionally, the first update unit 155 may calculate an exponential moving average value for the adjusted parameter weights. Next, the first update unit 155 may adjust the parameter weights of the replicated symptom classification unit based on the exponential moving average value.
이와 같이, 본 실시예의 모델 사전 학습부(143)는 학습데이터로부터 변환 학습데이터를 생성하고, 이들을 이용하여 증상 분류부(210) 및 이에 대한 복제된 증상 분류부를 사전 학습시켜 결정된 손실값으로 증상 분류부(210) 및 복제된 증상 분류부 각각을 업데이트할 수 있다. 이러한 증상 분류부(210)에 대한 사전 학습은 사전 학습 손실값이 설정된 기준값 이하가 될 때까지 반복하여 수행될 수 있다. In this way, the model pre-training unit 143 of this embodiment generates converted learning data from the training data, uses these to pre-train the symptom classification unit 210 and its duplicate symptom classification unit, and classifies symptoms with the determined loss value. Each of the unit 210 and the duplicated symptom classification unit can be updated. Pre-learning for the symptom classifier 210 may be repeatedly performed until the pre-learning loss value becomes less than a set reference value.
다시 도 2를 참조하면, 모델 지도 학습부(145)는 학습데이터 및 이에 대응되는 라벨링 데이터를 이용하여 사전 학습된 청진음 분석모델(200)을 지도 학습시킬 수 있다. Referring again to FIG. 2, the model supervised learning unit 145 may supervised learning the pre-trained auscultation sound analysis model 200 using learning data and corresponding labeling data.
도 4를 참조하면, 본 실시예의 모델 지도 학습부(145)는 지도 학습 손실 연산부(161), 적대적 손실 연산부(162) 및 제2업데이트부(163)를 포함할 수 있다. Referring to FIG. 4, the supervised model learning unit 145 of this embodiment may include a supervised learning loss calculation unit 161, an adversarial loss calculation unit 162, and a second update unit 163.
도 4 및 도 5를 참조하면, 지도 학습 손실 연산부(161)는 사전 학습된 청진음 분석모델(200)의 증상 분류부(210)로부터 획득한 증상 분류 결과에 기초하여 상기 증상 분류부(210)에 대한 지도 학습 손실값을 결정할 수 있다. Referring to Figures 4 and 5, the supervised learning loss calculation unit 161 is a symptom classification unit 210 based on the symptom classification result obtained from the symptom classification unit 210 of the pre-trained auscultation sound analysis model 200. The supervised learning loss value for can be determined.
예컨대, 모델 지도 학습부(145)는 데이터 전처리부(141)에서 생성된 학습데이터를 사전 학습된 청진음 분석모델(200)의 증상 분류부(210)에 입력으로 제공할 수 있다. 또한, 모델 지도 학습부(145)는 라벨링 데이터로 실제 증상정보를 증상 분류부(210)의 입력으로 제공할 수 있다. 이에, 증상 분류부(210)는 입력된 학습데이터에 대한 증상 분류결과, 즉 학습데이터의 청진음에 대한 증상 분석 결과를 출력할 수 있다. For example, the model guidance learning unit 145 may provide learning data generated in the data pre-processing unit 141 as input to the symptom classification unit 210 of the pre-trained auscultation sound analysis model 200. Additionally, the model guidance learning unit 145 may provide actual symptom information as labeling data as input to the symptom classification unit 210. Accordingly, the symptom classification unit 210 may output a symptom classification result for the input learning data, that is, a symptom analysis result for the auscultation sound of the learning data.
지도 학습 손실 연산부(161)는 증상 분류부(210)에서 출력된 증상 분류결과를 라벨링 데이터와 비교하고, 비교 결과에 따라 지도 학습 손실값을 결정할 수 있다. 여기서, 지도 학습 손실 연산부(161)는 아래 [수학식 5]의 교차 엔트로피에 따라 지도 학습 손실값을 결정할 수 있다. The supervised learning loss calculation unit 161 may compare the symptom classification result output from the symptom classification unit 210 with the labeling data and determine a supervised learning loss value according to the comparison result. Here, the supervised learning loss calculation unit 161 may determine the supervised learning loss value according to the cross entropy of [Equation 5] below.
[수학식 5][Equation 5]
여기서, c는 증상 인덱스 이고, Pc는 진리 증상함수(해당하는 인덱스에서 1)이고, 는 증상에 대한 확률 추론일 수 있다.Here, c is the symptom index, Pc is the truth symptom function (1 at the corresponding index), can be a probability inference about symptoms.
적대적 손실 연산부(162)는 사전 학습된 청진음 분석모델(200)의 환자정보 분류부(220)로부터 획득한 환자정보 분류결과에 기초하여 환자정보 분류부(220)의 적대적 손실값을 결정할 수 있다. The adversarial loss calculation unit 162 may determine the adversarial loss value of the patient information classification unit 220 based on the patient information classification result obtained from the patient information classification unit 220 of the pre-learned auscultation sound analysis model 200. .
예컨대, 모델 지도 학습부(145)는 증상 분류부(210)의 복수의 콘볼루션 레이어 중 하나에서 출력된 중간 출력값을 환자정보 분류부(220)에 입력으로 제공할 수 있다. 또한, 모델 지도 학습부(145)는 라벨링 데이터로 실제 환자정보를 환자정보 분류부(220)의 입력으로 제공할 수 있다. 이에, 환자정보 분류부(220)는 입력된 중간 출력값에 대한 환자정보 분류결과, 즉 학습데이터에 포함된 환자의 순번, 나이, 성별 등의 환자정보에 대한 분류결과를 출력할 수 있다. For example, the model supervised learning unit 145 may provide an intermediate output value output from one of the plurality of convolutional layers of the symptom classification unit 210 as an input to the patient information classification unit 220. Additionally, the model supervised learning unit 145 can provide actual patient information as labeling data as input to the patient information classification unit 220. Accordingly, the patient information classification unit 220 may output a patient information classification result for the input intermediate output value, that is, a classification result for patient information such as patient number, age, and gender included in the learning data.
적대적 손실 연산부(162)는 환자정보 분류부(220)에서 출력된 환자정보 분류결과를 라벨링 데이터와 비교하교, 비교 결과에 따라 손실값을 결정할 수 있다. 그리고, 적대적 손실 연산부(162)는 결정된 손실값에 기초하여 상기 손실값이 커지도록 적대적 손실값을 결정할 수 있다. 여기서, 적대적 손실 연산부(162)는 아래 [수학식 6]에 따라 적대적 손실값을 결정할 수 있다. The adversarial loss calculation unit 162 may compare the patient information classification result output from the patient information classification unit 220 with the labeling data and determine a loss value according to the comparison result. Additionally, the adversarial loss calculation unit 162 may determine the adversarial loss value so that the loss value increases based on the determined loss value. Here, the adversarial loss calculation unit 162 can determine the adversarial loss value according to [Equation 6] below.
[수학식 6][Equation 6]
여기서, pid는 환자 인덱스이고, 는 진리 환자정보 함수이고, 는 환자에 대한 분류 확률 추론일 수 있다. where pid is the patient index, is the truth patient information function, may be a classification probability inference for the patient.
제2업데이트부(163)는 결정된 지도 학습 손실값 및 적대적 손실값에 기초하여 사전 학습된 청진음 분석모델(200)의 최종 손실값을 결정하고, 결정된 최종 손실값에 기초하여 상기 최종 손실값이 최소가 되도록 증상 분류부(210)의 하나 이상의 파라미터에 대한 가중치를 조절할 수 있다. The second update unit 163 determines the final loss value of the pre-trained auscultation sound analysis model 200 based on the determined supervised learning loss value and the adversarial loss value, and the final loss value is determined based on the determined final loss value. The weight of one or more parameters of the symptom classification unit 210 may be adjusted to minimize the weight.
예컨대, 제2업데이트부(163)는 아래 [수학식 7]과 같이, 지도 학습 손실값과 적대적 손실값을 합산하여 최종 손실값을 결정할 수 있다. For example, the second update unit 163 may determine the final loss value by adding the supervised learning loss value and the adversarial loss value as shown in [Equation 7] below.
[수학식 7][Equation 7]
이어, 제2업데이트부(163)는 아래 [수학식 8]과 같이, 기 결정된 최종 손실값이 최소가 되도록 하는 가중치를 산출할 수 있다. 는 상기 언급과 같이 커지는 방향으로 학습되도록 설계하므로, 이때의 최소는 일종의 안장점(saddle point)를 찾는 행위로 간주될 수 있다.Next, the second update unit 163 can calculate a weight that minimizes the predetermined final loss value, as shown in [Equation 8] below. is designed to be learned in the direction of growth as mentioned above, so the minimum at this time can be regarded as an act of finding a kind of saddle point.
[수학식 8][Equation 8]
여기서, 는 증상 분류부의 이전 파라미터 가중치이고, 는 파라미터 가중치의 업데이트 정도를 지정하는 학습률이고, 는 가중치 에 대한 손실함수로부터의 경사도이고, D는 이러한 손실함수 및 경사도를 연산하는 데에 주어지는 데이터 등 정보일 수 있다.here, is the previous parameter weight of the symptom classification unit, is the learning rate that specifies the degree of update of the parameter weights, is the weight is the gradient from the loss function for , and D may be information such as data given to calculate this loss function and gradient.
제2업데이트부(163)는 산출된 가중치에 기초하여 증상 분류부(210)의 하나 이상의 파라미터에 대한 가중치를 조절할 수 있다. The second update unit 163 may adjust the weight for one or more parameters of the symptom classification unit 210 based on the calculated weight.
이와 같이, 본 실시예의 모델 지도 학습부(145)는 학습데이터 및 이에 대응되는 라벨링 데이터를 이용하여 사전 학습된 청진음 분석모델(200)을 지도 학습시키고, 그에 따라 결정된 최종 손실값으로 청진음 분석모델(200)을 업데이트할 수 있다. 이러한 청진음 분석모델(200)에 대한 지도 학습은 최종 손실값이 설정된 기준값 이하가 될 때까지 반복하여 수행될 수 있다. In this way, the model supervised learning unit 145 of this embodiment supervised learning the pre-trained auscultation sound analysis model 200 using the learning data and the corresponding labeling data, and analyzed the auscultation sound with the final loss value determined accordingly. Model 200 can be updated. Supervised learning for this auscultation sound analysis model 200 can be repeatedly performed until the final loss value is below the set reference value.
상술한 바와 같이, 본 실시예의 청진음 분석모델 학습장치(100)는 청진음 데이터를 전처리하여 생성된 학습데이터를 이용하여 청진음 분석모델(200)을 사전 학습시키고, 사전 학습된 청진음 분석모델(200)을 학습데이터를 이용하여 지도 학습시킬 수 있다. As described above, the auscultation sound analysis model learning device 100 of this embodiment pre-trains the auscultation sound analysis model 200 using learning data generated by pre-processing the auscultation sound data, and pre-learns the auscultation sound analysis model. (200) can be supervised using learning data.
또한, 본 실시예의 청진음 분석모델 학습장치(100)는 사전 학습된 청진음 분석모델(200)의 지도 학습 시 상기 청진음 분석모델(200)이 학습데이터에 포함된 환자정보의 분류에 집중되어 학습되지 않도록 적대적 손실값을 결정하여 청진음 분석모델(200)을 업데이트할 수 있다. In addition, the auscultation sound analysis model learning device 100 of the present embodiment focuses on the classification of patient information included in the learning data when learning the pre-learned auscultation sound analysis model 200. The auscultation sound analysis model 200 can be updated by determining the adversarial loss value to prevent learning.
이에, 본 발명은 청진음 데이터 수가 적은 환경에서 모델 학습에 의해 발생하는 데이터 분포 간극을 좁힐 수 있고, 청진음 데이터로부터 환자정보가 아닌 증상에 대한 학습이 이루어지도록 할 수 있어, 청진음 분석모델(200)의 학습 효율 및 성능을 높일 수 있다. Accordingly, the present invention can narrow the data distribution gap caused by model learning in an environment with a small number of auscultation sound data, and can enable learning about symptoms rather than patient information from auscultation sound data, so that an auscultation sound analysis model ( 200) can increase learning efficiency and performance.
도 6은 본 발명의 실시예에 따른 청진음 분석모델을 학습시키는 방법을 나타내는 도면이고, 도 7은 도 6의 청진음 분석모델을 사전 학습시키는 방법을 나타내는 도면이고, 도 8은 도 6의 청진음 분석모델을 지도 학습시키는 방법을 나타내는 도면이다. Figure 6 is a diagram showing a method of learning the auscultation sound analysis model according to an embodiment of the present invention, Figure 7 is a diagram showing a method of pre-training the auscultation sound analysis model of Figure 6, and Figure 8 is a diagram showing the auscultation sound analysis model of Figure 6. This is a diagram showing a method for supervised learning of an analysis model.
도 6을 참조하면, 본 실시예의 청진음 분석모델 학습장치(100)는 입출력부(110)를 통해 청진음 데이터를 수신할 수 있다. 이에, 프로세서(120)는 메모리(130)에 저장된 신경망모델 학습 프로그램(140)을 실행하여 청진음 데이터로부터 학습데이터를 생성할 수 있다(S10).Referring to FIG. 6, the auscultation sound analysis model learning device 100 of this embodiment may receive auscultation sound data through the input/output unit 110. Accordingly, the processor 120 may generate learning data from auscultation sound data by executing the neural network model learning program 140 stored in the memory 130 (S10).
여기서, 청진음 데이터는 1차원 벡터 형태의 파형신호일 수 있다. 이에, 데이터 전처리부(141)는 입출력부(110)를 통해 제공된 청진음 데이터를 2차원 벡터 형태의 주파수-시간 응답신호로 변환하는 전처리를 통해 청진음 데이터로부터 학습데이터를 획득할 수 있다. Here, the auscultation sound data may be a waveform signal in the form of a one-dimensional vector. Accordingly, the data preprocessing unit 141 may obtain learning data from the auscultation sound data through preprocessing to convert the auscultation sound data provided through the input/output unit 110 into a frequency-time response signal in a two-dimensional vector form.
다음으로, 모델 사전 학습부(143)는 학습데이터를 이용하여 청진음 분석모델(200)을 사전 학습시킬 수 있다(S20). Next, the model pre-learning unit 143 may pre-train the auscultation sound analysis model 200 using the learning data (S20).
도 7을 참조하면, 모델 사전 학습부(143)는 학습데이터를 청진음 분석모델(200)의 증상 분류부(210)로 입력하여 상기 증상 분류부(210)에서 출력되는 제1특징벡터를 획득할 수 있다(S110). Referring to FIG. 7, the model dictionary learning unit 143 inputs the learning data into the symptom classification unit 210 of the auscultation sound analysis model 200 to obtain the first feature vector output from the symptom classification unit 210. You can do it (S110).
이어, 특징벡터 마스킹부(153)는 획득된 제1특징벡터의 복수의 특징값 중 적어도 하나를 0의 값으로 마스킹 처리하여, 마스킹 된 특징값을 포함하는 마스킹 특징벡터를 생성할 수 있다(S120).Next, the feature vector masking unit 153 may mask at least one of the plurality of feature values of the obtained first feature vector to a value of 0 to generate a masking feature vector including the masked feature value (S120) ).
다음으로, 신경망모델 복제부(151)는 청진음 분석모델(200)의 증상 분류부(210)를 모사하여 복제할 수 있다(S130). Next, the neural network model replication unit 151 may replicate the symptom classification unit 210 of the auscultation sound analysis model 200 (S130).
이때, 신경망모델 복제부(151)는 증상 분류부(210)의 모든 콘볼루션 레이어가 동일하게 모사되도록 증상 분류부(210)를 복제하여 복제된 증상 분류부를 생성할 수 있다. At this time, the neural network model replication unit 151 may generate a duplicate symptom classification unit by replicating the symptom classification unit 210 so that all convolutional layers of the symptom classification unit 210 are identically replicated.
계속해서, 학습데이터 변환부(152)는 학습데이터를 변환하여 하나 이상의 변환 학습데이터를 획득할 수 있다(S140). Subsequently, the learning data conversion unit 152 may convert the learning data to obtain one or more converted learning data (S140).
전술한 바와 같이, 학습데이터는 주파수-시간 응답신호이므로, 학습데이터 변환부(152)는 학습데이터의 주파수 성분 또는 시간 성분을 변환하여 하나 이상의 변환 학습데이터를 생성할 수 있다. As described above, since the learning data is a frequency-time response signal, the learning data conversion unit 152 can generate one or more converted learning data by converting the frequency component or time component of the learning data.
다음으로, 모델 사전 학습부(143)는 변환 학습데이터를 복제된 증상 분류부에 입력하여 상기 복제된 증상 분류부에서 출력되는 제2특징벡터를 획득할 수 있다(S150). Next, the model dictionary learning unit 143 may input the converted learning data into the replicated symptom classification unit and obtain a second feature vector output from the replicated symptom classification unit (S150).
한편, 도 7에서는 증상 분류부(210)를 통해 획득한 제1특징벡터로부터 마스킹 특징벡터를 생성한 후, 복제된 증상 분류부를 통해 제2특징벡터를 획득하는 단계가 수행되는 것으로 도시하였으나, 본 발명은 이에 제한되지 않는다. Meanwhile, in FIG. 7, the step of generating a masking feature vector from the first feature vector obtained through the symptom classifier 210 and then acquiring the second feature vector through the duplicate symptom classifier is shown. However, in this case, The invention is not limited thereto.
예컨대, 본 발명에서는, 학습데이터를 이용하여 증상 분류부(210)를 통해 획득한 제1특징벡터로부터 마스킹 특징벡터를 생성하는 단계(S110, S120)와, 변환 학습데이터를 이용하여 복제된 증상분류부를 통해 제2특징벡터를 획득하는 단계(S130, S140, S150)는 병렬적으로 진행될 수 있다. For example, in the present invention, generating a masking feature vector from the first feature vector obtained through the symptom classification unit 210 using learning data (S110, S120), and classifying replicated symptoms using the converted learning data. The steps (S130, S140, and S150) of acquiring the second feature vector through the wealth may be performed in parallel.
다음으로, 사전 학습 손실 연산부(154)는 마스킹 특징벡터와 제2특징벡터에 기초하여 청진음 분석모델(200)의 증상 분류부(210)에 대한 사전 학습 손실값을 결정할 수 있다(S160). Next, the dictionary learning loss calculation unit 154 may determine a dictionary learning loss value for the symptom classification unit 210 of the auscultation sound analysis model 200 based on the masking feature vector and the second feature vector (S160).
여기서, 사전 학습 손실 연산부(154)는 마스킹 특징벡터와 제2특징벡터 간 거리 차이에 따른 사전 학습 손실값을 결정할 수 있다. Here, the dictionary learning loss calculation unit 154 may determine a dictionary learning loss value according to the distance difference between the masking feature vector and the second feature vector.
이어, 제1업데이트부(155)는 결정된 사전 학습 손실값에 기초하여 상기 사전 학습 손실값이 최소가 되도록 증상 분류부(210)의 하나 이상의 파라미터에 대한 가중치를 조절할 수 있다. Next, the first update unit 155 may adjust the weight of one or more parameters of the symptom classification unit 210 so that the pre-learning loss value is minimized based on the determined pre-learning loss value.
그리고, 제1업데이트부(155)는 조절된 가중치에 기초하여 증상 분류부(210)의 하나 이상의 파라미터 값을 조절함으로써, 증상 분류부(210)를 업데이트할 수 있다(S170). And, the first update unit 155 may update the symptom classification unit 210 by adjusting one or more parameter values of the symptom classification unit 210 based on the adjusted weight (S170).
또한, 제1업데이트부(155)는 증상 분류부(210)의 조절된 파라미터 값에 대한 지수 이동 평균값을 산출하고, 산출된 지수 이동 평균값에 기초하여 복제된 증상 분류부의 하나 이상의 파라미터 가중치를 조절함으로써, 복제된 증상 분류부를 업데이트할 수 있다. In addition, the first update unit 155 calculates an exponential moving average value for the adjusted parameter values of the symptom classification unit 210, and adjusts the weight of one or more parameters of the replicated symptom classification unit based on the calculated exponential moving average value. , the duplicated symptom classification unit can be updated.
다시 도 6을 참조하면, 모델 지도 학습부(145)는 학습데이터 및 이에 대응되는 라벨링 데이터를 이용하여 사전 학습된 청진음 분석모델(200)을 지도 학습시킬 수 있다(S30).Referring again to FIG. 6, the model supervised learning unit 145 may supervised learning the pre-trained auscultation sound analysis model 200 using the learning data and the corresponding labeling data (S30).
도 8을 참조하면, 모델 지도 학습부(145)는 데이터 전처리부(141)에서 생성된 학습데이터와 상기 학습데이터에 대한 라벨링 데이터로 실제 증상정보를 사전 학습된 청진음 분석모델(200)의 증상 분류부(210)에 입력할 수 있다. Referring to FIG. 8, the model map learning unit 145 uses the learning data generated in the data pre-processing unit 141 and labeling data for the learning data to determine the symptoms of the pre-trained auscultation sound analysis model 200 using actual symptom information. It can be entered into the classification unit 210.
또한, 모델 지도 학습부(145)는 학습데이터와 상기 학습데이터에 대한 라벨링 데이터로 실제 환자정보를 사전 학습된 청진음 분석모델(200)의 환자정보 분류부(220)에 입력할 수 있다. In addition, the model guidance learning unit 145 can input actual patient information using learning data and labeling data for the learning data into the patient information classification unit 220 of the pre-trained auscultation sound analysis model 200.
이에, 모델 지도 학습부(145)는 증상 분류부(210)에서 출력되는 증상 분류결과 및 환자정보 분류부(220)에서 출력되는 환자정보 분류결과를 각각 획득할 수 있다(S210).Accordingly, the model guidance learning unit 145 can obtain the symptom classification result output from the symptom classification unit 210 and the patient information classification result output from the patient information classification unit 220 (S210).
다음으로, 지도 학습 손실 연산부(161)는 증상 분류부(210)에서 출력된 증상 분류결과를 라벨링 데이터와 비교하고, 비교 결과에 따라 지도 학습 손실값을 결정할 수 있다(S220).Next, the supervised learning loss calculation unit 161 may compare the symptom classification result output from the symptom classification unit 210 with the labeling data, and determine the supervised learning loss value according to the comparison result (S220).
계속해서, 적대적 손실 연산부(162)는 환자정보 분류부(220)에서 출력된 환자정보 분류결과를 라벨링 데이터와 비교하교, 비교 결과에 따라 손실값을 결정할 수 있다. 이어, 적대적 손실 연산부(162)는 결정된 손실값에 기초하여 상기 손실값이 커지도록 적대적 손실값을 결정할 수 있다(S230).Subsequently, the adversarial loss calculation unit 162 may compare the patient information classification result output from the patient information classification unit 220 with the labeling data and determine a loss value according to the comparison result. Next, the adversarial loss calculation unit 162 may determine the adversarial loss value so that the loss value increases based on the determined loss value (S230).
다음으로, 제2업데이트부(163)는 지도 학습 손실값과 적대적 손실값을 합산하여 최종 손실값을 결정할 수 있다(S240).Next, the second update unit 163 may determine the final loss value by adding the supervised learning loss value and the adversarial loss value (S240).
이에, 제2업데이트부(163)는 결정된 최종 손실값이 최소가 되도록 하는 가중치를 산출하고, 산출된 가중치에 기초하여 증상 분류부(210)의 하나 이상의 파라미터에 대한 가중치를 조절하여 상기 증상 분류부(210)를 업데이트할 수 있다(S250).Accordingly, the second update unit 163 calculates a weight so that the determined final loss value is minimal, and adjusts the weight for one or more parameters of the symptom classification unit 210 based on the calculated weight to adjust the weight of the symptom classification unit 210. (210) can be updated (S250).
이와 같이, 본 실시예의 청진음 분석모델 학습장치(100)는 청진음 데이터로부터 생성한 학습데이터를 이용하여 청진음 분석모델(200)을 사전 학습시키고, 사전 학습된 청진음 분석모델(200)을 학습데이터를 이용하여 지도 학습시킬 수 있다. In this way, the auscultation sound analysis model learning device 100 of this embodiment pre-trains the auscultation sound analysis model 200 using learning data generated from auscultation sound data, and uses the pre-learned auscultation sound analysis model 200. Supervised learning can be done using learning data.
또한, 본 실시예의 청진음 분석모델 학습장치(100)는 사전 학습된 청진음 분석모델(200)의 지도 학습 시 상기 청진음 분석모델(200)이 학습데이터에 포함된 환자정보의 분류에 집중되어 학습되지 않도록 적대적 손실값을 결정하여 청진음 분석모델(200)을 업데이트할 수 있다. In addition, the auscultation sound analysis model learning device 100 of the present embodiment focuses on the classification of patient information included in the learning data when learning the pre-learned auscultation sound analysis model 200. The auscultation sound analysis model 200 can be updated by determining the adversarial loss value to prevent learning.
이에, 본 발명은 청진음 데이터 수가 적은 환경에서 모델 학습에 의해 발생하는 데이터 분포 간극을 좁힐 수 있고, 청진음 데이터로부터 환자정보가 아닌 증상에 대한 학습이 이루어지도록 할 수 있어, 청진음 분석모델(200)의 학습 효율 및 성능을 높일 수 있다. Accordingly, the present invention can narrow the data distribution gap caused by model learning in an environment with a small number of auscultation sound data, and can enable learning about symptoms rather than patient information from auscultation sound data, so that an auscultation sound analysis model ( 200) can increase learning efficiency and performance.
이상에서 설명된 본 발명의 블록도의 각 블록과 순서도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 순서도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 순서도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 순서도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block of the block diagram of the present invention and each step of the flowchart described above may be performed by computer program instructions. Since these computer program instructions can be mounted on the encoding processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, the instructions performed through the encoding processor of the computer or other programmable data processing equipment are included in each block or block of the block diagram. Each step of the flowchart creates a means to perform the functions described. These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory The instructions stored in can also produce manufactured items containing instruction means that perform the functions described in each block of the block diagram or each step of the flowchart. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing functions described in each block of the block diagram and each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative embodiments it is possible for the functions mentioned in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown in succession may in fact be performed substantially simultaneously, or the blocks or steps may sometimes be performed in reverse order depending on the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and those skilled in the art will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention shall be interpreted in accordance with the claims below, and all technical ideas within the scope equivalent thereto shall be construed as being included in the scope of rights of the present invention.
100: 청진음 분석모델 학습장치
110: 입출력부
120: 프로세서
130: 메모리
141: 데이터 전처리부
143: 모델 사전 학습부
145: 모델 지도 학습부
200: 청진음 분석모델
210: 증상 분류부
220: 환자정보 분류부100: Auscultation sound analysis model learning device
110: input/output unit
120: processor
130: memory
141: Data preprocessing unit
143: Model pre-training unit
145: Model supervised learning unit
200: Auscultation sound analysis model
210: Symptom classification unit
220: Patient information classification unit
Claims (15)
상기 학습데이터를 청진음 분석모델에 제공하여 상기 청진음 분석모델을 사전 학습시키는 단계; 및
상기 학습데이터와 라벨링 데이터로 실제 증상정보 및 실제 환자정보를 사전 학습된 청진음 분석모델에 제공하여 상기 사전 학습된 청진음 분석모델을 지도 학습시키는 단계를 포함하는 청진음 분석모델을 학습시키는 방법.
Obtaining learning data by preprocessing auscultation sound data;
Pre-training the auscultation sound analysis model by providing the learning data to the auscultation sound analysis model; and
A method of learning an auscultation sound analysis model comprising the step of providing actual symptom information and actual patient information to a pre-learned auscultation sound analysis model using the learning data and labeling data to supervisely train the pre-learned auscultation sound analysis model.
상기 청진음 분석모델을 사전 학습시키는 단계는,
상기 청진음 분석모델의 증상 분류부를 복제하는 단계;
상기 학습데이터를 변환하여 변환 학습데이터를 획득하는 단계;
상기 학습데이터를 상기 증상 분류부에 입력하여 상기 증상 분류부로부터 출력되는 제1특징벡터를 획득하는 단계;
상기 변환 학습데이터를 복제된 증상 분류부에 입력하여 상기 복제된 증상 분류부로부터 출력되는 제2특징벡터를 획득하는 단계;
상기 제1특징벡터 및 상기 제2특징벡터에 기초하여 상기 증상 분류부에 대한 사전 학습 손실값을 결정하는 단계; 및
결정된 상기 사전 학습 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절하는 단계를 포함하는 청진음 분석모델을 학습시키는 방법.
According to paragraph 1,
The step of pre-training the auscultation sound analysis model is,
Replicating the symptom classification part of the auscultation sound analysis model;
Obtaining converted learning data by converting the learning data;
Inputting the learning data into the symptom classification unit to obtain a first feature vector output from the symptom classification unit;
Inputting the converted learning data into a duplicated symptom classifier to obtain a second feature vector output from the duplicated symptom classifier;
determining a prior learning loss value for the symptom classifier based on the first feature vector and the second feature vector; and
A method of learning an auscultation sound analysis model comprising the step of adjusting parameter weights of the symptom classification unit so that the determined pre-learning loss value is minimized.
상기 청진음 분석모델을 사전 학습시키는 단계는,
상기 제1특징벡터의 복수의 특징값 중 적어도 하나를 마스킹 처리하여 마스킹 특징벡터를 생성하는 단계를 더 포함하고,
상기 사전 학습 손실값을 결정하는 단계는,
상기 마스킹 특징벡터 및 상기 제2특징벡터에 기초하여 상기 사전 학습 손실값을 결정하는 단계를 포함하는 청진음 분석모델을 학습시키는 방법.
According to paragraph 2,
The step of pre-training the auscultation sound analysis model is,
Further comprising generating a masking feature vector by masking at least one of the plurality of feature values of the first feature vector,
The step of determining the pre-learning loss value is,
A method of training an auscultatory sound analysis model comprising determining the pre-learning loss value based on the masking feature vector and the second feature vector.
상기 청진음 분석모델을 사전 학습시키는 단계는,
상기 증상 분류부의 상기 파라미터 가중치에 대한 지수 이동 평균값을 획득하는 단계; 및
상기 지수 이동 평균값에 기초하여 상기 복제된 증상 분류부의 파라미터 가중치를 조절하는 단계를 더 포함하는 청진음 분석모델을 학습시키는 방법.
According to paragraph 2,
The step of pre-training the auscultation sound analysis model is,
Obtaining an exponential moving average value for the parameter weight of the symptom classification unit; and
A method of learning an auscultation sound analysis model further comprising adjusting parameter weights of the replicated symptom classifier based on the exponential moving average value.
상기 변환 학습데이터를 획득하는 단계는,
상기 학습데이터의 시간 성분 또는 주파수 성분 중 적어도 하나를 변환하여 상기 변환 학습데이터를 획득하는 단계를 포함하는 청진음 분석모델을 학습시키는 방법.
According to paragraph 2,
The step of acquiring the converted learning data is,
A method of learning an auscultatory sound analysis model comprising the step of obtaining the converted learning data by converting at least one of the time component or the frequency component of the learning data.
상기 사전 학습된 청진음 분석모델을 지도 학습시키는 단계는,
상기 학습데이터 및 상기 실제 증상정보를 상기 사전 학습된 청진음 분석모델의 증상 분류부로 제공하여 상기 증상 분류부로부터 상기 학습데이터에 대한 증상 분류 결과를 획득하는 단계;
상기 실제 증상데이터 및 상기 증상 분류 결과에 기초하여 지도 학습 손실값을 결정하는 단계;
상기 증상 분류부의 중간 출력값 및 상기 실제 환자정보를 상기 사전 학습된 청진음 분석모델의 환자정보 분류부로 제공하여 상기 환자정보 분류부로부터 상기 학습데이터에 대한 환자정보 분류 결과를 획득하는 단계;
상기 실제 환자정보와 상기 환자정보 분류 결과에 기초하여 적대적 손실값을 결정하는 단계;
상기 지도 학습 손실값 및 상기 적대적 손실값에 기초하여 상기 사전 학습된 청진음 분석모델에 대한 최종 손실값을 결정하는 단계; 및
결정된 상기 최종 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절하는 단계를 포함하는 청진음 분석모델을 학습시키는 방법.
According to paragraph 1,
The step of supervised learning the pre-learned auscultation sound analysis model is,
Providing the learning data and the actual symptom information to a symptom classification unit of the pre-learned auscultation sound analysis model to obtain a symptom classification result for the learning data from the symptom classification unit;
determining a supervised learning loss value based on the actual symptom data and the symptom classification result;
Providing the intermediate output value of the symptom classification unit and the actual patient information to a patient information classification unit of the pre-learned auscultation sound analysis model to obtain a patient information classification result for the learning data from the patient information classification unit;
determining an adversarial loss value based on the actual patient information and the patient information classification result;
Determining a final loss value for the pre-trained auscultation sound analysis model based on the supervised learning loss value and the adversarial loss value; and
A method of learning an auscultation sound analysis model comprising the step of adjusting parameter weights of the symptom classification unit so that the determined final loss value is minimized.
상기 학습데이터를 획득하는 단계는,
상기 청진음 데이터를 2차원 벡터 형태의 시간-주파수 응답신호로 변환하여 상기 학습데이터를 획득하는 단계를 포함하는 청진음 분석모델을 학습시키는 방법.
According to paragraph 1,
The step of acquiring the learning data is,
A method of learning an auscultation sound analysis model comprising the step of converting the auscultation sound data into a time-frequency response signal in a two-dimensional vector form to obtain the learning data.
상기 신경망모델 학습 프로그램을 실행하여, 청진음 데이터를 전처리하여 학습데이터를 획득하고, 상기 학습데이터를 청진음 분석모델에 제공하여 상기 청진음 분석모델을 사전 학습시키고, 상기 학습데이터를 사전 학습된 청진음 분석모델에 제공하여 상기 사전 학습된 청진음 분석모델을 지도 학습시키는 프로세서를 포함하는 청진음 분석모델 학습장치.
Memory where the neural network model learning program is stored; and
Execute the neural network model learning program, pre-process the auscultation sound data to obtain learning data, provide the learning data to the auscultation sound analysis model to pre-train the auscultation sound analysis model, and apply the learning data to the pre-learned auscultation sound analysis model. An auscultatory sound analysis model learning device comprising a processor for supervised learning of the pre-learned auscultation sound analysis model by providing it to a sound analysis model.
상기 프로세서는,
상기 청진음 분석모델의 증상 분류부를 복제하고, 상기 학습데이터를 변환하여 변환 학습데이터를 획득하고, 상기 학습데이터를 상기 증상 분류부에 입력하여 상기 증상 분류부로부터 출력되는 제1특징벡터를 획득하고, 상기 변환 학습데이터를 복제된 증상 분류부에 입력하여 상기 복제된 증상 분류부로부터 출력되는 제2특징벡터를 획득하고, 상기 제1특징벡터 및 상기 제2특징벡터에 기초하여 상기 증상 분류부에 대한 사전 학습 손실값을 결정하고, 결정된 상기 사전 학습 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절하는 청진음 분석모델 학습장치.
According to clause 8,
The processor,
Duplicating the symptom classification unit of the auscultation sound analysis model, converting the learning data to obtain converted learning data, inputting the learning data into the symptom classification unit to obtain a first feature vector output from the symptom classification unit, , input the converted learning data into the replicated symptom classification unit, obtain a second feature vector output from the replicated symptom classification unit, and input the converted learning data to the symptom classification unit based on the first feature vector and the second feature vector. An auscultation sound analysis model learning device that determines a pre-learning loss value for and adjusts parameter weights of the symptom classification unit so that the determined pre-learning loss value is minimized.
상기 프로세서는,
상기 제1특징벡터의 복수의 특징값 중 적어도 하나를 마스킹 처리하여 마스킹 특징벡터를 생성하고, 상기 마스킹 특징벡터 및 상기 제2특징벡터에 기초하여 상기 사전 학습 손실값을 결정하는 청진음 분석모델 학습장치.
According to clause 9,
The processor,
Learning an auscultation sound analysis model that generates a masking feature vector by masking at least one of the plurality of feature values of the first feature vector and determines the pre-learning loss value based on the masking feature vector and the second feature vector. Device.
상기 프로세서는,
상기 증상 분류부의 상기 파라미터 가중치에 대한 지수 이동 평균값을 획득하고, 상기 지수 이동 평균값에 기초하여 상기 복제된 증상 분류부의 파라미터 가중치를 조절하는 청진음 분석모델 학습장치.
According to clause 9,
The processor,
An auscultation sound analysis model learning device for obtaining an exponential moving average value for the parameter weight of the symptom classification unit and adjusting the parameter weight of the replicated symptom classification unit based on the exponential moving average value.
상기 프로세서는,
상기 학습데이터의 시간 성분 또는 주파수 성분 중 적어도 하나를 변환하여 상기 변환 학습데이터를 획득하는 청진음 분석모델 학습장치.
According to clause 9,
The processor,
An auscultation sound analysis model learning device that obtains the converted learning data by converting at least one of the time component or the frequency component of the learning data.
상기 프로세서는,
상기 학습데이터 및 상기 실제 증상정보를 상기 사전 학습된 청진음 분석모델의 증상 분류부로 제공하여 상기 증상 분류부로부터 상기 학습데이터에 대한 증상 분류 결과를 획득하고, 상기 실제 증상데이터 및 상기 증상 분류 결과에 기초하여 지도 학습 손실값을 결정하고, 상기 증상 분류부의 중간 출력값 및 상기 실제 환자정보를 상기 사전 학습된 청진음 분석모델의 환자정보 분류부로 제공하여 상기 환자정보 분류부로부터 상기 학습데이터에 대한 환자정보 분류 결과를 획득하고, 상기 실제 환자정보와 상기 환자정보 분류 결과에 기초하여 적대적 손실값을 결정하고, 상기 지도 학습 손실값 및 상기 적대적 손실값에 기초하여 상기 사전 학습된 청진음 분석모델에 대한 최종 손실값을 결정하고, 결정된 상기 최종 손실값이 최소가 되도록 상기 증상 분류부의 파라미터 가중치를 조절하는 청진음 분석모델 학습장치.
According to clause 8,
The processor,
The learning data and the actual symptom information are provided to the symptom classification unit of the pre-learned auscultation sound analysis model to obtain a symptom classification result for the learning data from the symptom classification unit, and the actual symptom data and the symptom classification result are obtained. Based on this, a supervised learning loss value is determined, and the intermediate output value of the symptom classification unit and the actual patient information are provided to the patient information classification unit of the pre-learned auscultation sound analysis model, and patient information for the learning data is collected from the patient information classification unit. Obtain a classification result, determine an adversarial loss value based on the actual patient information and the patient information classification result, and finalize the pre-trained auscultation sound analysis model based on the supervised learning loss value and the adversarial loss value. An auscultatory sound analysis model learning device that determines a loss value and adjusts parameter weights of the symptom classification unit so that the determined final loss value is minimized.
상기 프로세서는,
상기 청진음 데이터를 2차원 벡터 형태의 시간-주파수 응답신호로 변환하여 상기 학습데이터를 획득하는 청진음 분석모델 학습장치.
According to paragraph 1,
The processor,
An auscultation sound analysis model learning device that obtains the learning data by converting the auscultation sound data into a time-frequency response signal in a two-dimensional vector form.
상기 컴퓨터 프로그램은,
청진음 데이터를 전처리하여 학습데이터를 획득하는 단계;
상기 학습데이터를 청진음 분석모델에 제공하여 상기 청진음 분석모델을 사전 학습시키는 단계; 및
상기 학습데이터와 라벨링 데이터로 실제 증상정보 및 실제 환자정보를 사전 학습된 청진음 분석모델에 제공하여 상기 사전 학습된 청진음 분석모델을 지도 학습시키는 단계를 포함하는 청진음 분석모델을 학습시키는 방법을 프로세서가 수행하기 위한 명령어를 포함하는 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable recording medium,
The computer program is,
Obtaining learning data by preprocessing auscultation sound data;
Pre-training the auscultation sound analysis model by providing the learning data to the auscultation sound analysis model; and
A method of learning an auscultation sound analysis model comprising the step of providing actual symptom information and actual patient information to a pre-learned auscultation sound analysis model using the learning data and labeling data and supervised learning of the pre-learned auscultation sound analysis model. A computer program stored on a recording medium that contains instructions for execution by a processor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220188696 | 2022-12-29 | ||
KR1020220188696 | 2022-12-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240107023A true KR20240107023A (en) | 2024-07-08 |
Family
ID=91945951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230194427A KR20240107023A (en) | 2022-12-29 | 2023-12-28 | Method and device for learning of auscultation sound analysis model |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240107023A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100805181B1 (en) | 2003-10-22 | 2008-02-21 | 쓰리엠 이노베이티브 프로퍼티즈 캄파니 | Analysis of auscultatory sounds using single value decomposition |
-
2023
- 2023-12-28 KR KR1020230194427A patent/KR20240107023A/en active Search and Examination
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100805181B1 (en) | 2003-10-22 | 2008-02-21 | 쓰리엠 이노베이티브 프로퍼티즈 캄파니 | Analysis of auscultatory sounds using single value decomposition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Janisch et al. | Classification with costly features using deep reinforcement learning | |
KR102071582B1 (en) | Method and apparatus for classifying a class to which a sentence belongs by using deep neural network | |
US12061985B2 (en) | Automated construction of neural network architecture with Bayesian graph exploration | |
JP2021502650A (en) | Time-invariant classification | |
CN110826527A (en) | Electroencephalogram negative emotion recognition method and system based on aggressive behavior prediction | |
Caliskan et al. | A deep neural network classifier for decoding human brain activity based on magnetoencephalography | |
CN113887397A (en) | Classification method and classification system of electrophysiological signals based on ocean predator algorithm | |
Barajas-Montiel et al. | Identifying pain and hunger in infant cry with classifiers ensembles | |
Tran et al. | Cauchy–Schwarz Regularized Autoencoder | |
Sahu et al. | Modeling feature representations for affective speech using generative adversarial networks | |
Sinha et al. | HSCAD: Heart sound classification for accurate diagnosis using machine learning and MATLAB | |
Henderson et al. | Analyzing chest X-ray to detect the evidence of lung abnormality due to infectious disease | |
Pandian et al. | Effect of data preprocessing in the detection of epilepsy using machine learning techniques | |
KR20240107023A (en) | Method and device for learning of auscultation sound analysis model | |
Saadatinia et al. | An Explainable Deep Learning-Based Method For Schizophrenia Diagnosis Using Generative Data-Augmentation | |
Krishna et al. | Parkinson's Disease Detection from Speech Signals Using Explainable Artificial Intelligence | |
KR20190078710A (en) | Image classfication system and mehtod | |
Kachhia et al. | EEG-based Image Classification using Machine Learning Algorithms | |
Andersson et al. | Sketch classification with neural networks: A comparative study of CNN and RNN on the Quick, Draw! data set | |
Llauradó Crespo | Generative models for data augmentation for Inertial Movement Units (IMUs) | |
Jayalakshmy et al. | Respiratory signal Classification by cGAN augmented EMD-Scalograms | |
Suraj et al. | Deep Learning Approach For Human Emotion-Gender-Age Recognition | |
JP7466815B2 (en) | Information processing device | |
Monteiro da Silva et al. | A brief review and comparison of feedforward morphological neural networks with applications to classification | |
RU2819348C1 (en) | Method for graphed neural network classification for absence or presence of major depressive disorder according to fmri data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |