KR102211852B1 - Method of machine-learning by collecting features of data and apparatus thereof - Google Patents

Method of machine-learning by collecting features of data and apparatus thereof Download PDF

Info

Publication number
KR102211852B1
KR102211852B1 KR1020200034436A KR20200034436A KR102211852B1 KR 102211852 B1 KR102211852 B1 KR 102211852B1 KR 1020200034436 A KR1020200034436 A KR 1020200034436A KR 20200034436 A KR20200034436 A KR 20200034436A KR 102211852 B1 KR102211852 B1 KR 102211852B1
Authority
KR
South Korea
Prior art keywords
data
machine learning
learning model
feature
sub
Prior art date
Application number
KR1020200034436A
Other languages
Korean (ko)
Inventor
이정훈
이재환
Original Assignee
주식회사 루닛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루닛 filed Critical 주식회사 루닛
Priority to KR1020200034436A priority Critical patent/KR102211852B1/en
Priority to KR1020210007191A priority patent/KR102394758B1/en
Application granted granted Critical
Publication of KR102211852B1 publication Critical patent/KR102211852B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

The present disclosure relates to a method and device for machine learning by collecting features of medical data. The method comprises the steps of: receiving a plurality of sub-machine learning models obtained by performing machine learning on each of the plurality of learning data sets independent to each other; and obtaining an integrated machine learning model based on the plurality of sub-machine learning models.

Description

데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치 {METHOD OF MACHINE-LEARNING BY COLLECTING FEATURES OF DATA AND APPARATUS THEREOF}[METHOD OF MACHINE-LEARNING BY COLLECTING FEATURES OF DATA AND APPARATUS THEREOF}

본 개시는 데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치에 대한 것이다. 보다 구체적으로 본 개시는 데이터와 관련된 민감 정보를 보호하면서도 기계학습장치의 성능을 높이기 위한 기계 학습 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for machine learning by collecting feature points of data. More specifically, the present disclosure relates to a machine learning method and apparatus for improving the performance of a machine learning apparatus while protecting sensitive information related to data.

최상의 기계학습모델을 획득하기 위해서는 최대한 많은 데이터를 입력에 기초하여 기계학습을 수행하는 것이 필요하다. 하지만, 데이터를 저장하고 있는 물리적인 환경 또는 보안적인 문제로 인해, 데이터 센터에서 데이터를 반출하는 것이 어려운 경우가 있다. 예를 들어 데이터 센터의 대상 데이터가 의료 데이터인 경우, 민감한 개인정보로 분류되므로 데이터의 공유에 큰 제약조건이 따르게 된다. 의료 데이터는 환자의 신상정보, 환자가 앓고 있는 질환 정보, 환자가 걸릴 가능성이 높은 질환 정보 또는 환자의 가족력 등과 같이 개인정보와 관련된 민감 정보를 포함하기 때문이다. 따라서, 각 센터의 데이터 세트를 모두 이용하여 기계학습모델의 성능을 높이는 다양한 방법에 대한 연구가 계속되고 있다.In order to obtain the best machine learning model, it is necessary to perform machine learning based on as much data as possible. However, there are cases in which it is difficult to export data from a data center due to a physical environment in which data is stored or a security problem. For example, if the target data of a data center is medical data, it is classified as sensitive personal information, so there is a great constraint on data sharing. This is because medical data includes sensitive information related to personal information, such as personal information of a patient, information about a disease a patient suffers, information about a disease that a patient is likely to have, or a family history of a patient. Therefore, research on various methods of improving the performance of machine learning models by using all data sets of each center continues.

일 예로, 최근 연합 학습(Federated learning)이라는 기법이 각광을 받고 있다. 이 기법은 각 기관에 독립적인 딥러닝 모델을 설치하여, 마스터 서버(Master server)와 함께 동기화하여 통합된 데이터처럼 딥러닝 모델을 학습할 수 있도록 하는 알고리즘이다. 이는 민감데이터를 공유하지 않으면서도 공유한 효과를 낼 수 있는 알고리즘이다. For example, a technique called federated learning has recently been in the spotlight. This technique is an algorithm that installs an independent deep learning model in each institution, synchronizes it with a master server, and enables learning a deep learning model like integrated data. This is an algorithm that can exert a shared effect without sharing sensitive data.

하지만 연합 학습은 기관의 협조가 필요하다. 각 독립적인 모델이 병원에서 제공한 데이터에 접근이 가능하여야 하며, 학습된 모델이 외부의 마스터 서버에 존재하는 모델과 동기화가 될 수 있는 상황이 구현되어야 한다. 하지만 개인정보보호를 중시하는 의료기관들은 의료기관 안에서만 데이터 공유가 이루어지는 인트라 네트워크를 사용하고 있다. 따라서 외부와 단절된 상황에서 연합모델을 구현하기 위해서는 많은 어려움이 있는 실정이다.However, joint learning requires the cooperation of institutions. Each independent model must be able to access data provided by the hospital, and a situation in which the learned model can be synchronized with the model existing in the external master server must be implemented. However, medical institutions that value personal information protection are using intra networks where data is shared only within medical institutions. Therefore, there are many difficulties in implementing the federated model in a situation that is disconnected from the outside.

본 개시에 따른 기계학습방법은, 서로 독립적인 복수의 학습 데이터 세트에 각각 기계학습을 수행하여 획득된 복수의 서브 기계학습모델을 수신하는 단계 및 복수의 서브 기계학습모델에 기초하여 통합기계학습모델을 획득하는 단계를 포함한다.The machine learning method according to the present disclosure includes the steps of receiving a plurality of sub-machine learning models obtained by performing machine learning on a plurality of independent learning data sets, respectively, and an integrated machine learning model based on the plurality of sub-machine learning models. It includes the step of obtaining.

본 개시에 따른 기계학습방법의 복수의 서브 기계학습모델을 수신하는 단계는, 복수의 학습 데이터 세트에 포함되는 제 1 학습 데이터 세트에 기초하여 기계학습된 제 1 서브 기계학습모델을 수신하는 단계 및 복수의 학습 데이터 세트에 포함되는 제 2 학습 데이터 세트에 기초하여 기계학습된 제 2 서브 기계학습모델을 수신하는 단계를 포함하고, 통합기계학습모델을 획득하는 단계는 제 1 서브 기계학습모델 및 제 2 서브 기계학습모델을 병합하여 통합기계학습모델을 획득하는 단계를 포함한다.The receiving of the plurality of sub-machine learning models of the machine learning method according to the present disclosure includes receiving a first sub-machine learning model machine-learned based on a first training data set included in the plurality of training data sets, and And receiving a second sub-machine learning model machine-learned based on a second learning data set included in the plurality of learning data sets, and obtaining the integrated machine learning model comprises: a first sub-machine learning model and a first sub-machine learning model. 2 and merging the sub-machine learning models to obtain an integrated machine learning model.

본 개시에 따른 기계학습방법은, 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터에 통합기계학습모델을 적용하여 획득된 제 1 특징 데이터를 수신하는 단계, 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터에 통합기계학습모델을 적용하여 획득된 제 2 특징 데이터를 수신하는 단계 및 제 1 특징 데이터 및 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터의 상관 관계 그리고 제 2 특징 데이터 및 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터의 상관 관계를 기계학습하여 최종기계학습모델을 획득하는 단계를 더 포함한다.The machine learning method according to the present disclosure includes receiving first feature data obtained by applying an integrated machine learning model to first analysis target data included in a first learning data set, 2 Receiving the second feature data obtained by applying the integrated machine learning model to the data to be analyzed, the correlation between the first feature data and the first analysis result data included in the first training data set, and the second feature data and And obtaining a final machine learning model by machine learning the correlation between the second analysis result data included in the second learning data set.

본 개시에 따른 기계학습방법은, 테스트 데이터에 통합기계학습모델을 적용하여 획득된 예측 특징 데이터를 수신하는 단계, 예측 특징 데이터에 최종기계학습모델을 적용하여 테스트 데이터에 대응하는 예측 결과 데이터를 획득하는 단계를 더 포함한다.The machine learning method according to the present disclosure includes receiving predicted feature data obtained by applying an integrated machine learning model to test data, and obtaining prediction result data corresponding to the test data by applying a final machine learning model to the predicted feature data. It further includes the step of.

본 개시에 따른 기계학습방법의 복수의 학습 데이터 세트는 서로 다른 환경에서 획득된 의료 영상과 관련된 데이터이다.The plurality of training data sets of the machine learning method according to the present disclosure are data related to medical images acquired in different environments.

본 개시에 따른 기계학습방법의 제 1 특징 데이터, 제 2 특징 데이터 및 예측 특징 데이터는 제 1 분석 대상 데이터, 제 2 분석 대상 데이터 및 테스트 데이터를 손실 압축한 데이터이다.The first feature data, the second feature data, and the predicted feature data of the machine learning method according to the present disclosure are data obtained by lossy compression of the first analysis target data, the second analysis target data, and the test data.

본 개시에 따른 기계학습방법의 제 1 분석 대상 데이터, 제 2 분석 대상 데이터 및 테스트 데이터는 개인정보가 포함되고, 제 1 특징 데이터, 제 2 특징 데이터 및 예측 특징 데이터는 개인정보가 식별되지 않는다.In the machine learning method according to the present disclosure, personal information is included in the first analysis target data, the second analysis target data, and the test data, and personal information is not identified in the first feature data, the second feature data, and the predicted feature data.

본 개시에 따른 기계학습방법의 복수의 서브 기계학습모델은 CNN(Convolution Neural Network)를 이용하여 획득된다.A plurality of sub-machine learning models of the machine learning method according to the present disclosure are obtained using a Convolution Neural Network (CNN).

본 개시에 따른 기계학습방법의 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터는 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터를 사용자가 분석한 결과이고, 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터는 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터를 사용자가 분석한 결과이다.The first analysis result data included in the first training data set of the machine learning method according to the present disclosure is a result of the user analyzing the first analysis target data included in the first training data set, and is included in the second training data set. The second analysis result data is a result of the user analyzing the second analysis target data included in the second training data set.

본 개시에 따른 기계학습방법의 제 1 특징 데이터는 제 1 분석 대상 데이터를 제 1 서브 기계학습모델에 적용하여 획득되는 제 1 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 제 1 분석 대상 데이터를 제 2 서브 기계학습모델에 적용하여 획득되는 제 2 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터이고, 제 2 특징 데이터는 제 2 분석 대상 데이터를 제 1 서브 기계학습모델에 적용하여 획득되는 제 3 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 제 2 분석 대상 데이터를 제 2 서브 기계학습모델에 적용하여 획득되는 제 4 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터이다.The first feature data of the machine learning method according to the present disclosure includes at least one feature layer and first analysis target data among the first plurality of feature layers obtained by applying the first analysis target data to the first sub-machine learning model. Data obtained by combining at least one feature layer from among the second plurality of feature layers obtained by applying to the second sub-machine learning model, and the second feature data is obtained by applying the second analysis target data to the first sub-machine learning model This is data obtained by combining at least one feature layer among the third plurality of feature layers and at least one feature layer among the fourth plurality of feature layers obtained by applying the second analysis target data to the second sub-machine learning model.

본 개시에 따른 기계학습방법의 제 1 복수의 특징 레이어들, 제 2 복수의 특징 레이어들, 제 3 복수의 특징 레이어들 및 제 4 복수의 특징 레이어들에서 동일 위치의 레이어를 선택하여, 제 1 특징 데이터 및 제 2 특징 데이터가 획득된다.In the machine learning method according to the present disclosure, a first plurality of feature layers, a second plurality of feature layers, a third plurality of feature layers, and a fourth plurality of feature layers are selected from the same position layer, Feature data and second feature data are obtained.

본 개시에 따른 기계학습방법은, 통합기계학습모델을 획득하는 단계, 통합기계학습모델을 서로 독립적인 복수의 학습 데이터 세트에 포함된 복수의 분석 대상 데이터에 적용하여 획득된 복수의 특징 데이터를 수신하는 단계 및 복수의 특징 데이터와 복수의 학습 데이터 세트에 포함된 복수의 분석 결과 데이터 사이의 관계를 기계학습하여 최종기계학습모델을 획득하는 단계를 포함한다.The machine learning method according to the present disclosure includes the steps of obtaining an integrated machine learning model, and receiving a plurality of feature data obtained by applying the integrated machine learning model to a plurality of data to be analyzed included in a plurality of independent learning data sets. And acquiring a final machine learning model by machine learning the relationship between the plurality of feature data and the plurality of analysis result data included in the plurality of training data sets.

본 개시에 따른 기계학습방법은, 테스트 데이터를 통합기계학습모델에 적용하여 획득된 예측 특징 데이터를 수신하는 단계 및 예측 특징 데이터를 최종기계학습모델에 적용하여 테스트 데이터에 관련된 예측 결과 데이터를 획득하는 단계를 포함한다.The machine learning method according to the present disclosure includes receiving predicted feature data obtained by applying test data to an integrated machine learning model, and obtaining prediction result data related to the test data by applying the predicted feature data to a final machine learning model. Includes steps.

본 개시에 따른 기계학습방법의 통합기계학습모델을 획득하는 단계는, 복수의 학습 데이터 세트에 포함되고, 제 1 분석 대상 데이터 및 제 1 분석 결과 데이터를 포함하는 제 1 학습 데이터 세트를 기계학습한 제 1 서브 기계학습모델을 수신하는 단계, 복수의 학습 데이터 세트에 포함되고, 제 1 학습 데이터 세트와 독립적이고, 제 2 분석 대상 데이터 및 제 2 분석 결과 데이터를 포함하는 제 2 데이터 세트를 기계학습한 제 2 서브 기계학습모델을 수신하는 단계 및 제 1 서브 기계학습모델 및 제 2 서브 기계학습모델을 병합하여 통합기계학습모델을 획득하는 단계를 포함한다.The step of obtaining an integrated machine learning model of the machine learning method according to the present disclosure includes machine learning of a first learning data set that is included in a plurality of learning data sets and includes first analysis target data and first analysis result data. Receiving a first sub-machine learning model, included in the plurality of training data sets, independent from the first training data set, and machine learning a second data set including the second analysis target data and the second analysis result data And receiving a second sub machine learning model, and merging the first sub machine learning model and the second sub machine learning model to obtain an integrated machine learning model.

본 개시에 따른 기계학습장치는 프로세서 및 메모리를 포함하고, 프로세서는 메모리에 저장된 명령어에 기초하여, 서로 독립적인 복수의 학습 데이터 세트에 각각 기계학습을 수행하여 획득된 복수의 서브 기계학습모델을 수신하고, 복수의 서브 기계학습모델에 기초하여 통합기계학습모델을 획득한다.The machine learning apparatus according to the present disclosure includes a processor and a memory, and the processor receives a plurality of sub-machine learning models obtained by performing machine learning on a plurality of independent learning data sets, respectively, based on instructions stored in the memory. Then, an integrated machine learning model is obtained based on a plurality of sub-machine learning models.

본 개시에 따른 기계학습장치는 프로세서는 메모리에 저장된 명령어에 기초하여, 복수의 학습 데이터 세트에 포함되는 제 1 학습 데이터 세트에 기초하여 기계학습된 제 1 서브 기계학습모델을 수신하고, 복수의 학습 데이터 세트에 포함되는 제 2 학습 데이터 세트에 기초하여 기계학습된 제 2 서브 기계학습모델을 수신하고, 제 1 서브 기계학습모델 및 제 2 서브 기계학습모델을 병합하여 통합기계학습모델을 획득한다.In the machine learning apparatus according to the present disclosure, the processor receives a machine-learned first sub-machine learning model based on a first learning data set included in a plurality of learning data sets, based on instructions stored in a memory, and learns a plurality of A second sub machine learning model machine-learned based on a second learning data set included in the data set is received, and the first sub machine learning model and the second sub machine learning model are merged to obtain an integrated machine learning model.

본 개시에 따른 기계학습장치는 프로세서는 메모리에 저장된 명령어에 기초하여, 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터에 통합기계학습모델을 적용하여 획득된 제 1 특징 데이터를 수신하고, 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터에 통합기계학습모델을 적용하여 획득된 제 2 특징 데이터를 수신하고, 제 1 특징 데이터 및 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터의 상관 관계 그리고 제 2 특징 데이터 및 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터의 상관 관계를 기계학습하여 최종기계학습모델을 획득한다.In the machine learning apparatus according to the present disclosure, the processor receives first feature data obtained by applying an integrated machine learning model to first analysis target data included in a first learning data set, based on instructions stored in a memory, and 2 Receive second feature data obtained by applying an integrated machine learning model to second analysis target data included in the training data set, and correlate the first feature data and the first analysis result data included in the first training data set A final machine learning model is obtained by machine learning the relationship and the correlation between the second feature data and the second analysis result data included in the second learning data set.

본 개시에 따른 기계학습장치는 프로세서는 메모리에 저장된 명령어에 기초하여, 테스트 데이터에 통합기계학습모델을 적용하여 획득된 예측 특징 데이터를 수신하고, 예측 특징 데이터에 최종기계학습모델을 적용하여 테스트 데이터에 대응하는 예측 결과 데이터를 획득한다.In the machine learning apparatus according to the present disclosure, the processor receives predicted feature data obtained by applying an integrated machine learning model to test data based on instructions stored in a memory, and applies the final machine learning model to the predicted feature data to test data. Acquire prediction result data corresponding to.

본 개시에 따른 기계학습장치의 복수의 학습 데이터 세트는 서로 다른 환경에서 획득된 의료 영상과 관련된 데이터이다.The plurality of training data sets of the machine learning apparatus according to the present disclosure are data related to medical images acquired in different environments.

본 개시에 따른 기계학습장치의 제 1 특징 데이터, 제 2 특징 데이터 및 예측 특징 데이터는 제 1 분석 대상 데이터, 제 2 분석 대상 데이터 및 테스트 데이터를 손실 압축한 데이터이다.The first feature data, the second feature data, and the predicted feature data of the machine learning apparatus according to the present disclosure are data obtained by lossy compression of the first analysis target data, the second analysis target data, and the test data.

본 개시에 따른 기계학습장치의 제 1 분석 대상 데이터, 제 2 분석 대상 데이터 및 테스트 데이터는 개인정보가 포함되고, 제 1 특징 데이터, 제 2 특징 데이터 및 예측 특징 데이터는 개인정보가 식별되지 않는다.The first analysis target data, the second analysis target data, and the test data of the machine learning apparatus according to the present disclosure include personal information, and the first feature data, the second feature data, and the predicted feature data are not identified as personal information.

본 개시에 따른 기계학습장치의 복수의 서브 기계학습모델은 CNN(Convolution Neural Network)를 이용하여 획득된다.A plurality of sub-machine learning models of the machine learning apparatus according to the present disclosure are obtained using a Convolution Neural Network (CNN).

본 개시에 따른 기계학습장치의 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터는 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터를 사용자가 분석한 결과이고, 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터는 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터를 사용자가 분석한 결과이다.The first analysis result data included in the first training data set of the machine learning apparatus according to the present disclosure is a result of the user analyzing the first analysis target data included in the first training data set, and is included in the second training data set. The second analysis result data is a result of the user analyzing the second analysis target data included in the second training data set.

본 개시에 따른 기계학습장치의 제 1 특징 데이터는 제 1 분석 대상 데이터를 제 1 서브 기계학습모델에 적용하여 획득되는 제 1 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 제 1 분석 대상 데이터를 제 2 서브 기계학습모델에 적용하여 획득되는 제 2 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터이고, 제 2 특징 데이터는 제 2 분석 대상 데이터를 제 1 서브 기계학습모델에 적용하여 획득되는 제 3 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 제 2 분석 대상 데이터를 제 2 서브 기계학습모델에 적용하여 획득되는 제 4 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터이다.The first feature data of the machine learning apparatus according to the present disclosure includes at least one feature layer and first analysis target data among the first plurality of feature layers obtained by applying the first analysis target data to the first sub-machine learning model. Data obtained by combining at least one feature layer from among the second plurality of feature layers obtained by applying to the second sub-machine learning model, and the second feature data is obtained by applying the second analysis target data to the first sub-machine learning model This is data obtained by combining at least one feature layer among the third plurality of feature layers and at least one feature layer among the fourth plurality of feature layers obtained by applying the second analysis target data to the second sub-machine learning model.

본 개시에 따른 기계학습장치의 제 1 복수의 특징 레이어들, 제 2 복수의 특징 레이어들, 제 3 복수의 특징 레이어들 및 제 4 복수의 특징 레이어들에서 동일 위치의 레이어를 선택하여, 제 1 특징 데이터 및 제 2 특징 데이터가 획득된다.A first plurality of feature layers, a second plurality of feature layers, a third plurality of feature layers, and a fourth plurality of feature layers of the machine learning apparatus according to the present disclosure select a layer at the same position, Feature data and second feature data are obtained.

본 개시에 따른 기계학습장치는 프로세서 및 메모리를 포함하고, 프로세서는 메모리에 저장된 명령어에 기초하여, 통합기계학습모델을 획득하고, 통합기계학습모델을 서로 독립적인 복수의 학습 데이터 세트에 포함된 복수의 분석 대상 데이터에 적용하여 획득된 복수의 특징 데이터를 수신하고, 복수의 특징 데이터와 복수의 학습 데이터 세트에 포함된 복수의 분석 결과 데이터 사이의 관계를 기계학습하여 최종기계학습모델을 획득한다.The machine learning apparatus according to the present disclosure includes a processor and a memory, and the processor acquires an integrated machine learning model based on instructions stored in the memory, and includes a plurality of integrated machine learning models in a plurality of independent learning data sets. A plurality of feature data obtained by applying to the analysis target data is received, and the relationship between the plurality of feature data and the plurality of analysis result data included in the plurality of training data sets is machine-learned to obtain a final machine learning model.

본 개시에 따른 기계학습장치의 프로세서는 메모리에 저장된 명령어에 기초하여, 테스트 데이터를 통합기계학습모델에 적용하여 획득된 예측 특징 데이터를 수신하고, 예측 특징 데이터를 최종기계학습모델에 적용하여 테스트 데이터에 관련된 예측 결과 데이터를 획득한다.The processor of the machine learning apparatus according to the present disclosure receives the predicted feature data obtained by applying test data to the integrated machine learning model based on instructions stored in the memory, and applies the predicted feature data to the final machine learning model. Acquire prediction result data related to.

본 개시에 따른 기계학습장치의 프로세서는 메모리에 저장된 명령어에 기초하여, 복수의 학습 데이터 세트에 포함되고, 제 1 분석 대상 데이터 및 제 1 분석 결과 데이터를 포함하는 제 1 학습 데이터 세트를 기계학습한 제 1 서브 기계학습모델을 수신하고, 복수의 학습 데이터 세트에 포함되고, 제 1 학습 데이터 세트와 독립적이고, 제 2 분석 대상 데이터 및 제 2 분석 결과 데이터를 포함하는 제 2 데이터 세트를 기계학습한 제 2 서브 기계학습모델을 수신하고, 제 1 서브 기계학습모델 및 제 2 서브 기계학습모델을 병합하여 통합기계학습모델을 획득한다.The processor of the machine learning apparatus according to the present disclosure machine-learns a first training data set that is included in a plurality of training data sets and includes first analysis target data and first analysis result data, based on instructions stored in a memory. Machine learning of a second data set including the second analysis target data and the second analysis result data, which is included in the plurality of training data sets, is independent from the first training data set, and receives the first sub machine learning model. The second sub machine learning model is received, and the first sub machine learning model and the second sub machine learning model are merged to obtain an integrated machine learning model.

또한, 상술한 바와 같은 기계학습장치의 동작 방법을 구현하기 위한 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다.Further, a program for implementing the method of operating the machine learning apparatus as described above may be recorded in a computer-readable recording medium.

도 1은 본 개시의 일 실시예에 따른 기계학습장치(100)의 블록도이다.
도 2는 본 개시의 일 실시예에 따른 기계학습장치를 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따른 기계학습장치의 동작을 나타내는 흐름도이다.
도 4는 본 개시의 일 실시예에 따라 통합기계학습모델을 획득하는 과정을 나타낸 도면이다.
도 5는 본 개시의 일 실시예에 따라 서브 기계학습모델을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시예에 따라 최종기계학습모델을 생성하는 방법을 나타낸 흐름도이다.
도 7은 본 개시의 일 실시예에 따른 최종기계학습모델을 생성하는 방법을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시예에 따른 특징 데이터를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시예에 따라 특징 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시예에 따라 특징 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시예에 따라 최종기계학습모델(710)을 생성하는 과정을 나타낸 도면이다.
도 12는 본 개시의 일 실시예에 따른 기계학습장치의 동작을 나타내는 흐름도이다.
도 13은 본 개시의 일 실시예에 따라 기계학습장치의 동작을 설명하기 위한 도면이다.
1 is a block diagram of a machine learning apparatus 100 according to an embodiment of the present disclosure.
2 is a diagram illustrating a machine learning apparatus according to an embodiment of the present disclosure.
3 is a flowchart illustrating an operation of a machine learning apparatus according to an embodiment of the present disclosure.
4 is a diagram illustrating a process of obtaining an integrated machine learning model according to an embodiment of the present disclosure.
5 is a diagram for explaining a process of generating a sub machine learning model according to an embodiment of the present disclosure.
6 is a flowchart illustrating a method of generating a final machine learning model according to an embodiment of the present disclosure.
7 is a diagram illustrating a method of generating a final machine learning model according to an embodiment of the present disclosure.
8 is a diagram for describing feature data according to an embodiment of the present disclosure.
9 is a diagram for describing a process of generating feature data according to an embodiment of the present disclosure.
10 is a diagram for describing a process of generating feature data according to an embodiment of the present disclosure.
11 is a diagram illustrating a process of generating a final machine learning model 710 according to an embodiment of the present disclosure.
12 is a flowchart illustrating an operation of a machine learning apparatus according to an embodiment of the present disclosure.
13 is a diagram for describing an operation of a machine learning apparatus according to an embodiment of the present disclosure.

개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments, and a method of achieving them will become apparent with reference to the embodiments described below together with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the present disclosure complete, and those skilled in the art to which the present disclosure pertains. It is provided only to fully inform the person of the scope of the invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.The terms used in the present specification will be briefly described, and the disclosed embodiments will be described in detail.

본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present specification have selected general terms that are currently widely used as possible while considering functions in the present disclosure, but this may vary according to the intention or precedent of a technician engaged in a related field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, not the name of a simple term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.In this specification, expressions in the singular include plural expressions, unless the context clearly specifies that they are singular. In addition, plural expressions include expressions in the singular unless explicitly specified as plural in context.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated.

또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.In addition, the term "unit" used in the specification refers to a software or hardware component, and "unit" performs certain roles. However, "unit" is not meant to be limited to software or hardware. The “unit” may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, "unit" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided within the components and "units" may be combined into a smaller number of components and "units" or may be further separated into additional components and "units".

본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA) 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.According to an embodiment of the present disclosure, the "unit" may be implemented with a processor and a memory. The term “processor” is to be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like. In some circumstances, “processor” may refer to an application specific application (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), and the like. The term “processor” refers to a combination of processing devices, such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such configuration. You can also refer to it.

용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.The term "memory" should be interpreted broadly to include any electronic component capable of storing electronic information. The term memory refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase-programmable read-only memory (EPROM), electrical May refer to various types of processor-readable media such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like. The memory is said to be in electronic communication with the processor if it can read information from and/or write information to the memory. The memory integrated in the processor is in electronic communication with the processor.

아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the embodiments. In the drawings, parts not related to the description are omitted in order to clearly describe the present disclosure.

도 1은 본 개시의 일 실시예에 따른 기계학습장치(100)의 블록도이다.1 is a block diagram of a machine learning apparatus 100 according to an embodiment of the present disclosure.

도 1을 참조하면, 일 실시예에 따른 기계학습장치(100)는 데이터 학습부(110) 또는 데이터 인식부(120) 중 적어도 하나를 포함할 수 있다. 상술한 바와 같은 기계학습장치(100)는 프로세서 및 메모리를 포함할 수 있다.Referring to FIG. 1, the machine learning apparatus 100 according to an embodiment may include at least one of a data learning unit 110 and a data recognition unit 120. The machine learning apparatus 100 as described above may include a processor and a memory.

데이터 학습부(110)는 데이터 세트를 이용하여 타겟 태스크(target task)를 수행하기 위한 기계학습모델을 학습할 수 있다. 데이터 학습부(110)는 데이터 세트 및 타겟 태스크와 관련된 레이블 정보를 수신할 수 있다. 데이터 학습부(110)는 데이터 세트와 레이블 정보의 관계에 대해 기계학습을 수행하여 기계학습모델을 획득할 수 있다. 데이터 학습부(110)가 획득한 기계학습모델은 데이터 세트를 이용하여 레이블 정보를 생성하기 위한 모델일 수 있다. The data learning unit 110 may learn a machine learning model for performing a target task using a data set. The data learning unit 110 may receive label information related to a data set and a target task. The data learning unit 110 may acquire a machine learning model by performing machine learning on the relationship between the data set and label information. The machine learning model acquired by the data learning unit 110 may be a model for generating label information using a data set.

데이터 인식부(120)는 데이터 학습부(110)의 기계학습모델을 수신하여 저장하고 있을 수 있다. 데이터 인식부(120)는 입력 데이터에 기계학습모델을 적용하여 레이블 정보를 출력할 수 있다. 또한, 데이터 인식부(120)는 입력 데이터, 레이블 정보 및 기계학습모델에 의해 출력된 결과를 기계학습모델을 갱신하는데 이용할 수 있다.The data recognition unit 120 may receive and store the machine learning model of the data learning unit 110. The data recognition unit 120 may output label information by applying a machine learning model to input data. In addition, the data recognition unit 120 may use input data, label information, and results output by the machine learning model to update the machine learning model.

데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 이미 설명한 각종 전자 장치에 탑재될 수도 있다.At least one of the data learning unit 110 and the data recognition unit 120 may be manufactured in the form of at least one hardware chip and mounted on an electronic device. For example, at least one of the data learning unit 110 and the data recognition unit 120 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general-purpose processor (eg, a CPU Alternatively, it may be manufactured as a part of an application processor) or a graphics dedicated processor (eg, a GPU) and mounted on various electronic devices previously described.

또한 데이터 학습부(110) 및 데이터 인식부(120)는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 하나는 전자 장치에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(110) 및 데이터 인식부(120)는 유선 또는 무선으로 통하여, 데이터 학습부(110)가 구축한 기계학습모델 정보를 데이터 인식부(120)로 제공할 수도 있고, 데이터 인식부(120)로 입력된 데이터가 추가 학습 데이터로써 데이터 학습부(110)로 제공될 수도 있다.In addition, the data learning unit 110 and the data recognition unit 120 may be mounted on separate electronic devices, respectively. For example, one of the data learning unit 110 and the data recognition unit 120 may be included in the electronic device, and the other may be included in the server. In addition, the data learning unit 110 and the data recognition unit 120 may provide the machine learning model information built by the data learning unit 110 to the data recognition unit 120 through wired or wireless communication. Data input to the unit 120 may be provided to the data learning unit 110 as additional learning data.

한편, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 메모리 또는 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다. Meanwhile, at least one of the data learning unit 110 and the data recognition unit 120 may be implemented as a software module. When at least one of the data learning unit 110 and the data recognition unit 120 is implemented as a software module (or a program module including an instruction), the software module is a memory or a computer-readable ratio. It may be stored in a non-transitory computer readable media. In addition, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.

본 개시의 일 실시예에 따른 데이터 학습부(110)는 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115)를 포함할 수 있다.The data learning unit 110 according to an embodiment of the present disclosure includes a data acquisition unit 111, a preprocessor 112, a training data selection unit 113, a model learning unit 114, and a model evaluation unit 115. Can include.

데이터 획득부(111)는 기계학습에 필요한 데이터를 획득할 수 있다. 학습을 위해서는 많은 데이터가 필요하므로, 데이터 획득부(111)는 복수의 데이터를 포함하는 데이터 세트를 수신할 수 있다. The data acquisition unit 111 may acquire data necessary for machine learning. Since a lot of data is required for learning, the data acquisition unit 111 may receive a data set including a plurality of data.

복수의 데이터 각각에 대하여 레이블 정보가 할당될 수 있다. 레이블 정보는 복수의 데이터의 각각을 설명하는 정보일 수 있다. 레이블 정보는 타겟 태스크(target task)가 도출하고자 하는 정보일 수 있다. 레이블 정보는 사용자 입력으로부터 획득되거나, 메모리로부터 획득되거나, 기계학습모델의 결과로부터 획득될 수 있다. 예를 들어 타겟 태스크가 영상으로부터 특정 물체의 존재 여부를 결정하는 것이라면, 복수의 데이터는 복수의 영상 데이터가 될 것이며 레이블 정보는 복수의 영상 각각에 특정 물체가 있는지 여부가 될 것이다.Label information may be assigned to each of a plurality of data. The label information may be information describing each of a plurality of pieces of data. The label information may be information to be derived by a target task. The label information may be obtained from a user input, a memory, or a result of a machine learning model. For example, if the target task is to determine whether a specific object exists from an image, the plurality of data will be a plurality of image data, and the label information will be whether a specific object exists in each of the plurality of images.

전처리부(112)는 수신된 데이터가 기계학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(112)는 후술할 모델 학습부(114)가 이용할 수 있도록, 획득된 데이터 세트를 미리 설정된 포맷으로 가공할 수 있다. The preprocessor 112 may preprocess the acquired data so that the received data can be used for machine learning. The preprocessor 112 may process the acquired data set into a preset format so that the model learning unit 114 to be described later can use it.

학습 데이터 선택부(113)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(114)에 제공될 수 있다. 학습 데이터 선택부(113)는 기 설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(113)는 후술할 모델 학습부(114)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.The learning data selection unit 113 may select data necessary for learning from among the preprocessed data. The selected data may be provided to the model learning unit 114. The learning data selection unit 113 may select data necessary for learning from among preprocessed data according to a preset criterion. In addition, the training data selection unit 113 may select data according to a preset criterion by learning by the model learning unit 114 to be described later.

모델 학습부(114)는 데이터 세트에 기초하여 어떤 레이블 정보를 출력할 지에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(114)는 데이터 세트 및 데이터 세트에 대한 레이블 정보를 학습 데이터로써 이용하여 기계학습을 수행할 수 있다. 또한 모델 학습부(114)는 기존에 획득된 기계학습모델을 추가적으로 이용하여 기계학습을 수행할 수 있다. 이 경우, 기존에 획득된 기계학습모델은 미리 구축된 모델일 수 있다. 예를 들어, 기계학습모델은 기본 학습 데이터를 입력 받아 미리 구축된 모델일 수 있다.The model learning unit 114 may learn a criterion for which label information is to be output based on the data set. Also, the model learning unit 114 may perform machine learning by using the data set and label information on the data set as training data. In addition, the model learning unit 114 may perform machine learning by additionally using the previously acquired machine learning model. In this case, the previously acquired machine learning model may be a pre-built model. For example, the machine learning model may be a model built in advance by receiving basic training data.

기계학습모델은, 학습모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 기계학습모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), BRDNN (Bidirectional Recurrent Deep Neural Network), Convolutional Neural Networks (CNN)과 같은 모델이 기계학습모델로써 사용될 수 있으나, 이에 한정되지 않는다.The machine learning model may be constructed in consideration of the application field of the learning model, the purpose of learning, or the computer performance of the device. The machine learning model may be, for example, a model based on a neural network. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), BRDNN (Bidirectional Recurrent Deep Neural Network), and Convolutional Neural Networks (CNN) are used as machine learning models. However, it is not limited thereto.

다양한 실시예에 따르면, 모델 학습부(114)는 미리 구축된 기계학습모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 기계학습모델을 학습할 기계학습모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 기계학습모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 장소, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다. According to various embodiments, when there are a plurality of pre-built machine learning models, the model learning unit 114 may determine a machine learning model having a high correlation between the input learning data and the basic learning data as a machine learning model to be trained. have. In this case, the basic learning data may be pre-classified by data type, and the machine learning model may be pre-built for each data type. For example, the basic training data may be pre-classified according to various criteria such as a place where the training data is generated, a time when the training data is generated, a size of the training data, a creator of the training data, and a type of an object in the training data.

또한, 모델 학습부(114)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 기계학습모델을 학습시킬 수 있다.In addition, the model learning unit 114 may train the machine learning model using, for example, a learning algorithm including error back-propagation or gradient descent.

또한, 모델 학습부(114)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 기계학습모델을 학습할 수 있다. 또한, 모델 학습부(114)는, 예를 들어, 별다른 지도없이 타겟 태스크(target task)을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 타겟 태스크를 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 기계학습모델을 획득할 수 있다. 또한, 모델 학습부(114)는, 예를 들어, 학습에 따른 타겟 태스크의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 기계학습모델을 학습할 수 있다.In addition, the model learning unit 114 may learn the machine learning model through supervised learning using, for example, training data as an input value. In addition, the model learning unit 114, for example, by self-learning the type of data required for a target task without any guidance, unsupervised learning (unsupervised learning) to discover the criteria for the target task. Through this, a machine learning model can be obtained. In addition, the model learning unit 114 may learn the machine learning model through reinforcement learning using feedback on whether the result of the target task according to the learning is correct, for example.

또한, 기계학습모델이 학습되면, 모델 학습부(114)는 학습된 기계학습모델을 저장할 수 있다. 이 경우, 모델 학습부(114)는 학습된 기계학습모델을 데이터 인식부(120)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(114)는 학습된 기계학습모델을 전자 장치와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.In addition, when the machine learning model is trained, the model learning unit 114 may store the learned machine learning model. In this case, the model learning unit 114 may store the learned machine learning model in a memory of the electronic device including the data recognition unit 120. Alternatively, the model learning unit 114 may store the learned machine learning model in a memory of a server connected to the electronic device through a wired or wireless network.

학습된 기계학습모델이 저장되는 메모리는, 예를 들면, 전자 장치의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.The memory in which the learned machine learning model is stored may also store commands or data related to at least one other component of the electronic device together. In addition, the memory may store software and/or programs. The program may include, for example, a kernel, middleware, an application programming interface (API), and/or an application program (or “application”).

모델 평가부(115)는 기계학습모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(114)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 기계학습모델을 평가하기 위한 기 설정된 데이터일 수 있다. The model evaluation unit 115 may input evaluation data to the machine learning model, and when a result output from the evaluation data does not satisfy a predetermined criterion, the model learning unit 114 may retrain. In this case, the evaluation data may be preset data for evaluating the machine learning model.

예를 들어, 모델 평가부(115)는 평가 데이터에 대한 학습된 기계학습모델의 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 기계학습모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(115)는 학습된 기계학습모델이 적합하지 않은 것으로 평가할 수 있다.For example, the model evaluation unit 115 does not satisfy a predetermined criterion when the number or ratio of evaluation data whose recognition result is not accurate among the results of the machine learning model learned on the evaluation data exceeds a preset threshold. It can be evaluated as For example, when a predetermined criterion is defined as a ratio of 2%, when the learned machine learning model outputs incorrect recognition results for more than 20 evaluation data out of a total of 1000 evaluation data, the model evaluation unit 115 learns It can be evaluated that the machine learning model is not suitable.

한편, 학습된 기계학습모델이 복수 개가 존재하는 경우, 모델 평가부(115)는 각각의 학습된 기계학습모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 기계학습모델로써 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(115)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 기계학습모델로써 결정할 수 있다.On the other hand, when there are a plurality of learned machine learning models, the model evaluation unit 115 evaluates whether each learned machine learning model satisfies a predetermined criterion, and determines the model that satisfies the predetermined criterion as a final machine learning model. You can decide. In this case, when there are a plurality of models that satisfy a predetermined criterion, the model evaluation unit 115 may determine any one or a predetermined number of models previously set in the order of the highest evaluation scores as the final machine learning model.

한편, 데이터 학습부(110) 내의 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.Meanwhile, at least one of the data acquisition unit 111, the preprocessor 112, the training data selection unit 113, the model learning unit 114, and the model evaluation unit 115 in the data learning unit 110 is at least one It can be manufactured in the form of a hardware chip and mounted on an electronic device. For example, at least one of the data acquisition unit 111, the preprocessor 112, the training data selection unit 113, the model learning unit 114, and the model evaluation unit 115 is artificial intelligence (AI). It may be manufactured in the form of a dedicated hardware chip, or may be manufactured as a part of an existing general-purpose processor (eg, a CPU or application processor) or a graphics dedicated processor (eg, a GPU) and mounted on the aforementioned various electronic devices.

또한, 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.In addition, the data acquisition unit 111, the preprocessor 112, the training data selection unit 113, the model learning unit 114, and the model evaluation unit 115 may be mounted on one electronic device, or separate Each of the electronic devices may be mounted. For example, some of the data acquisition unit 111, the preprocessing unit 112, the training data selection unit 113, the model learning unit 114, and the model evaluation unit 115 are included in the electronic device, and the rest are Can be included in the server.

또한, 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(111), 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.In addition, at least one of the data acquisition unit 111, the preprocessor 112, the training data selection unit 113, the model learning unit 114, and the model evaluation unit 115 may be implemented as a software module. At least one of the data acquisition unit 111, the preprocessing unit 112, the training data selection unit 113, the model learning unit 114, and the model evaluation unit 115 is a software module (or a program including an instruction) Module), the software module may be stored in a computer-readable non-transitory computer readable media. In addition, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.

본 개시의 일 실시예에 따른 데이터 인식부(120)는 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125)를 포함할 수 있다.The data recognition unit 120 according to an embodiment of the present disclosure includes a data acquisition unit 121, a preprocessor 122, a recognition data selection unit 123, a recognition result providing unit 124, and a model update unit 125 It may include.

데이터 획득부(121)는 입력 데이터를 수신할 수 있다. 전처리부(122)는 획득된 입력 데이터가 인식 데이터 선택부(123) 또는 인식 결과 제공부(124)에서 이용될 수 있도록, 획득된 입력 데이터를 전처리할 수 있다. The data acquisition unit 121 may receive input data. The preprocessor 122 may preprocess the acquired input data so that the acquired input data can be used by the recognition data selection unit 123 or the recognition result providing unit 124.

인식 데이터 선택부(123)는 전처리된 데이터 중에서 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(124)에게 제공될 수 있다. 인식 데이터 선택부(123)는 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(123)는 모델 학습부(114)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.The recognition data selection unit 123 may select necessary data from among preprocessed data. The selected data may be provided to the recognition result providing unit 124. The recognition data selection unit 123 may select some or all of the preprocessed data according to a preset criterion. In addition, the recognition data selection unit 123 may select data according to a preset criterion by learning by the model learning unit 114.

인식 결과 제공부(124)는 선택된 데이터를 기계학습모델에 적용하여 결과 데이터를 획득할 수 있다. 기계학습모델은 모델 학습부(114)에 의하여 생성된 기계학습모델일 수 있다. 인식 결과 제공부(124)는 결과 데이터를 출력할 수 있다.The recognition result providing unit 124 may obtain result data by applying the selected data to the machine learning model. The machine learning model may be a machine learning model generated by the model learning unit 114. The recognition result providing unit 124 may output result data.

모델 갱신부(125)는 인식 결과 제공부(124)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 기계학습모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(125)는 인식 결과 제공부(124)에 의해 제공되는 인식 결과를 모델 학습부(114)에게 제공함으로써, 모델 학습부(114)가 기계학습모델을 갱신하도록 할 수 있다.The model update unit 125 may update the machine learning model based on the evaluation of the recognition result provided by the recognition result providing unit 124. For example, the model update unit 125 provides the recognition result provided by the recognition result providing unit 124 to the model learning unit 114, so that the model learning unit 114 can update the machine learning model. have.

한편, 데이터 인식부(120) 내의 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.Meanwhile, at least one of the data acquisition unit 121, the preprocessor 122, the recognition data selection unit 123, the recognition result providing unit 124, and the model update unit 125 in the data recognition unit 120 is at least It can be manufactured in the form of a single hardware chip and mounted on an electronic device. For example, at least one of the data acquisition unit 121, the preprocessor 122, the recognition data selection unit 123, the recognition result providing unit 124, and the model update unit 125 is artificial intelligence (AI). ) May be manufactured in the form of a dedicated hardware chip, or may be manufactured as a part of an existing general-purpose processor (eg, a CPU or application processor) or a graphics dedicated processor (eg, a GPU) and mounted in the aforementioned various electronic devices.

또한, 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.In addition, the data acquisition unit 121, the preprocessor 122, the recognition data selection unit 123, the recognition result providing unit 124, and the model update unit 125 may be mounted on one electronic device, or separately It may be mounted on each of the electronic devices. For example, some of the data acquisition unit 121, the preprocessor 122, the recognition data selection unit 123, the recognition result providing unit 124, and the model update unit 125 are included in the electronic device, and the rest Can be included in the server.

또한, 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 인식 결과 제공부(124) 및 모델 갱신부(125) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.In addition, at least one of the data acquisition unit 121, the preprocessor 122, the recognition data selection unit 123, the recognition result providing unit 124, and the model update unit 125 may be implemented as a software module. At least one of the data acquisition unit 121, the preprocessor 122, the recognition data selection unit 123, the recognition result providing unit 124, and the model update unit 125 includes a software module (or an instruction). Program module), the software module may be stored in a computer-readable non-transitory computer readable media. In addition, in this case, at least one software module may be provided by an operating system (OS) or a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and the remaining part may be provided by a predetermined application.

아래에서는 데이터 학습부(110)가 데이터 세트들을 순차적으로 기계학습하는 방법 및 장치에 대하여 보다 자세히 설명한다. Hereinafter, a method and apparatus for sequentially machine learning data sets by the data learning unit 110 will be described in more detail.

도 2는 본 개시의 일 실시예에 따른 기계학습장치를 나타낸 도면이다.2 is a diagram illustrating a machine learning apparatus according to an embodiment of the present disclosure.

기계학습장치(200)는 프로세서(210) 및 메모리(220)를 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어들을 수행할 수 있다. The machine learning apparatus 200 may include a processor 210 and a memory 220. The processor 210 may execute instructions stored in the memory 220.

상술한 바와 같이 기계학습장치(200)는 데이터 학습부(110) 또는 데이터 인식부(120) 중 적어도 하나를 포함할 수 있다. 데이터 학습부(110) 또는 데이터 인식부(120) 중 적어도 하나는 프로세서(210) 및 메모리(220)에 의하여 구현될 수 있다.As described above, the machine learning apparatus 200 may include at least one of the data learning unit 110 and the data recognition unit 120. At least one of the data learning unit 110 and the data recognition unit 120 may be implemented by the processor 210 and the memory 220.

도 3은 본 개시의 일 실시예에 따른 기계학습장치의 동작을 나타내는 흐름도이다.3 is a flowchart illustrating an operation of a machine learning apparatus according to an embodiment of the present disclosure.

기계학습장치(200)는 서로 독립적인 복수의 학습 데이터 세트에 각각 기계학습을 수행하여 획득된 복수의 서브 기계학습모델을 수신하는 단계(310)를 수행할 수 있다. 학습 데이터 세트는 분석 대상 데이터 및 분석 결과 데이터를 포함할 수 있다. 분석 대상 데이터는 환자에 대한 의료 영상 또는 환자에 대한 다양한 측정 데이터 중 적어도 하나를 포함할 수 있다. 분석 대상 데이터는 개인 정보들이 포함되어 있으므로 민감한 데이터일 수 있다. 따라서 자유롭게 공유되지 못할 수 있다.The machine learning apparatus 200 may perform a step 310 of receiving a plurality of sub-machine learning models obtained by performing machine learning on a plurality of independent learning data sets, respectively. The training data set may include analysis target data and analysis result data. The data to be analyzed may include at least one of a medical image of a patient or various measurement data of a patient. Since the data to be analyzed contains personal information, it may be sensitive data. Therefore, it may not be freely shared.

분석 결과 데이터는 분석 대상 데이터에 대한 의료인의 진단 결과를 나타낼 수 있다. 예를 들어, 제 1 분석 결과 데이터는 제 1 분석 대상 데이터를 사용자가 분석한 결과이고, 제 2 분석 결과 데이터는 제 2 분석 대상 데이터를 사용자가 분석한 결과일 수 있다.The analysis result data may indicate the result of a medical practitioner's diagnosis of the data to be analyzed. For example, the first analysis result data may be a result of a user analyzing the first analysis target data, and the second analysis result data may be a result of the user analyzing the second analysis target data.

복수의 서브 기계학습모델은 Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), BRDNN (Bidirectional Recurrent Deep Neural Network), Convolutional Neural Networks 중 적어도 하나를 이용하여 획득될 수 있다. 복수의 서브 기계학습모델은 모두 동일한 알고리즘을 이용하여 획득될 수 있다.A plurality of sub-machine learning models are obtained using at least one of Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), Bidirectional Recurrent Deep Neural Network (BRDNN), and Convolutional Neural Networks. Can be. All of the plurality of sub-machine learning models can be obtained using the same algorithm.

복수의 서브 기계학습모델 각각은 서로 다른 데이터 센터에서 수행된 기계학습모델일 수 있다. 복수의 서브 기계학습모델은 학습 데이터 세트에 포함된 분석 대상 데이터 및 레이블에 해당하는 분석 결과 데이터를 이용하여 생성될 수 있다. 복수의 서브 기계학습모델 각각은 적어도 하나의 가중치를 포함할 수 있다. 적어도 하나의 가중치는 분석 대상 데이터에 적용되어 예측 레이블을 생성하기 위해 사용될 수 있다. 복수의 서브 기계학습모델에 포함된 적어도 하나의 가중치는 순전파 및 역전파에 포함된 연산을 통하여 갱신되고, 테스트 데이터로부터 예측하고자 하는 레이블을 추론하기 위한 최적의 적어도 하나의 가중치가 획득될 수 있다. 복수의 서브 기계학습모델에 포함된 적어도 하나의 가중치들로부터, 복수의 학습 데이터 세트에 포함된 민감 정보, 예를 들면 개인정보가 역추적되지 않을 수 있다. 따라서 데이터 센서 외부에 있는 기계학습장치(200)는 복수의 서브 기계학습모델을 복수의 데이터 센터로부터 수신할 수 있다. 한편, 민감 정보는 개인 정보를 포함할 수 있고, 이하 설명에서는 민감 정보와 개인 정보가 혼용하여 설명될 수 있다. Each of the plurality of sub-machine learning models may be machine learning models performed in different data centers. The plurality of sub machine learning models may be generated using analysis target data included in the training data set and analysis result data corresponding to a label. Each of the plurality of sub machine learning models may include at least one weight. At least one weight may be applied to the data to be analyzed and used to generate a predictive label. At least one weight included in the plurality of sub machine learning models is updated through an operation included in forward propagation and back propagation, and at least one weight optimal for inferring a label to be predicted from test data may be obtained. . Sensitive information, for example, personal information included in a plurality of training data sets may not be traced back from at least one weight included in the plurality of sub machine learning models. Accordingly, the machine learning apparatus 200 outside the data sensor may receive a plurality of sub-machine learning models from a plurality of data centers. Meanwhile, the sensitive information may include personal information, and in the following description, sensitive information and personal information may be mixed and described.

기계학습장치(200)는 복수의 서브 기계학습모델에 기초하여 통합기계학습모델을 획득하는 단계(320)를 수행할 수 있다. 예를 들어, 기계학습장치(200)는 복수의 서브 기계학습모델을 병합하여 통합기계학습모델을 획득할 수 있다.The machine learning apparatus 200 may perform step 320 of acquiring an integrated machine learning model based on a plurality of sub machine learning models. For example, the machine learning apparatus 200 may acquire an integrated machine learning model by merging a plurality of sub-machine learning models.

이하에서는 단계(310) 및 단계(320)를 보다 자세히 설명하기 위하여 도 4 및 도 5를 참조한다.Hereinafter, reference will be made to FIGS. 4 and 5 to describe steps 310 and 320 in more detail.

도 4는 본 개시의 일 실시예에 따라 통합기계학습모델을 획득하는 과정을 나타낸 도면이다.4 is a diagram illustrating a process of obtaining an integrated machine learning model according to an embodiment of the present disclosure.

제 1 데이터 센터 내지 제 k 데이터 센터는 서로 다른 의료 기관일 수 있다. 도 4에서 제 1 서버(420) 내지 제 k 서버(440)는 제 1 데이터 센터 내지 제 k 데이터 센터에 포함된 서버를 의미할 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 서로 다른 위치에 있을 수 있다. 예를 들어, 제 1 서버(420) 내지 제 k 서버(400)는 물리적으로, 서로 다른 위치에 있을 수 있고, 기능적 또는 구조적으로 서로 다른 위치에 있을 수 있다. 또한 제 1 서버(420) 내지 제 k 서버(440) 간에 데이터의 직접적인 공유는 이루어지지 않을 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 각각 제 1 데이터 센터 내지 제 k 데이터 센터에서 수집된 데이터를 보관하거나 처리할 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 서로 데이터를 공유하지 않을 수 있다.The first to kth data centers may be different medical institutions. In FIG. 4, the first server 420 to the kth server 440 may refer to servers included in the first to kth data centers. The first server 420 to the k-th server 440 may be in different locations. For example, the first server 420 to the k-th server 400 may be physically, in different locations, and functionally or structurally in different locations. In addition, data may not be directly shared between the first server 420 to the k th server 440. The first server 420 to the kth server 440 may store or process data collected in the first to kth data centers, respectively. The first server 420 to the k-th server 440 may not share data with each other.

또는 제 1 서버(420) 내지 제 k 서버(440)는 일부의 데이터만 공유할 수 있다. 예를 들어 제 1 서버(420) 내지 제 k 서버(440)는 개인 정보가 포함된 민감한 데이터를 공유하지 않을 수 있다. 하지만 제 1 서버(420) 내지 제 k 서버(440)는 민감하지 않은 데이터를 공유할 수 있다.Alternatively, the first server 420 to the k-th server 440 may share only some data. For example, the first server 420 to the k-th server 440 may not share sensitive data including personal information. However, the first server 420 to the k-th server 440 may share insensitive data.

복수의 학습 데이터 세트는 서로 개별적으로 획득될 수 있다. 즉, 복수의 학습 데이터 세트에 포함된 제 1 학습 데이터 세트(421)는 제 1 서버(420)에서 획득된 데이터이고, 복수의 학습 데이터 세트에 포함된 제 2 학습 데이터 세트(431)는 제 2 서버(430)에서 획득된 데이터이고, 복수의 학습 데이터 세트에 포함된 제 k 학습 데이터 세트(441)는 제 k 서버(440)에서 획득된 데이터일 수 있다.A plurality of training data sets may be obtained individually from each other. That is, the first training data set 421 included in the plurality of training data sets is data obtained from the first server 420, and the second training data set 431 included in the plurality of training data sets is the second The k-th training data set 441, which is data obtained from the server 430, and included in the plurality of training data sets may be data obtained from the k-th server 440.

복수의 학습 데이터 세트는 민감한 정보가 포함되어 공유되기 어려울 수 있다. 제 1 학습 데이터 세트(421)는 제 1 서버(420)에서만 처리될 수 있다. 제 2 학습 데이터 세트(431)는 제 2 서버(430)에서만 처리될 수 있다. 제 k 학습 데이터 세트(441)는 제 k 서버(440)에서만 처리될 수 있다. 따라서 서버들은 복수의 학습 데이터 세트를 공유하기 위하여 복수의 학습 데이터 세트를 변형시키기 위한 처리를 할 수 있다.Multiple training data sets may contain sensitive information and are difficult to share. The first training data set 421 may be processed only by the first server 420. The second training data set 431 may be processed only by the second server 430. The kth learning data set 441 may be processed only by the kth server 440. Accordingly, the servers may perform processing to transform the plurality of training data sets in order to share the plurality of training data sets.

복수의 학습 데이터 세트는 서로 독립적일 수 있다. 제 1 서버(420)에서 획득된 제 1 학습 데이터 세트(421)는 제 2 서버(430)에서 획득된 제 2 학습 데이터 세트(431)에 영향을 미치지 않을 수 있다. 반대로 제 2 서버(430)에서 획득된 제 2 학습 데이터 세트(431)는 제 1 서버(420)에서 획득된 제 1 학습 데이터 세트(421)에 영향을 미치지 않을 수 있다. 제 1 학습 데이터 세트(421)에 포함된 제 1 분석 대상 데이터 및 제 1 분석 결과 데이터는 제 2 학습 데이터 세트(431)에 포함된 제 2 분석 대상 데이터 및 제 2 분석 결과 데이터와 서로 독립적일 수 있다.The plurality of training data sets may be independent of each other. The first training data set 421 acquired from the first server 420 may not affect the second training data set 431 acquired from the second server 430. Conversely, the second training data set 431 acquired from the second server 430 may not affect the first training data set 421 acquired from the first server 420. The first analysis target data and the first analysis result data included in the first training data set 421 may be independent of the second analysis target data and the second analysis result data included in the second training data set 431 have.

이는 복수의 서버들이 포함된 데이터 센터는 독립적인 방식으로 데이터를 획득하기 때문이다. 즉, 복수의 학습 데이터 세트는 서로 다른 환경에서 획득된 의료 영상과 관련된 데이터일 수 있다.This is because a data center containing multiple servers acquires data in an independent manner. That is, the plurality of training data sets may be data related to medical images acquired in different environments.

예를 들어, 제 1 서버 내지 제 k 서버는 각각 제 1 데이터 센서 내지 제 k 데이터 센터에 위치할 수 있다. 복수의 데이터 센터들은 서로 다른 장소에 위치할 수 있다. 복수의 데이터 센터의 각각의 데이터 획득 장비들은 서로 다를 수도 있고 동일할 수도 있다. 복수의 데이터 센터들은 서로 독립적인 시간에 데이터를 획득할 수 있다. 데이터 센터들은 서로 독립적인 대상으로부터 데이터를 획득할 수 있다. 데이터 센터들은 서로 독립적인 의료인으로부터 분석 결과를 획득할 수 있다. For example, the first server to the kth server may be located in the first data sensor to the kth data center, respectively. Multiple data centers can be located in different locations. Each data acquisition equipment of a plurality of data centers may be different or the same. Multiple data centers may acquire data at times independent of each other. Data centers can acquire data from objects independent of each other. Data centers can obtain analysis results from independent healthcare providers.

또한 복수의 데이터 센터들은 같은 장비를 이용하더라도 독립적인 데이터 획득 설정값 또는 데이터 출력 설정값을 사용하여 데이터를 생성할 수 있다. 데이터가 의료 영상인 경우, 의료 영상 촬영 장치는 다양한 설정값으로 의료 영상을 획득할 수 있다. 또한 의료 영상 표시 장치는 다양한 설정값으로 의료 영상을 출력할 수 있다. 데이터 획득 설정값과 데이터 출력 설정값에 따라 데이터가 달라질 수 있다.In addition, a plurality of data centers can generate data using independent data acquisition set points or data output set points even when the same equipment is used. When the data is a medical image, the medical image capturing apparatus may acquire a medical image with various setting values. Also, the medical image display device may output medical images with various set values. The data may vary depending on the data acquisition setting value and the data output setting value.

하지만, 복수의 학습 데이터 세트(421, 431, 441)는 서로 호환될 수 있다. 이미 설명한 바와 같이 학습 데이터 세트는 분석 대상 데이터 및 분석 결과 데이터를 포함할 수 있다. 복수의 학습 데이터 세트(421, 431, 441)는 동일한 종류의 분석 대상 데이터를 포함할 수 있다. 예를 들어, 분석 대상 데이터는 CT, MRI, X-RAY, Mammography 또는 초음파 영상일 수 있다. 또한, 복수의 학습 데이터 세트(421, 431, 441)는 동일한 종류의 분석 결과 데이터를 포함할 수 있다. 예를 들어, 분석 결과 데이터는 분석 대상 데이터에 기초하여 의료인이 진단한 병변에 관련된 정보를 포함할 수 있다.However, the plurality of training data sets 421, 431, and 441 may be compatible with each other. As already described, the training data set may include analysis target data and analysis result data. The plurality of training data sets 421, 431, and 441 may include the same type of analysis target data. For example, the data to be analyzed may be CT, MRI, X-RAY, Mammography, or ultrasound images. Further, the plurality of training data sets 421, 431, and 441 may include the same type of analysis result data. For example, the analysis result data may include information related to a lesion diagnosed by a medical professional based on the data to be analyzed.

복수의 학습 데이터 세트들 간에 호환성이 없는 경우, 복수의 서버들(420, 430, 440)은 복수의 학습 데이터 세트 간에 호환성이 있도록 표준화하는 전처리 과정을 수행할 수 있다.When there is no compatibility between the plurality of training data sets, the plurality of servers 420, 430, and 440 may perform a preprocessing process of standardizing compatibility between the plurality of training data sets.

제 k 서버(440)는 제 k 학습 데이터 세트(441)를 기계학습하여 제 k 서브 기계학습모델(442)을 생성할 수 있다. 예를 들어, 제 1 서버(420)는 제 1 학습 데이터 세트(421)를 기계학습하여 제 1 서브 기계학습모델(422)을 생성할 수 있다. 제 2 서버(430)는 제 2 학습 데이터 세트(431)를 기계학습하여 제 2 서브 기계학습모델(432)을 생성할 수 있다. 이를 보다 자세히 설명하기 위하여 도 5를 참조한다.The k-th server 440 may machine-learn the k-th learning data set 441 to generate the k-th sub-machine learning model 442. For example, the first server 420 may generate a first sub machine learning model 422 by machine learning the first training data set 421. The second server 430 may generate a second sub-machine learning model 432 by machine learning the second learning data set 431. Refer to FIG. 5 to describe this in more detail.

도 5는 본 개시의 일 실시예에 따라 서브 기계학습모델을 생성하는 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a process of generating a sub machine learning model according to an embodiment of the present disclosure.

이미 설명한 바와 같이 제 k 학습 데이터 세트(441)는 제 k 분석 대상 데이터(511) 및 제 k 분석 결과 데이터(512)를 포함할 수 있다. 예를 들어, 제 k 분석 대상 데이터(511)는 환자에 대한 의료 영상 및 환자의 상태에 관련된 각종 측정 데이터 중 적어도 하나를 포함할 수 있다. 제 k 분석 대상 데이터(511)는 민감한 정보가 포함될 수 있다.As described above, the kth learning data set 441 may include the kth analysis target data 511 and the kth analysis result data 512. For example, the k-th analysis target data 511 may include at least one of a medical image of a patient and various measurement data related to a patient's condition. The kth analysis target data 511 may include sensitive information.

제 k 분석 결과 데이터(512)는 제 k 분석 대상 데이터(511)에 기초하여 전문 의료인이 진단한 결과일 수 있다. 제 k 분석 결과 데이터(512)는 실제(ground-truth) 데이터 또는 실제 레이블(ground-truth label) 일 수 있다. 제 k 분석 결과 데이터(512)는 제 k 분석 대상 데이터(511)에 대응할 수 있다.The kth analysis result data 512 may be a result of diagnosis by a medical professional based on the kth analysis target data 511. The k-th analysis result data 512 may be ground-truth data or a ground-truth label. The k-th analysis result data 512 may correspond to the k-th analysis target data 511.

제 k 서버(440)는 데이터 학습부(110)를 포함할 수 있다. 제 k 서버(440)는 제 k 분석 대상 데이터(511) 및 제 k 분석 결과 데이터(512)의 관계를 기계학습하여 제 k 서브 기계학습모델(442)을 생성할 수 있다. 제 k 서버(440)는 심층신경망을 기반으로 기계학습을 수행할 수 있다. 제 k 서버(440)는 제 k 분석 대상 데이터(511) 및 제 k 분석 결과 데이터(512)를 이용하여 순전파(forward propagation) 및 역전파(back propagation)을 수행하면서 제 k 서브 기계학습모델(520)의 정확도를 높일 수 있다.The kth server 440 may include a data learning unit 110. The kth server 440 may generate the kth sub machine learning model 442 by machine learning the relationship between the kth analysis target data 511 and the kth analysis result data 512. The kth server 440 may perform machine learning based on the deep neural network. The k-th server 440 performs forward propagation and back propagation using the k-th analysis target data 511 and the k-th analysis result data 512, while performing the k-th sub-machine learning model ( 520) can be improved.

이상에서는 제 k 서버(440)를 기준으로 제 k 서브 기계학습모델(442)을 생성하는 과정을 설명하였다. 제 1 서버(420)가 제 1 서브 기계학습모델(422)을 생성하는 과정과 제 2 서버(430)가 제 2 서브 기계학습모델(432)을 생성하는 과정은 제 k 서버(440)가 제 k 서브 기계학습모델(442)을 생성하는 과정과 유사하므로 중복되는 설명은 생략한다.In the above, the process of generating the kth sub machine learning model 442 based on the kth server 440 has been described. The process of generating the first sub machine learning model 422 by the first server 420 and the process of generating the second sub machine learning model 432 by the second server 430 are performed by the k-th server 440. Since it is similar to the process of generating the k-sub machine learning model 442, a redundant description will be omitted.

제 k 서브 기계학습모델(442)은 분석 대상 데이터와 분석 결과 데이터의 관계를 학습한 기계학습모델일 수 있다. 따라서, 기계학습이 완료된 제 k 서브 기계학습모델(442)은 새로운 분석 대상 데이터를 입력받고, 예측 결과 데이터를 출력할 수 있다. 구체적으로, 제 k 서버(440)는 데이터 인식부(120)를 포함할 수 있다. 제 k 서버(440)의 데이터 인식부(120)는 제 k 학습데이터 세트에 포함되지 않은, 새로운 분석 대상 데이터를 획득하여 제 k 서브 기계학습모델(442)에 적용할 수 있다. 제 k 서브 기계학습모델(442)은 새로운 분석 대상 데이터에 대응하는 예측 결과 데이터를 출력할 수 있다. 여기서 분석 대상 데이터를 서브 기계학습모델에 적용한다는 것은 분석 대상 데이터를 입력으로 하여 서브 기계학습모델의 순전파가 수행됨을 의미한다. 예측 결과 데이터는 제 k 서브 기계학습모델(442)이 예측한 결과로서 실제(ground-truth) 데이터와 유사할 수 있다. 예측 결과 데이터는 예측 레이블이라고도 하며, 기계학습모델에 의하여 예측된 정보이다. 실제 레이블 또는 실제 데이터는 기계학습모델이 예측한 정보가 아닌, 사용자가 실제로 분석하여 도출한 정보라는 점에서 차이가 있다.The k-th sub machine learning model 442 may be a machine learning model that learns a relationship between the analysis target data and the analysis result data. Accordingly, the k-th sub-machine learning model 442 in which machine learning has been completed may receive new analysis target data and output prediction result data. Specifically, the kth server 440 may include a data recognition unit 120. The data recognition unit 120 of the kth server 440 may acquire new analysis target data that is not included in the kth learning data set and apply it to the kth sub machine learning model 442. The k-th sub machine learning model 442 may output prediction result data corresponding to new analysis target data. Here, applying the analysis target data to the sub machine learning model means that forward propagation of the sub machine learning model is performed by inputting the analysis target data. The prediction result data is a result predicted by the k-th sub machine learning model 442 and may be similar to ground-truth data. The prediction result data is also called a prediction label, and is information predicted by a machine learning model. The difference is that the actual label or actual data is not information predicted by the machine learning model, but information derived by actually analyzing the user.

제 k 서브 기계학습모델(442)은 제 k 학습데이터 세트에 최적화된 기계학습모델일 수 있다. 제 k 서버(440)는 제 k 서브 기계학습모델(442)을 이용하여 제 k 서버가 획득한 분석 대상 데이터를 분석하여 높은 정확도의 예측 결과 데이터를 출력할 수 있다. 하지만 제 k 서브 기계학습모델(442)은 제 k 서버(440)가 아닌 서버가 획득한 분석 대상 데이터에 대하여 상대적으로 낮은 정확도의 예측 결과 데이터를 출력할 수 있다. 마찬가지로, 제 1 서브 기계학습모델(422)은 제 1 학습데이터 세트에 특화된 기계학습모델일 수 있다. 따라서, 제 1 서브 기계학습모델(422)은 제 2 서버(430) 또는 제 k 서버(440)가 획득한 분석 대상 데이터에 대하여 상대적으로 낮은 정확도의 예측 결과 데이터를 출력할 수 있다.The kth sub machine learning model 442 may be a machine learning model optimized for the kth learning data set. The k-th server 440 may analyze the analysis target data acquired by the k-th server using the k-th sub-machine learning model 442 and output prediction result data with high accuracy. However, the k-th sub-machine learning model 442 may output prediction result data with relatively low accuracy with respect to the analysis target data acquired by a server other than the k-th server 440. Likewise, the first sub machine learning model 422 may be a machine learning model specialized in the first learning data set. Accordingly, the first sub-machine learning model 422 may output prediction result data of relatively low accuracy with respect to the analysis target data acquired by the second server 430 or the k-th server 440.

다시 도 4를 참조하면, 제 1 서버(420) 내지 제 k 서버(440)는 생성된 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 기계학습장치(200)에 송신할 수 있다. 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)은 제 1 학습 데이터 세트(421) 내지 제 k 학습 데이터 세트(441)에 포함되어 있는 민감 정보, 예를 들면 개인 정보를 포함하지 않으므로 자유롭게 공유될 수 있다. 송신은 유무선 통신 장치를 이용하여 이루어질 수 있다. 또한 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)은 기록매체에 저장되어 기계학습장치(200)로 전달될 수 있다.Referring back to FIG. 4, the first server 420 to the k th server 440 transfers the generated first sub machine learning models 422 to k th sub machine learning models 442 to the machine learning apparatus 200. Can send. The first sub-machine learning models 422 to k-th sub-machine learning models 442 contain sensitive information, for example, personal information included in the first learning data sets 421 to the k-th learning data sets 441. It does not contain, so it can be shared freely. Transmission can be made using a wired or wireless communication device. In addition, the first sub-machine learning model 422 to the k-th sub-machine learning model 442 may be stored in a recording medium and transmitted to the machine learning apparatus 200.

기계학습장치(200)는 복수의 서브 기계학습모델을 수신하는 단계(310)를 수행할 수 있다. 복수의 서브 기계학습모델은 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 포함할 수 있다. The machine learning apparatus 200 may perform step 310 of receiving a plurality of sub machine learning models. The plurality of sub machine learning models may include a first sub machine learning model 422 to a k-th sub machine learning model 442.

구체적으로, 기계학습장치(200)는, 복수의 서브 기계학습모델을 수신하기 위하여, 복수의 학습 데이터 세트에 포함되는 제 1 학습 데이터 세트(421)에 기초하여 기계학습된 제 1 서브 기계학습모델(422)을 수신하는 단계를 수행할 수 있다. 또한 기계학습장치(200)는 복수의 학습 데이터 세트에 포함되는 제 2 학습 데이터 세트(431)에 기초하여 기계학습된 제 2 서브 기계학습모델(432)을 수신하는 단계를 수행할 수 있다. 제 1 서브 기계학습모델(422) 및 제 2 서브 기계학습모델(432)은 각각 제 1 서버(420) 및 제 2 서버(430)에서 독립적으로 생성될 수 있다.Specifically, the machine learning apparatus 200 includes a first sub-machine learning model machine-learned based on the first learning data set 421 included in the plurality of learning data sets in order to receive a plurality of sub-machine learning models. The step of receiving (422) may be performed. In addition, the machine learning apparatus 200 may perform an operation of receiving the machine-learned second sub-machine learning model 432 based on the second learning data set 431 included in the plurality of learning data sets. The first sub machine learning model 422 and the second sub machine learning model 432 may be independently generated in the first server 420 and the second server 430, respectively.

또한 기계학습장치(200)는 복수의 서브 기계학습모델에 기초하여 통합기계학습모델(410)을 획득하는 단계(320)를 수행할 수 있다. 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 병합하여 통합기계학습모델(410)을 생성할 수 있다. 즉, 통합기계학습모델(410)은 k개의 기계학습모델의 그룹일 수 있다. 예를 들어, 기계학습장치(200)가 제 1 서브 기계학습모델(422) 및 제 2 서브 기계학습모델(432)을 수신하였다면, 기계학습장치(200)는 제 1 서브 기계학습모델(422) 및 제 2 서브 기계학습모델(432)을 병합하여 통합기계학습모델(410)을 획득하는 단계를 수행할 수 있다. 이 경우 모든 데이터 센터의 학습 데이터 세트를 이용하여 기계학습장치(200)가 통합기계학습모델(410)을 생성하므로, 통합기계학습모델(410)에 기초하여 생성되는 최종기계학습모델의 정확도도 높아지는 효과가 있다. 즉 최종기계학습모델은 새로운 분석 대상 데이터를 정확하게 분석하여 예측 결과 데이터를 생성할 수 있다.In addition, the machine learning apparatus 200 may perform step 320 of acquiring an integrated machine learning model 410 based on a plurality of sub machine learning models. The machine learning apparatus 200 may generate an integrated machine learning model 410 by merging the first sub-machine learning model 422 to the k-th sub-machine learning model 442. That is, the integrated machine learning model 410 may be a group of k machine learning models. For example, if the machine learning apparatus 200 receives the first sub machine learning model 422 and the second sub machine learning model 432, the machine learning apparatus 200 is the first sub machine learning model 422 And merging the second sub machine learning model 432 to obtain an integrated machine learning model 410. In this case, since the machine learning device 200 generates the integrated machine learning model 410 using the learning data sets of all data centers, the accuracy of the final machine learning model generated based on the integrated machine learning model 410 is also increased. It works. That is, the final machine learning model can accurately analyze new data to be analyzed and generate prediction result data.

기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 중 하나의 서브 기계학습모델을 통합기계학습모델(410)로 결정할 수 있다. 예를 들어 복수의 데이터 센터들 중 하나의 데이터 센터가 가장 포괄적인 데이터를 포함하고 있는 경우 사용자 또는 기계학습장치(200)는 하나의 데이터 센터의 서브 기계학습모델을 통합기계학습모델(410)로 결정할 수 있다. 왜냐하면 하나의 데이터 센터가 복수의 데이터 센터들을 대표할 수 있기 때문이다. The machine learning apparatus 200 may determine one of the first sub-machine learning models 422 to the k-th sub-machine learning models 442 as the integrated machine learning model 410. For example, when one of the plurality of data centers contains the most comprehensive data, the user or the machine learning device 200 converts the sub-machine learning model of one data center into the integrated machine learning model 410. You can decide. This is because one data center can represent multiple data centers.

또한 통합기계학습모델(410)은 임의의 데이터 센터의 서브 기계학습모델로 결정될 수 있다. 예를 들어, 제 1 서버(420)는 제 1 분석 대상 데이터 및 제 1 분석 결과 데이터를 포함하는 제 1 학습 데이터 세트(421)를 기계학습하여 제 1 서브 기계학습모델(422)을 획득할 수 있다. 기계학습장치(200)는 제 1 서브 기계학습모델(422)을 통합기계학습모델(410)로 결정할 수 있다. 통합기계학습모델(410)은 특징 데이터와 같은 중간 단계의 데이터를 획득하기 위한 구성이다. 따라서 기계학습장치(200)는 임의의 서브 기계학습모델을 이용하여 본 개시의 최종기계학습모델을 획득할 수 있다.In addition, the integrated machine learning model 410 may be determined as a sub machine learning model of an arbitrary data center. For example, the first server 420 may obtain the first sub-machine learning model 422 by machine learning the first learning data set 421 including the first analysis target data and the first analysis result data. have. The machine learning apparatus 200 may determine the first sub machine learning model 422 as the integrated machine learning model 410. The integrated machine learning model 410 is a component for acquiring intermediate data such as feature data. Accordingly, the machine learning apparatus 200 may acquire the final machine learning model of the present disclosure by using a sub-machine learning model.

기계학습장치(200)는 도 3과 같은 과정을 거치지 않고, 위와 같이 하나의 서버에서 생성된 서브 기계학습모델을 수신할 수 있다. 이 경우, 기계학습장치(200)는 유무선 통신으로 전송할 데이터의 양을 줄이고 서버의 처리 능력을 절약할 수 있다.The machine learning apparatus 200 may receive the sub machine learning model generated by one server as above without going through the process as shown in FIG. 3. In this case, the machine learning apparatus 200 can reduce the amount of data to be transmitted through wired/wireless communication and save processing power of the server.

또한, 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 중 적어도 하나를 이용하여 통합기계학습모델(410)을 생성할 수 있다. 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)의 유사도를 결정할 수 있다. 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 중 2개의 서브 기계학습모델을 임의로 선택하여 유사도를 측정할 수 있다. 기계학습장치(200)는 유사도가 미리 결정된 임계값 이상인 경우, 2 개의 서브 기계학습모델 중 하나를 제거하여 통합기계학습모델(410)을 생성할 수 있다. 예를 들어, 2개의 데이터 센터들이 아주 유사한 환경에 있다면 각각의 데이터 센터들에 포함된 서버들이 도출한 서브 기계학습모델들은 서로 유사할 수 있다. 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)에서 선택된 2개의 서브 기계학습모델의 모든 조합에 대하여 위와 같은 과정을 수행하여 통합기계학습모델(410)을 생성할 수 있다. 이렇게 기계학습장치(200)는 중복되는 서브 기계학습모델을 제거함으로써 프로세서의 데이터 처리량을 줄이고, 데이터의 송수신 부담을 줄일 수 있다.Also, the machine learning apparatus 200 may generate the integrated machine learning model 410 using at least one of the first sub-machine learning model 422 to the k-th sub-machine learning model 442. The machine learning apparatus 200 may determine a degree of similarity between the first sub-machine learning model 422 to the k-th sub-machine learning model 442. The machine learning apparatus 200 may measure similarity by randomly selecting two sub-machine learning models from among the first sub-machine learning models 422 to 442 to the k-th sub-machine learning models. The machine learning apparatus 200 may generate an integrated machine learning model 410 by removing one of the two sub-machine learning models when the similarity is greater than or equal to a predetermined threshold. For example, if two data centers are in a very similar environment, sub-machine learning models derived from servers included in each data center may be similar to each other. The machine learning apparatus 200 performs the above process for all combinations of the two sub-machine learning models selected from the first sub-machine learning model 422 to the k-th sub-machine learning model 442 to perform the same process as the integrated machine learning model ( 410) can be created. In this way, the machine learning apparatus 200 can reduce the data processing amount of the processor and reduce the burden of transmitting and receiving data by removing the overlapping sub-machine learning models.

또한, 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 중 적어도 하나를 이용하지 않고 통합기계학습모델(410)을 생성할 수 있다. 기계학습장치(200)는 임의의 기본모델을 통합기계학습모델(410)으로 생성할 수 있다. 이 경우, 기계학습장치(200)는 도 3 과 같은 과정을 수행하지 않을 수 있으므로, 프로세서의 데이터 처리량을 줄이고, 데이터의 송수신 부담을 줄일 수 있다.In addition, the machine learning apparatus 200 may generate the integrated machine learning model 410 without using at least one of the first sub-machine learning model 422 to the k-th sub-machine learning model 442. The machine learning apparatus 200 may generate an arbitrary basic model as the integrated machine learning model 410. In this case, since the machine learning apparatus 200 may not perform the process as shown in FIG. 3, it is possible to reduce the data processing amount of the processor and reduce the burden of transmitting and receiving data.

도 6은 본 개시의 일 실시예에 따라 최종기계학습모델을 생성하는 방법을 나타낸 흐름도이다. 도 7은 본 개시의 일 실시예에 따른 최종기계학습모델을 생성하는 방법을 설명하기 위한 도면이다.6 is a flowchart illustrating a method of generating a final machine learning model according to an embodiment of the present disclosure. 7 is a diagram illustrating a method of generating a final machine learning model according to an embodiment of the present disclosure.

도 6을 참조하면, 기계학습장치(200)는 통합기계학습모델(410)을 획득하는 단계(610)를 수행할 수 있다. 통합기계학습모델(410)을 획득하는 단계에 대해서는 위에서 이미 설명한 바 있으므로 중복되는 설명은 생략한다.Referring to FIG. 6, the machine learning apparatus 200 may perform an operation 610 of obtaining an integrated machine learning model 410. Since the step of obtaining the integrated machine learning model 410 has already been described above, a redundant description will be omitted.

기계학습장치(200)는 통합기계학습모델(410)을 제 1 서버(420) 내지 제 k 서버(440)로 송신할 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 통합기계학습모델(410)을 이용하여 복수의 분석 대상 데이터(711, 712, 713)를 암호화할 수 있다. 암호화된 복수의 분석 대상 데이터에서 개인정보와 같은 민감정보가 식별되지 않을 수 있다. 또한 암호화된 복수의 분석 대상 데이터에서 다시 복수의 분석 대상 데이터(711, 712, 713)로 복원되는 것은 불가능할 수 있다. 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 제 1 분석 대상 데이터(711) 내지 제 k 분석 대상 데이터(713)를 손실 압축한 데이터일 수 있다. 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 손실 압축되 데이터이므로, 민감 정보, 예를 들면 개인정보가 식별되지 않을 수 있다. 또한, 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 제 1 분석 대상 데이터(711) 내지 제 k 분석 대상 데이터(713)로 복원 가능하지 않을 수 있다. 복수의 분석 대상 데이터(711, 712, 713)는 개인정보를 포함하므로 공유가능하지 않을 수 있다. 하지만 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 개인정보가 식별되지 않으므로 공유가능할 수 있다. 또한, 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 제 1 분석 대상 데이터(711) 내지 제 k 분석 대상 데이터(713)보다 데이터의 양이 적으므로 프로세서가 처리할 데이터의 양을 줄일 수 있다.The machine learning apparatus 200 may transmit the integrated machine learning model 410 to the first server 420 to the k-th server 440. The first server 420 to the k-th server 440 may encrypt a plurality of analysis target data 711, 712, and 713 using the integrated machine learning model 410. Sensitive information such as personal information may not be identified in a plurality of encrypted data to be analyzed. In addition, it may be impossible to restore the plurality of data to be analyzed back to the plurality of data to be analyzed 711, 712, 713 from the plurality of data to be analyzed. The first feature data 721 to k-th feature data 723 may be data obtained by lossy compression of the first to be analyzed data 711 to the k th to be analyzed data 713. Since the first characteristic data 721 to the k-th characteristic data 723 are lossy compressed data, sensitive information, for example, personal information may not be identified. In addition, the first characteristic data 721 to the kth characteristic data 723 may not be recoverable as the first analysis target data 711 to the kth analysis target data 713. Since the plurality of analysis target data 711, 712, 713 includes personal information, it may not be sharable. However, since personal information is not identified, the first characteristic data 721 to the k-th characteristic data 723 may be shared. In addition, since the first feature data 721 to the kth feature data 723 has a smaller amount of data than the first analysis target data 711 to the kth analysis target data 713, the processor determines the amount of data to be processed. Can be reduced.

제 1 서버(420)는 제 1 분석 대상 데이터(711)를 통합기계학습모델(410)에 적용하여 제 1 특징 데이터(721)를 획득할 수 있다. 제 2 서버(430)는 제 2 분석 대상 데이터(712)를 통합기계학습모델(410)에 적용하여 제 2 특징 데이터(722)를 획득할 수 있다. 제 k 서버(440)는 제 k 분석 대상 데이터(713)를 통합기계학습모델(410)에 적용하여 제 k 특징 데이터(723)를 획득할 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)를 기계학습장치(200)로 송신할 수 있다.The first server 420 may obtain the first feature data 721 by applying the first analysis target data 711 to the integrated machine learning model 410. The second server 430 may obtain the second feature data 722 by applying the second analysis target data 712 to the integrated machine learning model 410. The k-th server 440 may obtain the k-th feature data 723 by applying the k-th analysis target data 713 to the integrated machine learning model 410. The first server 420 to the kth server 440 may transmit the first feature data 721 to the kth feature data 723 to the machine learning apparatus 200.

복수의 분석 결과 데이터는 복수의 분석 대상 데이터(711, 712, 713)에 각각 대응될 수 있다. 하지만, 복수의 분석 대상 데이터(711, 712, 713)가 암호화되는 경우, 복수의 분석 결과 데이터가 누구에 대한 것인지 특정되지 않는다. 따라서 제 1 서버(420) 내지 제 k 서버(440)는 분석 결과 데이터를 별도로 암호화하지 않을 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 분석 결과 데이터를 기계학습장치(200)로 송신할 수 있다.The plurality of analysis result data may correspond to a plurality of analysis target data 711, 712, and 713, respectively. However, when the plurality of analysis target data 711, 712, and 713 are encrypted, it is not specified who the plurality of analysis result data is for. Accordingly, the first server 420 to the k-th server 440 may not separately encrypt the analysis result data. The first server 420 to the k-th server 440 may transmit the analysis result data to the machine learning apparatus 200.

제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 예측 결과 데이터가 아닐 수 있다. 즉, 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 제 1 서버(420) 내지 제 k 서버(440)가 통합기계학습모델(410)을 이용하여 도출한 복수의 분석 대상 데이터(711, 712, 713)에 대응하는 분석 결과가 아닐 수 있다. 하지만 이에 한정되는 것은 아니며, 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 제 1 서버(420) 내지 제 k 서버(440)가 통합기계학습모델(410)을 이용하여 도출한 복수의 분석 대상 데이터(711, 712, 713)에 대응하는 분석 결과일 수도 있다.The first to k-th feature data 721 to 723 may not be prediction result data. That is, the first feature data 721 to the kth feature data 723 is a plurality of analysis target data derived by the first server 420 to the kth server 440 using the integrated machine learning model 410 ( 711, 712, 713). However, the present invention is not limited thereto, and the first feature data 721 to the kth feature data 723 is a plurality of the first server 420 to the kth server 440 derived using the integrated machine learning model 410 It may be an analysis result corresponding to the analysis target data 711, 712, and 713 of.

제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)를 도 8 내지 도 10과 함께 보다 자세히 설명한다.The first feature data 721 to kth feature data 723 will be described in more detail with reference to FIGS. 8 to 10.

도 8은 본 개시의 일 실시예에 따른 특징 데이터를 설명하기 위한 도면이다.8 is a diagram for describing feature data according to an embodiment of the present disclosure.

도 8은 도 7의 제 k 서버(440)에서 이루어지는 데이터 처리 과정을 나타낸 도면이다.8 is a diagram illustrating a data processing process performed in the kth server 440 of FIG. 7.

도 8을 참조하면, 통합기계학습모델(410)은 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 포함할 수 있다. 도 8에서 통합기계학습모델(410)은 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 포함하는 것으로 표현되어 있으나 이에 한정 해석되어서는 안된다. 상술한 바와 같이 기계학습장치(200)는 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 중 적어도 하나를 이용하여 통합기계학습모델(410)을 생성할 수 있다. 또한 통합기계학습모델(410)은 미리 정해진 기본 모델일 수 있다. Referring to FIG. 8, the integrated machine learning model 410 may include a first sub machine learning model 422 to a kth sub machine learning model 442. In FIG. 8, the integrated machine learning model 410 is expressed as including the first sub-machine learning model 422 to the k-th sub-machine learning model 442, but should not be limited thereto. As described above, the machine learning apparatus 200 may generate the integrated machine learning model 410 using at least one of the first sub-machine learning model 422 to the k-th sub-machine learning model 442. In addition, the integrated machine learning model 410 may be a predetermined basic model.

제 k 서버(440)는 제 k 분석 대상 데이터(713)를 통합기계학습모델(410)에 적용할 수 있다. 제 k 서버(440)는 제 k 분석 대상 데이터(713)를 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)에 적용하여 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813)를 획득할 수 있다.The k-th server 440 may apply the k-th analysis target data 713 to the integrated machine learning model 410. The k-th server 440 applies the k-th analysis target data 713 to the first sub-machine learning models 422 to k-th sub-machine learning models 442, and applies the first sub-feature data 811 to the k-th sub Feature data 813 may be obtained.

제 k 서버(440)는 제 k 분석 대상 데이터(713)를 제 1 서브 기계학습모델(422)에 적용하여 제 1 서브 특징 데이터(811)를 획득할 수 있다. 제 k 서버(440)는 제 k 분석 대상 데이터(713)를 제 2 서브 기계학습모델(432)에 적용하여 제 2 서브 특징 데이터(812)를 획득할 수 있다. 제 k 서버(440)는 제 k 분석 대상 데이터(713)를 제 k 서브 기계학습모델(442)에 적용하여 제 k 서브 특징 데이터(813)를 획득할 수 있다. 제 k 특징 데이터(723)는 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813)를 포함할 수 있다. 제 k 분석 대상 데이터(713)에는 데이터는 개인정보가 포함되고, 제 k 특징 데이터(723)는 암호화되어 있으므로 개인정보가 식별되지 않을 수 있다. 따라서 제 k 특징 데이터(723)는 외부로 전송이 가능할 수 있다.The k-th server 440 may obtain the first sub-feature data 811 by applying the k-th analysis target data 713 to the first sub machine learning model 422. The k-th server 440 may obtain the second sub-feature data 812 by applying the k-th analysis target data 713 to the second sub machine learning model 432. The k-th server 440 may obtain the k-th sub-feature data 813 by applying the k-th analysis target data 713 to the k-th sub machine learning model 442. The k-th feature data 723 may include first sub-feature data 811 to k-th sub-feature data 813. Since the k-th analysis target data 713 includes personal information, and the k-th feature data 723 is encrypted, personal information may not be identified. Accordingly, the k-th feature data 723 may be transmitted to the outside.

제 1 서버(420)는 제 k 서버(440)와 동일한 과정을 수행하여 제 1 분석 대상 데이터(711)로부터 제 1 특징 데이터(721)를 획득할 수 있다. 제 1 서버(420)는 제 1 분석 대상 데이터(711)를 제 1 서브 기계학습모델(422)에 적용하여 제 1-1 서브 특징 데이터를 획득할 수 있다. 제 1 서버(420)는 제 1 분석 대상 데이터(711)를 제 2 서브 기계학습모델(432)에 적용하여 제 1-2 서브 특징 데이터를 획득할 수 있다. 제 1 서버(420)는 제 1 분석 대상 데이터(711)를 제 k 서브 기계학습모델(442)에 적용하여 제 1-k 서브 특징 데이터를 획득할 수 있다. 제 1 특징 데이터(721)는 제 1-1 서브 특징 데이터, 제 1-2 서브 특징 데이터 및 제 1-k 서브 특징 데이터를 포함할 수 있다.The first server 420 may obtain the first feature data 721 from the first analysis target data 711 by performing the same process as the kth server 440. The first server 420 may obtain the 1-1 sub-feature data by applying the first analysis target data 711 to the first sub machine learning model 422. The first server 420 may apply the first analysis target data 711 to the second sub machine learning model 432 to obtain 1-2th sub-feature data. The first server 420 may obtain the 1-k-th sub-feature data by applying the first analysis target data 711 to the k-th sub machine learning model 442. The first feature data 721 may include 1-1th subfeature data, 1-2th subfeature data, and 1-kth subfeature data.

또한 제 2 서버(430)는 제 k 서버(440)와 동일한 과정을 수행하여 제 2 분석 대상 데이터(712)로부터 제 2 특징 데이터(722)를 획득할 수 있다. 제 2 서버(430)는 제 2 분석 대상 데이터(712)를 제 1 서브 기계학습모델(422)에 적용하여 제 2-1 서브 특징 데이터를 획득할 수 있다. 제 2 서버(430)는 제 2 분석 대상 데이터(712)를 제 2 서브 기계학습모델(432)에 적용하여 제 2-2 서브 특징 데이터를 획득할 수 있다. 제 2 서버(430)는 제 2 분석 대상 데이터(712)를 제 k 서브 기계학습모델(442)에 적용하여 제 2-k 서브 특징 데이터를 획득할 수 있다. 제 2 특징 데이터(722)는 제 2-1 서브 특징 데이터, 제 2-2 서브 특징 데이터 및 제 2-k 서브 특징 데이터를 포함할 수 있다.Also, the second server 430 may perform the same process as the kth server 440 to obtain the second feature data 722 from the second analysis target data 712. The second server 430 may obtain the 2-1 sub-feature data by applying the second analysis target data 712 to the first sub machine learning model 422. The second server 430 may obtain the 2-2 sub-feature data by applying the second analysis target data 712 to the second sub machine learning model 432. The second server 430 may obtain the 2-k-th sub-feature data by applying the second analysis target data 712 to the k-th sub machine learning model 442. The second feature data 722 may include 2-1 th sub-feature data, 2-2 th sub-feature data, and 2-k th sub-feature data.

제 1 분석 대상 데이터(711) 및 제 2 분석 대상 데이터(712) 개인정보가 포함될 수 있다. 또한, 제 1 특징 데이터(721) 및 제 2 특징 데이터(722)는 암호화되어 있으므로 개인정보가 식별되지 않을 수 있다. 따라서 제 1 특징 데이터(721) 및 제 2 특징 데이터(722)는 외부로 전송이 가능할 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)를 기계학습장치(200)로 송신할 수 있다. Personal information of the first analysis target data 711 and the second analysis target data 712 may be included. In addition, since the first feature data 721 and the second feature data 722 are encrypted, personal information may not be identified. Accordingly, the first feature data 721 and the second feature data 722 may be transmitted to the outside. The first server 420 to the kth server 440 may transmit the first feature data 721 to the kth feature data 723 to the machine learning apparatus 200.

위에서는 통합기계학습모델(410)이 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 포함하는 것을 설명하였으나 이에 한정 해석되어서는 안된다. 통합기계학습모델(410)은 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 중 적어도 하나를 이용하여 생성될 수 있다. 또한 통합기계학습모델(410)은 미리 정해진 기본 모델일 수 있다.In the above, it has been described that the integrated machine learning model 410 includes the first sub-machine learning model 422 to the k-th sub-machine learning model 442, but this should not be limited thereto. The integrated machine learning model 410 may be generated using at least one of the first sub-machine learning model 422 to the k-th sub-machine learning model 442. In addition, the integrated machine learning model 410 may be a predetermined basic model.

이하에서는 암호화된 특징 데이터를 생성하는 과정을 보다 자세히 설명하기 위하여 도 9 및 도 10을 참조하여 설명한다.Hereinafter, a process of generating encrypted feature data will be described with reference to FIGS. 9 and 10 in order to describe in more detail.

도 9는 본 개시의 일 실시예에 따라 특징 데이터를 생성하는 과정을 설명하기 위한 도면이다.9 is a diagram for describing a process of generating feature data according to an embodiment of the present disclosure.

도 9는 도 8의 제 k 서버가 제 k 분석 대상 데이터(713)를 제 k 서브 기계학습모델(442)에 적용하여 제 k 서브 특징 데이터(813)를 생성하는 과정을 나타낸 도면이다.FIG. 9 is a diagram illustrating a process of generating the kth sub-feature data 813 by applying the kth analysis target data 713 of FIG. 8 to the kth sub-machine learning model 442.

이미 설명한 바와 같이 제 k 분석 대상 데이터(713)를 통합기계학습모델에 적용한다는 것은 제 k 분석 대상 데이터(713)를 통합기계학습모델에 포함된 서브 기계학습모델에 입력하여 순전파(forward propagation)한다는 것이다. As already described, applying the k-th analysis target data 713 to the integrated machine learning model means forward propagation by inputting the k-th analysis target data 713 to the sub-machine learning model included in the integrated machine learning model. Is to do.

제 k 서버(440)가 제 k 분석 대상 데이터(713)를 제 k 서브 기계학습모델(442)로 순전파하는 경우, 복수의 레이어의 특징 데이터(920)가 생성될 수 있다. 복수의 레이어의 특징 데이터(920)의 각 레이어는 제 k 분석 대상 데이터(713)를 손실 압축하는 생성될 수 있다. 또한 복수의 레이어의 특징 데이터(920)는 제 k 분석 대상 데이터(713)를 사용자가 인식할 수 없게 변형한 데이터일 수 있다. 즉 복수의 레이어의 특징 데이터(920)는 제 k 분석 대상 데이터(713)를 암호화한 데이터일 수 있다. 복수의 레이어의 특징 데이터(920)에 포함된 레이어는 제 k 분석 대상 데이터(713)로 복원이 불가능할 수 있다.When the k-th server 440 forwards the k-th analysis target data 713 to the k-th sub machine learning model 442, feature data 920 of a plurality of layers may be generated. Each layer of the feature data 920 of a plurality of layers may be generated by lossy compression of the kth analysis target data 713. In addition, the feature data 920 of the plurality of layers may be data obtained by transforming the kth analysis target data 713 so that the user cannot recognize it. That is, the feature data 920 of the plurality of layers may be data obtained by encoding the k-th analysis target data 713. A layer included in the feature data 920 of a plurality of layers may not be reconstructed as the kth analysis target data 713.

또한 제 k 서버(440)는 제 k 분석 대상 데이터(713)를 제 k 서브 기계학습모델(442)로 순전파하는 경우 최종적으로 제 k 예측 데이터(930)를 생성할 수 있다. 제 k 예측 데이터(930)는 제 k 분석 대상 데이터를 분석한 예측 정보일 수 있다. 도 8의 제 k 서브 특징 데이터(813)는 제 k 예측 데이터(930)와 다를 수 있다. 하지만 이에 한정되는 것은 아니며, 도 8의 제 k 서브 특징 데이터(813)는 제 k 예측 데이터(930)와 동일할 수 있다.In addition, when the kth server 440 forwards the kth analysis target data 713 to the kth sub machine learning model 442, it may finally generate the kth prediction data 930. The k-th prediction data 930 may be prediction information obtained by analyzing the k-th analysis target data. The k-th sub-feature data 813 of FIG. 8 may be different from the k-th prediction data 930. However, the present invention is not limited thereto, and the k-th sub-feature data 813 of FIG. 8 may be the same as the k-th prediction data 930.

제 k 서버(440)는 복수의 레이어의 특징 데이터(920) 중 적어도 하나의 레이어의 특징 데이터를 선택할 수 있다. 제 k 서버(440)는 미리 정해진 방식에 따라 복수의 레이어 중 중간 레이어(921) 또는 최종 레이어(922)를 제 k 서브 특징 데이터(813)로 결정할 수 있다. The kth server 440 may select feature data of at least one layer from among feature data 920 of a plurality of layers. The kth server 440 may determine the intermediate layer 921 or the final layer 922 of the plurality of layers as the kth sub-feature data 813 according to a predetermined method.

제 k 서버(440)는 통합기계학습모델(410)에 포함된 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442) 모두에 대하여 위와 동일한 과정을 수행할 수 있다. The k-th server 440 may perform the same process as described above for all of the first sub-machine learning model 422 to the k-th sub-machine learning model 442 included in the integrated machine learning model 410.

또한 제 k 서버(440)는 제 k 분석 대상 데이터(713)에 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 적용하여 생성된 복수의 레이어의 특징 데이터 중 동일 위치에서 특징 데이터를 선택하여 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813)를 획득할 수 있다. In addition, the k-th server 440 applies the first sub-machine learning model 422 to the k-th sub-machine learning model 442 to the k-th analysis target data 713 to provide the same location among feature data of a plurality of layers. The first to k-th sub-feature data 811 to 813 may be obtained by selecting the feature data from.

하지만 이에 한정되는 것은 아니며 제 k 서버(440)는 제 k 분석 대상 데이터(713)에 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)을 적용하여 생성된 복수의 레이어의 특징 데이터 중 서로 다른 방식으로 결정된 위치에서 특징 데이터를 선택할 수 있다. 제 k 서버(440)는 서브 기계학습모델에 기초하여 획득된 복수의 레이어 중 선택할 레이어의 위치를 미리 결정된 방식에 기초하여 결정할 수 있다. However, the present invention is not limited thereto, and the k-th server 440 applies the first sub-machine learning model 422 to the k-th sub-machine learning model 442 to the k-th analysis target data 713. Among the feature data, feature data can be selected from positions determined in different ways. The kth server 440 may determine a location of a layer to be selected from among a plurality of layers acquired based on the sub machine learning model, based on a predetermined method.

이상에서는 제 k 서버(440)를 기준으로 설명하였으나, 제 1 서버(420) 및 제 2 서버(430)에 대해서도 동일한 과정이 수행될 수 있으므로 중복되는 설명은 생략한다.In the above description, the k-th server 440 has been described, but since the same process may be performed for the first server 420 and the second server 430, a redundant description will be omitted.

이하에서는 도 9를 보다 구체적으로 도시한 도 10을 참조하여 보다 자세하게 설명한다.Hereinafter, with reference to FIG. 10 which shows FIG. 9 in more detail, it will be described in more detail.

도 10은 본 개시의 일 실시예에 따라 특징 데이터를 생성하는 과정을 설명하기 위한 도면이다.10 is a diagram for describing a process of generating feature data according to an embodiment of the present disclosure.

도 10에서 INPUT은 제 k 분석 대상 데이터(713)를 나타낼 수 있다. 제 k 서버(440)는 다음과 같은 과정을 통하여 제 k 분석 대상 데이터(713)에 제 k 서브 기계학습모델(442)을 적용할 수 있다.In FIG. 10, INPUT may represent the kth analysis target data 713. The k-th server 440 may apply the k-th sub machine learning model 442 to the k-th analysis target data 713 through the following process.

제 k 서버(440)는 제 k 분석 대상 데이터(713)에 제 1 컨볼루션(Conv_1)을 수행하여 24x24xn1크기의 제 1 레이어(1010)를 획득할 수 있다. 제 k 서버(440)는 제 1 레이어(1010)에 맥스 풀링을 수행하여 12 x 12 x n1크기의 제 2 레이어(1020)를 획득할 수 있다. 제 k 서버(440)는 제 2 레이어(1020)에 제 2 컨볼루션(Conv_2)을 수행하여 8 x 8 x n2 크기의 제 3 레이어(1030)를 획득할 수 있다. 제 k 서버(440)는 제 3 레이어(1030)에 맥스 풀링을 수행하여 4 x 4 x n2 크기의 제 4 레이어(1040)를 획득할 수 있다. 제 k 서버(440)는 제 4 레이어(1040)에 제 1 풀리 커넥티드 신경망(fc_3)을 적용하여 n3 크기의 최종 레이어(922)를 획득할 수 있다. 또한 제 k 서버(440)는 최종 레이어(922)에 제 2 풀리 커넥티드 신경망(fc_4)을 적용하여 OUTPUT(930)을 출력할 수 있다. OUTPUT(930)은 제 k 서브 기계학습모델(442)에 기초하여 예측된 INPUT에 대응하는 예측 레이블 또는 예측된 분석 결과일 수 있다.The kth server 440 may obtain the first layer 1010 having a size of 24x24xn1 by performing a first convolution (Conv_1) on the kth analysis target data 713. The kth server 440 may perform max pooling on the first layer 1010 to obtain a second layer 1020 having a size of 12 x 12 x n1. The kth server 440 may obtain a third layer 1030 having a size of 8 x 8 x n2 by performing a second convolution (Conv_2) on the second layer 1020. The k-th server 440 may perform max pooling on the third layer 1030 to obtain a fourth layer 1040 having a size of 4 x 4 x n2. The k-th server 440 may obtain a final layer 922 having an n3 size by applying the first fully connected neural network fc_3 to the fourth layer 1040. Also, the kth server 440 may output the OUTPUT 930 by applying the second fully connected neural network fc_4 to the final layer 922. The OUTPUT 930 may be a prediction label corresponding to an INPUT predicted based on the k-th sub machine learning model 442 or a predicted analysis result.

여기서 제 1 레이어(1010) 내지 제 4 레이어(1040) 및 최종 레이어(922)는 제 k 분석 대상 데이터(713)를 제 k 서브 기계학습모델(442)로 순전파하는 경우, 생성된 복수의 레이어에 포함될 수 있다. 제 k 서버(440)는 미리 결정된 방식에 기초하여 복수의 특징 레이어(1010, 1020, 1030, 1040, 922) 중 적어도 하나의 레이어를 선택하여 제 k 서브 특징 데이터(813)를 획득할 수 있다. 예를 들어 제 k 서버(440)는 미리 결정된 위치에서 적어도 하나의 레이어를 선택하여 제 k 서브 특징 데이터(813)를 획득할 수 있다. 여기서 위치는 복수의 특징 레이어(1010, 1020, 1030, 1040, 922)에 대한 하나의 레이어의 위치를 의미한다.Here, the first layer 1010 to the fourth layer 1040 and the final layer 922 are a plurality of layers generated when forward propagating the k-th analysis target data 713 to the k-th sub-machine learning model 442 Can be included in The k-th server 440 may obtain the k-th sub-feature data 813 by selecting at least one of the plurality of feature layers 1010, 1020, 1030, 1040, and 922 based on a predetermined method. For example, the kth server 440 may obtain the kth sub-feature data 813 by selecting at least one layer at a predetermined location. Here, the position means the position of one layer with respect to the plurality of feature layers 1010, 1020, 1030, 1040, 922.

제 1 컨볼루션, 제 2 컨볼루션, 맥스 풀링, 제 1 풀리 커넥티드 신경망(fc_3) 및 제 2 풀리 커넥티드 신경망(fc_4)은 제 k 서브 기계학습모델(442)에 포함되는 구성요소일 수 있다. 도 10은 일 실시예로서, 제 k 기계학습모델은 다양한 구성 요소를 더 포함할 수도 있고, 도 10에서 일부 구성요소를 삭제한 모델일 수 있다. 또한 제 k 기계학습모델의 기계학습과정에서 순전파 및 역전파를 통하여 제 1 컨볼루션, 제 2 컨볼루션, 제 1 풀리 커넥티드 신경망(fc_3) 및 제 2 풀리 커넥티드 신경망(fc_4)에 관련된 복수의 가중치들이 업데이트되어 최적화된 제 k 기계학습모델이 획득될 수 있다.The first convolution, the second convolution, the max pooling, the first fully connected neural network fc_3, and the second fully connected neural network fc_4 may be components included in the kth sub-machine learning model 442. . FIG. 10 illustrates an embodiment, and the kth machine learning model may further include various components, and may be a model in which some components are deleted from FIG. 10. In addition, through forward and back propagation in the machine learning process of the kth machine learning model, the first convolution, the second convolution, the first fully connected neural network (fc_3), and the second fully connected neural network (fc_4). The weights of are updated to obtain an optimized kth machine learning model.

도 9 및 도 10에서는 일반화를 위하여 제 k 서버(440)가 제 k 분석 대상 데이터(713)를 제 k 서브 기계학습모델(442)로 순전파하는 경우에 대하여 설명하였으나, 제 k 서버(440)가 제 k 분석 대상 데이터(713)를 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)로 순전파하는 경우에도 동일하게 복수의 레이어가 생성될 수 있다. 또한, 제 k 서버(440)는 미리 결정된 방식에 기초하여 복수의 레이어 중 적어도 하나의 레이어를 선택하여 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813)를 획득할 수 있다. 제 k 서버(440)는 복수의 레이어 중 동일한 위치의 레이어를 선택하여 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813)를 획득할 수 있다. 예를 들어, 제 k 서버(440)는 복수의 레이어 중 최종 레이어(922)를 선택하여 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813)를 획득할 수 있다. 제 k 서버(440)는 제 1 서브 특징 데이터(811) 내지 제 k 서브 특징 데이터(813) 중 적어도 하나에 기초하여 제 k 특징 데이터(723)를 획득할 수 있다.In FIGS. 9 and 10, for generalization, a case in which the k-th server 440 forwards the k-th analysis target data 713 to the k-th sub-machine learning model 442 has been described, but the k-th server 440 In the case of forward propagation of the k-th analysis target data 713 to the first sub-machine learning model 422 to the k-th sub-machine learning model 442, a plurality of layers may be similarly generated. Also, the k-th server 440 may obtain the first sub-feature data 811 to the k-th sub-feature data 813 by selecting at least one of the plurality of layers based on a predetermined method. The k-th server 440 may obtain the first sub-feature data 811 to the k-th sub-feature data 813 by selecting a layer at the same position among a plurality of layers. For example, the k-th server 440 may obtain the first to k-th sub-feature data 811 to 813 by selecting the final layer 922 among a plurality of layers. The kth server 440 may acquire the kth feature data 723 based on at least one of the first to kth subfeature data 811 to 813.

또한, 제 1 서버(420) 및 제 2 서버(430)도 제 k 서버(440)와 동일하게 동작할 수 있다. 예를 들어, 제 1 서버(420)가 제 1 분석 대상 데이터(711)를 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)로 순전파하는 경우에도 동일하게 복수의 레이어가 생성될 수 있다. 제 1 서버(420)는 미리 결정된 방식에 기초하여 적어도 하나의 레이어를 선택하여 제 1-1 서브 특징 데이터 내지 제 1-k 서브 특징 데이터를 획득할 수 있다. 또한 제 1 서버(420)는 제 1-1 서브 특징 데이터 내지 제 1-k 서브 특징 데이터 중 적어도 하나에 기초하여 제 1 특징 데이터(721)를 획득할 수 있다. In addition, the first server 420 and the second server 430 may operate in the same manner as the kth server 440. For example, even when the first server 420 forwards the first analysis target data 711 to the first sub-machine learning model 422 to the k-th sub-machine learning model 442, a plurality of layers is also Can be created. The first server 420 may select at least one layer based on a predetermined method to obtain 1-1 th to 1-k th sub-feature data. In addition, the first server 420 may obtain the first feature data 721 based on at least one of the 1-1th subfeature data to the 1-kth subfeature data.

제 2 서버(430)가 제 2 분석 대상 데이터(712)를 제 1 서브 기계학습모델(422) 내지 제 k 서브 기계학습모델(442)로 순전파하는 경우에도 동일하게 복수의 레이어가 생성될 수 있다. 제 2 서버(430)는 미리 결정된 방식에 기초하여 적어도 하나의 레이어를 선택하여 제 2-1 서브 특징 데이터 내지 제 2-k 서브 특징 데이터를 획득할 수 있다. 또한 제 2 서버(430)는 제 2-1 서브 특징 데이터 내지 제 2-k 서브 특징 데이터 중 적어도 하나에 기초하여 제 2 특징 데이터(722)를 획득할 수 있다. 제 1 서버(420) 내지 제 k 서버(440)는 생성된 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)를 기계학습장치(200)로 전송할 수 있다.Even when the second server 430 forwards the second analysis target data 712 to the first sub-machine learning model 422 to the k-th sub-machine learning model 442, a plurality of layers may also be generated. have. The second server 430 may select at least one layer based on a predetermined method to obtain the 2-1 th to the 2-k th sub-feature data. In addition, the second server 430 may acquire the second feature data 722 based on at least one of the 2-1 th sub-feature data to the 2-k th sub-feature data. The first server 420 to kth server 440 may transmit the generated first feature data 721 to kth feature data 723 to the machine learning apparatus 200.

이하에서는 미리 결정된 방식에 기초하여 적어도 하나의 레이어를 선택하는 과정을 보다 자세히 설명한다. 또한 설명의 편의를 위해 제 1 서버(420) 및 제 2 서버(430)만 있는 경우에 대하여 설명한다.Hereinafter, a process of selecting at least one layer based on a predetermined method will be described in more detail. In addition, for convenience of explanation, a case where only the first server 420 and the second server 430 are present will be described.

도 7을 참조하면, 제 1 특징 데이터(721)는 통합기계학습모델(410)에 포함된 적어도 하나의 서브 기계학습모델을 이용하여 획득될 수 있다. 제 1 특징 데이터(721)는 제 1 분석 대상 데이터(711)를 제 1 서브 기계학습모델에 적용하여 획득되는 제 1 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 포함할 수 있다. 제 1 복수의 특징 레이어들 중 선택된 적어도 하나의 특징 레이어는 제 1-1 서브 특징 데이터일 수 있다. 또한, 제 1 특징 데이터(721)는 제 1 분석 대상 데이터를 제 2 서브 기계학습모델에 적용하여 획득되는 제 2 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 포함할 수 있다. 제 2 복수의 특징 레이어들 중 선택된 적어도 하나는 제 1-2 서브 특징 데이터일 수 있다. 제 1 특징 데이터(721)는 제 1-1 서브 특징 데이터 및 제 1-2 서브 특징 데이터를 결합한 데이터일 수 있다. 예를 들어, 제 1-1 서브 특징 데이터가 a 개의 특징 레이어를 포함하고, 제 1-2 서브 특징 데이터가 b 개의 특징 레이어를 포함하는 경우, 제 1 특징 데이터(721)는 a+b개의 특징 레이어를 포함할 수 있다. Referring to FIG. 7, the first feature data 721 may be obtained using at least one sub machine learning model included in the integrated machine learning model 410. The first feature data 721 may include at least one feature layer among first plurality of feature layers obtained by applying the first analysis target data 711 to the first sub machine learning model. At least one feature layer selected from among the first plurality of feature layers may be 1-1 sub-feature data. In addition, the first feature data 721 may include at least one feature layer from among the second plurality of feature layers obtained by applying the first analysis target data to the second sub machine learning model. At least one selected from among the second plurality of feature layers may be the 1-2th sub-feature data. The first feature data 721 may be data obtained by combining the 1-1 first sub-feature data and the 1-2 th sub-feature data. For example, when the 1-1 first sub-feature data includes a feature layer and the 1-2-th sub-feature data includes b feature layers, the first feature data 721 is a+b feature layer. May include layers.

또한, 제 1 특징 데이터(721)는 제 1-1 서브 특징 데이터 및 제 1-2 서브 특징 데이터에 오퍼레이션을 취한 데이터일 수 있다. 오퍼레이션은 AND, OR 또는 XOR와 같은 비트 연산자 또는 덧셈, 뺄셈, 곱셈 또는 나눗셈과 같은 사칙연산을 포함할 수 있다. 서버는 제 1-1 서브 특징 데이터 및 제 1-2 서브 특징 데이터에 포함된 요소들 간에 오퍼레이션을 취하여 제 1 특징 데이터(721)를 획득할 수 있다. 동일한 과정이 수행되어 제 2 특징 데이터(722) 내지 제 k 특징 데이터(723)가 획득될 수 있다.Further, the first feature data 721 may be data obtained by performing an operation on the 1-1 first sub-feature data and the 1-2 th sub-feature data. The operations may include bitwise operators such as AND, OR, or XOR, or four arithmetic operations such as addition, subtraction, multiplication or division. The server may obtain the first feature data 721 by performing an operation between elements included in the 1-1 first sub-feature data and the 1-2 th sub-feature data. The same process may be performed to obtain the second feature data 722 to the k-th feature data 723.

또한, 도 7을 참조하면, 제 2 특징 데이터(722)는 통합기계학습모델(410)에 적어도 하나의 서브 기계학습모델을 이용하여 획득될 수 있다. 제 2 특징 데이터(722)는 제 2 분석 대상 데이터(712)를 제 1 서브 기계학습모델(422)에 적용하여 획득되는 제 3 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 포함할 수 있다. 제 3 복수의 특징 레이어들 중 적어도 하나의 특징 레이어는 제 2-1 서브 특징 데이터일 수 있다. 또한, 제 2 특징 데이터(722)는 제 2 분석 대상 데이터(712)를 제 2 서브 기계학습모델(432)에 적용하여 획득되는 제 4 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 포함할 수 있다. 제 4 복수의 특징 레이어들 중 적어도 하나는 제 2-2 서브 특징 데이터일 수 있다. 제 2 특징 데이터(722)는 제 2-1 서브 특징 데이터 및 제 2-2 서브 특징 데이터를 결합한 데이터일 수 있다.Also, referring to FIG. 7, the second feature data 722 may be obtained by using at least one sub-machine learning model in the integrated machine learning model 410. The second feature data 722 may include at least one feature layer among a plurality of third feature layers obtained by applying the second analysis target data 712 to the first sub machine learning model 422. At least one feature layer among the third plurality of feature layers may be the 2-1th sub feature data. In addition, the second feature data 722 may include at least one feature layer among the fourth plurality of feature layers obtained by applying the second analysis target data 712 to the second sub machine learning model 432. have. At least one of the fourth plurality of feature layers may be 2-2 sub-feature data. The second feature data 722 may be data obtained by combining the 2-1 sub-feature data and the 2-2 sub-feature data.

이 때, 기계학습장치(200) 또는 서버는 제 1 복수의 특징 레이어들, 제 2 복수의 특징 레이어들, 제 3 복수의 특징 레이어들 및 제 4 복수의 특징 레이어들에서 동일 위치의 레이어를 선택하여 제 1 특징 데이터 및 제 2 특징 데이터를 획득할 수 있다. 도 9를 참조하면, 기계학습장치(200) 또는 서버는 미드 레이어(921) 또는 최종 레이어(922) 중 하나를 이용하여 제 1 특징 데이터 및 제 2 특징 데이터를 획득할 수 있다.In this case, the machine learning apparatus 200 or the server selects a layer at the same position from the first plurality of feature layers, the second plurality of feature layers, the third plurality of feature layers, and the fourth plurality of feature layers. Thus, the first feature data and the second feature data may be obtained. Referring to FIG. 9, the machine learning apparatus 200 or the server may acquire first feature data and second feature data by using one of the mid layer 921 or the final layer 922.

예를 들어, 최종 레이어를 선택하여 제 1 특징 데이터 및 제 2 특징 데이터를 획득하는 경우가 아래에서 설명된다. 제 1 복수의 특징 레이어들은 도 10의 복수의 특징 레이어(1010, 1020, 1030, 1040, 922)를 포함할 수 있다. 기계학습장치(200) 또는 제 1 서버(420)는 제 1 복수의 특징 레이어들 중 최종 레이어(922)를 선택하여 제 1-1 서브 특징 레이어를 획득할 수 있다. 또한 제 2 복수의 특징 레이어들은 도 10의 복수의 특징 레이어(1010, 1020, 1030, 1040, 922)를 포함할 수 있다. 기계학습장치(200) 또는 제 1 서버(420)는 제 2 복수의 특징 레이어들 중 최종 레이어(922)를 선택하여 제 1-2 서브 특징 레이어를 획득할 수 있다. 제 1 특징 데이터는 제 1-1 서브 특징 레이어 및 제 1-2 서브 특징 레이어를 포함할 수 있다. 제 3 복수의 특징 레이어들은 도 10의 복수의 특징 레이어(1010, 1020, 1030, 1040, 922)를 포함할 수 있다. 기계학습장치(200) 또는 제 2 서버(430)는 제 3 복수의 특징 레이어들 중 최종 레이어(922)를 선택하여 제 2-1 서브 특징 레이어를 획득할 수 있다. 또한 제 4 복수의 특징 레이어들은 도 10의 복수의 특징 레이어(1010, 1020, 1030, 1040, 922)를 포함할 수 있다. 기계학습장치(200) 또는 제 2 서버(430)는 제 4 복수의 특징 레이어들 중 최종 레이어(922)를 선택하여 제 2-2 서브 특징 레이어를 획득할 수 있다. 제 2 특징 데이터는 제 2-1 서브 특징 레이어 및 제 2-2 서브 특징 레이어를 포함할 수 있다.For example, a case of acquiring first feature data and second feature data by selecting a final layer will be described below. The first plurality of feature layers may include a plurality of feature layers 1010, 1020, 1030, 1040, and 922 of FIG. 10. The machine learning apparatus 200 or the first server 420 may obtain a 1-1 sub-feature layer by selecting a final layer 922 from among the first plurality of feature layers. In addition, the second plurality of feature layers may include a plurality of feature layers 1010, 1020, 1030, 1040, and 922 of FIG. 10. The machine learning apparatus 200 or the first server 420 may obtain a 1-2 sub-feature layer by selecting a final layer 922 from among the second plurality of feature layers. The first feature data may include a 1-1 sub-feature layer and a 1-2 sub-feature layer. The third plurality of feature layers may include a plurality of feature layers 1010, 1020, 1030, 1040, and 922 of FIG. 10. The machine learning apparatus 200 or the second server 430 may acquire the 2-1 sub-feature layer by selecting the final layer 922 from among the third plurality of feature layers. In addition, the fourth plurality of feature layers may include a plurality of feature layers 1010, 1020, 1030, 1040, and 922 of FIG. 10. The machine learning apparatus 200 or the second server 430 may obtain a 2-2 sub-feature layer by selecting a final layer 922 from among the fourth plurality of feature layers. The second feature data may include a 2-1 sub-feature layer and a 2-2 sub-feature layer.

이하에서는 기계학습장치(200)가 수신하는 데이터의 양을 살펴본다. 각 서버가 a개의 분석 대상 데이터를 포함하고, 서버의 개수가 b이라고 가정하자. 서버의 개수가 b라고 가정한다. 통합기계학습모델(410)에 포함된 서브 기계학습모델의 개수는 서버의 개수와 동일하므로 b개일 수 있다. 하나의 서버의 a개의 분석 대상 데이터에 대하여 b개의 서브 기계학습모델이 적용되면, 하나의 서버에서 a x b개의 서브 특징 데이터가 생성될 수 있다. 또한 b개의 서버에 대하여 동일한 개수의 서브 특징 데이터가 생성되므로 총 a x b x b개의 서브 특징 데이터가 생성될 수 있다. 위에서는 통합기계학습모델(410)에 포함된 서브 기계학습모델의 개수를 서버의 개수와 동일하게 가정하였으나 이에 한정되는 것은 아니다. 통합기계학습모델(410)에 포함된 서브 기계학습모델은 1개 이상일 수 있다. 통합기계학습모델(410)은 하나의 기본모델이거나, 복수의 서브 기계학습모델 중 선택된 적어도 하나의 서브 기계학습모델일 수 있기 때문이다. 이 경우 서브 특징 데이터는 a x b x b보다 작거나 같을 수 있다.Hereinafter, the amount of data received by the machine learning apparatus 200 will be described. Suppose that each server contains a data to be analyzed and the number of servers is b. Assume that the number of servers is b. Since the number of sub-machine learning models included in the integrated machine learning model 410 is the same as the number of servers, it may be b. When b sub-machine learning models are applied to a data to be analyzed in one server, a x b sub-feature data may be generated in one server. In addition, since the same number of sub-feature data is generated for b servers, a total of a x b x b sub-feature data may be generated. In the above, the number of sub-machine learning models included in the integrated machine learning model 410 is assumed to be the same as the number of servers, but is not limited thereto. There may be one or more sub-machine learning models included in the integrated machine learning model 410. This is because the integrated machine learning model 410 may be one basic model or at least one sub-machine learning model selected from among a plurality of sub-machine learning models. In this case, the sub-feature data may be less than or equal to a x b x b.

다시 도 6 및 도 7을 참조하면, 제 1 서버(420) 내지 제 k 서버(440)는 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)를 기계학습장치(200)로 송신할 수 있다. 또한, 제 1 서버(420) 내지 제 k 서버(440)는 분석 결과 데이터를 기계학습장치(200)로 송신할 수 있다. 기계학습장치(200)는 통합기계학습모델(410)을 서로 독립적인 복수의 학습 데이터 세트에 포함된 복수의 분석 대상 데이터(711, 712, 713)에 적용하여 획득된 복수의 특징 데이터(721, 722, 723)를 수신하는 단계(620)를 수행할 수 있다.Referring back to FIGS. 6 and 7, the first server 420 to the kth server 440 may transmit the first feature data 721 to the kth feature data 723 to the machine learning apparatus 200. have. In addition, the first server 420 to the kth server 440 may transmit analysis result data to the machine learning apparatus 200. The machine learning apparatus 200 applies the integrated machine learning model 410 to a plurality of analysis target data 711, 712, and 713 included in a plurality of independent learning data sets, and the plurality of feature data 721, Step 620 of receiving (722, 723) may be performed.

예를 들어, 기계학습장치(200)는 제 k 분석 대상 데이터(713)에 통합기계학습모델(410)을 적용하여 획득된 제 k 특징 데이터(723)를 수신하는 단계를 수행할 수 있다. 제 k 특징 데이터(723)는 제 k 분석 대상 데이터(713)에서 식별 가능한 개인 정보가 암호화될 수 있다. 따라서 제 k 특징 데이터(723)는 개인 정보가 식별되지 않을 수 있다. 유사하게, 기계학습장치(200)는 제 1 분석 대상 데이터에 통합기계학습모델을 적용하여 획득된 제 1 특징 데이터를 수신하는 단계를 수행할 수 있다. 또한, 기계학습장치(200)는 제 2 분석 대상 데이터에 통합기계학습모델을 적용하여 획득된 제 2 특징 데이터를 수신하는 단계를 수행할 수 있다.For example, the machine learning apparatus 200 may perform a step of receiving the kth feature data 723 obtained by applying the integrated machine learning model 410 to the kth analysis target data 713. In the k-th feature data 723, personal information identifiable in the k-th analysis target data 713 may be encrypted. Accordingly, personal information may not be identified in the k-th feature data 723. Similarly, the machine learning apparatus 200 may perform the step of receiving the first feature data obtained by applying the integrated machine learning model to the first analysis target data. In addition, the machine learning apparatus 200 may perform the step of receiving second feature data obtained by applying an integrated machine learning model to the second analysis target data.

이미 설명한 바와 같이 학습 데이터 세트는 분석 대상 데이터 및 분석 결과 데이터를 포함할 수 있다. 하지만 분석 대상 데이터는 데이터 센터에서 반출이 불가능하므로, 기계학습장치(200)는 제 1 서버 내지 제 k 서버로부터 복수의 분석 대상 데이터(711, 712, 713) 대신 복수의 특징 데이터(721, 722, 723)를 수신할 수 있다. 복수의 특징 데이터(721, 722, 723)는 개인정보가 식별되지 않고, 분석 대상 데이터로 복원될 수 없기 때문이다. 또한 기계학습장치(200)는 제 1 서버 내지 제 k 서버로부터 복수의 특징 데이터(721, 722, 723)에 각각 대응하는 복수의 분석 결과 데이터를 수신할 수 있다. 복수의 분석 결과 데이터는 암호화되어 있지 않을 수 있다. 복수의 분석 결과 데이터는 실제(ground-truth) 데이터 또는 실제 레이블로 사용될 수 있다. 또한, 복수의 분석 결과 데이터에는 복수의 특징 데이터(721, 722, 723)에 각각 대응하고, 복수의 특징 데이터(721, 722, 723)에서 개인정보가 식별되지 않으므로 복수의 분석 결과 데이터가 누구에 대한 것인지 식별되지 않을 수 있다. 기계학습장치(200)는 복수의 특징 데이터(721, 722, 723) 및 복수의 분석 결과 데이터를 최종데이터세트(730)로써 획득할 수 있다.As already described, the training data set may include analysis target data and analysis result data. However, since the data to be analyzed cannot be exported from the data center, the machine learning apparatus 200 is provided with a plurality of feature data 721, 722, instead of the plurality of data to be analyzed 711, 712, 713 723) can be received. This is because personal information is not identified in the plurality of feature data 721, 722, and 723 and cannot be restored as analysis target data. In addition, the machine learning apparatus 200 may receive a plurality of analysis result data corresponding to the plurality of feature data 721, 722, and 723, respectively, from the first server to the kth server. Multiple analysis result data may not be encrypted. The plurality of analysis result data may be used as ground-truth data or real labels. In addition, since the plurality of analysis result data corresponds to a plurality of feature data 721, 722, 723, respectively, and personal information is not identified from the plurality of feature data 721, 722, 723, who is the plurality of analysis result data? It may not be identified if it is for. The machine learning apparatus 200 may acquire a plurality of feature data 721, 722, and 723 and a plurality of analysis result data as the final data set 730.

기계학습장치(200)는 복수의 특징 데이터(721, 722, 723)와 복수의 학습 데이터 세트에 포함된 복수의 분석 결과 데이터 사이의 관계를 기계학습하여 최종기계학습모델을 획득하는 단계(630)를 수행할 수 있다. The machine learning apparatus 200 machine learning the relationship between the plurality of feature data 721, 722, and 723 and the plurality of analysis result data included in the plurality of learning data sets to obtain a final machine learning model (630) You can do it.

보다 구체적으로 기계학습장치(200)는 제 1 특징 데이터(721) 및 제 1 분석 결과 데이터의 상관 관계, 제 2 특징 데이터(722) 및 제 2 분석 결과 데이터의 상관 관계 또는 제 k 특징 데이터(723) 및 제 k 분석 결과 데이터의 상관 관계를 기계학습하여 최종기계학습모델(710)을 획득하는 단계를 수행할 수 있다.More specifically, the machine learning apparatus 200 includes a correlation between the first feature data 721 and the first analysis result data, the correlation between the second feature data 722 and the second analysis result data, or the k-th feature data 723. ) And the k-th analysis result data may be machine-learned to obtain a final machine learning model 710.

도 11은 본 개시의 일 실시예에 따라 최종기계학습모델(710)을 생성하는 과정을 나타낸 도면이다.11 is a diagram illustrating a process of generating a final machine learning model 710 according to an embodiment of the present disclosure.

이미 설명한 바와 같이 최종데이터세트(730)는 특징 데이터(1111) 및 분석 결과 데이터(1112)를 포함할 수 있다. 특징 데이터(1111)는 도 7의 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)를 포함할 수 있다. 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)는 제 1 분석 대상 데이터(711) 내지 제 k 분석 대상 데이터(713)에 일대일로 대응될 수 있다. 분석 결과 데이터(1112)는 실제(ground-truth) 데이터 또는 실제 레이블 일 수 있다. 분석 결과 데이터(1112)는 제 1 분석 결과 데이터 내지 제 k 분석 결과 데이터를 포함할 수 있다. 제 1 분석 결과 데이터 내지 제 k 분석 결과 데이터는 제 1 분석 대상 데이터 내지 제 k 분석 대상 데이터에 일대일로 대응될 수 있다. 또한, 제 1 분석 결과 데이터 내지 제 k 분석 결과 데이터는 제 1 특징 데이터(721) 내지 제 k 특징 데이터(723)에 일대일로 대응될 수 있다.As already described, the final data set 730 may include feature data 1111 and analysis result data 1112. The feature data 1111 may include the first feature data 721 to the kth feature data 723 of FIG. 7. The first feature data 721 to kth feature data 723 may correspond to the first analysis target data 711 to the kth analysis target data 713 on a one-to-one basis. The analysis result data 1112 may be ground-truth data or an actual label. The analysis result data 1112 may include first analysis result data to kth analysis result data. The first analysis result data to the kth analysis result data may correspond to the first analysis target data to the kth analysis target data on a one-to-one basis. In addition, the first analysis result data to the kth analysis result data may correspond to the first feature data 721 to the kth feature data 723 on a one-to-one basis.

기계학습장치(200)는 데이터 학습부(110)를 포함할 수 있다. 기계학습장치(200)는 특징 데이터(1111) 및 분석 결과 데이터(1112)의 관계를 기계학습하여 최종기계학습모델(710)을 생성할 수 있다. 기계학습장치(200)는 심층신경망을 기반으로 기계학습을 수행할 수 있다. 기계학습장치(200)는 특징 데이터(1111) 및 분석 결과 데이터(1112)를 이용하여 순전파(forward propagation) 및 역전파(back propagation)을 수행하면서 최종기계학습모델(710)의 정확도를 높일 수 있다.The machine learning apparatus 200 may include a data learning unit 110. The machine learning apparatus 200 may generate a final machine learning model 710 by machine learning the relationship between the feature data 1111 and the analysis result data 1112. The machine learning apparatus 200 may perform machine learning based on a deep neural network. The machine learning device 200 can improve the accuracy of the final machine learning model 710 while performing forward propagation and back propagation using the feature data 1111 and the analysis result data 1112. have.

최종기계학습모델(710)은 특징 데이터(1111)와 분석 결과 데이터(1112)의 관계를 학습한 기계학습모델일 수 있다. 따라서, 기계학습이 완료된 최종기계학습모델(710)은 새로운 특징 데이터를 입력받고, 예측 결과 데이터를 출력할 수 있다.The final machine learning model 710 may be a machine learning model obtained by learning the relationship between the feature data 1111 and the analysis result data 1112. Accordingly, the final machine learning model 710 in which machine learning is completed may receive new feature data and output prediction result data.

최종기계학습모델(710)이 새로운 특징 데이터를 분석하는 과정에 대해서는 도 12 및 도 13과 함께 보다 자세히 설명한다.A process in which the final machine learning model 710 analyzes new feature data will be described in more detail with reference to FIGS. 12 and 13.

도 12는 본 개시의 일 실시예에 따른 기계학습장치의 동작을 나타내는 흐름도이다. 도 13은 본 개시의 일 실시예에 따라 기계학습장치의 동작을 설명하기 위한 도면이다.12 is a flowchart illustrating an operation of a machine learning apparatus according to an embodiment of the present disclosure. 13 is a diagram for describing an operation of a machine learning apparatus according to an embodiment of the present disclosure.

구체적으로, 기계학습장치(200)는 데이터 인식부(120)를 포함할 수 있다. 서버는 테스트 데이터(1310)를 통합기계학습모델에 적용하여 예측 특징 데이터(1320)를 획득하는 단계를 수행할 수 있다. 여기서 서버는 제 1 서버(420) 내지 제 k 서버(440) 중 어느 하나일 수 있다. 테스트 데이터(1310)는 서버가 새롭게 획득한 분석 대상 데이터일 수 있다. 서버는 새롭게 획득한 분석 대상 데이터에 대응되는 분석 결과 데이터를 가지고 있지 않을 수 있다. 테스트 데이터(1310)에는 개인 정보가 포함되어 있을 수 있다. Specifically, the machine learning apparatus 200 may include a data recognition unit 120. The server may perform the step of obtaining the predicted feature data 1320 by applying the test data 1310 to the integrated machine learning model. Here, the server may be any one of the first server 420 to the k-th server 440. The test data 1310 may be analysis target data newly acquired by the server. The server may not have analysis result data corresponding to the newly acquired analysis target data. Personal information may be included in the test data 1310.

서버는 테스트 데이터(1310)를 통합기계학습모델(410)에 적용하여 예측 특징 데이터(1320)를 획득할 수 있다. 통합기계학습모델(410)은 최종기계학습모델(710)을 생성할 때 사용되었던 통합기계학습모델(410)과 동일할 수 있다.The server may apply the test data 1310 to the integrated machine learning model 410 to obtain the predicted feature data 1320. The integrated machine learning model 410 may be the same as the integrated machine learning model 410 used to generate the final machine learning model 710.

예측 특징 데이터(1320)는 테스트 데이터(1310)를 손실압축한 데이터일 수 있다. 예측 특징 데이터(1320)는 테스트 데이터(1310)를 통합기계학습모델에 적용하였을 때 생성되는 복수의 레이어 중 적어도 하나의 레이어일 수 있다. 예측 특징 데이터(1320)는 도 8 내지 도 10과 같은 과정에 의하여 생성될 수 있다. 예를 들어 테스트 데이터(1310)는 도 8의 제 k 분석 대상 데이터(713)에 대응되고, 예측 특징 데이터(1320)는 도 8의 제 k 특징 데이터(723)에 대응될 수 있다. 예측 특징 데이터(1320)는 암호화되어 있을 수 있다. 따라서 예측 특징 데이터(1320)는 개인정보가 식별되지 않을 수 있다. 예측 특징 데이터(1320)에서 개인정보가 식별되지 않으므로 서버는 예측 특징 데이터를 자유롭게 반출할 수 있다. 서버는 예측 특징 데이터(1320)를 기계학습장치(200)로 송신할 수 있다. 반출된 예측 특징 데이터(1320)는 외부의 고성능 장치를 이용하여 신속하고 정확하게 처리될 수 있다. 외부의 고성능 장치는 기계학습장치(200)일 수 있다.The predicted feature data 1320 may be data obtained by lossy compressing the test data 1310. The predictive feature data 1320 may be at least one of a plurality of layers generated when the test data 1310 is applied to the integrated machine learning model. The predicted feature data 1320 may be generated by the same process as in FIGS. 8 to 10. For example, the test data 1310 may correspond to the kth analysis target data 713 of FIG. 8, and the predictive feature data 1320 may correspond to the kth feature data 723 of FIG. 8. The predicted feature data 1320 may be encrypted. Accordingly, personal information may not be identified in the predicted feature data 1320. Since personal information is not identified in the predicted feature data 1320, the server can freely export the predicted feature data. The server may transmit the predicted feature data 1320 to the machine learning apparatus 200. The exported predictive feature data 1320 may be processed quickly and accurately using an external high-performance device. The external high-performance device may be the machine learning device 200.

기계학습장치(200)는 테스트 데이터(1310)를 통합기계학습모델에 적용하여 획득된 예측 특징 데이터(1320)를 수신하는 단계(1210)를 수행할 수 있다. 또한 기계학습장치(200)는 예측 특징 데이터(1320)를 최종기계학습모델(710)에 적용하여 테스트 데이터(1310)에 관련된 예측 결과 데이터(1330)를 획득하는 단계(1220)를 수행할 수 있다. 예측 결과 데이터(1330)는 테스트 데이터(1310)를 최종기계학습모델(710)에 의하여 분석한 결과일 수 있다. 예측 결과 데이터(1330)는 테스트 데이터(1310)에 대한 기계학습장치(200)의 분석결과이다. 예측 결과 데이터(1330)는 사용자의 도움 없이 기계학습장치(200)가 자동으로 도출한 데이터일 수 있다. 제 1 서버(420) 내지 제 k 서버(440)의 데이터를 모두 활용한 최종기계학습모델(710)에 의한 결과 데이터이므로, 높은 확률로 실제(ground truth) 데이터와 유사할 수 있다. 또한, 본 개시에 따르면, 제 1 서버(420) 내지 제 k 서버(440)의 데이터를 모두 활용한 최종기계학습모델(710)에 의한 결과 데이터이므로, 제 1 서버 내지 제 k 서버의 어떤 데이터를 이용하더라도 정확도 높은 예측 결과 데이터(1330)를 획득할 수 있다. 또한 제 1 서버(420) 내지 제 k 서버(440) 보다 고성능의 외부의 기계학습장치(200)를 이용하여 대용량의 예측 특징 데이터(1320)를 처리하므로, 예측 결과 데이터(1330)는 빠르고 정확하게 획득될 수 있다.The machine learning apparatus 200 may perform an operation 1210 of receiving the predicted feature data 1320 obtained by applying the test data 1310 to the integrated machine learning model. In addition, the machine learning apparatus 200 may perform an operation 1220 of obtaining prediction result data 1330 related to the test data 1310 by applying the predicted feature data 1320 to the final machine learning model 710. . The prediction result data 1330 may be a result of analyzing the test data 1310 by the final machine learning model 710. The prediction result data 1330 is an analysis result of the machine learning apparatus 200 on the test data 1310. The prediction result data 1330 may be data automatically derived by the machine learning apparatus 200 without a user's help. Since the result data is obtained by the final machine learning model 710 using all of the data from the first server 420 to the k-th server 440, it may be similar to ground truth data with a high probability. In addition, according to the present disclosure, since the result data is obtained by the final machine learning model 710 using all of the data of the first server 420 to the kth server 440, certain data of the first server to the kth server Even if used, prediction result data 1330 with high accuracy may be obtained. In addition, since the first server 420 to the k-th server 440 processes a large amount of predictive feature data 1320 using an external machine learning device 200 that is higher than that of the first server 420 to the k-th server 440, the prediction result data 1330 is obtained quickly and accurately. Can be.

사용자는 기계학습장치(200)가 도출한 예측 결과 데이터(1330)를 참조하여 테스트 데이터(1310)에 대한 최종 분석 결과를 도출할 수 있다. 사용자는 기계학습장치(200)의 도움을 받으므로, 보다 정확하게 최종 분석 결과를 도출할 수 있다.The user may derive a final analysis result for the test data 1310 by referring to the prediction result data 1330 derived by the machine learning apparatus 200. Since the user receives the help of the machine learning device 200, it is possible to more accurately derive the final analysis result.

위에서는 기계학습장치(200)가 제 1 서브 기계학습모델(422) 내지 제 K 서브 기계학습모델(442) 중 적어도 하나를 이용하여 통합기계학습모델(410)을 생성하고, 통합기계학습모델(410)을 이용하여 최종기계학습모델(710)을 생성하는 구성을 설명하였다. 하지만 이미 설명한 바 있듯이, 통합기계학습모델(410)은 미리 결정된 기본모델을 포함할 수 있다. 기계학습장치(200)는 통합기계학습모델(410)을 생성하는 과정을 수행하지 않고, 미리 결정된 기본모델에 기초하여 최종기계학습모델(710)을 생성할 수 있다. 즉, 도 6 내지 도 13의 통합기계학습모델(410)은 기본모델로 대체될 수 있다. Above, the machine learning apparatus 200 generates an integrated machine learning model 410 using at least one of the first sub-machine learning model 422 to the K-th sub-machine learning model 442, and the integrated machine learning model ( The configuration for generating the final machine learning model 710 using (410) has been described. However, as already described, the integrated machine learning model 410 may include a predetermined basic model. The machine learning apparatus 200 may generate the final machine learning model 710 based on a predetermined basic model without performing a process of generating the integrated machine learning model 410. That is, the integrated machine learning model 410 of FIGS. 6 to 13 may be replaced with a basic model.

이하에서는 도 7과 함께, 통합기계학습모델(410)에 포함된 기본모델에 기초하여 최종기계학습모델을 생성하는 과정을 간략하게 설명한다.Hereinafter, together with FIG. 7, a process of generating a final machine learning model based on the basic model included in the integrated machine learning model 410 will be briefly described.

도 7을 참조하면, 기계학습장치(200)는 제 1 분석 대상 데이터(711)에 기본모델을 적용하여 획득된 제 1 특징 데이터(721)를 수신하는 단계를 수행할 수 있다. 또한, 기계학습장치(200)는 제 2 분석 대상 데이터(712)에 기본모델을 적용하여 획득된 제 2 특징 데이터(722)를 수신하는 단계를 수행할 수 있다.Referring to FIG. 7, the machine learning apparatus 200 may perform an operation of receiving first feature data 721 obtained by applying a basic model to first analysis target data 711. In addition, the machine learning apparatus 200 may perform an operation of receiving the second feature data 722 obtained by applying a basic model to the second analysis target data 712.

여기서, 제 1 분석 대상 데이터(711) 및 제 2 분석 대상 데이터(712)는 서로 다른 환경에서 획득된 의료 영상과 관련된 데이터일 수 있다. 기본모델은 영상을 분류하기 위한 일반적인 기계학습모델이 이용될 수 있다. 기본모델은 미리 학습된 모델일 수 있다. 기본모델은 예를 들어 이미지넷이 사용될 수 있다. 제 1 분석 결과 데이터는 제 1 분석 대상 데이터(711)를 사용자가 분석한 결과이고, 제 2 분석 결과 데이터는 제 2 분석 대상 데이터(712)를 사용자가 분석한 결과일 수 있다. 제 1 분석 결과 데이터 및 제 2 분석 결과 데이터는 실제(ground truth) 데이터 또는 실제 레이블일 수 있다. 제 1 분석 대상 데이터(711) 및 제 1 분석 결과 데이터는 제 1 학습 데이터 세트(421)에 포함될 수 있다. 제 2 분석 대상 데이터(712) 및 제 2 분석 결과 데이터는 제 2 학습 데이터 세트(431)에 포함될 수 있다.Here, the first analysis target data 711 and the second analysis target data 712 may be data related to medical images acquired in different environments. As the basic model, a general machine learning model for classifying images may be used. The basic model may be a pre-trained model. Imagenet can be used as a basic model, for example. The first analysis result data may be a result of a user analyzing the first analysis target data 711, and the second analysis result data may be a result of a user analyzing the second analysis target data 712. The first analysis result data and the second analysis result data may be ground truth data or actual labels. The first analysis target data 711 and the first analysis result data may be included in the first training data set 421. The second analysis target data 712 and the second analysis result data may be included in the second training data set 431.

제 1 특징 데이터(721) 및 제 2 특징 데이터(722)는 제 1 분석 대상 데이터(711) 및 제 2 분석 대상 데이터(712)를 손실 압축한 데이터일 수 있다. 제 1 특징 데이터(721) 및 제 2 특징 데이터(722)는 제 1 분석 대상 데이터(711) 및 제 2 분석 대상 데이터(712)를 암호화한 데이터일 수 있다. 제 1 특징 데이터(721) 및 제 2 특징 데이터(722)는 제 1 분석 대상 데이터(711) 및 제 2 분석 대상 데이터(712)로 복원되지 못할 수 있다. 제 1 분석 대상 데이터 및 제 2 분석 대상 데이터는 개인정보가 포함되고, 제 1 특징 데이터 및 제 2 특징 데이터는 개인정보가 식별되지 않을 수 있다. 따라서 개인정보보호를 위하여 서버들(420, 430, 440)은 제 1 분석 대상 데이터(711) 및 제 2 분석 대상 데이터(712)를 기계학습장치(200)로 송신할 수 없다. 하지만 서버들(420, 430, 440)은 제 1 특징 데이터 및 제 2 특징 데이터를 기계학습장치(200)로 송신할 수 있다.The first feature data 721 and the second feature data 722 may be data obtained by lossy compression of the first analysis target data 711 and the second analysis target data 712. The first feature data 721 and the second feature data 722 may be data obtained by encrypting the first analysis target data 711 and the second analysis target data 712. The first feature data 721 and the second feature data 722 may not be restored to the first analysis target data 711 and the second analysis target data 712. Personal information may be included in the first analysis target data and the second analysis target data, and personal information may not be identified for the first feature data and the second feature data. Therefore, to protect personal information, the servers 420, 430, 440 cannot transmit the first analysis target data 711 and the second analysis target data 712 to the machine learning apparatus 200. However, the servers 420, 430, and 440 may transmit the first feature data and the second feature data to the machine learning apparatus 200.

제 1 특징 데이터(721)는 제 1 분석 대상 데이터(711)를 기본모델에 적용하여 획득되는 제 1 복수의 특징 레이어들 중 적어도 하나의 레이어이고, 제 2 특징 데이터(722)는 제 2 분석 대상 데이터(712)를 기본모델에 적용하여 획득되는 제 2 복수의 특징 레이어들 중 적어도 하나의 레이어일 수 있다. 기계학습장치(200)는 제 1 복수의 특징 레이어들 및 제 2 복수의 특징 레이어들에서 동일 위치의 레이어를 선택하여 제 1 특징 데이터(721) 및 제 2 특징 데이터(722)를 각각 획득할 수 있다.The first feature data 721 is at least one of the first plurality of feature layers obtained by applying the first analysis target data 711 to the basic model, and the second feature data 722 is a second analysis target It may be at least one of the plurality of second feature layers obtained by applying the data 712 to the basic model. The machine learning apparatus 200 may obtain the first feature data 721 and the second feature data 722 by selecting a layer at the same position from the first plurality of feature layers and the second plurality of feature layers. have.

기계학습장치(200)는 제 1 특징 데이터(721), 제 1 분석 결과 데이터, 제 2 특징 데이터(722) 및 제 2 분석 결과 데이터를 서버들(420, 430, 440)로부터 수신할 수 있다.The machine learning apparatus 200 may receive first feature data 721, first analysis result data, second feature data 722, and second analysis result data from the servers 420, 430, and 440.

기계학습장치(200)는 제 1 특징 데이터(721) 및 제 1 분석 결과 데이터의 상관 관계 그리고 제 2 특징 데이터(722) 및 제 2 분석 결과 데이터의 상관 관계를 기계학습하여 최종기계학습모델(710)을 획득하는 단계를 수행할 수 있다.The machine learning apparatus 200 machine learns the correlation between the first feature data 721 and the first analysis result data, and the correlation between the second feature data 722 and the second analysis result data, and performs a final machine learning model 710. ) Can be performed.

도 13을 참조하면 서버는 테스트 데이터(1310)에 기본모델을 적용하여 예측 특징 데이터(1320)를 획득할 수 잇다. 기계학습장치(200)는 테스트 데이터(1310)에 기본모델을 적용하여 획득된 예측 특징 데이터(1320)를 수신하는 단계를 수행할 수 있다. 기계학습장치(200)는 예측 특징 데이터(1320)에 최종기계학습모델(710)을 적용하여 테스트 데이터(1310)에 대응하는 예측 결과 데이터(1330)를 획득하는 단계를 수행할 수 있다.Referring to FIG. 13, the server may obtain predicted feature data 1320 by applying a basic model to test data 1310. The machine learning apparatus 200 may perform the step of receiving the predicted feature data 1320 obtained by applying the basic model to the test data 1310. The machine learning apparatus 200 may perform an operation of obtaining prediction result data 1330 corresponding to the test data 1310 by applying the final machine learning model 710 to the predicted feature data 1320.

여기서, 예측 특징 데이터는 테스트 데이터를 손실 압축한 데이터일 수 있다. 테스트 데이터는 개인정보가 포함되고, 예측 특징 데이터는 개인정보가 식별되지 않을 수 있다.Here, the predicted feature data may be data obtained by lossy compression of the test data. Test data includes personal information, and predictive feature data may not identify personal information.

예측 결과 데이터(1330)는 테스트 데이터(1310)에 대한 기계학습장치(200)의 분석결과이다. 예측 결과 데이터(1330)는 사용자의 도움 없이 기계학습장치(200)가 자동으로 도출한 데이터일 수 있다. 제 1 서버(420) 내지 제 k 서버(440)의 데이터를 모두 활용한 최종기계학습모델(710)에 의한 결과 데이터이므로, 예측 결과 데이터(1330)는 높은 확률로 실제(ground truth) 데이터와 유사할 수 있다. 또한, 본 개시에 따르면, 제 1 서버(420) 내지 제 k 서버(440)의 데이터를 모두 활용한 최종기계학습모델(710)에 의한 결과 데이터이므로, 제 1 서버 내지 제 k 서버의 어떤 데이터를 이용하더라도 정확도 높은 예측 결과 데이터(1330)를 획득할 수 있다. 또한 제 1 서버(420) 내지 제 k 서버(440) 보다 고성능의 외부의 기계학습장치(200)를 이용하여 대용량의 예측 특징 데이터(1320)를 처리하므로, 예측 결과 데이터(1330)는 빠르고 정확하게 획득될 수 있다. The prediction result data 1330 is an analysis result of the machine learning apparatus 200 on the test data 1310. The prediction result data 1330 may be data automatically derived by the machine learning apparatus 200 without a user's help. Since the result data is obtained by the final machine learning model 710 using all the data from the first server 420 to the k-th server 440, the prediction result data 1330 is similar to ground truth data with a high probability. can do. In addition, according to the present disclosure, since the result data is obtained by the final machine learning model 710 using all of the data of the first server 420 to the kth server 440, certain data of the first server to the kth server Even if used, prediction result data 1330 with high accuracy may be obtained. In addition, since the first server 420 to the k-th server 440 processes a large amount of predictive feature data 1320 using an external machine learning device 200 that is higher than that of the first server 420 to the k-th server 440, the prediction result data 1330 is obtained quickly and accurately. Can be.

이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, we have looked at the center of various embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer operating the program using a computer-readable recording medium. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, ROM, floppy disk, hard disk, etc.), and an optical reading medium (eg, CD-ROM, DVD, etc.).

Claims (28)

컴퓨터로 구현되는 기계학습장치에 의해 수행되는 기계학습방법으로서,
서로 독립적인 복수의 학습 데이터 세트 각각을 이용하여, 입력 데이터의 특징을 추출하도록 학습된, 복수의 서브 기계학습모델들을 수신하는 단계;
상기 복수의 서브 기계학습모델들이 병합된 통합기계학습모델을 생성하는 단계; 및
상기 통합기계학습모델을 이용하여 최종기계학습모델의 학습을 위한 최종 학습 데이터 세트를 생성하는 단계를 포함하고,
상기 최종 학습 데이터 세트를 생성하는 단계는
상기 복수의 학습 데이터 세트 중 임의 학습 데이터 세트에서 추출된 임의 분석 대상 데이터를 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델로부터 상기 복수의 서브 기계학습모델들에서 추출된 특징들이 결합된 특징 데이터를 획득하며, 상기 특징 데이터와 상기 임의 분석 대상 데이터의 분석 결과 데이터를 포함하는 상기 최종 학습 데이터 세트를 생성하는, 기계학습방법.
As a machine learning method performed by a computer-implemented machine learning device,
Receiving a plurality of sub-machine learning models trained to extract features of input data by using each of a plurality of independent training data sets;
Generating an integrated machine learning model in which the plurality of sub machine learning models are merged; And
Generating a final learning data set for learning the final machine learning model using the integrated machine learning model,
Generating the final training data set
A feature in which random analysis target data extracted from a random learning data set among the plurality of learning data sets are input as the integrated machine learning model, and features extracted from the plurality of sub-machine learning models are combined from the integrated machine learning model. Acquiring data and generating the final learning data set including the feature data and analysis result data of the randomly analyzed data.
제 1 항에 있어서,
상기 복수의 서브 기계학습모델들을 수신하는 단계는,
상기 복수의 학습 데이터 세트에 포함되는 제 1 학습 데이터 세트에 기초하여 기계학습된 제 1 서브 기계학습모델을 수신하는 단계; 및
상기 복수의 학습 데이터 세트에 포함되는 제 2 학습 데이터 세트에 기초하여 기계학습된 제 2 서브 기계학습모델을 수신하는 단계를 포함하고,
상기 통합기계학습모델을 생성하는 단계는,
상기 제 1 서브 기계학습모델 및 상기 제 2 서브 기계학습모델을 병합하여 상기 통합기계학습모델을 생성하는, 기계학습방법.
The method of claim 1,
Receiving the plurality of sub machine learning models,
Receiving a machine-learned first sub-machine learning model based on a first training data set included in the plurality of training data sets; And
Receiving a machine-learned second sub-machine learning model based on a second training data set included in the plurality of training data sets,
The step of generating the integrated machine learning model,
The machine learning method of generating the integrated machine learning model by merging the first sub machine learning model and the second sub machine learning model.
제 2 항에 있어서,
상기 최종 학습 데이터 세트를 이용하여 상기 최종기계학습모델을 학습시키는 단계를 더 포함하고,
상기 최종 학습 데이터 세트를 생성하는 단계는,
상기 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터에 상기 통합기계학습모델을 적용하여 획득된 제 1 특징 데이터를 수신하는 단계; 및
상기 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터에 상기 통합기계학습모델을 적용하여 획득된 제 2 특징 데이터를 수신하는 단계를 포함하고,
상기 최종기계학습 모델은
상기 제 1 특징 데이터 및 상기 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터의 상관 관계 그리고 상기 제 2 특징 데이터 및 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터의 상관 관계를 학습하는, 기계학습방법.
The method of claim 2,
Further comprising the step of learning the final machine learning model by using the final learning data set,
Generating the final training data set,
Receiving first feature data obtained by applying the integrated machine learning model to first analysis target data included in the first learning data set; And
And receiving second feature data obtained by applying the integrated machine learning model to second analysis target data included in the second learning data set,
The final machine learning model is
Learning a correlation between the first feature data and first analysis result data included in the first training data set, and a correlation between the second feature data and second analysis result data included in the second training data set , Machine learning method.
제 3 항에 있어서,
테스트 데이터를 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델에서 출력된 예측 특징 데이터를 수신하는 단계; 및
상기 예측 특징 데이터를 상기 최종기계학습모델로 입력하고, 상기 최종기계학습모델로부터 상기 테스트 데이터에 대응하는 예측 결과 데이터를 획득하는 단계를 더 포함하는 기계학습방법.
The method of claim 3,
Inputting test data into the integrated machine learning model and receiving predictive feature data output from the integrated machine learning model; And
And inputting the predicted feature data as the final machine learning model, and obtaining prediction result data corresponding to the test data from the final machine learning model.
제 1 항에 있어서,
상기 복수의 학습 데이터 세트는 서로 다른 환경에서 획득된 의료 영상과 관련된 데이터인 기계학습방법.
The method of claim 1,
The plurality of training data sets are data related to medical images acquired in different environments.
제 4 항에 있어서,
상기 제 1 특징 데이터, 상기 제 2 특징 데이터 및 상기 예측 특징 데이터는 상기 제 1 분석 대상 데이터, 상기 제 2 분석 대상 데이터 및 상기 테스트 데이터를 손실 압축한 데이터인 기계학습방법.
The method of claim 4,
The first feature data, the second feature data, and the predicted feature data are data obtained by lossy compression of the first analysis target data, the second analysis target data, and the test data.
제 4 항에 있어서,
상기 제 1 분석 대상 데이터, 상기 제 2 분석 대상 데이터 및 상기 테스트 데이터는 개인정보가 포함되고,
상기 제 1 특징 데이터, 상기 제 2 특징 데이터 및 상기 예측 특징 데이터는 개인정보가 식별되지 않는 기계학습방법.
The method of claim 4,
The first analysis target data, the second analysis target data, and the test data include personal information,
The first feature data, the second feature data, and the predicted feature data are not identified as personal information.
제 1 항에 있어서,
각 서브 기계학습모델은 CNN(Convolution Neural Network)을 포함하는, 기계학습방법.
The method of claim 1,
Each sub-machine learning model includes a CNN (Convolution Neural Network), a machine learning method.
제 2 항에 있어서,
상기 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터는 상기 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터를 사용자가 분석한 결과이고, 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터는 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터를 사용자가 분석한 결과인 기계학습방법.
The method of claim 2,
The first analysis result data included in the first training data set is a result of a user analyzing the first analysis target data included in the first training data set, and a second analysis result included in the second training data set The data is a result of the user analyzing the second analysis target data included in the second learning data set.
제 3 항에 있어서,
상기 제 1 특징 데이터는 상기 제 1 분석 대상 데이터를 상기 제 1 서브 기계학습모델에 적용하여 획득되는 제 1 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 상기 제 1 분석 대상 데이터를 상기 제 2 서브 기계학습모델에 적용하여 획득되는 제 2 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터이고,
상기 제 2 특징 데이터는 상기 제 2 분석 대상 데이터를 상기 제 1 서브 기계학습모델에 적용하여 획득되는 제 3 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 제 2 분석 대상 데이터를 상기 제 2 서브 기계학습모델에 적용하여 획득되는 제 4 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터인 기계학습방법.
The method of claim 3,
The first feature data includes at least one feature layer from among a plurality of first feature layers obtained by applying the first analysis target data to the first sub machine learning model and the first analysis target data as the second sub Data obtained by combining at least one feature layer from among the second plurality of feature layers obtained by applying to the machine learning model,
The second feature data includes at least one feature layer among a plurality of third feature layers obtained by applying the second analysis target data to the first sub-machine learning model and the second analysis target data as the second sub-machine. A machine learning method comprising data obtained by combining at least one feature layer from among a plurality of fourth feature layers obtained by applying to a learning model.
제 10 항에 있어서,
상기 제 1 복수의 특징 레이어들, 상기 제 2 복수의 특징 레이어들, 상기 제 3 복수의 특징 레이어들 및 제 4 복수의 특징 레이어들에서 동일 위치의 레이어를 선택하여, 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터가 획득되는 기계학습방법.
The method of claim 10,
By selecting a layer at the same position from the first plurality of feature layers, the second plurality of feature layers, the third plurality of feature layers, and the fourth plurality of feature layers, the first feature data and the Machine learning method in which the second feature data is obtained.
컴퓨터로 구현되는 기계학습장치에 의해 수행되는 기계학습방법으로서,
통합기계학습모델을 획득하는 단계;
서로 독립적인 복수의 학습 데이터 세트에서 추출된 분석 대상 데이터들 각각을 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델로부터 상기 분석 대상 데이터들 각각의 특징 데이터를 수신하는 단계; 및
상기 분석 대상 데이터들 각각의 특징 데이터와 상기 분석 대상 데이터들 각각의 분석 결과 데이터를 이용하여 최종기계학습모델을 학습시키는 단계를 포함하고,
상기 통합기계학습모델은 상기 서로 독립적인 복수의 학습 데이터 세트로 학습된 복수의 서브 기계학습모델들로 구성되고,
상기 특징 데이터는 상기 통합기계학습모델을 구성하는 상기 복수의 서브 기계학습모델들에서 추출된 특징들이 결합된 데이터인, 기계학습방법.
As a machine learning method performed by a computer-implemented machine learning device,
Obtaining an integrated machine learning model;
Inputting each of the analysis target data extracted from a plurality of independent learning data sets into the integrated machine learning model, and receiving feature data of each of the analysis target data from the integrated machine learning model; And
And learning a final machine learning model using feature data of each of the analysis target data and analysis result data of each of the analysis target data,
The integrated machine learning model is composed of a plurality of sub-machine learning models trained with the plurality of independent learning data sets,
The feature data is data in which features extracted from the plurality of sub machine learning models constituting the integrated machine learning model are combined.
제 12 항에 있어서,
테스트 데이터를 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델에서 출력된 예측 특징 데이터를 수신하는 단계; 및
상기 예측 특징 데이터를 상기 최종기계학습모델로 입력하고, 상기 최종기계학습모델로부터 상기 테스트 데이터에 관련된 예측 결과 데이터를 획득하는 단계를 더 포함하는 기계학습방법.
The method of claim 12,
Inputting test data into the integrated machine learning model and receiving predictive feature data output from the integrated machine learning model; And
And inputting the predicted feature data as the final machine learning model, and obtaining prediction result data related to the test data from the final machine learning model.
제 12 항에 있어서,
상기 통합기계학습모델을 획득하는 단계는,
상기 복수의 학습 데이터 세트에 포함되고, 제 1 분석 대상 데이터 및 제 1 분석 결과 데이터를 포함하는 제 1 학습 데이터 세트를 기계학습한 제 1 서브 기계학습모델을 수신하는 단계;
상기 복수의 학습 데이터 세트에 포함되고, 상기 제 1 학습 데이터 세트와 독립적이고, 제 2 분석 대상 데이터 및 제 2 분석 결과 데이터를 포함하는 제 2 데이터 세트를 기계학습한 제 2 서브 기계학습모델을 수신하는 단계; 및
상기 제 1 서브 기계학습모델 및 상기 제 2 서브 기계학습모델을 병합하여 상기 통합기계학습모델을 획득하는 단계를 포함하는 기계학습방법.
The method of claim 12,
The step of obtaining the integrated machine learning model,
Receiving a first sub-machine learning model obtained by machine learning a first training data set included in the plurality of training data sets and including first analysis target data and first analysis result data;
Receiving a second sub-machine learning model in which a second data set included in the plurality of training data sets, independent of the first training data set, and including a second analysis target data and a second analysis result data, is machine-learned Step to do; And
And obtaining the integrated machine learning model by merging the first sub machine learning model and the second sub machine learning model.
기계학습장치는 메모리 및 상기 메모리에 저장된 명령어들을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
서로 독립적인 복수의 학습 데이터 세트 각각을 이용하여, 입력 데이터의 특징을 추출하도록 학습된 복수의 서브 기계학습모델들을 수신하고,
상기 복수의 서브 기계학습모델들이 병합된 통합기계학습모델을 생성하고,
상기 복수의 학습 데이터 세트 중 임의 학습 데이터 세트에서 추출된 임의 분석 대상 데이터를 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델로부터 상기 복수의 서브 기계학습모델들에서 추출된 특징들이 결합된 특징 데이터를 획득하며, 상기 특징 데이터와 상기 임의 분석 대상 데이터의 분석 결과 데이터를 포함하는 최종 학습 데이터 세트를 생성하고,
상기 최종 학습 데이터 세트는 최종기계학습모델의 학습에 사용되는, 기계학습장치.
The machine learning apparatus includes a memory and a processor that executes instructions stored in the memory,
The processor based on the instruction stored in the memory,
Using each of the plurality of independent training data sets, receiving a plurality of sub-machine learning models trained to extract features of the input data,
Generating an integrated machine learning model in which the plurality of sub machine learning models are merged,
A feature in which random analysis target data extracted from a random learning data set among the plurality of learning data sets are input as the integrated machine learning model, and features extracted from the plurality of sub-machine learning models are combined from the integrated machine learning model. Acquire data, and generate a final training data set including the feature data and analysis result data of the randomly analyzed data,
The final learning data set is used for learning of a final machine learning model.
제 15 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
상기 복수의 학습 데이터 세트에 포함되는 제 1 학습 데이터 세트에 기초하여 기계학습된 제 1 서브 기계학습모델을 수신하고,
상기 복수의 학습 데이터 세트에 포함되는 제 2 학습 데이터 세트에 기초하여 기계학습된 제 2 서브 기계학습모델을 수신하고,
상기 제 1 서브 기계학습모델 및 상기 제 2 서브 기계학습모델을 병합하여 상기 통합기계학습모델을 생성하는 기계학습장치.
The method of claim 15,
The processor based on the instruction stored in the memory,
Receiving a machine-learned first sub-machine learning model based on a first training data set included in the plurality of training data sets,
Receiving a machine-learned second sub-machine learning model based on a second training data set included in the plurality of training data sets,
A machine learning apparatus for generating the integrated machine learning model by merging the first sub machine learning model and the second sub machine learning model.
제 16 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
상기 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터에 상기 통합기계학습모델을 적용하여 획득된 제 1 특징 데이터, 그리고, 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터에 상기 통합기계학습모델을 적용하여 획득된 제 2 특징 데이터를 획득하고,
상기 제 1 특징 데이터 및 상기 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터의 상관 관계 그리고 상기 제 2 특징 데이터 및 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터를 상기 최종 학습 데이터 세트로 생성하며,
상기 최종 학습 데이터 세트를 이용하여 상기 최종기계학습모델을 학습시키고,
상기 최종기계학습 모델은
상기 제 1 특징 데이터 및 상기 제 1 분석 결과 데이터의 상관 관계 그리고 상기 제 2 특징 데이터 및 상기 제 2 분석 결과 데이터의 상관 관계를 학습하는, 기계학습장치.
The method of claim 16,
The processor based on the instruction stored in the memory,
The first feature data obtained by applying the integrated machine learning model to the first analysis target data included in the first learning data set, and the second analysis target data included in the second learning data set, the integrated machine Acquiring the second feature data obtained by applying the learning model,
Correlation between the first feature data and the first analysis result data included in the first training data set, and the second analysis result data included in the second feature data and the second training data set are the final training data set. Created with
Train the final machine learning model using the final learning data set,
The final machine learning model is
A machine learning apparatus for learning a correlation between the first feature data and the first analysis result data, and a correlation between the second feature data and the second analysis result data.
제 17 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
테스트 데이터를 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델에서 출력된 예측 특징 데이터를 수신하고,
상기 예측 특징 데이터를 상기 최종기계학습모델로 입력하고, 상기 최종기계학습모델로부터 상기 테스트 데이터에 대응하는 예측 결과 데이터를 획득하는 기계학습장치.
The method of claim 17,
The processor based on the instruction stored in the memory,
Inputting test data into the integrated machine learning model, receiving predictive feature data output from the integrated machine learning model,
A machine learning apparatus for inputting the predicted feature data as the final machine learning model and obtaining prediction result data corresponding to the test data from the final machine learning model.
제 15 항에 있어서,
상기 복수의 학습 데이터 세트는 서로 다른 환경에서 획득된 의료 영상과 관련된 데이터인 기계학습장치.
The method of claim 15,
The plurality of training data sets are data related to medical images acquired in different environments.
제 18 항에 있어서,
상기 제 1 특징 데이터, 상기 제 2 특징 데이터 및 상기 예측 특징 데이터는 상기 제 1 분석 대상 데이터, 상기 제 2 분석 대상 데이터 및 상기 테스트 데이터를 손실 압축한 데이터인 기계학습장치.
The method of claim 18,
The first feature data, the second feature data, and the predicted feature data are data obtained by lossy compression of the first analysis target data, the second analysis target data, and the test data.
제 18 항에 있어서,
상기 제 1 분석 대상 데이터, 상기 제 2 분석 대상 데이터 및 상기 테스트 데이터는 개인정보가 포함되고,
상기 제 1 특징 데이터, 상기 제 2 특징 데이터 및 상기 예측 특징 데이터는 개인정보가 식별되지 않는 기계학습장치.
The method of claim 18,
The first analysis target data, the second analysis target data, and the test data include personal information,
The first feature data, the second feature data, and the predicted feature data are not identified as personal information.
제 15 항에 있어서,
각 서브 기계학습모델은 CNN(Convolution Neural Network)을 포함하는, 기계학습장치.
The method of claim 15,
Each sub-machine learning model includes a Convolution Neural Network (CNN), a machine learning device.
제 16 항에 있어서,
상기 제 1 학습 데이터 세트에 포함된 제 1 분석 결과 데이터는 상기 제 1 학습 데이터 세트에 포함된 제 1 분석 대상 데이터를 사용자가 분석한 결과이고, 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 결과 데이터는 상기 제 2 학습 데이터 세트에 포함된 제 2 분석 대상 데이터를 사용자가 분석한 결과인 기계학습장치.
The method of claim 16,
The first analysis result data included in the first training data set is a result of a user analyzing the first analysis target data included in the first training data set, and a second analysis result included in the second training data set The data is a result of the user analyzing the second analysis target data included in the second learning data set.
제 17 항에 있어서,
상기 제 1 특징 데이터는 상기 제 1 분석 대상 데이터를 상기 제 1 서브 기계학습모델에 적용하여 획득되는 제 1 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 상기 제 1 분석 대상 데이터를 상기 제 2 서브 기계학습모델에 적용하여 획득되는 제 2 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터이고,
상기 제 2 특징 데이터는 상기 제 2 분석 대상 데이터를 상기 제 1 서브 기계학습모델에 적용하여 획득되는 제 3 복수의 특징 레이어들 중 적어도 하나의 특징 레이어 및 제 2 분석 대상 데이터를 상기 제 2 서브 기계학습모델에 적용하여 획득되는 제 4 복수의 특징 레이어들 중 적어도 하나의 특징 레이어를 결합한 데이터인 기계학습장치.
The method of claim 17,
The first feature data includes at least one feature layer from among a plurality of first feature layers obtained by applying the first analysis target data to the first sub machine learning model and the first analysis target data as the second sub Data obtained by combining at least one feature layer from among the second plurality of feature layers obtained by applying to the machine learning model,
The second feature data includes at least one feature layer among a plurality of third feature layers obtained by applying the second analysis target data to the first sub-machine learning model and the second analysis target data as the second sub-machine. A machine learning apparatus that is data obtained by combining at least one feature layer among a plurality of fourth feature layers obtained by applying to a learning model.
제 24 항에 있어서,
상기 제 1 복수의 특징 레이어들, 상기 제 2 복수의 특징 레이어들, 상기 제 3 복수의 특징 레이어들 및 제 4 복수의 특징 레이어들에서 동일 위치의 레이어를 선택하여, 상기 제 1 특징 데이터 및 상기 제 2 특징 데이터가 획득되는 기계학습장치.
The method of claim 24,
By selecting a layer at the same position from the first plurality of feature layers, the second plurality of feature layers, the third plurality of feature layers, and the fourth plurality of feature layers, the first feature data and the Machine learning device from which the second feature data is obtained.
기계학습장치는 메모리 및 상기 메모리에 저장된 명령어들을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
통합기계학습모델을 획득하고,
서로 독립적인 복수의 학습 데이터 세트에서 추출된 분석 대상 데이터들 각각을 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델로부터 상기 분석 대상 데이터들 각각의 특징 데이터를 획득하며,
상기 분석 대상 데이터들 각각의 특징 데이터와 상기 분석 대상 데이터들 각각의 분석 결과 데이터를 이용하여 최종기계학습모델을 학습시키고,
상기 통합기계학습모델은 상기 서로 독립적인 복수의 학습 데이터 세트로 학습된 복수의 서브 기계학습모델들로 구성되고,
상기 특징 데이터는 상기 통합기계학습모델을 구성하는 상기 복수의 서브 기계학습모델들에서 추출된 특징들이 결합된 데이터인, 기계학습장치.
The machine learning apparatus includes a memory and a processor that executes instructions stored in the memory,
The processor based on the instruction stored in the memory,
Acquire an integrated machine learning model,
Inputting each of the analysis target data extracted from a plurality of independent learning data sets into the integrated machine learning model, acquiring feature data of each of the analysis target data from the integrated machine learning model,
Learning a final machine learning model by using feature data of each of the analysis target data and analysis result data of each of the analysis target data,
The integrated machine learning model is composed of a plurality of sub-machine learning models trained with the plurality of independent learning data sets,
The feature data is data obtained by combining features extracted from the plurality of sub machine learning models constituting the integrated machine learning model.
제 26 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
테스트 데이터를 상기 통합기계학습모델로 입력하고, 상기 통합기계학습모델에서 출력된 예측 특징 데이터를 수신하고,
상기 예측 특징 데이터를 상기 최종기계학습모델로 입력하고, 상기 최종기계학습모델에서 상기 테스트 데이터에 관련된 예측 결과 데이터를 획득하는 기계학습장치.
The method of claim 26,
The processor based on the instruction stored in the memory,
Inputting test data into the integrated machine learning model, receiving predictive feature data output from the integrated machine learning model,
A machine learning apparatus for inputting the predicted feature data as the final machine learning model, and obtaining prediction result data related to the test data from the final machine learning model.
제 26 항에 있어서,
상기 프로세서는 상기 메모리에 저장된 명령어에 기초하여,
상기 복수의 학습 데이터 세트에 포함되고, 제 1 분석 대상 데이터 및 제 1 분석 결과 데이터를 포함하는 제 1 학습 데이터 세트를 기계학습한 제 1 서브 기계학습모델을 수신하고,
상기 복수의 학습 데이터 세트에 포함되고, 상기 제 1 학습 데이터 세트와 독립적이고, 제 2 분석 대상 데이터 및 제 2 분석 결과 데이터를 포함하는 제 2 데이터 세트를 기계학습한 제 2 서브 기계학습모델을 수신하고,
상기 제 1 서브 기계학습모델 및 상기 제 2 서브 기계학습모델을 병합하여 상기 통합기계학습모델을 획득하는 기계학습장치.
The method of claim 26,
The processor based on the instruction stored in the memory,
Receiving a first sub-machine learning model that machine-learned a first training data set included in the plurality of training data sets and including first analysis target data and first analysis result data,
Receiving a second sub-machine learning model in which a second data set included in the plurality of training data sets, independent of the first training data set, and including a second analysis target data and a second analysis result data, is machine-learned and,
A machine learning apparatus for obtaining the integrated machine learning model by merging the first sub machine learning model and the second sub machine learning model.
KR1020200034436A 2020-03-20 2020-03-20 Method of machine-learning by collecting features of data and apparatus thereof KR102211852B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200034436A KR102211852B1 (en) 2020-03-20 2020-03-20 Method of machine-learning by collecting features of data and apparatus thereof
KR1020210007191A KR102394758B1 (en) 2020-03-20 2021-01-19 Method of machine-learning by collecting features of data and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200034436A KR102211852B1 (en) 2020-03-20 2020-03-20 Method of machine-learning by collecting features of data and apparatus thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210007191A Division KR102394758B1 (en) 2020-03-20 2021-01-19 Method of machine-learning by collecting features of data and apparatus thereof

Publications (1)

Publication Number Publication Date
KR102211852B1 true KR102211852B1 (en) 2021-02-03

Family

ID=74572496

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200034436A KR102211852B1 (en) 2020-03-20 2020-03-20 Method of machine-learning by collecting features of data and apparatus thereof
KR1020210007191A KR102394758B1 (en) 2020-03-20 2021-01-19 Method of machine-learning by collecting features of data and apparatus thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210007191A KR102394758B1 (en) 2020-03-20 2021-01-19 Method of machine-learning by collecting features of data and apparatus thereof

Country Status (1)

Country Link
KR (2) KR102211852B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215559A1 (en) * 2021-04-05 2022-10-13 パナソニックIpマネジメント株式会社 Hybrid model creation method, hybrid model creation device, and program
WO2023018257A1 (en) * 2021-08-11 2023-02-16 고려대학교 산학협력단 Method and apparatus for estimating cause of contact dermatitis by using user medical interview data and skin image data
WO2024071640A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Electronic device and method for training artificial intelligence model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150019214A1 (en) * 2013-07-10 2015-01-15 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training
JP2015011686A (en) * 2013-07-02 2015-01-19 日本電信電話株式会社 Integrated classifier learning device, integrated classifier learning method, and integrated classifier learning program
KR20190032433A (en) * 2016-07-18 2019-03-27 난토믹스, 엘엘씨 Distributed machine learning systems, apparatus, and methods
KR20200014510A (en) * 2018-08-01 2020-02-11 삼성에스디에스 주식회사 Method for providing prediction service based on mahcine-learning and apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011686A (en) * 2013-07-02 2015-01-19 日本電信電話株式会社 Integrated classifier learning device, integrated classifier learning method, and integrated classifier learning program
US20150019214A1 (en) * 2013-07-10 2015-01-15 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training
KR20190032433A (en) * 2016-07-18 2019-03-27 난토믹스, 엘엘씨 Distributed machine learning systems, apparatus, and methods
KR20200014510A (en) * 2018-08-01 2020-02-11 삼성에스디에스 주식회사 Method for providing prediction service based on mahcine-learning and apparatus thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215559A1 (en) * 2021-04-05 2022-10-13 パナソニックIpマネジメント株式会社 Hybrid model creation method, hybrid model creation device, and program
WO2023018257A1 (en) * 2021-08-11 2023-02-16 고려대학교 산학협력단 Method and apparatus for estimating cause of contact dermatitis by using user medical interview data and skin image data
WO2024071640A1 (en) * 2022-09-29 2024-04-04 삼성전자 주식회사 Electronic device and method for training artificial intelligence model

Also Published As

Publication number Publication date
KR20210117917A (en) 2021-09-29
KR102394758B1 (en) 2022-05-06

Similar Documents

Publication Publication Date Title
KR102211852B1 (en) Method of machine-learning by collecting features of data and apparatus thereof
JP7330372B2 (en) A system that collects and identifies skin symptoms from images and expertise
US10853449B1 (en) Report formatting for automated or assisted analysis of medical imaging data and medical diagnosis
KR102075293B1 (en) Apparatus for predicting metadata of medical image and method thereof
CN111742332A (en) System and method for anomaly detection via a multi-prediction model architecture
US10936628B2 (en) Automatic processing of ambiguously labeled data
KR20230085125A (en) Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
WO2020016736A1 (en) Knockout autoencoder for detecting anomalies in biomedical images
KR102542037B1 (en) Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
Shankar et al. A novel discriminant feature selection–based mutual information extraction from MR brain images for Alzheimer's stages detection and prediction
WO2022231970A1 (en) Data diversity visualization and quantification for machine learning models
KR102211851B1 (en) Method of machine-learning by collecting features of data and apparatus thereof
Buragadda et al. Multi Disease Classification System Based on Symptoms using The Blended Approach
Sengupta et al. Analyzing historical diagnosis code data from NIH N3C and RECOVER Programs using deep learning to determine risk factors for Long Covid
JP2024500470A (en) Lesion analysis methods in medical images
US11515033B2 (en) Augmented inspector interface with targeted, context-driven algorithms
KR20220120345A (en) Multimodal Multitask Deep Learning Model for Alzheimer's Disease Progression Detection based on Time Series Data
KR20220125741A (en) Method for analyzing lesion based on medical image
Nugroho et al. Systematic literature review of dermoscopic pigmented skin lesions classification using convolutional neural 2 network (CNN) 3
KR102644342B1 (en) Method and system for brain structure segmentation for parkinson's disease diagnosis
Tousignant Prediction of Future Multiple Sclerosis Disease Progression Using Deep Learning Analysis of MRI Data
KR102464887B1 (en) Apparatus for predicting metadata of medical image and method thereof
KR102433054B1 (en) Apparatus for predicting metadata of medical image and method thereof
US20220237467A1 (en) Model suitability coefficients based on generative adversarial networks and activation maps
Tousignant Duran Prediction of future Multiple Sclerosis disease progression using deep learning analysis of MRI data

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant