KR20200100388A - Deep learning system - Google Patents

Deep learning system Download PDF

Info

Publication number
KR20200100388A
KR20200100388A KR1020190018615A KR20190018615A KR20200100388A KR 20200100388 A KR20200100388 A KR 20200100388A KR 1020190018615 A KR1020190018615 A KR 1020190018615A KR 20190018615 A KR20190018615 A KR 20190018615A KR 20200100388 A KR20200100388 A KR 20200100388A
Authority
KR
South Korea
Prior art keywords
data
deep learning
neural network
artificial neural
network model
Prior art date
Application number
KR1020190018615A
Other languages
Korean (ko)
Other versions
KR102391817B1 (en
Inventor
정재훈
Original Assignee
주식회사 아이도트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이도트 filed Critical 주식회사 아이도트
Priority to KR1020190018615A priority Critical patent/KR102391817B1/en
Priority to CN201910404061.7A priority patent/CN111582434B/en
Priority to PCT/KR2019/010480 priority patent/WO2020171321A1/en
Publication of KR20200100388A publication Critical patent/KR20200100388A/en
Application granted granted Critical
Publication of KR102391817B1 publication Critical patent/KR102391817B1/en

Links

Images

Classifications

    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Abstract

The present invention relates to a deep learning based training system that can form an artificial neural network model in an environment where only a small amount of source data can be trained to be a model capable of performing accurate prediction such as an artificial neural network model trained by using a large amount of source data. The system can be connected to an external deep learning system for training a first artificial neural network model through a communication network, and comprises: a data classification storage module for receiving and storing source training data; a training module for training a second artificial neural network model in the system by using the source training data; a tuning information transmission module for requesting tuning of the first artificial neural network model by transmitting tuning information including parameter information and training-related information of the second artificial neural network model modified as the training result to the external deep learning system; and a tuning module for updating the parameter information of the second artificial neural network model according to the tuning information transmitted from the external deep learning system.

Description

딥 러닝 시스템{DEEP LEARNING SYSTEM}Deep learning system {DEEP LEARNING SYSTEM}

본 발명은 인공 지능 학습 시스템에 관한 것으로, 특히 딥 러닝 기반의 학습 시스템에 관한 것이다.The present invention relates to an artificial intelligence learning system, and more particularly, to a deep learning-based learning system.

기계 학습 시스템으로써 최근 각광을 받고 있는 딥 러닝(deep learning) 알고리즘 역시 인공 신경망의 한 종류로서 전통적인 신경망에 비해 훨씬 더 많은 은닉 계층(hidden layer)을 가진다.Deep learning algorithms, which have recently been in the spotlight as machine learning systems, are also a type of artificial neural network and have a much more hidden layer than traditional neural networks.

일반적으로 인공 신경망은 도 1에 도시한 바와 같이 입력을 받는 입력 레이어(input layer), 실제 학습을 하는 은닉 레이어, 연산의 결과를 반환하는 출력 레이어(output layer)와 같이 총 3개의 레이어로 구성된다. 이러한 구조의 인공 신경망에서 각각의 노드는 뉴런을 의미하며, 각 노드는 데이터가 입력되면 가중 합을 구한 후 활성 함수(activation function)를 거쳐 다음 노드로 연산 결과값을 넘긴다. 이때 weight는 학습을 통해 각 노드마다 그 값을 갖게 된다. 각 노드(뉴런)의 입력으로는 앞 노드(뉴런)의 결과값들에 가중되어서 입력되고 이에 바이어스를 더해 그 합을 연산하는 방식이다.In general, an artificial neural network is composed of a total of three layers, such as an input layer that receives an input, a hidden layer that actually learns, and an output layer that returns an operation result, as shown in FIG. 1. . In the artificial neural network of this structure, each node represents a neuron, and when data is input, each node calculates a weighted sum and passes the calculation result to the next node through an activation function. At this time, the weight has its value for each node through learning. As the input of each node (neuron), the result values of the preceding node (neuron) are weighted and input, and the sum is calculated by adding a bias to it.

일반적인 딥 러닝 과정은 입력 레이어부터 다수의 은닉 레이어를 거쳐 출력 레이어까지 특징값(deep learning parameter)과 목적함수를 계산해 나가는 포워드 프로퍼게이션(forward propagation)과정과, 오류를 반영하여 출력 레이어로부터 은닉 레이어를 거쳐 입력 레이어까지 가중치를 수정하는 백 프로퍼게이션(back propagation)과정을 반복하는 방식으로 수행된다. 이러한 딥 러닝 과정에서 수정되는 가중치는 오류가 최소화될 때까지 반복 갱신되며 모든 컴퓨터가 가중치와 특징값들을 공유하게 된다.The general deep learning process is a forward propagation process that calculates deep learning parameters and objective functions from the input layer to the output layer through multiple hidden layers, and the hidden layer from the output layer by reflecting errors. It is performed by repeating the back propagation process of correcting the weights to the input layer after passing through. The weights corrected in this deep learning process are repeatedly updated until errors are minimized, and all computers share weights and feature values.

즉, 딥 러닝 알고리즘에서는 학습 데이터를 이용한 학습과정이 수행되고 나면 최적화된 파라미터를 가지는 인공 신경망 모델이 생성되기 때문에 학습 데이터의 수가 많을수록 보다 정확한 예측이 가능한 인공 신경망 모델이 형성되므로 딥 러닝의 학습 과정에서는 많은 수의 학습 데이터가 필요하다.In other words, in the deep learning algorithm, an artificial neural network model with optimized parameters is generated after the training process using the training data is performed. Therefore, an artificial neural network model capable of more accurate prediction is formed as the number of training data increases. A large number of training data is required.

그러나 딥 러닝 알고리즘을 이용해 자궁경부암과 같은 질병의 발병 여부를 판단하는 영상 의료진단기기에서는 개인정보나 의료정보의 외부 공개 제한으로 인해 학습 데이터를 확보하는데 한계가 있기 때문에 보다 정확한 예측이 가능한 인공 신경망 모델을 형성하기 어렵다. 특히 희귀 질병의 경우 환자의 수가 적고 국내 및 국외의 의료기관 사이에 학습 데이터에 대한 공유가 어려우며 학습 데이터 누적에 오랜 시간이 소요되기 때문에 이를 효과적으로 해결하기 위한 새로운 방안이 모색될 필요가 있다.However, in imaging medical diagnosis devices that use deep learning algorithms to determine the onset of diseases such as cervical cancer, there is a limit to securing training data due to restrictions on external disclosure of personal information or medical information. Difficult to form. In particular, in the case of rare diseases, since the number of patients is small, it is difficult to share learning data between domestic and foreign medical institutions, and it takes a long time to accumulate learning data, it is necessary to find a new method to effectively solve this problem.

더 나아가 영상 의료진단기기에 있어서 보다 정확한 진단을 위해 선행되어야 할 것은 원천 학습 데이터를 확보하는 것 외에 학습에 사용될 학습 데이터를 정확하게 분류 정리하여 학습을 진행해야 한다는 점이다. 즉, 학습 데이터의 분류 정리가 정확하고도 명확하게 이루어지지 않는다면 특정 질병의 발병 여부에 관한 분석 정확도가 떨어질 수밖에 없다. 따라서 특정 질병의 발병 여부를 판정하는 기기들에서는 학습에 사용될 학습 데이터를 공유하는 것과 같은 별도 방안과 병행하여 학습 데이터 분류기준 역시 공유할 필요가 있다.Furthermore, what should be preceded for a more accurate diagnosis in medical imaging devices is that, in addition to securing the original learning data, learning data to be used for learning must be accurately classified and organized to proceed with learning. In other words, if the classification and arrangement of the learning data is not accurately and clearly performed, the accuracy of analysis regarding the occurrence of a specific disease inevitably deteriorates. Therefore, in devices that determine whether a specific disease has occurred, it is necessary to share the learning data classification criteria in parallel with a separate method such as sharing learning data to be used for learning.

대한민국 공개특허공보 제10-2017-0083419호Korean Patent Application Publication No. 10-2017-0083419

이에 본 발명은 상술한 필요성에 따라 창안된 발명으로서, 본 발명의 주요 목적은 소량의 원천 데이터를 학습할 수밖에 없는 환경의 인공 신경망 모델을 대량의 원천 데이터를 학습한 인공 신경망 모델과 같이 정확한 예측이 가능한 모델로 형성시킬 수 있는 딥 러닝 시스템을 제공함에 있으며,Accordingly, the present invention is an invention invented in accordance with the above-described necessity, and the main object of the present invention is to accurately predict an artificial neural network model in an environment in which a small amount of source data is inevitable, like an artificial neural network model that has learned a large amount of source data. It is to provide a deep learning system that can be formed into a possible model,

더 나아가 본 발명의 또 다른 목적은 타 인공 신경망 모델에서 학습한 결과를 획득하여 자신의 인공 신경망 모델에 반영하는 방식으로 학습 시간 단축 및 학습 데이터 부족환경을 극복할 수 있는 딥 러닝 시스템을 제공함에 있다.Furthermore, another object of the present invention is to provide a deep learning system capable of shortening the learning time and overcoming the lack of learning data by acquiring the result of learning from another artificial neural network model and reflecting it in the own artificial neural network model. .

또한 본 발명의 다른 목적은 서로 다른 운영주체가 운영하는 인공 신경망 모델 간에 원천 학습 데이터의 공유 없이도 원천 학습 데이터를 공유한 것과 같은 학습 결과를 얻을 수 있는 딥 러닝 시스템을 제공함에 있다.In addition, another object of the present invention is to provide a deep learning system capable of obtaining a learning result similar to sharing source training data without sharing source training data between artificial neural network models operated by different operating entities.

또한 본 발명의 다른 목적은 타 인공 신경망 모델에서 학습한 결과를 획득하여 자신의 인공 신경망 모델에 반영하되, 학습 데이터 분류기준 역시 공유하여 특정 질병의 발병 여부를 정확하게 판정할 수 있는 딥 러닝 시스템을 제공함에 있다.Another object of the present invention is to provide a deep learning system capable of accurately determining whether a specific disease has occurred by acquiring the result of learning from another artificial neural network model and reflecting it in its own artificial neural network model, but also sharing the learning data classification criteria. Is in.

전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 딥 러닝 시스템은 제1인공 신경망 모델을 학습시키는 외부의 딥 러닝 시스템과 통신망을 통해 접속 가능한 딥 러닝 시스템으로서,A deep learning system according to an embodiment of the present invention for achieving the above object is a deep learning system accessible through a communication network and an external deep learning system that trains the first artificial neural network model,

원천 학습 데이터를 전달받아 저장하는 데이터 분류 저장모듈과;A data classification storage module for receiving and storing original learning data;

상기 원천 학습 데이터를 이용하여 시스템 내의 제2인공 신경망 모델을 학습시키는 학습 모듈과;A learning module that trains a second artificial neural network model in the system using the original training data;

학습결과로 수정된 상기 제2인공 신경망 모델의 파라미터 정보들과 학습관련정보를 포함하는 튜닝정보를 상기 외부의 딥 러닝 시스템으로 전송하여 상기 제1인공 신경망 모델의 튜닝을 요청하는 튜닝정보 전송모듈과;A tuning information transmission module for requesting tuning of the first artificial neural network model by transmitting tuning information including parameter information and training-related information of the second artificial neural network model modified as a result of learning to the external deep learning system; and ;

상기 외부의 딥 러닝 시스템으로부터 전송된 튜닝정보에 따라 상기 제2인공 신경망 모델의 파라미터 정보를 갱신하는 튜닝모듈;을 포함함을 특징으로 한다.And a tuning module for updating parameter information of the second artificial neural network model according to tuning information transmitted from the external deep learning system.

상술한 구성의 딥 러닝 시스템은 상기 학습모듈과 튜닝모듈의 반복 동작에 의해 최적화된 상기 제1인공 신경망 모델에 기초하여 특정 질병에 대한 발병 유무를 진단하는 진단모듈을 더 포함함을 또 다른 특징으로 한다.Another feature of the deep learning system having the above-described configuration further comprises a diagnostic module for diagnosing the presence or absence of a specific disease based on the first artificial neural network model optimized by repetitive operations of the learning module and the tuning module. do.

상술한 딥 러닝 시스템들에 있어서, 상기 데이터 분류 저장모듈은,In the above-described deep learning systems, the data classification storage module,

외부장치로부터 상기 원천 학습 데이터로서 피검진 대상에 대한 영상 데이터를 수신받아 저장하는 데이터 수신부와, 저장된 상기 피검진 대상에 대한 영상 데이터를 복수의 다단계 분류기준에 따라 분류 저장하는 데이터 분류부를 포함하되, A data receiving unit for receiving and storing image data on a subject to be examined as the source learning data from an external device, and a data classification unit for classifying and storing the stored image data on the subject according to a plurality of multi-level classification criteria,

상기 데이터 분류부는 컬러를 분류기준으로 하는 1단계 분류기준과, 피검진 대상 크기를 분류기준으로 하는 2단계 분류기준과, 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준 중 적어도 두 개 이상의 분류기준을 이용해 상기 피검진 대상에 대한 영상 데이터를 분류 저장함을 특징으로 하며,The data classification unit includes at least two of a first-stage classification standard based on color, a second-stage classification standard based on the size of the subject to be examined, and a three-stage classification standard based on a combination of color and shape. It is characterized in that the image data for the subject to be examined is classified and stored using classification criteria,

상기 튜닝정보 전송모듈은 상기 제1인공 신경망 모델의 학습 초기상태를 동기화하기 위해 필요한 하이퍼 파라미터를 상기 튜닝정보로서 우선 전송함을 특징으로 한다.The tuning information transmission module is characterized in that it first transmits, as the tuning information, a hyper parameter necessary for synchronizing the initial state of learning of the first artificial neural network model.

경우에 따라서는 상기 튜닝정보 전송모듈에 의해 전송된 혹은 상기 외부의 딥 러닝 시스템으로부터 전송된 튜닝정보에 포함된 파라미터 정보는 인공 신경망 모델을 구성하되 학습결과로 수정된 각 레이어의 가중치값들과 바이어스값을 포함함을 또 다른 특징으로 하며,In some cases, parameter information included in the tuning information transmitted by the tuning information transmission module or transmitted from the external deep learning system constitutes an artificial neural network model, but the weight values and biases of each layer modified as a result of learning. Another feature is that it contains a value,

상기 학습관련정보는 학습해야 할 상기 원천 학습 데이터 중 학습한 원천 학습 데이터의 수를 포함함을 특징으로 한다.The learning-related information is characterized in that it includes the number of source learning data learned among the source learning data to be learned.

또한 상기 데이터 분류부는 상기 분류기준별로 분류 저장되는 원천 학습 데이터의 수적 밸런스를 조정하기 위해 추가 원천 학습 데이터를 더 생성할 수도 있다.In addition, the data classification unit may further generate additional source training data to adjust the numerical balance of source training data classified and stored according to the classification criteria.

상술한 기술적 과제 해결 수단에 따르면, 본 발명은 일측의 딥 러닝 시스템에서 학습하여 얻어진 인공 신경망 모델의 파라미터를 상대측 딥 러닝 시스템으로 전송하여 상대측 인공 신경망 모델의 파라미터를 갱신해 주기 때문에, 원천 학습 데이터의 공유 없이도 마치 동일한 학습 데이터를 학습한 것과 같은 효과를 얻을 수 있다. 따라서 본 발명은 개인정보나 의료정보의 노출로 인한 문제를 사전에 극복할 수 있는 장점이 있으며, 개인정보나 의료정보의 공유 제한으로 인해 인공 신경망 모델을 최적화하는데 소요되는 시간을 단축시킬 수 있는 장점이 있다.According to the above-described technical problem solving means, the present invention updates the parameters of the counterpart artificial neural network model by transmitting the parameters of the artificial neural network model obtained by learning in the deep learning system of one side to the counterpart deep learning system. Without sharing, you can achieve the same effect as learning the same training data. Therefore, the present invention has the advantage of overcoming the problem caused by exposure of personal information or medical information in advance, and the advantage of shortening the time required to optimize the artificial neural network model due to the limitation of sharing personal information or medical information. There is this.

또한 본 발명은 외부 시스템의 학습결과 얻어진 파라미터를 이용해 자신의 인공 신경망 모델의 부분 최적화가 이루어지기 때문에 원천 학습 데이터의 복구 혹은 유추가 사실상 불가능해 정보 노출로 인한 피해를 최소화할 수 있는 이점이 있다.In addition, the present invention has an advantage of minimizing damage due to information exposure because it is virtually impossible to recover or infer original learning data since partial optimization of its own artificial neural network model is performed using parameters obtained as a result of learning from an external system.

특히 본 발명은 원천 학습 데이터의 공유 없이도 마치 동일한 학습 데이터를 학습한 것과 같은 효과를 얻을 수 있기 때문에, 소량의 원천 데이터를 학습할 수밖에 없는 환경의 인공 신경망 모델이라 하더라도 마치 대량의 원천 학습 데이터를 학습한 인공 신경망 모델로 변형시킬 수 있는 장점이 있다.In particular, since the present invention can obtain the same effect as learning the same training data without sharing the source training data, even if the artificial neural network model in an environment in which a small amount of source data has to be learned, it is like learning a large amount of source training data. There is an advantage that it can be transformed into an artificial neural network model.

또 다른 실시예에 따른 본 발명은 학습에 사용될 학습 데이터를 사전에 정확하게 분류 정리하여 분류 기준별로 학습을 진행하되, 학습 결과 수정된 파라미터들을 공유하는 것 외에 학습 데이터 분류 기준 역시 서로 다른 딥 러닝 시스템과 공유하기 때문에, 특정 질병에 대한 발병 유무를 정확하게 진단할 수 있는 진단기준 역시 공유할 수 있는 장점이 있다.According to another embodiment of the present invention, learning data to be used for learning is accurately classified and arranged in advance, and learning is performed by classification criteria. In addition to sharing parameters modified as a result of learning, learning data classification criteria are also different from deep learning systems. Because they are shared, there is an advantage of being able to share diagnostic criteria that can accurately diagnose the presence or absence of a specific disease.

도 1은 일반적인 인공 신경망 구성 예시도.
도 2는 본 발명의 실시예에 따른 딥 러닝 시스템간의 연결상태 예시도.
도 3은 본 발명의 실시예에 따른 딥 러닝 시스템의 구성 예시도.
도 4는 본 발명의 실시예 따른 딥 러닝 과정을 부연 설명하기 위한 도면.
도 5는 본 발명의 또 다른 실시예에 따른 피검진 대상 영상 데이터의 다단계 분류 흐름 예시도.
도 6은 본 발명의 또 다른 실시예에 따른 피검진 대상 영상 데이터의 다단계 분류기준을 보다 상세히 설명하기 위한 도면.
1 is a diagram illustrating a configuration of a general artificial neural network.
2 is an exemplary diagram illustrating a connection state between deep learning systems according to an embodiment of the present invention.
3 is an exemplary configuration diagram of a deep learning system according to an embodiment of the present invention.
4 is a diagram for further explaining a deep learning process according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a flow of multi-level classification of image data to be examined according to another embodiment of the present invention.
6 is a view for explaining in more detail a multi-level classification criterion of image data to be examined according to another embodiment of the present invention.

이하 본 발명의 바람직한 실시예를 첨부 도면을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 관련된 공지 기능 혹은 구성이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, when it is determined that a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

참고적으로 하기에서 명명된 '모듈'은 본 발명의 기술적 사상을 구현하기 위한 하드웨어와 그 하드웨어를 구동하기 위해 필요한 소프트웨어의 기능적, 구조적 결합을 의미하는 것으로 정의하기로 한다. 즉, '모듈'은 소정의 코드와 소정의 코드가 수행되기 위한 하드에어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것이 아님은 당업자에게 있어 자명하다 할 것이다.For reference, the term'module' named below will be defined to mean a functional and structural combination of hardware for implementing the technical idea of the present invention and software required for driving the hardware. That is, the'module' may mean a logical unit of a predetermined code and a hard air resource for executing a predetermined code, and does not necessarily mean a code that is physically connected or does not mean one type of hardware. It will be self-evident to you.

이하 첨부 도면을 참조하여 본 발명의 실시예에 따른 딥 러닝 시스템에 대해 설명하면,Hereinafter, a deep learning system according to an embodiment of the present invention will be described with reference to the accompanying drawings,

우선 도 2는 본 발명의 실시예에 따른 딥 러닝 시스템(100,200,300)간의 연결상태를 예시한 것이다.First, FIG. 2 illustrates a connection state between the deep learning systems 100, 200, and 300 according to an embodiment of the present invention.

도 2에 도시한 바와 같이 본 발명의 실시예에 따른 딥 러닝 시스템(100,200,300) 각각은 통신망을 통해 필요한 정보를 상호 송수신한다. 각각의 딥 러닝 시스템(100,200,300)은 내부에 인공 신경망 모델을 포함하고 있으며, 이러한 인공 신경망 모델은 동일한 신경망 모델인 것으로 가정하기로 한다.As shown in FIG. 2, each of the deep learning systems 100, 200, and 300 according to an embodiment of the present invention mutually transmits and receives necessary information through a communication network. Each of the deep learning systems 100,200,300 includes an artificial neural network model therein, and it is assumed that the artificial neural network model is the same neural network model.

각각의 딥 러닝 시스템(100,200,300)은 관리자에 의해 지정된 딥 러닝 시스템과 정보를 송수신하면서 상대측에서 학습하여 얻어진 파리미터들로 자신의 파라미터들을 갱신해 가면서 내부 인공 신경망 모델을 최적화해 간다.Each deep learning system (100, 200, 300) optimizes the internal artificial neural network model by transmitting and receiving information to and from the deep learning system designated by the manager, updating its own parameters with parameters obtained by learning from the other side.

이하 도 2에 도시한 딥 러닝 시스템(100,200,300)의 구성을 도 3을 참조하여 설명하기로 한다.Hereinafter, the configuration of the deep learning system 100, 200, and 300 shown in FIG. 2 will be described with reference to FIG. 3.

도 3은 본 발명의 실시예에 따른 딥 러닝 시스템(100)의 구성도를 예시한 것으로, 일 예로 합성곱 신경망(CNN)에 기반하는 인공 신경망 모델(150)을 포함하는 딥 러닝 시스템(100)은,3 is a diagram illustrating a configuration diagram of a deep learning system 100 according to an embodiment of the present invention, for example, a deep learning system 100 including an artificial neural network model 150 based on a convolutional neural network (CNN) silver,

원천 학습 데이터를 전달받아 저장소에 저장하는 데이터 분류 저장모듈(110)과,A data classification storage module 110 receiving source learning data and storing it in a storage,

상기 원천 학습 데이터를 이용하여 시스템 내의 인공 신경망 모델(150)을 학습시키는 학습 모듈(120)과,A learning module 120 for learning an artificial neural network model 150 in the system using the original training data,

학습결과로 수정된 인공 신경망 모델(150)의 파라미터 정보들과 학습관련정보를 포함하는 튜닝정보를 외부의 딥 러닝 시스템(200 혹은 300)으로 전송하여 그 시스템내 인공 신경망 모델의 튜닝을 요청하는 튜닝정보 전송모듈(130)과,Tuning for requesting tuning of the artificial neural network model within the system by transmitting tuning information including parameter information and training-related information of the artificial neural network model 150 modified as a result of learning to an external deep learning system 200 or 300 An information transmission module 130,

상기 외부의 딥 러닝 시스템(200 혹은 300)으로부터 전송된 튜닝정보에 따라 인공 신경망 모델(150)의 파라미터 정보를 갱신하는 튜닝모듈(140)을 포함한다.And a tuning module 140 for updating parameter information of the artificial neural network model 150 according to tuning information transmitted from the external deep learning system 200 or 300.

구현 방식에 따라 상기 구성들 외에 본 발명의 실시예에 따른 딥 러닝 시스템(100)은 상기 학습모듈(120)과 튜닝모듈(140)의 반복 동작에 의해 최적화된 인공 신경망 모델(150)에 기초하여 특정 질병에 대한 발명 유무를 진단하는 진단모듈(160)을 더 포함할 수도 있다.Depending on the implementation method, in addition to the above configurations, the deep learning system 100 according to the embodiment of the present invention is based on the artificial neural network model 150 optimized by the repetitive operation of the learning module 120 and the tuning module 140. It may further include a diagnostic module 160 for diagnosing the presence or absence of an invention for a specific disease.

상기 원천 학습 데이터는 딥 러닝 시스템(100)과 연결 가능한 영상 촬영장치는 물론 원천 학습 데이터가 저장되는 별도의 스토리지 디바이스, 별도의 데이터 제공 서버를 통해 전달되는 데이터이다. 본 발명의 실시예에 따른 립 러닝 학습 시스템(100)이 영상 의료진단기기의 일부로 사용될 경우 상기 원천 학습 데이터는 특정 질병을 진단하기 위해 촬영된 '피검진 대상에 대한 영상 데이터'일 것이다.The source learning data is data transmitted through an image capturing device connectable to the deep learning system 100, a separate storage device storing the source learning data, and a separate data providing server. When the lip learning learning system 100 according to an embodiment of the present invention is used as a part of an imaging medical diagnosis device, the source learning data will be'image data for a subject to be examined' taken to diagnose a specific disease.

한편 튜닝정보 전송모듈(130)은 상기 외부의 딥 러닝 시스템(200 혹은 300)을 구성하는 인공 신경망 모델의 학습 초기상태를 동기화하기 위해 필요한 하이퍼 파라미터(hyper parameter)를 상기 튜닝정보로서 우선 전송한 후에, 학습결과로 수정된 각 레이어의 가중치값(W1, W2, W3,..)들과 바이어스값을 튜닝정보로서 전송한다. 이러한 튜닝정보 전송모듈(130)은 딥 러닝 시스템(100)의 동작을 전반적으로 제어하기 위한 제어 모듈로서 타 시스템과의 연동 및 인증을 위한 제어를 수행할 수 있다.Meanwhile, the tuning information transmission module 130 first transmits, as the tuning information, a hyper parameter required to synchronize the initial state of learning of the artificial neural network model constituting the external deep learning system 200 or 300. , The weight values (W1, W2, W3,...) of each layer modified as a result of learning and the bias value are transmitted as tuning information. The tuning information transmission module 130 is a control module for overall control of the operation of the deep learning system 100 and may perform control for interworking with other systems and authentication.

상술한 학습관련정보는 자신이 학습해야 할 원천 학습 데이터 중 학습한 원천 학습 데이터의 수일 수 있으며, 학습한 데이터의 비율일 수도 있으며, 학습한 원천 학습 데이터의 수와 학습 횟수일 수도 있다. 중요한 것은 하나의 딥 러닝 시스템(100)에서 학습한 것과 동일한 방법으로 상대측 딥 러닝 시스템(200 혹은 300)의 인공 신경망 모델도 학습해야 한다는 것이다.The above-described learning-related information may be the number of source training data learned among source training data to be learned, may be a ratio of the learned data, and may be the number of source training data and the number of times learned. What is important is that the artificial neural network model of the counterpart deep learning system 200 or 300 must also be trained in the same way as that learned by one deep learning system 100.

본 발명의 또 다른 실시예에 따른 딥 러닝 시스템(100,200,300)은 상술한 구성 중 데이터 분류 저장모듈(110)을 변형하여 새롭게 구현할 수도 있다. 즉, 상기 데이터 분류 저장모듈(110)은 외부장치로부터 원천 학습 데이터로서 피검진 대상에 대한 영상 데이터를 수신받아 저장소에 저장하는 데이터 수신부와, 저장된 상기 피검진 대상에 대한 영상 데이터를 복수의 다단계 분류기준에 따라 분류 저장하는 데이터 분류부를 포함할 수 있다.The deep learning systems 100, 200, and 300 according to another embodiment of the present invention may be newly implemented by modifying the data classification storage module 110 among the above-described configurations. That is, the data classification storage module 110 receives image data for a subject to be examined as source learning data from an external device and stores the image data in a storage, and a plurality of multi-level classifications of the stored image data for the subject to be examined. It may include a data classification unit for classifying and storing according to the criteria.

이러한 경우 상기 데이터 분류부는 컬러를 분류기준으로 하는 1단계 분류기준과, 피검진 대상 크기를 분류기준으로 하는 2단계 분류기준과, 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준 중 적어도 두 개 이상의 분류기준을 이용해 상기 피검진 대상에 대한 영상 데이터를 분류 저장할 수 있다.In this case, the data classification unit is at least two of a first-stage classification standard based on color, a second-stage classification standard based on the size of the subject to be examined, and a three-stage classification standard based on a combination of color and shape. The image data for the subject to be examined may be classified and stored using more than one classification criteria.

상기 데이터 분류부의 1단계 분류기준은 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상 중 어느 하나 이상을 각각 식별하기 위한 컬러값을 분류기준 값으로 포함한다.The first-stage classification criterion of the data classification unit includes a color value for discriminating at least one of an acetic acid reaction image, a Lugol solution reaction image, a green filter image, and a general image as a classification reference value.

이와 같이 데이터 분류 저장모듈(110)이 데이터 분류기준에 따라 분류 가능한 시스템이라면, 튜닝정보 전송모듈(130)은 상기 1단계 분류기준, 상기 2단계 분류기준, 상기 3단계 분류기준 중 적어도 2개 이상의 분류기준을 상기 튜닝정보에 포함시켜 외부의 딥 러닝 시스템(200 혹은 300)으로 전송하는 것이 상호 연동 가능한 시스템을 동기화하는데 있어 바람직하다.As described above, if the data classification storage module 110 is a system that can be classified according to the data classification criteria, the tuning information transmission module 130 may be configured to at least two or more of the first-stage classification criteria, the second-stage classification criteria, and the third-stage classification criteria. It is preferable to include the classification criterion in the tuning information and transmit it to an external deep learning system 200 or 300 to synchronize a system capable of interworking with each other.

이하 상술한 구성들을 포함하는 딥 러닝 시스템(100,200,300)의 동작을 부연 설명하되, 하기에서는 딥 러닝 시스템 1(100)과 딥 러닝 시스템 2(200)가 상호 연동하여 인공 신경망 모델을 최적화하는 과정을 설명하기로 한다. 설명의 편의상 딥 러닝 시스템 1(100)에 포함된 인공 신경망 모델을 제2인공 신경망 모델로, 딥 러닝 시스템2(200)에 포함된 인공 신경망 모델을 제1인공 신경망 모델로 명명하기로 한다.Hereinafter, the operation of the deep learning system 100, 200, and 300 including the above-described configurations will be further described, but the following describes the process of optimizing the artificial neural network model by interworking the deep learning system 1 (100) and the deep learning system 2 (200). I will do it. For convenience of explanation, the artificial neural network model included in the deep learning system 1 (100) will be referred to as a second artificial neural network model, and the artificial neural network model included in the deep learning system 2 (200) will be referred to as a first artificial neural network model.

도 4는 본 발명의 실시예 따른 딥 러닝 학습 과정을 부연 설명하기 위한 도면을 도시한 것이다.4 is a diagram illustrating a deep learning learning process according to an embodiment of the present invention.

도 4에서는 딥 러닝 시스템 2(200)가 딥 러닝 시스템 1(100)에 비하여 원천 학습 데이터의 수가 상대적으로 적은 것으로 가정하고, 이들의 운영주체 또한 상이하다고 가정한다. 또한 딥 러닝 시스템 1(100)과 딥 러닝 시스템 2(200) 각각에는 자신이 학습해야 할 원천 학습 데이터가 저장부에 저장되어 있는 것으로 가정하기로 한다.In FIG. 4, it is assumed that the number of source learning data is relatively small in the deep learning system 2 (200) compared to the deep learning system 1 (100), and that their operating subjects are also different. In addition, it is assumed that each of the deep learning system 1 (100) and the deep learning system 2 (200) stores original learning data to be learned in a storage unit.

이러한 가정하에 시스템 관리자는 딥 러닝 시스템 1(100)에 접속하여 연동시키고자 하는 딥 러닝 시스템을 설정(S10단계)한다. 설정 방법으로는 딥 러닝 시스템 2(200)의 접속정보와 인증정보 입력으로 설정할 수 있다.Under this assumption, the system manager accesses the deep learning system 1 (100) and sets up a deep learning system to be linked (step S10). The setting method can be set by inputting access information and authentication information of the deep learning system 2 (200).

이러한 설정에 의해 딥 러닝 시스템 1(100)의 제어모듈로서 동작 가능한 튜닝정보 전송모듈(130)은 관리자 명령에 따라 딥 러닝 시스템 2(200)에 접속하여 시스템 상호 인증 절차(S20단계)를 수행할 수 있다. By this setting, the tuning information transmission module 130, which can operate as a control module of the deep learning system 1 (100), accesses the deep learning system 2 (200) according to an administrator command, and performs a system mutual authentication procedure (step S20). I can.

시스템 상호 인증이 정상적으로 완료되면 딥 러닝 시스템 1,2(100,200)는 필요한 정보를 송수신할 수 있는 상태가 된다. 이에 튜닝정보 전송모듈(130)은 딥 러닝 시스템 2(200)의 제2인공 신경망 모델이 학습하기 위한 초기상태를 동기화하기 위해 하이퍼 파라미터를 튜닝정보로 설정하여 딥 러닝 시스템 2(200)로 우선 전송(S30단계)한다. 튜닝정보로서 하이퍼 파라미터를 수신한 딥 러닝 시스템 2(200)의 튜닝 모듈은 제1인공 신경망 모델의 관련 파라미터를 갱신하여 제2인공 신경망 모델과 동기화한다.When the system mutual authentication is normally completed, the deep learning systems 1, 2 (100, 200) are in a state capable of transmitting and receiving necessary information. Accordingly, the tuning information transmission module 130 sets the hyper parameter as tuning information to synchronize the initial state for training of the second artificial neural network model of the deep learning system 2 200 and transmits it to the deep learning system 2 200 first. (Step S30). The tuning module of the deep learning system 2 200 that has received the hyper parameter as tuning information updates the related parameter of the first artificial neural network model and synchronizes it with the second artificial neural network model.

이와 같이 두 딥 러닝 시스템이 하이퍼 파라미터의 송수신에 의해 학습 초기상태가 동기화되면, 딥 러닝 시스템 1(100)의 학습 모듈(120)은 저장소에 저장된 원천 학습 데이터를 이용하여 시스템 내의 제2인공 신경망 모델(150)을 학습(S40단계)시킨다. 이러한 학습단계에서 제2인공 신경망 모델(150)을 구성하는 각 레이어의 가중치값들(W1,W2,W3,..)은 수정된다.In this way, when the initial state of learning is synchronized by the transmission and reception of hyper parameters between the two deep learning systems, the learning module 120 of the deep learning system 1 (100) uses the original learning data stored in the storage to create a second artificial neural network model in the system. Learn 150 (step S40). In this learning step, weight values (W1, W2, W3, ...) of each layer constituting the second artificial neural network model 150 are modified.

학습 모듈(120)에 의해 원천 학습 데이터 중 사전 정의된 수량의 학습이 이루어지면, 튜닝정보 전송모듈(130)은 학습결과로 수정된 제2인공 신경망 모델의 파라미터 정보들(가중치값들과 바이어스값들)과 학습관련정보(원천 학습 데이터 중 학습한 데이터 수)를 포함하는 튜닝정보를 딥 러닝 시스템 2(200)로 전송(S50단계)하여 제1인공 신경망 모델의 튜닝을 요청한다.When the learning module 120 learns a predefined quantity of the original training data, the tuning information transmission module 130 transmits the parameter information (weight values and bias values) of the second artificial neural network model modified as the learning result. (S50) and tuning information including learning-related information (the number of learned data among the original training data) is transmitted to the deep learning system 2200 (step S50) to request tuning of the first artificial neural network model.

이에 딥 러닝 시스템 2(200)를 구성하는 튜닝 모듈은 외부의 딥 러닝 시스템 1(100)로부터 전송된 튜닝정보에 따라 시스템 내의 제1인공 신경망 모델의 파라미터 정보, 즉 가중치값을 갱신(S60단계)한다. 이와 같이 딥 러닝 시스템 1(100)에서 한 번 학습에 의해 수정된 가중치값들로 외부의 딥 러닝 시스템 2(200)를 구성하는 제1인공 신경망 모델의 가중치값들을 갱신함으로써, 딥 러닝 시스템 2(200) 역시 딥 러닝 시스템 1(100)의 원천 학습 데이터를 학습한 효과를 얻을 수 있다.Accordingly, the tuning module constituting the deep learning system 2 (200) updates the parameter information, that is, the weight value, of the first artificial neural network model in the system according to the tuning information transmitted from the external deep learning system 1 (100) (step S60). do. As described above, by updating the weight values of the first artificial neural network model constituting the external deep learning system 2 200 with the weight values modified once by learning in the deep learning system 1 (100), deep learning system 2 ( 200) It is also possible to obtain the effect of learning the original learning data of the deep learning system 1(100).

한편 외부에서 전송된 튜닝정보를 이용해 제1인공 신경망 모델의 파라미터를 갱신한 이후 딥 러닝 시스템 2(200)의 학습 모듈 역시 자신의 원천 학습 데이터를 학습(S70단계)하되, 딥 러닝 시스템 1(100)로부터 전송된 학습관련정보에 따라 학습한다.Meanwhile, after updating the parameters of the first artificial neural network model using the tuning information transmitted from the outside, the learning module of the deep learning system 2 (200) also learns its own original learning data (step S70), but the deep learning system 1 (100) Learning according to the learning related information transmitted from ).

상기 학습관련정보에 기초하여 학습이 완료되면 제1인공 신경망 모델의 파라미터 역시 수정된다. 이에 딥 러닝 시스템 2(200)를 구성하는 튜닝정보 전송모듈(130) 역시 수정된 가중치값들과 바이어스값들을 포함하는 튜닝정보를 딥 러닝 시스템 1(100)로 전송(S80단계)함으로써, 딥 러닝 시스템 1(100)을 구성하는 튜닝 모듈(140) 역시 전송받은 튜닝정보에 기초하여 제2인공 신경망 모델(150)의 파라미터 정보를 갱신(S90단계)한다. 이로써 딥 러닝 시스템 1(100) 역시 딥 러닝 시스템 2(200)의 원천 데이터를 학습한 효과를 얻을 수 있다.When learning is completed based on the learning-related information, the parameters of the first artificial neural network model are also modified. Accordingly, the tuning information transmission module 130 constituting the deep learning system 2 200 also transmits tuning information including the modified weight values and bias values to the deep learning system 1 100 (step S80), thereby deep learning. The tuning module 140 configuring the system 1 100 also updates parameter information of the second artificial neural network model 150 based on the received tuning information (step S90). As a result, the deep learning system 1 (100) can also obtain the effect of learning the source data of the deep learning system 2 (200).

한편 딥 러닝 시스템 1(100)과 2(200)는 상술한 튜닝 과정을 일정 성능을 얻을 때까지, 즉 인공 신경망 모델이 최적화(S100단계)될 때까지 반복하면서 제1인공 신경망 혹은 제2인공 신경망 모델을 최적화한다.Meanwhile, the deep learning systems 1(100) and 2(200) repeat the above-described tuning process until a certain performance is obtained, that is, until the artificial neural network model is optimized (step S100), and the first artificial neural network or the second artificial neural network Optimize the model.

상술한 바와 같이 자신의 원천 학습 데이터를 학습하여 얻어진 파라미터를 상대측 딥 러닝 시스템으로 전송하여 인공 신경망 모델의 파라미터를 갱신해 가면 원천 학습 데이터의 공유 없이도 마치 동일한 학습 데이터를 학습한 것과 같은 효과를 얻을 수 있기 때문에, 개인정보나 의료정보의 노출로 인한 문제를 사전에 극복할 수 있는 장점이 있으며, 개인정보나 의료정보의 공유 제한으로 인해 인공 신경망 모델을 최적화하는데 소요되는 시간을 단축시킬 수 있는 장점이 있다.As described above, if the parameters obtained by learning the original training data are transmitted to the counterpart deep learning system and the parameters of the artificial neural network model are updated, the same effect as learning the same training data can be obtained without sharing the original training data. Therefore, it has the advantage of overcoming the problems caused by exposure of personal information or medical information in advance, and the advantage of shortening the time required to optimize the artificial neural network model due to the limitation of sharing personal information or medical information. have.

또한 본 발명은 외부 시스템의 학습결과 얻어진 파라미터를 이용해 자신의 인공 신경망 모델의 부분 최적화가 이루어지기 때문에 원천 학습 데이터의 복구 혹은 유추가 사실상 불가능해 정보 노출로 인한 피해를 최소화할 수 있는 이점이 있다.In addition, the present invention has an advantage of minimizing damage due to information exposure because it is virtually impossible to recover or infer original learning data since partial optimization of its own artificial neural network model is performed using parameters obtained as a result of learning from an external system.

특히 상술한 본 발명은 원천 학습 데이터의 공유 없이도 마치 동일한 학습 데이터를 학습한 것과 같은 효과를 얻을 수 있기 때문에, 소량의 원천 데이터를 학습할 수밖에 없는 환경의 인공 신경망 모델이라 하더라도 마치 대량의 원천 학습 데이터를 학습한 인공 신경망 모델로 변형시킬 수 있는 장점이 있다.In particular, since the above-described invention can obtain the same effect as learning the same training data without sharing the source training data, even if the artificial neural network model in an environment in which a small amount of source data has to be learned, it is as if a large amount of source training data There is an advantage that can be transformed into a learned artificial neural network model.

이상의 실시예에서는 두 딥 러닝 시스템(100,200)이 상호 연동하여 원천 학습 데이터의 공유 없이도 인공 신경망 모델을 최적화하는 과정을 설명하였다.In the above embodiment, a process of optimizing an artificial neural network model without sharing original learning data by interworking with two deep learning systems 100 and 200 has been described.

이하에서는 두 딥 러닝 시스템(100,200)이 상호 연동하여 인공 신경망 모델을 최적화하되, 특정 질병의 발병 여부에 관한 분석 정확도를 높이기 위해 학습에 사용될 학습 데이터를 정확하게 분류 정리하여 학습을 진행해 인공 신경망 모델을 최적화하는 또 다른 실시예에 따른 딥 러닝 시스템에 관하여 설명하기로 한다. 이러한 딥 러닝 시스템은 도 3에 도시된 데이터 분류 저장모듈(110)을 데이터 수신부와 데이터 분류부로 세분화함으로써 구현 가능하다. 하기 실시예에서는 자궁경부암에 대한 발병 여부를 정밀 진단하기 위해 필요한 데이터 분류 기준을 예로 들어 설명하기로 한다.In the following, two deep learning systems (100, 200) interwork with each other to optimize an artificial neural network model, but in order to increase the accuracy of analysis on the occurrence of a specific disease, training data to be used for training is accurately classified and trained to optimize the artificial neural network model. A deep learning system according to another embodiment will be described. Such a deep learning system can be implemented by subdividing the data classification storage module 110 shown in FIG. 3 into a data receiving unit and a data classifying unit. In the following examples, data classification criteria necessary for precise diagnosis of the onset of cervical cancer will be described as an example.

우선 데이터 수신부는 영상 촬영장치와 같은 외부장치로부터 원천 학습 데이터에 해당하는 피검진 대상에 대한 영상 데이터를 수신받아 저장하는 역할을 수행하며, 데이터 분류부는 상기 피검진 대상에 대한 영상 데이터를 복수의 다단계 분류기준에 따라 분류 저장하는 역할을 수행한다. 이러한 경우 데이터 분류부는 컬러를 분류기준으로 하는 1단계 분류기준과, 피검진 대상 크기를 분류기준으로 하는 2단계 분류기준과, 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준, 노출과 초점을 분류기준으로 하는 4단계 분류기준 중 적어도 두 개 이상의 분류기준을 이용해 분류할 수 있다.First, the data receiving unit receives and stores image data for the subject to be examined, corresponding to the original learning data, from an external device such as an image capturing device, and the data classification unit stores the image data for the subject at a plurality of stages. It performs the role of storing classification according to the classification criteria. In this case, the data classification unit includes a first-stage classification standard based on color, a second-stage classification standard based on the size of the subject to be examined, and a three-stage classification standard based on a combination of color and shape, exposure and focus. It can be classified using at least two or more of the four-level classification criteria that are classified as the classification criteria.

경우에 따라 상기 데이터 분류부는 컬러를 분류기준으로 하는 1단계 분류기준에 따라 피검진 대상에 대한 영상 데이터를 1차 분류하고, 상기 1차 분류된 피검진 대상에 대한 영상 데이터 내에서 피검진 대상, 예를 들면 자궁경부의 크기를 분류기준으로 하는 2단계 분류기준에 따라 2차 분류하고, 상기 2차 분류된 피검진 대상에 대한 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준에 따라 상기 피검진 대상에 대한 영상 데이터를 3차 분류하는 방식으로 영상 데이터를 분류할 수 있다.In some cases, the data classification unit first classifies the image data for the subject to be examined according to the first-stage classification criterion based on color, and the subject to be examined within the image data for the subject to be examined, For example, a three-stage classification criterion based on a second classification based on a two-stage classification criterion based on the size of the cervix as a classification criterion, and a combination of colors and shapes in the image data for the second-classified examination subject. According to this, the image data may be classified in a manner of tertiary classification of the image data for the subject to be examined.

상기 1단계 분류기준은 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상 중 어느 하나 이상을 각각 식별하기 위한 컬러값을 분류기준 값으로 포함할 수 있으며,The first-stage classification criterion may include a color value for identifying each one or more of an acetic acid reaction image, a Lugol solution reaction image, a green filter image, and a general image as a classification criterion value,

상기 3단계 분류기준은 피검진 대상의 영상 데이터 내에서 적어도 혈액, 점액, 루프, 질확대경, 치료흔적, 수술도구 중 어느 하나 이상을 식별하기 위한 컬러값과 형태의 조합을 분류기준 값으로 포함할 수 있다.The three-stage classification criterion includes a combination of color values and shapes for identifying at least one of blood, mucus, loops, coloscopes, treatment traces, and surgical instruments within the image data of the subject to be examined as a classification criterion value. I can.

예를 들어 혈액은 주로 자궁경부 중앙에서 아래로 흐르는 붉은색의 형태로 나타나며, 점액은 주로 자궁경부 중앙에서 아래로 흐르는 엷은 노란색의 형태로 나타나며, 루프는 자궁경부의 중앙에 주로 위치하며 일반적으로 부메랑 형태의 철사가 명확히 나타난다. 질 확대경 및 기타 수술도구는 핑크색의 자궁경부와는 다른 색상(은색, 푸른색,..)으로 나타나기에 각 이물질들의 컬러와 형태의 조합 특성을 이용하면 상기 예시한 바와 같이 자궁경부에 영향을 주는 이물질들을 분류할 수 있다.For example, blood mainly appears in the form of red flowing down from the center of the cervix, mucus mainly appears in the form of pale yellow flowing down from the center of the cervix, and the loop is mainly located in the center of the cervix and is generally a boomerang. The shape of the wire is clearly visible. Colposcopy and other surgical instruments appear in a different color (silver, blue,...) than the pink cervix, so using the combination of color and shape of each foreign body affects the cervix as illustrated above. Foreign substances can be classified.

한편, 데이터 분류부는 상술한 세 가지의 분류기준에 따라 분류되지 않는, 즉 병변이 식별되지 않는 영상을 노출과 초점 분류기준에 따라 별도 분류할 수 있다. 예를 들어 노출이 부족/과다할 경우 히스토그램이 한 쪽에 극단적으로 치우치기 때문에 이를 이용해 분류할 수 있고, 초점이 맞지 않는 경우 에지(edge:경계선) 검출이 되지 않거나 색의 대비가 모호하게 나타나므로 이러한 특성을 이용해 분류(4차 분류)할 수 있다. 상술한 1차 내지 4차 분류과정에서도 딥러닝 기법을 이용하여 각각의 분류를 진행할 수 있다.Meanwhile, the data classification unit may separately classify images that are not classified according to the three classification criteria described above, that is, in which lesions are not identified, according to exposure and focus classification criteria. For example, if the exposure is under/overexposed, the histogram is extremely skewed to one side, so it can be classified using this, and if the focus is out of focus, the edge (edge) cannot be detected or the color contrast is ambiguous. It can be classified (quaternary classification) using characteristics. In the above-described first to fourth classification processes, each classification may be performed using a deep learning technique.

추가적으로 상기 데이터 분류부는 분류기준별로 분류 저장되는 원천 학습 데이터, 즉 피검진 대상에 대한 영상 데이터의 수적 밸런스를 조정하기 위해 추가 원천 학습 데이터(피검진 대상에 대한 영상 데이터)를 더 생성할 수 있다. 이는 특정 형태의 자궁경부(암) 영상 데이터에서 대해서만 과도한 학습이 진행되거나, 반대로 특정 형태(혹은 종류)의 영상에 대해서 정상적인 학습이 진행되지 않는 현상이 발생하지 않도록 하기 위함이다.Additionally, the data classification unit may further generate additional source learning data (image data for a test subject) in order to adjust the numerical balance of source training data classified and stored according to classification criteria, that is, image data for a subject to be examined. This is to prevent excessive learning from proceeding only for certain types of cervical (cancer) image data, or to prevent normal learning from occurring for certain types (or types) of images.

이하 도 5 및 도 6을 참조하여 피검진 대상에 대한 영상 데이터로서 자궁경부에 대한 영상 데이터를 분류하여 인공 신경망 모델을 최적화하는 과정을 도 5와 도 6을 참조하여 보다 상세히 설명하기로 한다.Hereinafter, a process of optimizing an artificial neural network model by classifying image data for the cervix as image data for a subject to be examined will be described in more detail with reference to FIGS. 5 and 6.

우선 도 5는 본 발명의 또 다른 실시예에 따른 피검진 대상 영상 데이터의 다단계 분류 흐름을 예시한 것이며, 도 6은 피검진 대상 영상 데이터의 다단계 분류기준을 보다 상세히 설명하기 위한 도면을 도시한 것이다.First, FIG. 5 is a diagram illustrating a flow of multi-level classification of image data to be examined according to another embodiment of the present invention, and FIG. 6 is a diagram illustrating in more detail a multi-level classification criterion of image data to be examined. .

도 5를 참조하면, 우선 데이터 분류 저장모듈(110)을 구성하는 데이터 수신부는 영상 촬영장치와 같은 외부장치로부터 자궁경부에 대한 영상 데이터를 수신받아 저장소에 저장(S200단계)한다.Referring to FIG. 5, first, a data receiving unit constituting the data classification storage module 110 receives image data for the cervix from an external device such as an image capturing device and stores it in a storage (step S200).

데이터 분류부는 자궁경부에 대한 하나 혹은 복수의 미분류 영상 데이터를 복수의 다단계 분류기준에 따라 분류하여 저장(S210단계)한다.The data classification unit classifies and stores one or a plurality of unclassified image data for the cervix according to a plurality of multi-level classification criteria (step S210).

예를 들어 컬러를 분류기준으로 하는 1단계 분류기준에 따라 자궁경부에 대한 미분류 영상 데이터를 우선적으로 1차 분류한다.For example, the unclassified image data for the cervix is first classified according to the first-stage classification standard based on color.

1차 분류를 위해 데이터 분류부는 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상 각각 식별하기 위한 컬러값을 분류기준 값으로 포함함으로서, 위 4가지의 영상을 분류할 수 있다.For the first classification, the data classification unit can classify the above four images by including color values for identifying each of an acetic acid reaction image, a Lugol solution reaction image, a green filter image, and a general image as a classification reference value.

구체적으로, 아세트산 반응 영상은 흰색의 얼룩이 자궁경부에 나타나기 때문에 핑크색의 자궁경부 및 질과 구분이 가능하다. 루골용액 반응 영상은 갈색 또는 진한 주황색 컬러가 나타나며, 그린필터 영상은 영상 전반에 걸쳐 그린이 강하게 나타나기 때문에 이러한 각 영상의 특징을 나타내는 컬러값을 분류기준 값으로 활용해 자궁경부에 대한 미분류 촬영 영상 데이터를 분류할 수 있다.Specifically, the acetic acid reaction image can be distinguished from the pink cervix and vagina because white spots appear on the cervix. Since the Lugol solution reaction image has a brown or dark orange color, and the green filter image has a strong green color throughout the image, the color values representing the characteristics of each of these images are used as the classification reference value to obtain unclassified image data for the cervix. Can be classified.

1차 분류가 완료되면 데이터 분류부는 상기 1차 분류된 영상 데이터 내의 자궁경부 크기를 분류기준으로 하는 2단계 분류기준에 따라 2차 분류한다.When the first classification is completed, the data classification unit performs a second classification according to a second-stage classification standard based on the size of the cervix in the first classified image data.

자궁경부는 500원 주화 크기의 원형으로 보통 영상 내에서 중앙 부분에 위치한다. 따라서 영상 내의 자궁경부 크기(150%, 100%, 80% 등)를 기준으로 자궁경부만 확대한 영상, 자궁경부 전체가 나온 영상, 자궁경부가 영상의 80% 정도만 나온 영상, 자궁경부가 영상의 50% 정도만 나온 영상, 자궁경부+확대경+이외부분 포함된 영상과 같이 2차 분류할 수 있다.The cervix is a circle the size of a 500 won coin and is usually located in the center of the image. Therefore, based on the size of the cervix in the image (150%, 100%, 80%, etc.), only the cervix is enlarged, the entire cervix is shown, the cervix is only 80% of the image, and the cervix is 50% of the image. It can be classified as a second-order image, such as an image showing only degree, and an image containing cervix + magnifying glass + external part.

이후 데이터 분류부는 상기 2차 분류된 자궁경부 영상 데이터 내의 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준에 따라 자궁경부에 영향을 주는 이물질들을 3차 분류한다.Thereafter, the data classification unit thirdly classifies foreign substances affecting the cervix according to a three-stage classification criterion based on a combination of color and shape in the secondly classified cervix image data.

앞서 언급한 바와 같이 혈액은 주로 자궁경부 중앙에서 아래로 흐르는 붉은색의 형태로 나타나며, 점액은 주로 자궁경부 중앙에서 아래로 흐르는 엷은 노란색의 형태로 나타나며, 루프는 자궁경부의 중앙에 주로 위치하며 일반적으로 부메랑 형태의 철사가 명확히 나타난다. 질 확대경 및 기타 수술도구는 핑크색의 자궁경부와는 다른 색상(은색, 푸른색,..)으로 나타나기에 각 이물질들의 컬러와 형태의 조합 특성을 이용하면 상기 예시한 바와 같이 자궁경부에 영향을 주는 이물질들을 분류할 수 있다.As mentioned above, blood mainly appears in the form of red flowing down from the center of the cervix, mucus mainly appears in the form of pale yellow flowing down from the center of the cervix, and the loop is mainly located in the center of the cervix. The boomerang-shaped wire clearly appears. Colposcopy and other surgical instruments appear in a different color (silver, blue,...) than the pink cervix, so using the combination of color and shape of each foreign body affects the cervix as illustrated above. Foreign substances can be classified.

경우에 따라서 데이터 분류부는 3차 분류된 영상들에 대해 노출과 초점을 기준으로 4차 분류할 수도 있다.In some cases, the data classifying unit may classify the third-class classified images in a fourth order based on exposure and focus.

이상에서 설명한 바와 같이 다단계 분류기준에 따라 분류된 분류기준별 영상 데이터는 저장소에 저장된다.As described above, the image data for each classification criteria classified according to the multi-level classification criteria is stored in the storage.

미분류 영상 데이터의 분류가 완료되면 이후 도 4에 도시한 바와 같은 과정을 통해 딥 러닝 시스템 1(100)과 딥 러닝 시스템 2(200) 각각은 자신의 인공 신경망 모델을 최적화한다. 이러한 경우 하나의 딥 러닝 시스템에서 채용한 영상 데이터의 다단계 분류기준을 동일하게 적용시키기 위해서 튜닝정보 전송모듈(130)은 상기 1단계 분류기준, 상기 2단계 분류기준, 상기 3단계 분류기준 중 적어도 2개 이상의 분류기준을 튜닝정보에 포함시켜 상대측 딥 러닝 시스템으로 전송하는 것이 바람직하다.When the classification of unclassified image data is completed, each of the deep learning system 1 (100) and the deep learning system 2 (200) optimizes its own artificial neural network model through a process as shown in FIG. 4. In this case, in order to equally apply the multi-level classification criterion of image data employed in one deep learning system, the tuning information transmission module 130 includes at least two of the first-stage classification criteria, the second-stage classification criteria, and the three-stage classification criteria. It is desirable to include more than two classification criteria in the tuning information and transmit them to the other deep learning system.

도 5에서 미설명된 S220단계는 분류 기준에 따라 분류 저장된 영상 데이터에 대해 학습을 실행하는 것을 나타낸 것으로 도 4의 S40단계에서 수행되는 것을 나타낸 것이다.Step S220, which is not described in FIG. 5, represents learning to be performed on the image data classified and stored according to the classification criteria, and is performed in step S40 of FIG. 4.

이상에서와 같이 학습에 사용될 학습 데이터를 사전에 정확하게 분류 정리하여 분류 기준별로 학습을 진행하되, 학습 결과 수정된 파라미터들을 공유하는 것 외에 학습 데이터 분류 기준 역시 서로 다른 딥 러닝 시스템이 공유한다면, 소량의 원천 데이터를 학습할 수밖에 없는 환경의 인공 신경망 모델이라 하더라도 마치 대량의 원천 학습 데이터를 학습한 인공 신경망 모델로 변형될 수 있을 뿐만 아니라, 다양한 분류기준에 따라 만들어진 학습 데이터를 학습하여 구축된 인공 신경망 모델은 기존 시스템들에 비해 보다 정확하게 특정 질병에 대한 발병 유무를 진단할 수 있게 되는 것이다.As described above, learning data to be used for learning is accurately classified in advance and trained according to classification criteria.In addition to sharing the parameters modified as a result of learning, if different deep learning systems share the learning data classification criteria, a small amount Even if an artificial neural network model in an environment in which it is bound to learn source data, it can be transformed into an artificial neural network model that has learned a large amount of source training data, as well as an artificial neural network model built by learning training data created according to various classification criteria. Is capable of diagnosing the presence or absence of a specific disease more accurately than existing systems.

이상 본 발명은 도면에 도시된 실시예들을 참고로 설명하였으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.The present invention has been described above with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined only by the appended claims.

Claims (10)

제1인공 신경망 모델을 학습시키는 외부의 딥 러닝 시스템과 통신망을 통해 접속 가능한 딥 러닝 시스템에 있어서,
원천 학습 데이터를 전달받아 저장하는 데이터 분류 저장모듈과;
상기 원천 학습 데이터를 이용하여 시스템 내의 제2인공 신경망 모델을 학습시키는 학습 모듈과;
학습결과로 수정된 상기 제2인공 신경망 모델의 파라미터 정보들과 학습관련정보를 포함하는 튜닝정보를 상기 외부의 딥 러닝 시스템으로 전송하여 상기 제1인공 신경망 모델의 튜닝을 요청하는 튜닝정보 전송모듈과;
상기 외부의 딥 러닝 시스템으로부터 전송된 튜닝정보에 따라 상기 제2인공 신경망 모델의 파라미터 정보를 갱신하는 튜닝모듈;을 포함함을 특징으로 하는 딥 러닝 시스템.
In the deep learning system accessible through a communication network and an external deep learning system that trains a first artificial neural network model,
A data classification storage module for receiving and storing original learning data;
A learning module that trains a second artificial neural network model in the system using the original training data;
A tuning information transmission module for requesting tuning of the first artificial neural network model by transmitting tuning information including parameter information and training-related information of the second artificial neural network model modified as a result of learning to the external deep learning system; and ;
And a tuning module for updating parameter information of the second artificial neural network model according to tuning information transmitted from the external deep learning system.
청구항 1에 있어서, 상기 학습모듈과 튜닝모듈의 반복 동작에 의해 최적화된 상기 제1인공 신경망 모델에 기초하여 특정 질병에 대한 발명 유무를 진단하는 진단모듈;을 더 포함함을 특징으로 하는 딥 러닝 시스템.The deep learning system according to claim 1, further comprising a diagnostic module for diagnosing the existence of an invention for a specific disease based on the first artificial neural network model optimized by repetitive operations of the learning module and the tuning module. . 청구항 2에 있어서, 상기 데이터 분류 저장모듈은,
외부장치로부터 상기 원천 학습 데이터로서 피검진 대상에 대한 영상 데이터를 수신받아 저장하는 데이터 수신부와, 저장된 상기 피검진 대상에 대한 영상 데이터를 복수의 다단계 분류기준에 따라 분류 저장하는 데이터 분류부를 포함하되,
상기 데이터 분류부는 컬러를 분류기준으로 하는 1단계 분류기준과, 피검진 대상 크기를 분류기준으로 하는 2단계 분류기준과, 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준 중 적어도 두 개 이상의 분류기준을 이용해 상기 피검진 대상에 대한 영상 데이터를 분류 저장함을 특징으로 하는 딥 러닝 시스템.
The method according to claim 2, wherein the data classification and storage module,
A data receiving unit for receiving and storing image data on a subject to be examined as the source learning data from an external device, and a data classification unit for classifying and storing the stored image data on the subject according to a plurality of multi-level classification criteria,
The data classification unit includes at least two of a first-stage classification standard based on color, a second-stage classification standard based on the size of the subject to be examined, and a three-stage classification standard based on a combination of color and shape. A deep learning system, characterized in that the image data for the subject to be examined is classified and stored using classification criteria.
청구항 1에 있어서, 상기 데이터 분류 저장모듈은,
외부장치로부터 상기 원천 학습 데이터로서 피검진 대상에 대한 영상 데이터를 수신받아 저장하는 데이터 수신부와, 저장된 상기 피검진 대상에 대한 영상 데이터를 복수의 다단계 분류기준에 따라 분류 저장하는 데이터 분류부를 포함하되,
상기 데이터 분류부는 컬러를 분류기준으로 하는 1단계 분류기준과, 피검진 대상 크기를 분류기준으로 하는 2단계 분류기준과, 컬러와 형태의 조합을 분류기준으로 하는 3단계 분류기준 중 적어도 두 개 이상의 분류기준을 이용해 상기 피검진 대상에 대한 영상 데이터를 분류 저장함을 특징으로 하는 딥 러닝 시스템.
The method according to claim 1, wherein the data classification storage module,
A data receiving unit for receiving and storing image data on a subject to be examined as the source learning data from an external device, and a data classification unit for classifying and storing the stored image data on the subject according to a plurality of multi-level classification criteria,
The data classification unit includes at least two of a first-stage classification standard based on color, a second-stage classification standard based on the size of the subject to be examined, and a three-stage classification standard based on a combination of color and shape. A deep learning system, characterized in that the image data for the subject to be examined is classified and stored using classification criteria.
청구항 1 내지 청구항 4 중 어느 한 항에 있어서, 상기 튜닝정보 전송모듈은,
상기 제1인공 신경망 모델의 학습 초기상태를 동기화하기 위해 필요한 하이퍼 파라미터를 상기 튜닝정보로서 우선 전송함을 특징으로 하는 딥 러닝 시스템.
The method according to any one of claims 1 to 4, wherein the tuning information transmission module,
A deep learning system, characterized in that, as the tuning information, a hyper parameter necessary for synchronizing the initial state of learning of the first artificial neural network model is first transmitted as the tuning information.
청구항 1 내지 청구항 4 중 어느 한 항에 있어서, 상기 튜닝정보 전송모듈에 의해 전송된 혹은 상기 외부의 딥 러닝 시스템으로부터 전송된 튜닝정보에 포함된 파라미터 정보는,
인공 신경망 모델을 구성하되 학습결과로 수정된 각 레이어의 가중치값들과 바이어스값을 포함함을 특징으로 하는 딥 러닝 시스템.
The method according to any one of claims 1 to 4, wherein the parameter information included in the tuning information transmitted by the tuning information transmission module or transmitted from the external deep learning system,
A deep learning system comprising an artificial neural network model but including weight values and bias values of each layer modified as a result of training.
청구항 1 내지 청구항 4 중 어느 한 항에 있어서, 상기 학습관련정보는 학습해야 할 상기 원천 학습 데이터에 대한 학습 데이터의 비율 혹은 학습한 원천 학습 데이터의 수 중 어느 하나를 포함함을 특징으로 하는 딥 러닝 시스템.The deep learning according to any one of claims 1 to 4, wherein the learning-related information includes one of a ratio of training data to the source training data to be learned or the number of source training data learned. system. 청구항 3 또는 청구항 4에 있어서, 상기 데이터 분류부는,
상기 분류기준별로 분류 저장되는 원천 학습 데이터의 수적 밸런스를 조정하기 위해 추가 원천 학습 데이터를 더 생성함을 특징으로 하는 딥 러닝 시스템.
The method of claim 3 or 4, wherein the data classification unit,
The deep learning system, characterized in that further generating additional source training data to adjust the numerical balance of source training data classified and stored according to the classification criteria.
청구항 3 또는 청구항 4에 있어서, 상기 데이터 분류부의 1단계 분류기준은 아세트산 반응 영상, 루골용액반응 영상, 그린필터 영상, 일반 영상 중 어느 하나 이상을 각각 식별하기 위한 컬러값을 분류기준 값으로 포함함을 특징으로 하는 딥 러닝 시스템.The method according to claim 3 or 4, wherein the first-stage classification criterion of the data classification unit includes a color value for discriminating at least one of an acetic acid reaction image, a Lugol solution reaction image, a green filter image, and a general image as a classification standard value. Deep learning system, characterized in that. 청구항 3 또는 청구항 4에 있어서, 상기 튜닝정보 전송모듈은,
상기 1단계 분류기준, 상기 2단계 분류기준, 상기 3단계 분류기준 중 적어도 2개 이상의 분류기준을 상기 튜닝정보에 포함시켜 상기 외부의 딥 러닝 시스템으로 전송함을 특징으로 하는 딥 러닝 시스템.
The method according to claim 3 or 4, wherein the tuning information transmission module,
A deep learning system, characterized in that at least two or more of the first-stage classification criteria, the second-stage classification criteria, and the third-stage classification criteria are included in the tuning information and transmitted to the external deep learning system.
KR1020190018615A 2019-02-18 2019-02-18 Deep learning system KR102391817B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190018615A KR102391817B1 (en) 2019-02-18 2019-02-18 Deep learning system
CN201910404061.7A CN111582434B (en) 2019-02-18 2019-05-15 deep learning system
PCT/KR2019/010480 WO2020171321A1 (en) 2019-02-18 2019-08-19 Deep learning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190018615A KR102391817B1 (en) 2019-02-18 2019-02-18 Deep learning system

Publications (2)

Publication Number Publication Date
KR20200100388A true KR20200100388A (en) 2020-08-26
KR102391817B1 KR102391817B1 (en) 2022-04-29

Family

ID=72110758

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190018615A KR102391817B1 (en) 2019-02-18 2019-02-18 Deep learning system

Country Status (3)

Country Link
KR (1) KR102391817B1 (en)
CN (1) CN111582434B (en)
WO (1) WO2020171321A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113204614A (en) * 2021-04-29 2021-08-03 北京百度网讯科技有限公司 Model training method, method and device for optimizing training data set

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001026026A2 (en) * 1999-10-04 2001-04-12 University Of Florida Local diagnostic and remote learning neural networks for medical diagnosis
US20170185895A1 (en) * 2015-01-26 2017-06-29 Huawei Technologies Co., Ltd. System and Method for Training Parameter Set in Neural Network
KR20170083419A (en) 2016-01-08 2017-07-18 마우키스튜디오 주식회사 Deep learning model training method using many unlabeled training data and deep learning system performing the same
US20180157939A1 (en) * 2016-12-05 2018-06-07 Avigilon Corporation System and method for appearance search

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008533615A (en) * 2005-03-14 2008-08-21 エル ターラー、ステフエン Neural network development and data analysis tools
WO2017043680A1 (en) * 2015-09-11 2017-03-16 주식회사 루닛 Artificial neural-network distributed learning system and method for protecting personal information of medical data
US11182676B2 (en) * 2017-08-04 2021-11-23 International Business Machines Corporation Cooperative neural network deep reinforcement learning with partial input assistance
KR101841222B1 (en) * 2017-08-11 2018-03-22 주식회사 뷰노 Method for generating prediction results for early prediction of fatal symptoms of a subject and apparatus using the same
CN108182427B (en) * 2018-01-30 2021-12-14 电子科技大学 Face recognition method based on deep learning model and transfer learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001026026A2 (en) * 1999-10-04 2001-04-12 University Of Florida Local diagnostic and remote learning neural networks for medical diagnosis
US20170185895A1 (en) * 2015-01-26 2017-06-29 Huawei Technologies Co., Ltd. System and Method for Training Parameter Set in Neural Network
KR20170083419A (en) 2016-01-08 2017-07-18 마우키스튜디오 주식회사 Deep learning model training method using many unlabeled training data and deep learning system performing the same
US20180157939A1 (en) * 2016-12-05 2018-06-07 Avigilon Corporation System and method for appearance search

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113204614A (en) * 2021-04-29 2021-08-03 北京百度网讯科技有限公司 Model training method, method and device for optimizing training data set
CN113204614B (en) * 2021-04-29 2023-10-17 北京百度网讯科技有限公司 Model training method, method for optimizing training data set and device thereof

Also Published As

Publication number Publication date
CN111582434A (en) 2020-08-25
WO2020171321A1 (en) 2020-08-27
CN111582434B (en) 2023-10-17
KR102391817B1 (en) 2022-04-29

Similar Documents

Publication Publication Date Title
US10706104B1 (en) System and method for generating a graphical model
Stevenson et al. Development of an artificial intelligence system to classify pathology and clinical features on retinal fundus images
WO2020174252A1 (en) Counterfactual measure for medical diagnosis
US20230351204A1 (en) Selecting a training dataset with which to train a model
CN106462655A (en) Hierarchical self-learning system for computerized clinical diagnostic support
Purnama et al. Disease classification based on dermoscopic skin images using convolutional neural network in teledermatology system
KR20210103446A (en) Method for generating medical information
Bhuiyan et al. An artificial-intelligence-and telemedicine-based screening tool to identify glaucoma suspects from color fundus imaging
KR20200139606A (en) Cervical cancer diagnosis system
KR102041402B1 (en) Cervical learning data generation system
KR20200100388A (en) Deep learning system
Abirami et al. An efficient early detection of diabetic retinopathy using dwarf mongoose optimization based deep belief network
Naidu et al. A hybridized model for the prediction of heart disease using ML algorithms
Gong et al. Application of deep learning for diagnosing, classifying, and treating age-related macular degeneration
Sitaru et al. Automatic body part identification in real‐world clinical dermatological images using machine learning
Soniya et al. Hybrid evolutionary network architecture search (HyENAS) for convolution class of deep neural networks with applications
CN109948806A (en) Decision model optimization method, device, storage medium and equipment
Lo et al. Data Homogeneity Effect in Deep Learning-Based Prediction of Type 1 Diabetic Retinopathy
JP7278256B2 (en) Devices, systems and methods for optimizing image acquisition workflows
JP7346600B2 (en) Cervical cancer automatic diagnosis system
CN109509547B (en) Process model correction method for selecting nested concurrency
Bastidas et al. Feature analysis and prediction of complications in ostomy patients based on laboratory analytical data using a machine learning approach
Sayres et al. Artificial intelligence, machine learning and deep learning for eye care specialists
KR20200018360A (en) Cervical learning data generation system
Vuppalapati et al. The role of selfies in creating the next generation computer vision infused outpatient data driven electronic health records (EHR)

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant