KR20230034762A - Machine learning training method and apparatus using same - Google Patents

Machine learning training method and apparatus using same Download PDF

Info

Publication number
KR20230034762A
KR20230034762A KR1020210117903A KR20210117903A KR20230034762A KR 20230034762 A KR20230034762 A KR 20230034762A KR 1020210117903 A KR1020210117903 A KR 1020210117903A KR 20210117903 A KR20210117903 A KR 20210117903A KR 20230034762 A KR20230034762 A KR 20230034762A
Authority
KR
South Korea
Prior art keywords
weight
machine learning
medical
sets
weights
Prior art date
Application number
KR1020210117903A
Other languages
Korean (ko)
Inventor
조경재
최재우
신윤섭
태윤원
Original Assignee
주식회사 뷰노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노 filed Critical 주식회사 뷰노
Priority to KR1020210117903A priority Critical patent/KR20230034762A/en
Priority to PCT/KR2022/011816 priority patent/WO2023033392A1/en
Publication of KR20230034762A publication Critical patent/KR20230034762A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

The present invention relates to a method for training a machine learning model and an apparatus for the same. The purpose of the present invention is to provide an efficient learning/training method for improving performance of artificial neural network. The method includes: a step of obtaining each first weighted value set of a medical machine learning model based on medical data of each group, from the medical data of multiple groups; a step of estimating the performance of the medical machine learning model to which the each first weighed value set is applied, based on multiple feature estimation methods; a step of selecting the best first weighted value set with the highest performance estimated among the multiple first weighted value sets by each feature estimation method one by one; and a step of applying a second weighted value set to the medical machine learning model, wherein the multiple best first weighted value sets are connected to the second weighted value set.

Description

기계학습 방법 및 장치 {MACHINE LEARNING TRAINING METHOD AND APPARATUS USING SAME}Machine learning method and apparatus {MACHINE LEARNING TRAINING METHOD AND APPARATUS USING SAME}

본 발명은 기계학습 방법 및 이를 이용한 장치에 관한 것이다. 보다 구체적으로, 본 발명은 의료목적으로 사용하기 위한 인공신경망의 기계학습(예, 딥러닝) 및 이를 이용한 장치에 관한 것이다.The present invention relates to a machine learning method and an apparatus using the same. More specifically, the present invention relates to machine learning (eg, deep learning) of an artificial neural network for use for medical purposes and an apparatus using the same.

인공지능 및 빅데이터 의료기기 분야는 인구 고령화 심화, 만성질환 증가 등으로 인해 전 세계적으로 의료비 부담이 급등함에 따라 질병의 진단·치료는 물론 예방 및 사전 관리의 중요성이 확대되고 있다. 최근, 인공지능/빅데이터 등의 기술 발달로 인해 질병을 사전에 예측하고 예방할 뿐만 아니라 조기에 정밀 진단하고 효과적으로 치료하며, 재발 방지를 위해 지속적 사후관리 시스템을 가동하는 방향으로 보건의료 패러다임이 변화하고 있다. 이에 시간과 공간에 구애 받지 않고 의료서비스를 제공할 뿐만 아니라 데이터 분석 기반의 최적화된 개인 맞춤 건강관리 및 맞춤 치료를 구현할 수 있는 의료기술에 대한 관심이 증대되고 있다.In the field of artificial intelligence and big data medical devices, the importance of not only diagnosis and treatment of diseases, but also prevention and proactive management is expanding as the burden of medical expenses has soared worldwide due to the aging of the population and the increase in chronic diseases. Recently, due to the development of technologies such as artificial intelligence/big data, the health care paradigm is changing in the direction of not only predicting and preventing diseases in advance, but also precisely diagnosing and treating diseases early and effectively, and operating a continuous follow-up management system to prevent recurrence. there is. Accordingly, interest in medical technology that not only provides medical services regardless of time and space but also implements optimized personalized health management and customized treatment based on data analysis is increasing.

본 발명은 효과적인 기계학습 방법의 제공을 목적으로 한다.An object of the present invention is to provide an effective machine learning method.

보다 구체적으로, 본 발명은 의료목적으로 사용하기 위한 인공신경망의 성능을 높이기 위한 효율적인 학습/훈련하는 방법이 제공을 목적으로 한다.More specifically, an object of the present invention is to provide an efficient learning/training method for improving the performance of an artificial neural network for use for medical purposes.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described later is as follows.

본 발명의 일 양상에 따르면, 기계 학습을 지원하는 컴퓨팅 장치에 의해 사용되는 방법에 있어서, 복수 그룹의 의료 데이터를 대상으로, 각 그룹의 의료 데이터에 기반해 훈련을 통해 의료용 기계 학습 모델에 대한 각각의 제1 가중치 세트를 획득하는 단계; 상기 각각의 제1 가중치 세트가 적용된 상기 의료용 기계 학습 모델의 성능을 복수의 특성 평가 방법에 기반하여 평가하는 단계; 특성 평가 방법 별로 상기 복수의 제1 가중치 세트들 중 가장 성능이 높게 평가된 베스트 제1 가중치 세트를 하나씩 선택하는 단계; 및 상기 복수의 제1 베스트 가중치 세트에 기반하여 제공된, 제2 가중치 세트를 상기 의료용 기계 학습 모델에 적용하는 단계를 포함하는 방법이 제공된다.According to one aspect of the present invention, in a method used by a computing device supporting machine learning, each of a medical machine learning model is trained based on a plurality of groups of medical data and trained based on each group of medical data. obtaining a first set of weights of ; evaluating performance of the medical machine learning model to which each of the first weight sets is applied based on a plurality of characteristic evaluation methods; selecting a best first weight set having the highest performance among the plurality of first weight sets for each characteristic evaluation method; and applying a second weight set provided based on the plurality of first best weight sets to the medical machine learning model.

본 발명의 다른 일 양상에 따르면, 컴퓨팅 장치로 하여금, 다음 방법을 수행하도록 구현된 명령들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램이 제공된다. 여기서, 다음 방법은: 복수 그룹의 의료 데이터를 대상으로, 각 그룹의 의료 데이터에 기반해 훈련을 통해 의료용 기계 학습 모델에 대한 각각의 제1 가중치 세트를 획득하는 단계; 상기 각각의 제1 가중치 세트가 적용된 상기 의료용 기계 학습 모델의 성능을 복수의 특성 평가 방법에 기반하여 평가하는 단계; 특성 평가 방법 별로 상기 복수의 제1 가중치 세트들 중 가장 성능이 높게 평가된 베스트 제1 가중치 세트를 하나씩 선택하는 단계; 및 상기 복수의 제1 베스트 가중치 세트에 기반하여 제공된, 제2 가중치 세트를 상기 의료용 기계 학습 모델에 적용하는 단계를 포함한다.According to another aspect of the present invention, there is provided a computer program stored in a medium, including instructions implemented to cause a computing device to perform the following method. Here, the following method includes: acquiring a first weight set for each medical machine learning model through training based on the medical data of each group, targeting a plurality of groups of medical data; evaluating performance of the medical machine learning model to which each of the first weight sets is applied based on a plurality of characteristic evaluation methods; selecting a best first weight set having the highest performance among the plurality of first weight sets for each characteristic evaluation method; and applying a second weight set provided based on the plurality of first best weight sets to the medical machine learning model.

본 발명의 또 다른 일 양상에 따르면, 기계 학습을 지원하는 컴퓨팅 장치에 있어서, 의료 데이터 획득을 위한 통신부; 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는 복수 그룹의 의료 데이터를 대상으로, 각 그룹의 의료 데이터에 기반해 훈련을 통해 의료용 기계 학습 모델에 대한 각각의 제1 가중치 세트를 획득하고, 상기 각각의 제1 가중치 세트가 적용된 상기 의료용 기계 학습 모델의 성능을 복수의 특성 평가 방법에 기반하여 평가하며, 특성 평가 방법 별로 상기 복수의 제1 가중치 세트들 중 가장 성능이 높게 평가된 베스트 제1 가중치 세트를 하나씩 선택하고, 및 상기 복수의 제1 베스트 가중치 세트에 기반하여 제공된, 제2 가중치 세트를 상기 의료용 기계 학습 모델에 적용하도록 구성된 컴퓨팅 장치가 제공된다.According to another aspect of the present invention, in a computing device supporting machine learning, the communication unit for obtaining medical data; and a processor connected to the communication unit, wherein the processor acquires a first weight set for a medical machine learning model through training based on the medical data of each group, targeting a plurality of groups of medical data; The performance of the medical machine learning model to which each of the first weight sets is applied is evaluated based on a plurality of characteristic evaluation methods, and the first best performance evaluated the highest among the plurality of first weight sets for each characteristic evaluation method. A computing device configured to select weight sets one by one and apply a second weight set provided based on the plurality of first best weight sets to the medical machine learning model.

바람직하게, 상기 제2 가중치 세트가 적용된 상기 의료용 기계 학습 모델에 기반하여, 의료 데이터를 분석하는 것을 포함할 수 있다.Preferably, the method may include analyzing medical data based on the medical machine learning model to which the second weight set is applied.

바람직하게, 상기 복수의 베스트 제1 가중치 세트의 개수는, 상기 제1 가중치 세트의 개수보다 작을 수 있다.Preferably, the number of the plurality of best first weight sets may be smaller than the number of the first weight sets.

바람직하게, 상기 복수의 특성 평가 방법은 (1) 활력징후 단위에 기반하여 특성을 평가하는 제1 특성 평가 방법, 및 (2) 환자 단위에 기반하여 특성을 평가하는 제2 특성 평가 방법을 포함할 수 있다.Preferably, the plurality of characteristic evaluation methods include (1) a first characteristic evaluation method for evaluating a characteristic based on a vital sign unit, and (2) a second characteristic evaluation method for evaluating a characteristic based on a patient unit. can

바람직하게, 상기 제1 특성 평가 방법은, 활력징후가 측정된 시점을 기준으로 앞으로 소정 시간 내의 이벤트 발생 예측을 단위로 평가하는 것을 포함하고, 상기 제2 특성 평가 방법은, 이벤트 발생 시점을 기준으로, 소정 시간 전부터 상기 이벤트 발생 시점 내의 이벤트 발생 예측을 평가하는 것을 포함할 수 있다.Preferably, the first characteristic evaluation method comprises evaluating event occurrence prediction within a predetermined time in the future as a unit based on the time point at which the vital sign is measured, and the second characteristic evaluation method includes evaluating event occurrence prediction based on the event occurrence time point. , it may include evaluating an event occurrence prediction within the event occurrence time from a predetermined time ago.

바람직하게, 상기 제2 가중치 세트는 다음을 포함할 수 있다:Preferably, the second set of weights may include:

- 상기 복수의 제1 베스트 가중치 세트로부터 얻은 평균 가중치 세트,- a set of average weights obtained from said plurality of first sets of best weights;

- 상기 복수의 제1 베스트 가중치 세트 중 가장 많이 선택된 제1 베스트 가중치 세트,- a first best weight set most selected from among the plurality of first best weight sets;

- 상기 복수의 제1 베스트 가중치 세트 내에서 각 제1 베스트 가중치 세트의 선택된 비중에 기반하여 조합된 가중치 세트, 또는- a weight set combined based on a selected weight of each first best weight set within said plurality of first best weight sets, or

- 상기 복수의 제1 베스트 가중치 세트를 학습함으로써 도출된 가중치 세트.- a weight set derived by learning the plurality of first best weight sets.

본 발명은 효과적인 기계학습 방법을 제공할 수 있다.The present invention can provide an effective machine learning method.

보다 구체적으로, 본 발명은 의료목적으로 사용하기 위한 인공신경망의 성능을 높이기 위한 효율적인 학습/훈련하는 방법을 제공할 수 있다.More specifically, the present invention can provide an efficient learning/training method for improving the performance of an artificial neural network for use for medical purposes.

본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 별개의 발명에 이르는 노력 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 기계학습 과정을 예시한다.
도 2는 데이터 세트 및 학습 단위를 예시한다.
도 3은 확률적 가중치 평균 방법을 예시한다.
도 4는 본 발명의 예에 따른 기계학습 과정을 예시한다.
도 5는 성능 평가 방법을 예시한다.
도 6은 본 발명의 예에 따른 기계학습 과정을 예시한다.
도 7은 본 발명에 적용될 수 있는 컴퓨팅 장치를 예시한다.
The following drawings attached to be used for description of the embodiments of the present invention are only some of the embodiments of the present invention, and those skilled in the art to which the present invention pertains based on these drawings without effort leading to a separate invention. Thus, other figures can be obtained.
1 illustrates a machine learning process.
Figure 2 illustrates a data set and unit of learning.
3 illustrates a stochastic weighted averaging method.
4 illustrates a machine learning process according to an example of the present invention.
5 illustrates a performance evaluation method.
6 illustrates a machine learning process according to an example of the present invention.
7 illustrates a computing device that may be applied to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description of the present invention refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced in order to make the objects, technical solutions and advantages of the present invention clear. These embodiments are described in sufficient detail to enable a person skilled in the art to practice the present invention.

본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. As used throughout the description and claims herein, the terms "image" or "image data" refer to multidimensional data composed of discrete image elements (e.g., pixels for a two-dimensional image or voxels for a three-dimensional image). refers to

예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.For example, "image" may mean a two-dimensional image corresponding to a slide of a predetermined tissue observed using a microscope, but "image" is not limited thereto, and computerized (cone-beam) It may be a medical image of a subject collected by computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art. Images may also be provided in a non-medical context, for example, a remote sensing system, electron microscopy, and the like.

본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.Throughout the description and claims herein, 'image' is a term that refers to a visible image or a digital representation of an image (eg, displayed on a screen).

설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.In the drawings presented for convenience of explanation, slide image data is illustrated as an exemplary image format. However, those skilled in the art know that the image formats used in various embodiments of the present invention are X-ray images, MRI, CT, PET (positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D ultrasound images, etc. It will be appreciated that it includes but is not limited to the illustratively enumerated forms.

본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.The medical images described throughout the detailed description and claims of this specification may conform to the 'Digital Imaging and Communications in Medicine (DICOM)' standard. The DICOM standard is a term that collectively refers to various standards used for digital image expression and communication in medical devices, and the DICOM standard is announced by an association committee formed by the American College of Radiology (ACR) and the American Electrical Manufacturers Association (NEMA).

또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.In addition, the medical images described throughout the detailed description and claims of this specification may be stored or transmitted through a 'Picture Archiving and Communication System (PACS)', which is a DICOM standard. It may be a system that stores, processes, and transmits medical images according to the user's needs. Medical images obtained using digital medical imaging equipment such as X-ray, CT, and MRI are stored in DICOM format and can be transmitted to terminals inside and outside the hospital through a network, to which observation results and medical records can be added. .

그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.And throughout the detailed description and claims of this specification, 'learning' or 'learning' is a term that refers to performing machine learning through procedural computing, and is intended to refer to mental operations such as human educational activities. , and training is used in the generally accepted sense of machine learning. For example, 'deep learning' refers to machine learning using deep artificial neural networks. A deep neural network automatically learns the characteristics of each data by learning a large amount of data in a structure composed of multi-layer artificial neural networks, and through this, a machine that proceeds with learning in a way that minimizes the error of the objective/loss function, that is, classification accuracy. It is a learning model and can extract and classify various levels of features, from low-level features such as points, lines, and planes to complex and meaningful high-level features.

그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.And throughout the description and claims herein, the word 'comprise' and variations thereof are not intended to exclude other technical features, additions, components or steps. In addition, 'one' or 'one' is used to mean more than one, and 'another' is limited to at least two or more.

통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages and characteristics of the present invention will appear to those skilled in the art, in part from this specification and in part from practice of the invention. The examples and drawings below are provided as examples and are not intended to limit the invention. Accordingly, details disclosed herein with respect to a particular structure or function are not to be construed in a limiting sense, but are merely representative and provide guidance for those skilled in the art to variously practice the present invention with any detailed structures substantially suitable. It should be interpreted as basic data.

더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention covers all possible combinations of the embodiments presented herein. It should be understood that the various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in one embodiment in another embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all equivalents as claimed by those claims. Like reference numbers in the drawings indicate the same or similar function throughout the various aspects.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless otherwise indicated or clearly contradicted by context, terms referred to in the singular encompass the plural unless the context requires otherwise. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily practice the present invention.

도 1은 기계학습 과정을 예시한다. 일반적으로 기계학습 과정은 다음과 같이 진행될 수 있다: (1) 데이터를 탐색 및 전처리, (2) 훈련 데이터 세트를 구성, (3) 해결하고자 하는 문제에 맞는 알고리즘을 선택하여 모델을 구성, (4) 훈련 데이터 세트로 모델을 학습, (5) 테스트용 데이터 세트로 모델 검증.1 illustrates a machine learning process. In general, the machine learning process can proceed as follows: (1) explore and preprocess data, (2) construct a training data set, (3) construct a model by selecting an algorithm suitable for the problem to be solved, (4) ) train the model with the training data set, and (5) validate the model with the test data set.

여기서, 훈련 데이터 세트로 모델을 학습하는 것은 인공 신경망(간단히, 신경망)을 구성하는 각 계층의 파라미터(예, 가중치)를 계산하는 것을 포함한다. 도 1을 참조하면, 신경망의 예측값은 실제값(예, 레이블)과 비교되며, 예측값과 실제값의 오차를 최소화 되는 방향으로 신경망의 가중치를 업데이트함으로써 모델에 대한 학습이 진행될 수 있다. 예측값과 실제값의 오차는 손실 함수를 이용하여 계산되며, 손실 함수에 기반한 역전파 과정을 거쳐 가중치가 업데이트 될 수 있다. 신경망에서 사용되는 역전파 알고리즘은 입력부터 출력까지의 각 계층의 가중치를 계산하는 과정을 거치는 순방향 패스와, 순방향 패스와 반대로 거슬러 올라가며 다시 한 번 계산 과정을 거처 기존의 가중치를 수정하는 역방향 패스로 나뉜다. 전체 데이터 세트에 대해 순방향/역방향 패스 과정이 완료되면, 모델에 대한 훈련이 종료됐다고 할 수 있으며, 이때까지 계산된 각 계층의 가중치(이하, 가중치 세트)를 이용하여 모델에 대한 검증이 수행될 수 있다. Here, learning a model with a training data set includes calculating parameters (eg, weights) of each layer constituting an artificial neural network (simply, a neural network). Referring to FIG. 1 , predicted values of the neural network are compared with actual values (eg, labels), and model learning may proceed by updating the weights of the neural network in a direction that minimizes an error between the predicted values and the actual values. The error between the predicted value and the actual value is calculated using a loss function, and weights may be updated through a backpropagation process based on the loss function. The back-propagation algorithm used in neural networks is divided into a forward pass that goes through the process of calculating the weights of each layer from input to output, and a backward pass that goes back in reverse to the forward pass and goes through the calculation process again to correct the existing weights. . When the forward/backward pass process is completed for the entire data set, it can be said that the training of the model is finished, and the model can be verified using the weights of each layer calculated up to this point (hereinafter referred to as weight sets). there is.

도 2는 데이터 세트 및 학습 단위를 예시한다.Figure 2 illustrates a data set and unit of learning.

도 2를 참조하면, 데이터 세트의 학습 단위는 에포크(epoch)와 배치(batch)로 구분될 수 있다. 에포크는 전체 훈련 데이터 세트가 신경망을 통과한 횟수(즉, 학습 횟수)를 의미한다. 예를 들어, 1-에포크는 도 1에서 전체 훈련 데이터 세트에 대해 순방향/역방향 패스 과정이 한 번 완료된 것을 의미할 수 있다. 한편, 기계학습에 사용되는 데이터의 양이 방대해짐에 따라 한 번의 학습에 모든 데이터 세트를 사용할 경우 여러 문제가 발생할 수 있다. 예를 들어, 수십만 건 이상의 의료 영상 데이터를 이용하여 한 번에 학습을 진행할 경우, 데이터 크기로 인해 상당한 하드웨어 성능(예, 메모리, 컴퓨팅 파워)이 요구되며 학습 시간이 너무 오래 걸릴 수 있다. 이에 따라, 데이터 세트의 학습 단위는 배치로 나눠질 수 있다. 즉, 한 번에 학습을 다하기 어려우니 데이터 세트를 나누어 학습시킴으로써 신경망 학습에 소요되는 컴퓨팅 파워와 시간을 줄일 수 있다. 배치 단위로 가중치 업데이트가 한 번씩 진행될 수 있다. 배치는 한 번의 가중치 업데이트를 위해 사용할 데이터의 개수를 정의한 것으로 이해될 수 있다. 1-에포크를 마치는데 필요한 배치 개수는 이터레이션(iteration)으로 지칭된다. 즉, 이터레이션은 1-에포크를 마치는데 필요한 가중치 업데이트 횟수를 의미한다. 예를 들어, 이터레이션이 5이고, 훈련 데이터로부터 20번 배치를 추출하여 학습을 하였다면, 이는 4-에포크, 즉 전체 훈련 데이터를 4번 사용하여 기계학습을 한 것으로 이해될 수 있다. Referring to FIG. 2 , a learning unit of a data set may be divided into an epoch and a batch. Epoch refers to the number of times the entire training data set passes through the neural network (i.e., the number of learnings). For example, 1-epoch may mean that the forward/backward pass process is completed once for the entire training data set in FIG. 1 . On the other hand, as the amount of data used in machine learning becomes vast, several problems may arise if all data sets are used for one training session. For example, when training is performed at one time using hundreds of thousands of medical image data, considerable hardware performance (eg, memory, computing power) is required due to the data size, and learning may take too long. Accordingly, the learning units of the data set can be divided into batches. That is, since it is difficult to complete the learning at once, the computing power and time required for learning the neural network can be reduced by dividing the data set and learning. Weight update may be performed once in batch units. A batch can be understood as defining the number of data to be used for one weight update. The number of batches required to complete a 1-epoch is called an iteration. That is, iteration means the number of weight updates required to complete 1-epoch. For example, if the iteration is 5 and training is performed by extracting 20 batches from the training data, this can be understood as 4-epoch, that is, machine learning was performed using the entire training data 4 times.

도 3은 확률적 가중치 평균 방법에 기반한 기계학습을 예시한다.3 illustrates machine learning based on the stochastic weighted averaging method.

도 3을 참조하면, 한 모델을 학습하는 과정에서 신경망은 단계별로 학습될 수 있다. 여기서, 단계는 도 2에서 설명한 배치에 대응되며, 이하에서 배치는 단계와 혼용될 수 있다. 각 단계에서는 훈련 데이터 중 일부(예, 배치)가 무작위로 추출되어 신경망을 학습하는데 사용될 수 있다. 단계 별로 파라미터 세트(예, 가중치 세트)가 계산/업데이트 될 수 있다. 확률적 가중치 평균 방법은 한 모델을 학습하는 과정에서 단계별로 학습된 가중치 세트들을 저장하고, 최종 단계에서 단계별로 학습된 가중치 세트들의 평균을 낸다. 빅 데이터의 경우, 일반적으로 최소 1000만 건 이상을 데이터를 포함하며, 1억 이상의 데이터를 포함하는 경우도 있으므로, 전체 데이터를 이용하여 신경망을 훈련하는 것은 실질적으로 불가능하다. 대신, 단계별로 무작위로 추출된 데이터를 이용하여 가중치 평균을 구함으로써 전체 데이터 세트를 이용하여 학습했을 때와 가중치 세트(손실함수 그래프의 별표 참조)와 유사한 성능/분포를 보이는 가중치 세트를 얻는 것이 가능할 수 있다.Referring to FIG. 3 , in the process of learning one model, the neural network may be learned step by step. Here, the step corresponds to the arrangement described in FIG. 2, and hereinafter, the arrangement may be used interchangeably with the step. At each step, a randomized portion (eg, batch) of training data can be used to train the neural network. Parameter sets (eg, weight sets) may be calculated/updated for each step. The stochastic weight averaging method stores the weight sets learned in each step in the process of learning a model, and averages the weight sets learned in each step in the final step. In the case of big data, it is practically impossible to train a neural network using all the data because it generally includes at least 10 million data and in some cases more than 100 million data. Instead, it would be possible to obtain a weight set that shows performance/distribution similar to that of the weight set (see the asterisk in the loss function graph) as when learning using the entire data set by calculating the weight average using randomly extracted data for each step. can

한편, 인공 신경망을 이용한 기계학습이 발전함에 따라, 심정지, 사망 등 환자의 중증상태악화를 조기에 예측하는 기술들이 연구/개발되고 있다. 그러나, 개발된 예측 모델의 성능을 검증할 때 어떤 방법/단위로 검증하는 것이 임상적으로 맞는지에 대한 정의가 연구마다 상이한 상태이다. 예를 들어, 활력징후 단위나 환자 단위로 예측 모델의 성능을 평가할 수 있다. 그러나, 본 발명자는 환자 단위 성능으로 평가 방법을 정의하여 모델을 개발하면 활력 징후 단위 성능이 낮게 나오는 경향이 있고, 반대로 활력 징후 단위 성능 평가 방법으로 모델을 개발하면 환자단위 성능이 낮게 나오는 경향이 있는 것을 확인하였다.On the other hand, as machine learning using artificial neural networks develops, technologies for early prediction of severe deterioration of patients' conditions, such as cardiac arrest and death, are being researched and developed. However, the definition of which method/unit to verify the performance of the developed predictive model is clinically correct varies from study to study. For example, you can evaluate the performance of a predictive model on a per-vital-sign or per-patient basis. However, when the present inventors develop a model by defining an evaluation method based on patient unit performance, the vital sign unit performance tends to be low, and conversely, when a model is developed using a vital sign unit performance evaluation method, patient unit performance tends to be low. confirmed that

또한, 기계학습 모델의 경우 학습 데이터 분포 외에 다른 분포의 데이터가 들어올 시 예측 성능이 낮은 경향이 있다. 따라서, 훈련 데이터를 단계(예, 배치)로 나누어 신경망을 학습시킬 경우, 예측 모델의 성능을 높일 수 있는 학습 데이터 분포 위주로 기계학습을 수행하는 것이 바람직하다. 이와 관련하여, 도 3의 확률적 가중치 평균 방법은 한 모델을 학습하는 과정에서 단계별로 학습된 가중치들을 저장하여 최종 단계에서 평균을 내고 있으나, 어떤 단계의 가중치를 저장하여 최종 단계에서 평균을 내는 지에 대해서는 명확한 기준을 제시하지 않고 있다.In addition, in the case of machine learning models, prediction performance tends to be low when data from other distributions in addition to the training data distribution come in. Therefore, when learning a neural network by dividing training data into stages (eg, batches), it is preferable to perform machine learning based on the distribution of learning data that can improve the performance of a predictive model. In this regard, the stochastic weight averaging method of FIG. 3 stores the weights learned in each step in the process of learning a model and averages them in the final step. There are no clear criteria for this.

이에, 본 발명에서는 여러 성능 평가 기법과 다양한 데이터 분포에서 강인한 모델을 개발하는 방법에 대해 제안한다. 구체적으로, 본 발명은 다양한 평가 방법에서 높은 성능이 나오는 가중치를 각각 저장한 뒤, 저장된 가중치들에 기반하여 최종 가중치(예, 가중치 평균)를 제공하는 방식을 제안한다.Therefore, the present invention proposes a method for developing robust models in various performance evaluation techniques and various data distributions. Specifically, the present invention proposes a method of providing final weights (eg, average weights) based on the stored weights after storing weights that yield high performance in various evaluation methods.

본 발명에 따르면, 여러 기관과 환자에서 예측 성능이 높으며, 다양한 임상 평가 방법에서 성능이 높은 모델을 학습할 수 있다. 또한, 다양한 평가 방법에서 높은 성능이 나오는 가중치들에 기반하여 제공된 가중치에 의해 다양한 분포에서 성능이 높은 예측 모델이 개발될 수 있다. 즉, 종래기술에서는 하나의 평가 방법에 기반으로 모델을 선택/생성함에 따라, 특정 평가 방법 및 데이터 분포에 대해서만 선택적으로 강인한 모델이 개발될 수 있었다. 반면, 본 발명에서는 다양한 평가 방법을 기반으로 모델을 선택/생성하므로 여러 평가 방법 및 데이터 분포에 강인한 모델이 개발될 수 있다.According to the present invention, models with high predictive performance in various institutions and patients and high performance in various clinical evaluation methods can be learned. In addition, prediction models with high performance in various distributions may be developed by weights provided based on weights that exhibit high performance in various evaluation methods. That is, in the prior art, as a model is selected/generated based on one evaluation method, a model that is selectively robust only for a specific evaluation method and data distribution can be developed. On the other hand, in the present invention, since models are selected/created based on various evaluation methods, a model robust to various evaluation methods and data distribution can be developed.

도 4는 본 발명의 일 예에 따른 기계학습 과정을 예시한다. 도 4를 참조하면, 인공 신경망을 이용한 기계학습은 전체 훈련 데이터를 단계별로 나누어 수행될 수 있다. 여기서, 인공 신경망은 의료용 모델을 학습하기 위해 사용될 수 있다. 의료용 모델은 의료용 예측 모델, 의료용 진단 모델 등 의료용으로 사용되는 다양한 모델을 포함할 수 있다. 예를 들어, 의료용 모델은 CT 영상, X-ray 영상, MR 영상, 전자건강기록(Electronic Health Record, EHR) 분석 등의 다양한 의료 데이터를 분석하고, 이를 토대로 관심 증상에 대한 조기 예측/진단 모델을 포함할 수 있다. 구체적으로, 의료용 모델은 심정지, 사망 등 환자의 중증상태악화를 조기 예측하기 위한 의료용 예측 모델을 포함할 수 있다. 또한, 의료용 모델은 뇌 영상에 기반한 조기 치매 진단을 위한 의료용 진단 모델을 포함할 수 있다.4 illustrates a machine learning process according to an example of the present invention. Referring to FIG. 4 , machine learning using an artificial neural network may be performed by dividing entire training data into stages. Here, an artificial neural network may be used to learn a medical model. The medical model may include various models used for medical purposes, such as a medical prediction model and a medical diagnosis model. For example, a medical model analyzes various medical data such as CT images, X-ray images, MR images, and electronic health record (EHR) analysis, and based on this, an early prediction/diagnosis model for the symptom of interest is created. can include Specifically, the medical model may include a medical prediction model for early prediction of severe deterioration of a patient's condition, such as cardiac arrest or death. In addition, the medical model may include a medical diagnosis model for diagnosing early dementia based on brain images.

본 발명에서 신경망 학습을 위한 모델은 단계별로 학습이 진행되며, 한 모델을 학습하는 과정에서 단계별로 학습된 파라미터들(예, 가중치 세트)이 저장된다. 도면을 참조하면, n번의 단계가 수행되며, 그 결과 n개의 가중치 세트(이하, 제1 가중치 세트)가 계산되어 저장될 수 있다. 이후, 모델의 성능을 평가하기 위한 평가 방법을 이용하여, 평가 방법 별로 각 단계에서 높은 성능이 나오는 가중치 세트를 결정할 수 있다. 평가 방법은 활력징후 단위 평가 방법 및 환자 단위 평가 방법 중에서 적어도 하나를 포함하는 다양한 평가 방법을 포함하며, 바람직하게는 적어도 활력징후 단위 평가 방법 및 환자 단위 평가 방법을 모두 포함할 수 있다. 도면에서는 n개의 평가 방법이 모델 성능을 평가하기 위해 사용되었다. 이때, 평가 방법 2에 대해서는 단계 1의 가중치 세트를 사용했을 때 가장 높은 성능이 나왔다. 또한, 평가 방법 3에 대해서는 단계 n의 가중치 세트를 사용했을 때, 평가 방법 n에 대해서는 단계 2의 가중치 세트를 사용했을 때, 가장 높은 성능이 나왔다. 다른 평가 방법에 대해서도 동일한 방식으로 가장 높은 성능을 나타내는 단계의 가중치 세트가 결정될 수 있다.In the present invention, a model for learning a neural network is learned in stages, and parameters (eg, a weight set) learned in stages in the process of learning a model are stored. Referring to the figure, n number of steps are performed, and as a result, n weight sets (hereinafter referred to as first weight sets) may be calculated and stored. Thereafter, by using an evaluation method for evaluating the performance of the model, a set of weights with high performance in each step may be determined for each evaluation method. The evaluation method includes various evaluation methods including at least one of a vital sign unit evaluation method and a patient unit evaluation method, and may preferably include at least both a vital sign unit evaluation method and a patient unit evaluation method. In the figure, n evaluation methods were used to evaluate model performance. At this time, for evaluation method 2, the highest performance was obtained when the weight set of step 1 was used. In addition, when the weight set of step n was used for evaluation method 3, the highest performance was obtained when the weight set of step 2 was used for evaluation method n. For other evaluation methods, the set of weights of the step exhibiting the highest performance can be determined in the same manner.

이후, 다양한 평가 방법에서 높은 성능이 나오는 가중치 세트(이하, 제1 베스트 가중치 세트)에 기반하여 새로운 단일 가중치 세트(이하, 제2 가중치 세트)를 구하고, 신경망의 각 계층을 제2 가중치 세트를 이용하여 업데이트함으로써 해당 모델에 대한 신경망 학습을 종료할 수 있다. 여기서, 제2 가중치 세트는 제1 베스트 가중치 세트들에 기반하여 다양하게 조합하거나 다양한 방식을 적용함으로써 제공될 수 있다. 이로 제한되는 것은 아니지만, 상기 새로운 단일 가중치 세트는 다음을 포함할 수 있다.Thereafter, a new single weight set (hereinafter referred to as the second weight set) is obtained based on the weight set (hereinafter referred to as the first best weight set) that exhibits high performance in various evaluation methods, and each layer of the neural network uses the second weight set. By updating it, you can end neural network learning for the model. Here, the second weight set may be provided by various combinations or by applying various methods based on the first best weight sets. Although not limited to this, the new single weight set may include:

- 상기 복수의 제1 베스트 가중치 세트들로부터 얻은 평균 가중치 세트,- an average weight set obtained from said plurality of first best weight sets;

- 상기 복수의 제1 베스트 가중치 세트들 중 가장 많이 선택된 제1 베스트 가중치 세트,- a first best weight set most selected from among the plurality of first best weight sets;

- 상기 복수의 제1 베스트 가중치 세트 내에서 각 제1 베스트 가중치 세트의 선택된 비중에 기반하여 조합된 가중치 세트, 또는- a weight set combined based on a selected weight of each first best weight set within said plurality of first best weight sets, or

- 상기 복수의 제1 베스트 가중치 세트를 학습함으로써 도출된 가중치 세트. - a weight set derived by learning the plurality of first best weight sets.

본 발명에 따르면, 다양한 평가 방법에서 높은 성능이 나오는 가중치 세트(즉, 제1 베스트 가중치 세트(들))를 각각 저장한 뒤, 저장된 가중치 세트에 기반하여 새로운 가중치 세트(즉, 제2 가중치 세트; 예, 평균 가중치 세트)를 제공함으로써, 다양한 성능 평가 기법에서 높은 성능이 나올 뿐만 아니라 다양한 분포에서 성능이 높은 의료용 인공 신경망 예측 모델이 개발될 수 있다.According to the present invention, after storing weight sets (ie, the first best weight set(s)) that exhibit high performance in various evaluation methods, a new weight set (ie, the second best weight set(s)) is based on the stored weight sets. For example, by providing a set of average weights), a medical artificial neural network prediction model can be developed that not only achieves high performance in various performance evaluation techniques, but also performs well in various distributions.

도 5는 본 발명에 적용될 수 있는 평가 방법을 예시한다. 도 5는 활력징후 단위 평가 방법 및 환자 단위 평가 방법을 예시하였다.5 illustrates an evaluation method that can be applied to the present invention. 5 illustrates a vital sign unit evaluation method and a patient unit evaluation method.

도 5를 참조하면, 활력징후 단위 평가 방법은 대상자의 활력징후, 예를 들어 체온, 호흡수, 맥박, 혈압(이완기, 수축기) 등의 측정값을 기반으로 대상자의 관심 증상에 대한 예측/진단 성능을 평가하는 방법을 의미한다. 예를 들어, 활성징후가 측정된 시점으로부터 n시간 내에 이벤트가 예측될지를 평가하여 모델 성능을 평가/검증할 수 있다. 측정 결과는 TP(True Positive), FP(False Positive), TN(True Negative), FN(False Negative)로 분류될 수 있다. 모델 성능은 측정 결과에 기반하여 AUROC(Area Under the Receiver Operating Characteristic), AUPRC(Area Under the Precision-Recall Curve), 민감도(sensitivity), 특이도(specificity), TPR(True Positive Rate), FPR(False Positive Rate), PPV(Positive Predictive Value), NPV(Negative Predictive Value), f-measure 등으로 평가/검증될 수 있다. 보다 구체적으로, 대상자의 전자건강기록(Electronic Medical Record, EMR)로부터 수집한 활력징후(즉, 체온, 호흡수, 맥박, 혈압(이완기, 수축기))를 기반으로 향후 24시간 내 이벤트(예, 심정지)가 예측될지를 평가할 수 있다.Referring to FIG. 5, the vital sign unit evaluation method predicts/diagnostic performance of the subject's symptom of interest based on the subject's vital signs, eg, measured values of body temperature, respiratory rate, pulse, blood pressure (diastolic, systolic), etc. means how to evaluate For example, model performance may be evaluated/verified by evaluating whether an event is predicted within n hours from the time point at which an active sign is measured. Measurement results can be classified into TP (True Positive), FP (False Positive), TN (True Negative), and FN (False Negative). Based on the measurement results, the model performance is evaluated by AUROC (Area Under the Receiver Operating Characteristic), AUPRC (Area Under the Precision-Recall Curve), sensitivity, specificity, TPR (True Positive Rate), FPR (False Positive Rate), PPV (Positive Predictive Value), NPV (Negative Predictive Value), f-measure, etc. More specifically, events (e.g., cardiac arrest) within the next 24 hours are based on vital signs (i.e., body temperature, respiratory rate, pulse, and blood pressure (diastolic, systolic)) collected from the subject's Electronic Medical Record (EMR). ) can be predicted.

한편, 환자 단위 평가 방법은 환자의 이벤트 발생 시점을 기준으로, 이벤트 발생 시점 n시간 전 ~ 이벤트 발생 시점 내에 한번이라도 알람이 울리면 이벤트가 예측된 것으로 간주하여 모델 성능을 평가/검증할 수 있다. 정상 데이터의 경우, 활력징후가 측정되는 시점마다 특이도를 평가할 수 있다. 모델 성능은 AUROC 또는 AUPRC를 이용하여 평가/검증될 수 있다.On the other hand, in the patient unit evaluation method, model performance can be evaluated/verified by considering the event to be predicted if an alarm sounds even once within n hours before the event occurrence to within the event occurrence time based on the patient's event occurrence time. In the case of normal data, specificity can be evaluated at each time point at which vital signs are measured. Model performance can be evaluated/validated using AUROC or AUPRC.

도시한 평가 방법 외에도 다음과 같은 평가 방법이 정의될 수 있다. 또한, 도 5에서 이벤트 윈도우 시간(n)을 조절함에 따라 다양한 정의가 가능하다.In addition to the illustrated evaluation method, the following evaluation method may be defined. In addition, various definitions are possible by adjusting the event window time (n) in FIG. 5 .

- 동일 환자에 대하여, 알람이 울리는 시점 간의 시간 차이가 적은 경우 하나의 알람으로 간주하여 AUROC/AUPRC 평가(환자 단위 및/또는 활력징후 단위)- For the same patient, if the time difference between alarms is small, consider it as one alarm and evaluate AUROC/AUPRC (per patient and/or per vital sign)

- 임상적으로 유효한 FPR(False Positive Rate) 범위 내의 AUROC/AUPRC 평가(환자 단위 및/또는 활력징후 단위)- AUROC/AUPRC assessment (per patient and/or per vital signs) within the clinically valid false positive rate (FPR) range

도 6은 본 발명의 일 예에 따른 기계학습 과정을 예시한다. 도 6은 도 4에서 설명한 내용에 대응된다. 도 6을 참조하면, 신경망을 학습하기 위한 모델을 정의한 뒤, 상기 한 모델에 대해 단계별로 학습이 수행될 수 있다. 7번의 단계가 수행됐다고 가정할 경우, 각 단계별로 파라미터들(예, 가중치 세트)가 계산될 수 있다(W1~W7). 이후, 다양한 평가 방법에서 높은 성능이 나오는 가중치 세트에 긴하여 새로운 가중치 세트(예, 가중치 평균)을 구할 수 있다. 도면에서는 평가 방법 1~4에 대해 각각 단계 3/6/1/3의 가중치 세트가 가장 높은 성능을 보인다고 가정한다(W3, W6, W1, W3). 여기서, 평가 방법은 도 4~5의 설명을 참조할 수 있으며, 바람직하게는 활력징후 단위 평가방법과 환자 단위 평가 방법을 모두 포함할 수 있다. 본 발명에서 이로 제한되는 것은 아니나, 평가 방법의 개수는 단계의 개수보다 작을 수 있다.6 illustrates a machine learning process according to an example of the present invention. 6 corresponds to the content described in FIG. 4 . Referring to FIG. 6 , after defining a model for learning a neural network, learning may be performed step by step on the one model. Assuming that seven steps are performed, parameters (eg, weight sets) may be calculated for each step (W 1 to W 7 ). Thereafter, a new weight set (eg, weight average) may be obtained by focusing on weight sets that exhibit high performance in various evaluation methods. In the figure, it is assumed that the weight set of steps 3/6/1/3 shows the highest performance for evaluation methods 1 to 4 (W 3 , W 6 , W 1 , W 3 ). Here, the evaluation method may refer to the description of FIGS. 4 and 5, and preferably may include both a vital sign unit evaluation method and a patient unit evaluation method. Although not limited thereto in the present invention, the number of evaluation methods may be smaller than the number of steps.

이후, 본 발명의 제안에 따라, 각 평가 방법에서 높은 성능이 나오는 가중치 세트에 대해 가중치 평균이 적용된다. 도 6의 경우, 단계 3/6/1/3의 가중치 세트(W3, W6, W1, W3)의 평균을 냄으로써 가중치 평균(Wavg)을 얻을 수 있다. 이후, 신경망의 각 계층을 가중치 평균(Wavg)을 이용하여 업데이트함으로써 해당 모델에 대한 신경망 학습을 종료할 수 있다. 이후, 학습된 신경망은 적용된 의료용 모델에 따라, 의료 데이터(예, 활력징후, 영상, EMR)를 분석하여 관심 증상/질병의 조기 예측/진단 정보를 제공하는데 사용될 수 있다.After that, according to the proposal of the present invention, a weight average is applied to the weight set that shows high performance in each evaluation method. In the case of FIG. 6 , a weight average (W avg ) can be obtained by averaging the weight sets (W 3 , W 6 , W 1 , and W 3 ) of steps 3/6/1/3. Thereafter, by updating each layer of the neural network using a weighted average (W avg ), neural network learning for the corresponding model may be terminated. Thereafter, the trained neural network may be used to provide early prediction/diagnosis information of a symptom/disease of interest by analyzing medical data (eg, vital signs, images, EMR) according to the applied medical model.

도 7은 본 발명의 일 예에 따른 컴퓨팅 장치를 예시한다. 본 발명의 일 예에 따른 컴퓨팅 장치(200)는, 통신부(210) 및 프로세서(220)를 포함하며, 상기 통신부(210)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.7 illustrates a computing device according to one example of the present invention. The computing device 200 according to an example of the present invention includes a communication unit 210 and a processor 220, and may directly or indirectly communicate with an external computing device (not shown) through the communication unit 210.

구체적으로, 컴퓨팅 장치(200)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(network-attached storage; NAS) 및 스토리지 영역 네트워크(storage area network; SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, computing device 200 may include typical computer hardware (e.g., computer processors, memory, storage, input and output devices, and other devices that may include components of conventional computing devices; electronic devices such as routers, switches, and the like). communication devices; electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN)) and computer software (i.e., instructions that cause a computing device to function in a particular way); s) may be used to achieve desired system performance.

컴퓨팅 장치의 통신부(210)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(210)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.The communication unit 210 of the computing device may transmit/receive requests and responses with other computing devices that are interlocked. As an example, such requests and responses may be made through the same transmission control protocol (TCP) session. It is not limited, and may be transmitted and received as, for example, a user datagram protocol (UDP) datagram. In addition, in a broad sense, the communication unit 210 may include a pointing device such as a keyboard or mouse for receiving commands or instructions, other external input devices, printers, displays, and other external output devices.

또한, 컴퓨팅 장치의 프로세서(220)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the processor 220 of the computing device may include a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU) or a tensor processing unit (TPU), a cache memory, and a data bus. ) may include hardware configurations such as In addition, it may further include a software configuration of an operating system and an application that performs a specific purpose.

도 4~6을 참조하여 예시한 본 발명은 하드웨어/소프트웨어에 기반하여 구성될 수 있으며, 컴퓨팅 장치의 프로세서(220)는 도 4~6에 따른 본 발명의 동작을 수행/제어하도록 구성될 수 있다.The present invention illustrated with reference to FIGS. 4 to 6 may be configured based on hardware/software, and the processor 220 of the computing device may be configured to perform/control the operation of the present invention according to FIGS. 4 to 6 .

위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Based on the description of the above embodiments, a person skilled in the art can understand that the methods and/or processes of the present invention, and the steps thereof, can be realized with hardware, software, or any combination of hardware and software suitable for a particular application. point can be clearly understood. The hardware may include a general purpose computer and/or a dedicated computing device or a specific computing device or a particular aspect or component of a specific computing device. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices having internal and/or external memory. Additionally, or alternatively, the processes may be configured to process application specific integrated circuit (ASIC), programmable gate array, programmable array logic (PAL) or electronic signals. can be implemented with any other device or combination of devices. Furthermore, the subject matter of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-observable recording medium. The machine-observable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the machine-observable recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art in the field of computer software. Examples of machine-observable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROM, DVD, and Blu-ray, and magneto-optical media such as floptical disks. (magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include stored and compiled or interpreted for execution on any one of the foregoing devices, as well as a heterogeneous combination of processors, processor architectures, or different combinations of hardware and software, or any other machine capable of executing program instructions. Machine code, This includes not only bytecode, but also high-level language code that can be executed by a computer using an interpreter or the like.

따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.Accordingly, in one aspect according to the present specification, when the methods and combinations thereof described above are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code that performs each step. In another aspect, the method may be implemented as systems performing the steps, the methods may be distributed in several ways across devices or all functions may be integrated into one dedicated, stand-alone device or other hardware. In another aspect, the means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to fall within the scope of this disclosure.

예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device may be configured to act as one or more software modules to perform processing according to the present disclosure, and vice versa. The hardware device may include a processor such as an MPU, CPU, GPU, TPU coupled to a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and external devices and signals It may include a communication unit capable of sending and receiving. In addition, the hardware device may include a keyboard, mouse, and other external input devices for receiving commands written by developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described by specific details such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , Various modifications and variations can be made from these descriptions by those of ordinary skill in the art to which the present invention belongs.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments and should not be determined, and not only the claims to be described later, but also all modifications equivalent or equivalent to these claims fall within the scope of the spirit of the present invention. will do it

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods that can produce the same results as those performed by the method according to the present specification, the spirit and scope of the present invention. should not be limited by the above examples, and should be understood in the broadest sense permitted by law.

Claims (8)

기계 학습을 지원하는 컴퓨팅 장치에 의해 사용되는 방법에 있어서,
복수 그룹의 의료 데이터를 대상으로, 각 그룹의 의료 데이터에 기반해 훈련을 통해 의료용 기계 학습 모델에 대한 각각의 제1 가중치 세트를 획득하는 단계;
상기 각각의 제1 가중치 세트가 적용된 상기 의료용 기계 학습 모델의 성능을 복수의 특성 평가 방법에 기반하여 평가하는 단계;
특성 평가 방법 별로 상기 복수의 제1 가중치 세트들 중 가장 성능이 높게 평가된 베스트 제1 가중치 세트를 하나씩 선택하는 단계; 및
상기 복수의 제1 베스트 가중치 세트에 기반하여 제공된, 제2 가중치 세트를 상기 의료용 기계 학습 모델에 적용하는 단계를 포함하는 방법.
A method used by a computing device supporting machine learning, comprising:
acquiring first weight sets for medical machine learning models through training based on the medical data of each group, targeting a plurality of groups of medical data;
evaluating performance of the medical machine learning model to which each of the first weight sets is applied based on a plurality of characteristic evaluation methods;
selecting a best first weight set having the highest performance among the plurality of first weight sets for each characteristic evaluation method; and
and applying a second set of weights provided based on the plurality of first sets of best weights to the medical machine learning model.
제1항에 있어서,
상기 제2 가중치 세트가 적용된 상기 의료용 기계 학습 모델에 기반하여, 의료 데이터를 분석하는 단계를 포함하는 방법.
According to claim 1,
and analyzing medical data based on the medical machine learning model to which the second weight set is applied.
제1항에 있어서,
상기 복수의 베스트 제1 가중치 세트의 개수는, 상기 제1 가중치 세트의 개수보다 작은 방법.
According to claim 1,
The number of the plurality of best first weight sets is less than the number of the first weight sets.
제1항에 있어서,
상기 복수의 특성 평가 방법은 (1) 활력징후 단위에 기반하여 특성을 평가하는 제1 특성 평가 방법, 및 (2) 환자 단위에 기반하여 특성을 평가하는 제2 특성 평가 방법을 포함하는 방법.
According to claim 1,
The method of claim 1 , wherein the plurality of characterization methods include (1) a first characterization method that evaluates a characteristic based on a vital sign unit, and (2) a second characterization method that evaluates a characteristic based on a patient unit.
제4항에 있어서,
상기 제1 특성 평가 방법은, 활력징후가 측정된 시점을 기준으로 앞으로 소정 시간 내의 이벤트 발생 예측을 단위로 평가하는 것을 포함하고,
상기 제2 특성 평가 방법은, 이벤트 발생 시점을 기준으로, 소정 시간 전부터 상기 이벤트 발생 시점 내의 이벤트 발생 예측을 평가하는 것을 포함하는 방법.
According to claim 4,
The first characteristic evaluation method includes evaluating event occurrence predictions within a predetermined time in the future as a unit based on the time point at which vital signs are measured,
The second characteristic evaluation method includes evaluating an event occurrence prediction within the event occurrence time point from a predetermined time prior to the event occurrence time point based on the event occurrence time point.
제1항에 있어서,
상기 제2 가중치 세트는 다음을 포함하는 방법:
- 상기 복수의 제1 베스트 가중치 세트로부터 얻은 평균 가중치 세트,
- 상기 복수의 제1 베스트 가중치 세트 중 가장 많이 선택된 제1 베스트 가중치 세트,
- 상기 복수의 제1 베스트 가중치 세트 내에서 각 제1 베스트 가중치 세트의 선택된 비중에 기반하여 조합된 가중치 세트, 또는
- 상기 복수의 제1 베스트 가중치 세트를 학습함으로써 도출된 가중치 세트.
According to claim 1,
wherein the second set of weights comprises:
- a set of average weights obtained from said plurality of first sets of best weights;
- a first best weight set most selected from among the plurality of first best weight sets;
- a weight set combined based on a selected weight of each first best weight set within said plurality of first best weight sets, or
- a weight set derived by learning the plurality of first best weight sets.
컴퓨팅 장치로 하여금, 제1항 내지 제6항 중 어느 한 항의 방법을 수행하도록 구현된 명령들(instructions)을 포함하는, 매체에 저장된 컴퓨터 프로그램.A computer program stored on a medium comprising instructions implemented to cause a computing device to perform the method of any one of claims 1 to 6. 기계 학습을 지원하는 컴퓨팅 장치에 있어서,
의료 데이터 획득을 위한 통신부; 및
상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는
복수 그룹의 의료 데이터를 대상으로, 각 그룹의 의료 데이터에 기반해 학습을 통해 의료용 기계 학습 모델에 대한 각각의 제1 가중치 세트를 획득하고,
상기 각각의 제1 가중치 세트가 적용된 상기 의료용 기계 학습 모델의 성능을 복수의 특성 평가 방법에 기반하여 평가하며,
특성 평가 방법 별로 상기 복수의 제1 가중치 세트들 중 가장 성능이 높게 평가된 베스트 제1 가중치 세트를 하나씩 선택하고, 및
상기 복수의 제1 베스트 가중치 세트에 기반하여 제공된, 제2 가중치 세트를 상기 의료용 기계 학습 모델에 적용하도록 구성된 컴퓨팅 장치.
A computing device supporting machine learning,
a communication unit for obtaining medical data; and
Includes a processor connected to the communication unit, wherein the processor
For the plurality of groups of medical data, obtain respective first weight sets for the medical machine learning model through learning based on the medical data of each group;
Evaluating the performance of the medical machine learning model to which each of the first weight sets is applied based on a plurality of characteristic evaluation methods;
Selecting a best first weight set having the highest performance among the plurality of first weight sets for each characteristic evaluation method, and
A computing device configured to apply a second set of weights provided based on the plurality of first sets of best weights to the medical machine learning model.
KR1020210117903A 2021-09-03 2021-09-03 Machine learning training method and apparatus using same KR20230034762A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210117903A KR20230034762A (en) 2021-09-03 2021-09-03 Machine learning training method and apparatus using same
PCT/KR2022/011816 WO2023033392A1 (en) 2021-09-03 2022-08-09 Machine learning method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210117903A KR20230034762A (en) 2021-09-03 2021-09-03 Machine learning training method and apparatus using same

Publications (1)

Publication Number Publication Date
KR20230034762A true KR20230034762A (en) 2023-03-10

Family

ID=85412815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210117903A KR20230034762A (en) 2021-09-03 2021-09-03 Machine learning training method and apparatus using same

Country Status (2)

Country Link
KR (1) KR20230034762A (en)
WO (1) WO2023033392A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250346B2 (en) * 2018-09-10 2022-02-15 Google Llc Rejecting biased data using a machine learning model
KR102052624B1 (en) * 2018-11-09 2019-12-05 주식회사 루닛 Method for machine learning and apparatus for the same
JP2022537818A (en) * 2019-07-01 2022-08-30 デジタル ダイアグノスティックス インコーポレイテッド Diagnosing skin conditions using machine-learned models
KR102313626B1 (en) * 2019-12-02 2021-10-15 주식회사 수아랩 Method for training neural network
KR102179090B1 (en) * 2020-01-30 2020-11-16 주식회사 투비코 Method for medical diagnosis by using neural network

Also Published As

Publication number Publication date
WO2023033392A1 (en) 2023-03-09

Similar Documents

Publication Publication Date Title
US10984905B2 (en) Artificial intelligence for physiological quantification in medical imaging
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
CN108784655B (en) Rapid assessment and outcome analysis for medical patients
EP3142033B1 (en) Physiology-driven decision support for therapy planning
JP7393947B2 (en) Mechanical identification of anomalies in bioelectromagnetic fields
Karatzia et al. Artificial intelligence in cardiology: Hope for the future and power for the present
EP3824477A1 (en) Data-driven estimation of predictive digital twin models from medical data
US11350888B2 (en) Risk prediction for sudden cardiac death from image derived cardiac motion and structure features
US11893729B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
CN111815643A (en) Artificial intelligence-based COPD assessment
Krishnamoorthy et al. Framework to Segment and Evaluate Multiple Sclerosis Lesion in MRI Slices Using VGG‐UNet
KR102067412B1 (en) Method for evaluating dementia and apparatus using the same
US20210196125A1 (en) Tomographic image prediction device and tomographic image prediction method
Kute et al. Machine learning–based disease diagnosis and prediction for E‐healthcare system
KR101948701B1 (en) Method for determining brain disorder of subject based on latent variables which describe brain structure thereof and apparatus using the same
US20230126877A1 (en) Synthetic data generation and annotation for tumor diagnostics and treatment
Samanta et al. Automated identification of surgical candidates and estimation of postoperative seizure freedom in children-A focused review
EP3965117A1 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
KR102556646B1 (en) Method and apparatus for generating medical image
KR20230034762A (en) Machine learning training method and apparatus using same
KR20230030810A (en) Data generation method and training method and apparatus using same
KR20210094973A (en) Method for providing information on severity of subject or acuity of subject and apparatus using same
KR102597647B1 (en) Method for outputting classification information based on artificial neural network and apparatus therefor
KR20230106359A (en) A method for a computing device to output classification information for image data and an apparatus therefor
KR20230094670A (en) Classification method for image data using artificail neural network and device therefor