KR102601970B1 - 의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법 - Google Patents
의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법 Download PDFInfo
- Publication number
- KR102601970B1 KR102601970B1 KR1020200140102A KR20200140102A KR102601970B1 KR 102601970 B1 KR102601970 B1 KR 102601970B1 KR 1020200140102 A KR1020200140102 A KR 1020200140102A KR 20200140102 A KR20200140102 A KR 20200140102A KR 102601970 B1 KR102601970 B1 KR 102601970B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- area
- output
- neural network
- artificial neural
- Prior art date
Links
- 210000004907 gland Anatomy 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000001514 detection method Methods 0.000 claims abstract description 208
- 230000003902 lesion Effects 0.000 claims abstract description 129
- 238000013528 artificial neural network Methods 0.000 claims description 176
- 230000006870 function Effects 0.000 claims description 123
- 238000002372 labelling Methods 0.000 claims description 60
- 238000012549 training Methods 0.000 claims description 37
- 206010028980 Neoplasm Diseases 0.000 claims description 22
- 201000011510 cancer Diseases 0.000 claims description 20
- 230000036210 malignancy Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 18
- 238000010801 machine learning Methods 0.000 claims description 14
- 230000000762 glandular Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 239000010410 layer Substances 0.000 description 40
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 20
- 230000004913 activation Effects 0.000 description 16
- 238000001994 activation Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003248 secreting effect Effects 0.000 description 3
- 208000003200 Adenoma Diseases 0.000 description 2
- 208000009956 adenocarcinoma Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 206010001233 Adenoma benign Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001493 electron microscopy Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 201000006823 malignant adenoma Diseases 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Epidemiology (AREA)
- Biophysics (AREA)
- Primary Health Care (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Data Mining & Analysis (AREA)
- Physiology (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
의료 영상 내에 존재하는 병변 영역 및 분비선 영역 검출하는 의료 영상 판독 방법이 개시된다. 의료 영상 판독 방법은 의료 영상을 수신하는 단계, 입력 의료 영상으로부터 병변 영역 및 분비선 영역을 검출하도록 미리 학습된 검출 모델을 이용하여, 상기 의료 영상 내에 존재하는 병변 영역 및 분비선 영역을 검출하는 단계, 및 상기 검출된 결과에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성하는 단계를 포함할 수 있다.
Description
본 발명은 의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법에 관한 것이다.
분비샘은 다양한 장기의 H&E 염색 슬라이드에서 관측될 수 있는 조직의 형태로, 비교적 악성도가 낮은 선종부터, 악성도가 높은 선암까지 다양한 형태의 병변이 발생할 수 있다. 병리 전문의들은 분비선의 형태를 통해 병변의 악성도를 진단할 수 있다.
최근 딥러닝 알고리즘(Deep-Learning Algorithm)은 악성도가 높은 암에 대해 주로 개발되고 있으나, 실제 의료 환경에서는 악성도가 높은 암의 검출 뿐만 아니라, 악성도가 낮은 선종(Adenoma)이라도 그에 대한 효과적인 검출은 암의 예방을 위하여 매우 중요한 요소일 수 있다. 선행 문헌 (KR 공개특허공보:10-2019-0084426).
본 발명은 병변의 악성도와 분비선의 형태는 상호 상관관계가 존재하는 점에 기초하여, 병변 정보와 분비선 정보를 함께 이용하여 영상 내에서 병변 정보를 인식하는 인공 신경망을 학습시키고자 한다.
본 발명은 판독자에게 분비선의 형태를 명확하게 보여줌으로써, 병변에 대한 진단의 효율성을 높이며, 선종과 같은 병변 정보와 분비선 정보를 동시에 이용하여, 병변 정보 또는 분비선 정보 검출 알고리즘의 성능을 향상시키고자 한다.
본 발명은 악성도가 낮아 형태 변화가 크지 않기 때문에 판독 과정에서 누락되기 쉬운 병변을 보다 높은 성능으로 검출하는 수단을 제공하므로써 사용자에게 개선된 판독 효율성을 제공할 수 있다.
또한, 본원 발명은 특정 병변에 해당하는 분비선의 형태를 정량적으로 측정하는 수단을 제공할 수 있다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
일 실시예에 따른 의료 영상 내 병변 영역 및 분비선 영역을 검출하는 검출 모델에 대한 기계학습 방법은 학습 의료 영상을 상기 검출 모델에 입력하여, 상기 검출 모델의 출력을 획득하는 단계; 및 상기 검출 모델의 출력, 상기 학습 의료 영상 내 병변 영역에 대한 제1 레이블링 정보 및 상기 학습 의료 영상 내 분비선 영역에 대한 제2 레이블링 정보에 기초하여 산출된 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함할 수 있다.
상기 검출 모델은, 상기 학습 의료 영상 내의 병변 영역에 대한 제1 특징 정보를 추출하고, 상기 제1 특징 정보에 기초하여 상기 병변 영역을 검출하는 제1 인공 신경망, 상기 학습 의료 영상 내의 분비선 영역에 대한 제2 특징 정보를 추출하고, 상기 제2 특징 정보에 기초하여 상기 분비선 영역을 검출하는 제2 인공 신경망, 및 상기 제1 특징 정보 및 상기 제2 특징 정보의 결합에 기초하여 생성된 제3 특징 정보에 기초하여, 상기 제3 특징 정보에 대응되는 병변 영역 및 분비선 영역에 대한 검출 정보를 출력하는 제3 인공 신경망을 포함할 수 있다.
상기 제3 특징 정보는 상기 제1 특징 정보 및 상기 제2 특징 정보의 연결(Concatenate)에 기초하여 생성될 수 있다.
상기 학습시키는 단계는, 상기 학습 의료 영상의 입력에 대한 상기 제1 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제1 손실 함수를 산출하는 단계; 상기 학습 의료 영상에 대한 상기 제2 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제2 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및 상기 제1 손실 함수 내지 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함할 수 있다.
상기 학습시키는 단계는, 상기 제1 인공 신경망 및 상기 제2 인공 신경망이 미리 학습된 경우, 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및 상기 제3 손실 함수 및 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함할 수 있다.
상기 학습시키는 단계는, 상기 제1 인공 신경망이 미리 학습된 경우, 상기 학습 의료 영상의 입력에 대한 상기 제2 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제2 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및 상기 제2 손실 함수 내지 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함할 수 있다.
상기 학습시키는 단계는, 상기 제2 인공 신경망이 미리 학습된 경우, 상기 학습 의료 영상의 입력에 대한 상기 제1 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제1 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계; 상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및 상기 제1 손실 함수, 제3 손실 함수 및 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함할 수 있다.
상기 제1 특징 정보와 상기 제2 특징 정보의 크기가 상이한 경우, 상기 제1 특징 정보 및 상기 제2 특징 정보 중 더 큰 특징 정보의 크기에 기초하여 나머지 특징 정보가 보간되고, 상기 제3 특징 정보는 보간 결과에 기초하여 생성될 수 있다.
일 실시예에 따른 의료 영상 내에 존재하는 병변 영역 및 분비선 영역 검출하는 영역 검출 방법은 입력 의료 영상을 수신하는 단계; 의료 영상으로부터 병변 영역 및 분비선 영역을 검출하도록 미리 학습된 검출 모델을 이용하여, 상기 입력 의료 영상 내에 존재하는 병변 영역 및 분비선 영역을 검출하는 단계; 및 검출된 결과에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성하는 단계를 포함할 수 있다.
상기 검출 모델은, 의료 영상 내의 병변 영역에 대한 제1 특징 정보를 획득하고, 상기 제1 특징 정보에 기초하여 병변 영역을 검출하도록 학습된 제1 인공 신경망, 의료 영상 내의 분비선 영역에 대한 제2 특징 정보를 획득하고, 상기 제2 특징 정보에 기초하여 분비선 영역을 검출하도록 학습된 제2 인공 신경망, 및 상기 제1 특징 정보 및 상기 제2 특징 정보의 결합에 기초하여 생성된 제3 특징 정보에 기초하여, 상기 제3 특징 정보에 대응되는 병변 영역 및 분비선 영역에 대한 검출 정보를 출력하도록 학습된 제3 인공 신경망을 포함할 수 있다.
상기 출력 정보를 생성하는 단계는, 상기 입력 의료 영상을 상기 검출 모델에 입력함으로써 생성된 상기 제3 인공 신경망의 출력에 기초하여 상기 출력 정보를 생성할 수 있다.
상기 출력 정보를 생성하는 단계는, 상기 검출된 분비선 영역이 상기 검출된 병변 영역과 중첩되는 크기가 소정의 임계치를 초과하는 영역을 병변에 대응되는 제1 분비선 영역으로 결정하는 단계; 상기 검출된 분비선 영역 중 상기 제1 분비선 영역을 제외한 나머지 영역을 정상에 해당하는 제2 분비선 영역으로 결정하는 단계; 및 상기 결정 결과에 기초하여 출력 정보를 생성하는 단계를 포함할 수 있다.
일 실시예에 따른 검출 모델 학습 장치는 학습 의료 영상을 상기 검출 모델에 입력하여, 상기 검출 모델로부터 출력 정보를 획득하고, 상기 출력 정보, 상기 학습 의료 영상 내 병변 영역에 대한 제1 레이블링 정보 및 상기 학습 의료 영상 내 분비선 영역에 대한 제2 레이블링 정보에 기초하여 산출된 손실 함수에 기초하여 상기 검출 모델을 학습시키는 프로세서를 포함할 수 있다.
일 실시예에 따른 영역 검출 장치는 입력 의료 영상을 수신하고, 의료 영상으로부터 병변 영역 및 분비선 영역을 검출하도록 미리 학습된 검출 모델을 이용하여, 상기 입력 의료 영상 내에 존재하는 병변 영역 및 분비선 영역을 검출하고, 검출된 결과에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성하는 프로세서를 포함할 수 있다.
일 실시예에 따른 사용자 단말은 입력 의료 영상에 포함된 병변 영역 및 분비선 영역에 대한 검출 결과에 기초하여 생성된 출력 정보를 수신하고, 출력 정보에 기초하여 입력 의료 영상 내에 병변 영역 및 분비선 영역을 시각화한 출력 영상을 출력 장치를 통해 출력하는 프로세서를 포함할 수 있다.
본 발명의 일 실시 예에 의하면, 악성도가 낮아 형태의 변화가 크지 않은 이유로 판독 과정에서 지나치기 쉬운 병변을 보다 높은 성능으로 검출할 수 있다. 이를 통해 본원 발명은 암의 예방에 있어서 높은 기여를 할 수 있다. 또한, 본원 발명은 병변에 해당하는 분비선의 형태를 정량적으로 측정할 수 있는 수단을 제공할 수 있다.
본 발명에 따르면 궁극적으로 의료진의 진단의 정확도를 향상시키고, 악성도가 낮은 병변에 대한 검출 정확도를 향상시켜, 의료 현장에서의 워크플로(workflow)를 혁신할 수 있게 되는 잠재적 효과가 있다.
분비선 정보는 병변의 일반적인 진단에 이용되지 않으므로, 축적된 데이터량이 부족하지만, 본원 발명을 통해 분비선 정보와 이에 대응되는 병변 정보를 함께 활용함으로써 분비선 검출 성능을 향상시킬 수 있다. 또한, 본원 발명은 분비선 영역의 검출 뿐만 아니라, 해당 분비선이 어떤 병변에 대응되는지에 대한 정보를 제공할 수 있고, 이를 통해 통계적 의학 연구에 활용되는 정보를 생성할 수 있다.
그리고 본 발명은, 종래에 병원에서 이용하고 있는 의료 영상이 그대로 활용될 수 있는바, 본 발명의 방법이 특정 형식의 영상이나 플랫폼에 종속되지 않음은 물론이다.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라고 함)에게 있어서는 발명에 이르는 노력 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따른 영역 검출 장치가 수행하는 의료 영상 내 병변 영역 및 분비선 영역 검출 방법을 개략적으로 도시하는 도면이다.
도 2는 일 실시예에 따른 검출 모델 학습 장치와 영역 검출 장치 사이의 관계를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 검출 모델에서 사용되는 인공 신경망에서 수행되는 연산을 설명하기 위한 도면이다.
도 4은 일 실시예에 따른 영역 검출 장치에 의해 수행되는 의료 영상 내의 병변 영역 및 분비선 영역을 검출하는 영역 검출 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 영역 검출 장치에 의해 수행되는 의료 영상 내의 영역 검출 방법을 설명하기 위한 도면이다.
도 6은 검출 모델 학습 장치에 의해 수행되는 기계 학습 방법을 설명하기 위한 도면이다.
도 7는 일 실시예에 따른 검출 모델 학습 장치에 의해 수행되는 기계 학습 방법을 설명하기 위한 도면이다.
도 8는 일 실시예에 영역 검출 장치를 설명하기 위한 블록도이다.
도 9은 일 실시예에 검출 모델 학습 장치를 설명하기 위한 블록도이다.
도 10은 일 실시예에 출력 정보에 기초하여 병변 영역 및 분비선 영역이 시각화된 의료 영상을 출력하는 사용자 단말을 설명하기 위한 블록도이다.
도 1은 본 발명에 따른 영역 검출 장치가 수행하는 의료 영상 내 병변 영역 및 분비선 영역 검출 방법을 개략적으로 도시하는 도면이다.
도 2는 일 실시예에 따른 검출 모델 학습 장치와 영역 검출 장치 사이의 관계를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 검출 모델에서 사용되는 인공 신경망에서 수행되는 연산을 설명하기 위한 도면이다.
도 4은 일 실시예에 따른 영역 검출 장치에 의해 수행되는 의료 영상 내의 병변 영역 및 분비선 영역을 검출하는 영역 검출 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 영역 검출 장치에 의해 수행되는 의료 영상 내의 영역 검출 방법을 설명하기 위한 도면이다.
도 6은 검출 모델 학습 장치에 의해 수행되는 기계 학습 방법을 설명하기 위한 도면이다.
도 7는 일 실시예에 따른 검출 모델 학습 장치에 의해 수행되는 기계 학습 방법을 설명하기 위한 도면이다.
도 8는 일 실시예에 영역 검출 장치를 설명하기 위한 블록도이다.
도 9은 일 실시예에 검출 모델 학습 장치를 설명하기 위한 블록도이다.
도 10은 일 실시예에 출력 정보에 기초하여 병변 영역 및 분비선 영역이 시각화된 의료 영상을 출력하는 사용자 단말을 설명하기 위한 블록도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. 예를 들어 "영상"은 X선 영상, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피사체, 즉 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.
본 발명의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 영상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 영상의 디지털 표현물을 지칭하는 용어이다.
본 발명의 상세한 설명 및 청구항들에 걸쳐 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 '의료영상 저장 전송 시스템(PACS; picture archiving and communication system)'은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.
더욱이 본 발명은 본 명세서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명에 따른 영역 검출 장치가 수행하는 의료 영상 내 병변 영역 및 분비선 영역 검출 방법을 개략적으로 도시하는 도면이다.
일 실시예에 따른 영역 검출 장치(120)는 검출 모델(130)을 이용하여 입력 영상(110)에 포함된 병변 영역 및 분비선 영역을 검출하고, 검출 결과에 기초하여 출력 정보(140)를 생성할 수 있다. 검출 결과는 예를 들어, 병변 영역 및 분비선 영역에 대한 좌표 정보일 수 있다. 입력 영상(100)은 H&E 이미지와 같이 슬라이드 영상일 수 있으나, 입력 영상의 종류는 이에 한정되지 않고, 병변 영역 및 분비선 영역 검출이 필요한 임의의 의료 영상이 이용될 수 있다. 출력 정보는 검출 모델(130)의 출력을 이용하여 생성되는 임의의 정보를 포함할 수 있다. 예를 들어, 출력 정보는, 입력 영상(110)에 포함된 병변 영역(141) 및 분비선 영역(142)의 좌표 정보이거나, 입력 영상(110) 내에 병변 영역(141) 및 분비선 영역(142)을 소정의 식별자를 통해 시각화한 의료 영상일 수 있다.
도 2는 일 실시예에 따른 검출 모델 학습 장치와 영역 검출 장치 사이의 관계를 설명하기 위한 도면이다.
도 2를 참조하면, 일 실시예에 따른 검출 모델 학습 장치(200)는 인공 신경망을 생성하거나, 인공 신경망을 훈련(train)(또는 학습(learn))하거나, 인공 신경망을 재훈련(retrain)하는 기능들과 같은 다양한 프로세싱 기능들을 갖는 컴퓨팅 디바이스에 해당된다. 예를 들어, 검출 모델 학습 장치(200)는 PC(personal computer), 서버 디바이스, 모바일 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있다.
검출 모델 학습 장치(200)는 주어진 초기 인공 신경망을 반복적으로 훈련(학습)시킴으로써, 훈련된 인공 신경망(210)을 생성할 수 있다. 훈련된 인공 신경망(210)을 생성하는 것은 인공 신경망 파라미터를 결정하는 것을 의미할 수 있다. 여기서, 파라미터들은 예를 들어 인공 신경망의 입/출력 액티베이션들, 웨이트들, 바이어스들 등 인공 신경망에 입/출력되는 다양한 종류의 데이터를 포함할 수 있다. 인공 신경망의 반복적인 훈련이 진행됨에 따라, 인공 신경망의 파라미터들은 주어진 입력에 대해 보다 정확한 출력을 연산하기 위해 조정될(tuned) 수 있다.
검출 모델 학습 장치(200)는 훈련된 인공 신경망(210)을 의료 영상 내 병변 영역 및 분비선 영역을 검출하는 영역 검출 장치(250)에 전달할 수 있다. 영역 검출 장치(250)는 모바일 디바이스, 임베디드(embedded) 디바이스 등에 포함될 수 있다. 영역 검출 장치(250)는 인공 신경망의 구동을 위한 전용 하드웨어일 수 있다.
영역 검출 장치(250)는 훈련된 인공 신경망(210)을 그대로 구동하거나, 훈련된 인공 신경망(210)이 가공(예를 들어, 양자화)된 인공 신경망(260)을 구동할 수 있다. 가공된 인공 신경망(260)을 구동하는 영역 검출 장치(250)는, 검출 모델 학습 장치(200)와는 별도의 독립적인 디바이스에서 구현될 수 있다. 하지만, 이에 제한되지 않고, 영역 검출 장치(250)는 검출 모델 학습 장치(200)와 동일한 디바이스 내에도 구현될 수 있다.
도 3은 일 실시예에 따른 검출 모델에서 사용되는 인공 신경망에서 수행되는 연산을 설명하기 위한 도면이다.
도 3을 참조하면, 인공 신경망(300)은 입력 레이어, 히든 레이어들 및 출력 레이어를 포함하는 구조를 가지며, 수신되는 입력 데이터(예를 들어, I1 및 I2)를 기초로 연산을 수행하고, 수행 결과를 기초로 출력 데이터(예를 들어, O1 및 O2)를 생성할 수 있다.
인공 신경망(300)은 2개 이상의 히든 레이어들을 포함하는 DNN 또는 n-계층 인공 신경망일 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 인공 신경망(300)은 입력 레이어(Layer 1), 2개의 히든 레이어들(Layer 2 및 Layer 3) 및 출력 레이어(Layer 4)를 포함하는 DNN일 수 있다. DNN은 Convolutional Neural Networks(CNN), Recurrent Neural Networks(RNN), Deep Belief Networks, Restricted Boltzman Machines 등을 포함할 수 있으나, 이에 제한되지 않는다.
인공 신경망(300)이 DNN 아키텍처로 구현된 경우 유효한 정보를 처리할 수 있는 보다 많은 레이어들을 포함하므로, 인공 신경망(300)은 싱글 레이어를 갖는 인공 신경망보다 복잡한 데이터 집합들을 처리할 수 있다. 한편, 인공 신경망(300)은 4개의 레이어들을 포함하는 것으로 도시되어 있으나, 이는 예시에 불과할 뿐 인공 신경망(300)은 더 적거나 많은 레이어들을 포함하거나, 더 적거나 많은 채널들을 포함할 수 있다. 즉, 인공 신경망(300)은 도 3에 도시된 것과는 다른, 다양한 구조의 레이어들을 포함할 수 있다.
인공 신경망(300)에 포함된 레이어들 각각은 복수의 채널들을 포함할 수 있다. 채널은 뉴런(neuron), 프로세싱 엘리먼트(Processing element, PE), 유닛(unit) 또는 이와 유사한 용어들로 알려진, 복수의 인공 노드(artificial node)들에 해당될 수 있다. 예를 들어, 도 3에 도시된 바와 같이, Layer 1은 2개의 채널들(노드들), Layer 2 및 Layer 3 각각은 3개의 채널들을 포함할 수 있다. 다만, 이는 예시에 불과할 뿐 인공 신경망(300)에 포함된 레이어들 각각은 다양한 개수의 채널들(노드들)을 포함할 수 있다.
인공 신경망(300)의 레이어들 각각에 포함된 채널들은 서로 연결되어 데이터를 처리할 수 있다. 예를 들어, 하나의 채널은 다른 채널들로부터 데이터를 수신하여 연산할 수 있고, 연산 결과를 또 다른 채널들로 출력할 수 있다.
채널들 각각의 입력 및 출력 각각은 입력 액티베이션 및 출력 액티베이션이라고 지칭될 수 있다. 즉, 액티베이션은 한 채널의 출력임과 동시에, 다음 레이어에 포함된 채널들의 입력에 해당되는 파라미터일 수 있다. 한편, 채널들 각각은 이전 레이어에 포함된 채널들로부터 수신된 액티베이션들 및 웨이트 및 바이어스에 기초하여 자신의 액티베이션을 결정할 수 있다. 웨이트는 각 채널에서의 출력 액티베이션을 계산하기 위해 이용되는 파라미터로서, 채널들 간의 연결관계에 할당되는 값일 수 있다.
채널들 각각은 입력을 수신하여 출력 액티베이션을 출력하는 연산 유닛(computational unit) 또는 프로세싱 엘리먼트(processing element)에 의해 처리될 수 있고, 채널들 각각의 입력-출력은 매핑될 수 있다. 예를 들어, σ는 활성화 함수(activation function)이고, 는 (i-1) 번째 레이어에 포함된 k 번째 노드로부터 i 번째 레이어에 포함된 j번째 노드로의 웨이트이며, 는 i 번째 레이어에 포함된 j 번째 노드의 바이어스(bias) 값이고, 는 i 번째 레이어의 j 번째 노드의 액티베이션이라고 할 때, 액티베이션 는 다음과 같은 수학식 1을 따를 수 있다.
도 3에 도시된 바와 같이, 2번째 레이어(Layer 2)의 첫 번째 채널(CH 1)의 액티베이션은 로 표현될 수 있다. 또한, 은 수학식 1에 따라 의 값을 가질 수 있다. 다만, 앞서 설명한 수학식 1은 인공 신경망(300)에서 데이터를 처리하기 위해 이용되는 액티베이션 및 웨이트 및 바이어스를 설명하기 위한 예시일 뿐, 이에 제한되지 않는다. 액티베이션은 이전 레이어로부터 수신된 액티베이션들의 가중치 합(weighted sum)을 sigmoid 함수나 Rectified Linear Unit (ReLU) 함수 등의 액티베이션 함수에 통과시킴으로써 획득된 값일 수 있다.
또한, 본원 발명에서 사용되는 특징 정보의 의미는 인공 신경망(300)의 중간 레이어의 출력을 의미함은 통상의 기술자가 이해할 것이다.
도 4은 일 실시예에 따른 영역 검출 장치에 의해 수행되는 의료 영상 내의 병변 영역 및 분비선 영역을 검출하는 영역 검출 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 영역 검출 장치(420)는 입력 의료 영상(410)을 검출 모델(430)에 입력하여 병변 영역 및 분비선 영역을 검출하고, 검출 결과에 기초하여 출력 정보를 생성할 수 있다.
검출 모델(430)은 의료 영상 내 병변 영역을 검출하도록 미리 학습된 제1 인공 신경망(440), 의료 영상 내 분비선 영역을 검출하도록 미리 학습된 제2 인공 신경망(450), 및 의료 영상과 관련된 소정의 특징 정보를 이용하여 소정의 특징 정보에 대응되는 병변 영역 및 분비선 영역에 대한 검출 정보를 출력하도록 미리 학습된 제3 인공 신경망(460)을 포함할 수 있다.
제1 인공 신경망(440)은 입력 의료 영상(410)에서 병변 영역에 대한 제1 특징 정보(442)를 추출하고, 추출된 제1 특징 정보(442)에 기초하여 병변 영역 검출 정보(443)를 출력할 수 있다. 예를 들어, 병변 영역 검출 정보(443)는 정보(444)와 같이 입력 의료 영상(410) 내의 병변 영역의 좌표에 대한 정보이거나, 입력 의료 영상(410) 내의 병변 영역이 시각화된 영상일 수 있으나, 이에 한정되는 것은 아니고, 병변 영역의 검출 결과에 기초하여 산출될 수 있는 임의의 정보를 포함할 수 있다.
제1 인공 신경망(440)은 앞선 도 3에서 예시적으로 설명된 인공 신경망에 의해 구현될 수 있다. 제1 인공 신경망(440)은 복수의 레이어(441)로 구성될 수 있으며, 제1 특징 정보(442)는 제1 인공 신경망(440) 내에 존재하는 임의의 중간 레이어의 출력일 수 있다.
제2 인공 신경망(450)은 입력 의료 영상(410)에서 분비선 영역에 대한 제2 특징 정보(452)를 추출하고, 추출된 제2 특징 정보(452)에 기초하여 분비선 영역 검출 정보(453)를 출력할 수 있다. 예를 들어, 분비선 영역 검출 정보(453)는 정보(454)와 같이 입력 의료 영상(410) 내의 분비선 영역의 좌표에 대한 정보이거나, 입력 의료 영상(410) 내의 분비선 영역이 시각화된 영상일 수 있으나, 이에 한정되는 것은 아니고, 분비선 영역의 검출 결과에 기초하여 산출될 수 있는 임의의 정보를 포함할 수 있다.
제2 인공 신경망(450)도 도 3에서 예시적으로 설명된 인공 신경망에 의해 구현될 수 있으며, 복수의 레이어(451)로 구성될 수 있다. 제2 특징 정보(452)는 제2 인공 신경망(450) 내 존재하는 임의의 중간 레이어의 출력일 수 있다.
제3 인공 신경망(460)은 의료 영상과 관련된 소정의 특징 정보(461)를 입력으로 하여 특징 정보(461)에 대응되는 검출 정보(462)를 출력하도록 미리 학습된 인공 신경망일 수 있다. 예를 들어, 검출 정보(462)는 특징 정보에 대응되는 병변 영역 및 분비선 영역의 의료 영상 내의 좌표 정보이거나, 병변 영역 및 분비선 영역이 의료 영상 내에 시각화된 영상일 수 있다.
영역 검출 장치(420)는 제1 인공 신경망(440) 및 제2 인공 신경망(450) 각각을 이용하여 제1 특징 정보(442) 및 제2 특징 정보(452)를 획득하고, 제1 특징 정보(442) 및 제2 특징 정보(452)가 결합된 제3 특징 정보(461)를 생성할 수 있다. 영역 검출 장치(420)는 제1 특징 정보(442)와 위치 정보가 대응되는 제2 특징 정보(452)를 연결(Concatenate)함으로써 제3 특징 정보(461)를 생성할 수 있다. 제1 특징 정보(442)와 위치 정보가 대응되는 제2 특징 정보(452)는 입력 의료 영상(410) 내에서 상호 위치가 대응되는 영역의 특징 정보를 의미할 수 있다.
실시예에 따라서 제2 인공 신경망(450)은 제1 인공 신경망(440)에 비해 고배율 학습 의료 영상에 기초하여 학습될 수 있다. 이 경우, 동일한 영역에 대해서도 제2 인공 신경망(450)은 제1 인공 신경망(440)에 비해 더 많은 특징 정보를 생성할 수 있다. 예를 들어, 제2 인공 신경망(450)이 제1 인공 신경망(440)에 비해 3배 높은 배율의 학습 의료 영상에 기초하여 학습된 경우, 동일 영역에 대하여 제1 인공 신경망(440)이 1개의 제1 특징 정보(442)를 생성하는 것에 대응하여, 제2 인공 신경망(450)은 3개의 특징 정보(452)를 생성할 수 있다. 이 경우, 영역 검출 장치(420)는 1개의 제1 특징 정보(442)와 이에 위치 정보가 대응되는 제2 특징 정보(452)를 연결하여 제3 특징 정보(461)를 생성할 수 있다.
영역 검출 장치(420)는 제3 특징 정보(461)를 제3 인공 신경망(460)에 입력하여 생성된 검출 정보(462)를 이용하여 외부 엔티티에 제공할 출력 정보를 생성할 수 있다. 출력 정보는 외부 엔티티(예를 들어, 디스플레이 단말 또는 추가 분석 장치 등)가 검출 결과를 디스플레이하거나, 분석하기 위한 임의의 정보일 수 있다. 예를 들어, 출력 정보는 검출 정보(462) 그 자체일 수도 있고, 검출 정보(462)와 더불어, 병변 영역의 크기에 대한 정보, 분비선 영역의 종류에 대한 정보 등을 포함하는 검출 정보(462)를 가공한 임의의 형태의 정보를 포함할 수 있다.
영역 검출 장치는 제3 특징 정보(461)에 기초하여 검출 정보(462)를 생성함으로써, 입력 의료 영상(410)에 포함된 병변 영역과 분비선 영역을 보다 정확하게 검출할 수 있다. 이는 분비선의 형태와 병변의 악성도가 높은 상관 관계를 가지는 것이 기인할 수 있다.
또한, 분비선의 형태와 병변의 악성도는 상관관계가 있으므로, 영역 검출 장치(420)는 앞서 설명된 병변에 대응되는 제1 분비선의 경우, 악성도에 대한 정보를 추가하여 출력 정보를 생성할 수 있다. 악성도에 대한 정보는 분비선의 형태 정보를 입력으로 하여 이에 대응하는 병변의 악성도 정보를 출력하는 추가적인 모듈이 이용될 수 있다. 예를 들어, 추가적인 모듈은 분비선 객체 내 병변에 대응되는 영역에 대한 수치화된 정보(예를 들어, 각각의 병변 영역에 대해 결정된 악성도를 합하여 표준화한 값 등)에 기초하여 병변의 악성도 정보를 출력할 수 있다.
실시예에 따라서, 분비선 영역과 병변 영역을 통합적으로 검출하는 제3 인공 신경망(460) 대신에, 제3 특징 정보(461)에 기초하여 병변 영역에 대한 검출 정보를 출력하는 제3-1 인공 신경망 및 제3 특징 정보(461)에 기초하여 분비선 영역에 대한 검출 정보를 출력하는 제3-2 인공 신경망의 결합에 기초하여 검출 모델(420)이 구현될 수도 있다.
도 5는 일 실시예에 따른 영역 검출 장치에 의해 수행되는 의료 영상 내의 영역 검출 방법을 설명하기 위한 도면이다.
도 5를 참조하면, 영역 검출 장치는 단계(510)에서 입력 의료 영상을 수신할 수 있다.
영역 검출 장치는 단계(520)에서 입력 의료 영상을 검출 모델에 입력하여 의료 영상 내 병변 영역 및 분비선 영역을 검출할 수 있다.
일 실시예에 따르면, 검출 모델은 앞서 도 4를 통해 설명된 검출 모델과 동일한 형태일 수 있다.
영역 검출 장치는 단계(530)에서 검출 모델의 출력인 검출 정보에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성할 수 있다. 검출 정보는 검출 모델에 포함된 제3 인공 신경망의 출력에 해당할 수 잇다.
영역 검출 장치는 검출 정보에 분비선 영역이 인스턴스(Instance) 레벨로 인식되지 않는 경우(예를 들어, 검출 모델이 Instance-aware segmentation을 수행하는 MaskRCNN이 이용되는 경우가 아니라, U-net과 같이 단순히 segmentation만을 수행하는 모델이 사용되어 분비선 영역에 대한 Segmentation만 수행된 경우 등), 컴퓨터 비전 기반 검출 모듈을 이용하여 분비선 영역을 인스턴스 레벨로 정제할 수 있고, 정제 결과에 기초하여 출력 정보를 생성할 수 있다.
일 실시예에 따르면, 영역 검출 장치는 검출 정보에 포함된 분비선 영역 중 병변 영역과 중첩되는 크기가 소정의 임계치를 초과하는 영역을 병변에 대응되는 제1 분비선 영역으로 결정할 수 있다. 영역 검출 장치는 검출된 분비선 영역 중 제1 분비선 영역을 제외한 나머지 영역을 정상에 해당하는 제2 분비선 영역으로 결정하고, 위 결정 결과에 기초하여 출력 정보를 생성할 수 있다.
위 과정을 통해 영역 검출 장치는 영상 내에서 검출된 분비선의 종류를 식별한 결과를 포함하는 출력 정보를 생성하여 외부 엔티티에 제공할 수 있다.
또한, 영역 검출 장치는 검출된 병변 영역 또는 분비선 영역에 대한 계측 정보에 기초하여 출력 정보를 생성할 수 있다. 예를 들어, 계측 정보는 major axis length, minor axis length, Aspect ratio, Area 크기 정보 등을 포함할 수 있다. 이외에도, 계측 정보는 병변/분비선의 개수에 대한 정보, 병변에 대응되는 분비선의 개수에 대한 정보, 정상 분비선의 개수에 대한 정보를 포함할 수 있다. 계측 정보는 위에 제시된 예시에 한정되는 것은 아니고, 영상 내 검출된 인스턴스에 대한 계측 정보와 관련된 임의의 정보를 포함할 수 있다.
도 6은 검출 모델 학습 장치에 의해 수행되는 기계 학습 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 검출 모델 학습 장치는 학습 의료 영상(610) 및 학습 의료 영상(610) 내의 병변 영역에 대한 제1 레이블 정보(611) 및 학습 의료 영상 내의 분비선 영역에 대한 제2 레이블 정보(612)에 기초하여 검출 모델(620)을 학습시킬 수 있다.
검출 모델(620)은 앞선 도 4에서 영역 검출 장치 내에 탑재되는 검출 모델(430)에 대응될 수 있다. 제1 레이블 정보(611)는 학습 의료 영상(610)의 병변 영역에 대한 좌표 정보를 포함할 수 있고, 제2 레이블 정보(612)는 학습 의료 영상(610)의 분비선 영역에 대한 좌표 정보를 포함할 수 있다.
검출 모델(620)은 i) 학습 의료 영상(610) 내의 병변 영역에 대한 제1 특징 정보(632)를 획득하고, 제1 특징 정보(632)에 기초하여 병변 영역 검출 정보(633)를 생성하는 제1 인공 신경망(630), ii) 학습 의료 영상(610) 내의 분비선 영역에 대한 제2 특징 정보(642)를 획득하고, 제2 특징 정보(642)에 기초하여 분비선 영역 검출 정보(643)를 생성하는 제2 인공 신경망(640), 및 iii) 제1 특징 정보(632) 및 제2 특징 정보(642)의 결합에 기초하여 생성된 제3 특징 정보(651)를 입력으로하여 제3 특징 정보(651)에 대응되는 병변 영역 및 분비선 영역에 대한 검출 정보(652)를 생성하는 제3 인공 신경망(650)을 포함할 수 있다.
제3 특징 정보(651)는 제1 인공 신경망(630)에 포함된 레이어들 중 임의의 중간 레이어의 출력인 제1 특징 정보(632) 및 제2 인공 신경망(640)에 포함된 레이어들 중 임의의 중간 레이어의 출력인 제2 특징 정보(642)의 결합에 기초하여 생성될 수 있다. 제3 특징 정보(651)는 제1 특징 정보(632) 및 제2 특징 정보(642)의 연결(Concatenate)에 기초하여 생성될 수 있다.
분비선은 병변에 비해 크기가 작아, 분비선 검출의 정확도를 향상시키기 위하여 실시예에 따라 제2 인공 신경망(640)은 학습 의료 영상(610)을 확대한 고배율 학습 의료 영상에 기초하여 학습될 수 있다. 이 경우, 동일한 영역에 대해서도 제2 인공 신경망(640)은 제1 인공 신경망(630)에 비해 더 많은 특징 정보를 생성할 수 있다. 예를 들어, 제2 인공 신경망(640)이 제1 인공 신경망(630)에 비해 3배 높은 배율의 학습 의료 영상에 기초하여 학습된 경우, 동일 영역에 대하여 제1 인공 신경망(630)이 1개의 제1 특징 정보(632)를 생성하는 것에 대응하여, 제2 인공 신경망(640)은 3개의 특징 정보(642)를 생성할 수 있다. 이 경우, 검출 모델 학습 장치는 1개의 제1 특징 정보(632)와 이에 위치 정보가 대응되는 제2 특징 정보(642)를 연결하여 제3 특징 정보(651)를 생성할 수 있다.
검출 모델 학습 장치는 제1 인공 신경망(630), 제2 인공 신경망(640) 및 제3 인공 신경망(650) 중 적어도 하나의 출력을 통해 산출되는 손실함수에 기초하여 검출 모델(620)을 학습시킬 수 있다.
일 실시예에 따르면, 검출 모델 학습 장치는 하기 수학식 2에 따라 산출되는 제1 최종 손실 함수 에 기초하여 검출 모델(620)을 학습시킬 수 있다.
는 학습 의료 영상(610)에 대한 제1 인공 신경망(630)의 출력(633)과 제1 레이블링 정보(611)에 기초하여 산출되는 제1 손실함수, 는 제2 인공 신경망(640)의 출력(643)과 제2 레이블링 정보(612)에 기초하여 산출되는 제2 손실함수,는 제3 특징 정보(651)에 대한 제3 인공 신경망의 출력(검출 정보) (652)과 제1 레이블링 정보(611)에 기초하여 산출되는 제3 손실함수, 는 제3 특징 정보(651)에 대한 제3 인공 신경망의 출력(검출 정보)(652)과 제2 레이블링 정보(612)에 기초하여 산출되는 제4 손실함수, , , , 는 각각의 손실 함수에 부여되는 가중치, 는 제1 최종 손실 함수를 의미할 수 있다.
검출 모델 학습 장치 제1 최종 손실 함수가 최소화되는 방향으로 제1 인공 신경망(630) 내지 제3 인공 신경망(650)의 파라미터를 결정함으로써, 검출 모델(620)에 대한 학습을 수행할 수 있다.
제1 인공 신경망(630) 및 제2 인공 신경망(640)에 대한 학습이 미리 완료된 다른 실시예에 따르면, 검출 모델 학습 장치는 수학식 3에 기초하여 산출되는 제2 최종 손실 함수를 이용하여 검출 모델(620)을 학습시킬 수 있다.
는 제3 특징 정보(651)에 대한 제3 인공 신경망의 출력(652)과 제1 레이블링 정보(611)에 기초하여 산출되는 제3 손실함수, 는 제3 특징 정보(651)에 대한 제3 인공 신경망의 출력(652)과 제2 레이블링 정보(612)에 기초하여 산출되는 제4 손실함수, , 는 각각의 손실 함수에 부여되는 가중치, 는 제2 최종 손실 함수를 의미할 수 있다.
검출 모델 학습 장치는 제2 최종 손실 함수가 최소화되는 방향으로 제3 인공 신경망(650)의 파라미터를 결정함으로써, 검출 모델(620)에 대한 학습을 수행할 수 있다.
제1 인공 신경망(630) 또는 제2 인공 신경망(640) 중 어느 하나에 대한 학습이 미리 완료된 다른 실시예에 따르면, 검출 모델 학습 장치는 수학식 4 또는 수학식 5에 기초하여 산출되는 손실 함수를 이용하여 검출 모델(620)을 학습시킬 수 있다.
는 학습 의료 영상(610)에 대한 제1 인공 신경망(630)의 출력(633)과 제1 레이블링 정보(611)에 기초하여 산출되는 제1 손실함수, 는 제2 인공 신경망(640)의 출력(643)과 제2 레이블링 정보(612)에 기초하여 산출되는 제2 손실함수,는 제3 특징 정보(651)에 대한 제3 인공 신경망의 출력(652)과 제1 레이블링 정보(611)에 기초하여 산출되는 제3 손실함수, 는 제3 특징 정보(651)에 대한 제3 인공 신경망의 출력(652)과 제2 레이블링 정보(612)에 기초하여 산출되는 제4 손실함수, , , , 는 각각의 손실 함수에 부여되는 가중치, 는 제3 최종 손실 함수, 는 제4 최종 손실 함수를 의미할 수 있다.
는 제2 인공 신경망(640)에 대한 학습이 미리 수행된 경우에 사용되는 제3 최종 손실 함수에 해당하고, 는 제1 인공 신경망(630)에 대한 학습이 미리 수행된 경우에 사용되는 제4 최종 손실 함수에 해당할 수 있다.
검출 모델 학습 장치는 수학식 4 또는 수학식 5에 따라 산출되는 최종 손실 함수가 최소화되는 방향으로 학습 대상이 되는 인공 신경망의 파라미터를 결정함으로써, 검출 모델(620)에 대한 학습을 수행할 수 있다
실시예에 따라서, 분비선 영역과 병변 영역을 통합적으로 검출하는 제3 인공 신경망(650) 대신에, 제3 특징 정보(651)에 기초하여 병변 영역에 대한 검출 정보를 출력하는 제3-1 인공 신경망 및 제3 특징 정보(651)에 기초하여 분비선 영역에 대한 검출 정보를 출력하는 제3-2 인공 신경망의 결합에 기초하여 검출 모델(620)이 구현될 수도 있다. 이에 대한 학습 방식은 제3-1 인공 신경망의 출력에 기초하여 제3 손실 함수를 산출하고, 제3-2 인공 신경망의 출력에 기초하여 제4 손실 함수를 산출하고, 산출된 손실함수에 기초하여 앞서 설명된 방식으로 학습이 진행될 수 있음은 통상의 기술자가 이해할 것이다.
도 7는 일 실시예에 따른 검출 모델 학습 장치에 의해 수행되는 기계 학습 방법을 설명하기 위한 도면이다.
도 7을 참조하면, 단계(710)에서 검출 모델 학습 장치는 학습 의료 영상을 검출 모델에 입력하여, 검출 모델의 출력을 획득할 수 있다.
단계(720)에서 검출 모델 학습 장치는 출력 정보, 학습 의료 영상 내 병변 영역에 대한 제1 레이블링 정보, 학습 의료 영상 내 분비선 영역에 대한 제2 레이블링 정보에 기초하여 손실 함수를 산출할 수 있다.
일 실시예에 따르면, 검출 모델 학습 장치는 학습 의료 영상에 대한 제1 인공 신경망의 출력과 제1 레이블링 정보에 기초하여 제1 손실 함수를 산출하고, 학습 의료 영상에 대한 제2 인공 신경망의 출력과 제2 레이블링 정보에 기초하여 제2 손실 함수를 산출하고, 제3 인공 신경망의 출력 및 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하고, 제3 인공 신경망의 출력 및 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하고, 제1 손실 함수 내지 제4 손실 함수에 기초하여 상기 검출 모델을 학습시킬 수 있다.
보다 구체적으로, 검출 모델 학습 장치는 제1 손실 함수 내지 제4 손실 함수의 가중합에 기초하여 제1 최종 손실 함수를 산출하고, 제1 최종 손실 함수의 출력이 최소화되는 방향으로, 제1 인공 신경망 내지 제3 인공 신경망을 학습시킬 수 있다. 제1 최종 손실 함수는 앞서 설명된 수학식 2의 산출 방식과 동일할 수 있다.
다른 실시예에 따르면, 검출 모델 학습 장치는 제1 인공 신경망 및 제2 인공 신경망에 대한 학습을 선행적으로 완료한 뒤, 제3 인공 신경망에 대한 학습을 수행함으로써, 검출 모델에 대한 학습을 수행할 수 있다. 보다 구체적으로, 선행적으로 훈련이 완료된 제1 인공 신경망 및 제2 인공 신경망의 파라미터는 고정된 상태에서, 제3 인공 신경망의 출력 및 제1 레이블링 정보에 기초하여 산출된 제3 손실 함수 및 제3 인공 신경망의 출력 및 제2 레이블링 정보에 기초하여 산출된 제4 손실 함수의 가중합에 의해 산출된 제2 최종 손실 함수에 기초하여 검출 모델을 학습시킬 수 있다. 제2 최종 손실 함수는 앞선 수학식 3에서 설명된 바와 동일하다.
또 다른 실시예에 따르면, 검출 모델 학습 장치는 제1 인공 신경망 또는 제2 인공 신경망 중 어느 하나의 인공 신경망을 우선적으로 학습시키고, 나머지 인공 신경망의 출력에 기초하여 산출된 제3 최종 손실 함수 또는 제4 최종 손실 함수에 기초하여 손실 모델에 대한 학습을 수행할 수 있다.
보다 구체적으로, 제1 인공 신경망에 대한 학습이 선행적으로 완료된 경우, 검출 모델 학습 장치는 학습 의료 영상에 대한 제2 인공 신경망의 출력과 제2 레이블링 정보에 기초하여 제2 손실 함수를 산출하고, 제3 인공 신경망의 출력 및 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하고, 제3 인공 신경망의 출력 및 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하고, 제2 손실 함수 내지 제4 손실 함수의 가중합에 기초하여 산출된 제4 최종 손실 함수에 기초하여 검출 모델을 학습시킬 수 있다. 산출된 제4 최종 손실 함수는 수학식 5에서 설명된 바와 같다.
위와 달리 제2 인공 신경망에 대한 학습이 선행적으로 완료된 경우, 검출 모델 학습 장치는 학습 의료 영상에 대한 제1 인공 신경망의 출력과 제1 레이블링 정보에 기초하여 제1 손실 함수를 산출하고, 제3 인공 신경망의 출력 및 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하고, 제3 인공 신경망의 출력 및 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하고, 제1 손실 함수, 제3 손실 함수 및 제4 손실 함수의 가중합에 기초하여 산출된 제3 최종 손실 함수에 기초하여 검출 모델에 대한 학습을 수행할 수 있다. 산출된 제3 최종 손실 함수는 수학식 4에 도시된 바와 같다.
위의 학습 과정에서, 레이블링이 수행되지 않은 학습 의료 영상이 입력되는 경우, 검출 모델 학습 장치는 레이블링이 수행되지 않은 학습 의료 영상에 대해서는 손실 함수를 산출하지 않고, 나머지 학습 의료 영상에 기초하여 손실함수를 산출할 수 있다. 예를 들어, 입력 학습 의료 영상에 병변 영역에 대한 레이블링은 되어 있으나, 분비선 영역에 대한 레이블링이 수행되지 않은 경우, 검출 모델 학습 장치는 분비선 영역과 관련된 손실 함수를 제외한 제1 손실 함수 및 제3 손실 함수에 기초하여 검출 모델에 대한 학습을 수행할 수 있다.
일 실시예에 따르면, 제3 특징 정보는 제1 특징 정보 및 제2 특징 정보의 연결(Concatenate)에 기초하여 생성될 수 있다. 본원 발명은 제3 특징 정보에 기초한 학습을 통해 보다 정확도 높은 검출을 수행하는 인공 신경망을 학습시키는 수단을 제공할 수 있다. 의료 영상 내에서 병변의 악성도와 분비선 의 형태는 높은 상관관계를 가지므로, 두 영역에 대한 특징 정보가 결합된 결합 특징을 이용함으로써 병변 또는 분비선에 대한 검출 결과가 향상될 수 있다.
일 실시예에 따르면, 검출 모델 학습 장치는 제1 특징 정보와 제2 특징 정보의 크기가 상이한 경우, 제1 특징 정보 및 상기 제2 특징 정보 중 더 큰 특징 정보의 크기에 기초하여 나머지 특징 정보를 보간하고, 보간 결과에 기초하여 제3 특징 정보를 생성할 수 있다.
단계(730)에서 검출 모델 학습 장치는 산출된 최종 손실 함수에 기초하여 검출 모델에 대한 학습을 수행할 수 있다.
도 8는 일 실시예에 영역 검출 장치를 설명하기 위한 블록도이다.
도 8을 참조하면, 일 실시예에 따른 영역 검출 장치(800)는 프로세서(820)를 포함한다. 영역 검출 장치(800)는 메모리(810) 및 통신 인터페이스(830)를 더 포함할 수 있다. 프로세서(820), 메모리(810) 및 통신 인터페이스(830)는 통신 버스(미도시)를 통해 서로 통신할 수 있다.
프로세서(820)는 입력 의료 영상을 수신하고, 입력 의료 영상으로부터 병변 영역 및 분비선 영역을 검출하도록 미리 학습된 검출 모델을 이용하여, 의료 영상 내에 존재하는 병변 영역 및 분비선 영역을 검출하고, 검출 결과에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성할 수 있다.
메모리(810)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
이 밖에도, 프로세서(820)는 프로그램을 실행하고, 영역 검출 장치 (800)를 제어할 수 있다. 프로세서(820)에 의하여 실행되는 프로그램 코드는 메모리(810)에 저장될 수 있다. 영역 검출 장치(800)는 입출력 장치(미도시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 영역 검출 장치(800)는 서버에 탑재될 수 있다.
도 9은 일 실시예에 검출 모델 학습 장치를 설명하기 위한 블록도이다.
도 9를 참조하면, 일 실시예에 따른 검출 모델 학습 장치(900)는 프로세서(920)를 포함한다. 검출 모델 학습 장치(900)는 메모리(910) 및 통신 인터페이스(930)를 더 포함할 수 있다. 프로세서(920), 메모리(910) 및 통신 인터페이스(930)는 통신 버스(미도시)를 통해 서로 통신할 수 있다.
프로세서(920)는 학습 의료 영상 입력에 대한 검출 모델의 출력을 획득하고, 검출 모델의 출력, 학습 의료 영상 내 병변 영역에 대한 제1 레이블링 정보, 학습 의료 영상 내 분비선 영역에 대한 제2 레이블링 정보에 기초하여 산출된 손실 함수에 기초하여 검출 모델을 학습시킬 수 있다.
메모리(910)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
이 밖에도, 프로세서(920)는 프로그램을 실행하고, 검출 모델 학습 장치(900)를 제어할 수 있다. 프로세서(920)에 의하여 실행되는 프로그램 코드는 메모리(910)에 저장될 수 있다. 검출 모델 학습 장치(900)는 입출력 장치(미도시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다. 검출 모델 학습 장치(900)는 서버에 탑재될 수 있다.
도 10은 일 실시예에 출력 정보에 기초하여 병변 영역 및 분비선 영역이 시각화된 의료 영상을 출력하는 사용자 단말을 설명하기 위한 블록도이다.
도 10을 참조하면, 일 실시예에 따른 사용자 단말(1000)은 프로세서(1020)를 포함한다. 사용자 단말(1000)은 메모리(1010) 및 통신 인터페이스(1030) 및 의료 영상을 출력하는 출력 장치(1040)를 더 포함할 수 있다. 프로세서(1020), 메모리(1010) 및 통신 인터페이스(1030)는 통신 버스(미도시)를 통해 서로 통신할 수 있다.
프로세서(1020)는 입력 의료 영상에 포함된 병변 영역 및 분비선 영역에 대한 검출 결과에 기초하여 생성된 출력 정보를 앞서 설명된 영역 검출 장치(800)로부터 수신하고, 출력 정보에 기초하여 입력 의료 영상 내에 병변 영역 및 분비선 영역을 시각화한 출력 영상을 출력 장치(1040)를 통해 출력할 수 있다.
메모리(1010)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
이 밖에도, 프로세서(1020)는 프로그램을 실행하고, 사용자 단말(1000)을 제어할 수 있다. 프로세서(1020)에 의하여 실행되는 프로그램 코드는 메모리(1010)에 저장될 수 있다. 사용자 단말(1000)은 입출력 장치(미도시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.
출력 장치(1040)는 의료 영상을 출력할 수 있는 디스플레이를 포함하는 임의의 장치를 포함할 수 있음은 통상의 기술자가 이해할 것이다.
사용자 단말(1000)은 검출된 분비선 정보(예를 들어, 분비선 영역이 강조된 영상)를 출력 장치(1040)를 통해 출력하거나, 검출 병변 정보(예를 들어, 병변 영역이 강조된 영상)를 출력 장치(1040)를 통해 출력하거나, 검출 분비선 정보와 검출 병변 정보를 통합한 통합 영상(예를 들어, 분비선 영역과 대응되는 병변 영역이 매칭된 영상)을 출력 장치(1040)를 통해 출력할 수 있다. 검출 분비선 정보 또는 검출 병변 정보는 검출 과정을 통해 보다 기존 영상에 비해 식별력이 높게 출력될 수 있고, 이외에도 검출 분비선 정보에 대응되는 검출 병변 정보가 보다 강조됨으로써 생성된 영상의 형태로 출력될 수 있다.
사용자 단말(1000)을 통해 출력되는 의료 영상은 앞서 영역 검출 장치를 통해 설명된 바와 같이, 분비선의 종류(예를 들어, 병변에 대응되는 분비선인지, 정상 분비선인지 여부), 병변 영역 또는 분비선 영역에 대한 계측 정보를 포함할 수 있다.
위 실시 예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.
예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.
Claims (17)
- 의료 영상 내 병변 영역 및 분비선 영역을 검출하는 검출 모델에 대한 기계학습 방법에 있어서,
학습 의료 영상을 상기 검출 모델에 입력하여, 상기 검출 모델로부터 검출된 상기 병변 영역 및 상기 분비선 영역에 대한 정보를 포함하는 출력 정보를 획득하는 단계; 및
상기 검출 모델의 출력 정보, 상기 학습 의료 영상 내 병변 영역에 대한 제1 레이블링 정보 및 상기 학습 의료 영상 내 분비선 영역에 대한 제2 레이블링 정보에 기초하여 산출된 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함하고,
상기 출력 정보는, 상기 병변 영역 및 상기 분비선 영역 간의 중첩 비율이 미리 설정된 값을 초과하는 경우, 상기 분비선 영역의 형태에 기반한 악성도 정보를 더 포함하는, 기계학습 방법. - 제1항에 있어서,
상기 검출 모델은,
상기 학습 의료 영상 내의 병변 영역에 대한 제1 특징 정보를 추출하고, 상기 제1 특징 정보에 기초하여 상기 병변 영역을 검출하는 제1 인공 신경망,
상기 학습 의료 영상 내의 분비선 영역에 대한 제2 특징 정보를 추출하고, 상기 제2 특징 정보에 기초하여 상기 분비선 영역을 검출하는 제2 인공 신경망, 및
상기 제1 특징 정보 및 상기 제2 특징 정보의 결합에 기초하여 생성된 제3 특징 정보에 기초하여, 상기 제3 특징 정보에 대응되는 병변 영역 및 분비선 영역에 대한 상기 출력 정보를 출력하는 제3 인공 신경망을 포함하는, 기계 학습 방법. - 제2항에 있어서,
상기 제3 특징 정보는,
상기 제1 특징 정보 및 상기 제2 특징 정보의 연결(Concatenate)에 기초하여 생성되는, 기계 학습 방법.
- 제2항에 있어서,
상기 학습시키는 단계는,
상기 학습 의료 영상의 입력에 대한 상기 제1 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제1 손실 함수를 산출하는 단계;
상기 학습 의료 영상에 대한 상기 제2 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제2 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및
상기 제1 손실 함수 내지 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함하는, 기계 학습 방법. - 제2항에 있어서,
상기 학습시키는 단계는,
상기 제1 인공 신경망 및 상기 제2 인공 신경망이 미리 학습된 경우,
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및
상기 제3 손실 함수 및 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함하는, 기계 학습 방법. - 제2항에 있어서,
상기 학습시키는 단계는,
상기 제1 인공 신경망이 미리 학습된 경우,
상기 학습 의료 영상의 입력에 대한 상기 제2 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제2 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및
상기 제2 손실 함수 내지 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함하는, 기계 학습 방법. - 제2항에 있어서,
상기 학습시키는 단계는,
상기 제2 인공 신경망이 미리 학습된 경우,
상기 학습 의료 영상의 입력에 대한 상기 제1 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제1 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제1 레이블링 정보에 기초하여 제3 손실 함수를 산출하는 단계;
상기 제3 특징 정보의 입력에 대한 상기 제3 인공 신경망의 출력 및 상기 제2 레이블링 정보에 기초하여 제4 손실 함수를 산출하는 단계; 및
상기 제1 손실 함수, 제3 손실 함수 및 제4 손실 함수에 기초하여 상기 검출 모델을 학습시키는 단계를 포함하는, 기계 학습 방법. - 제2항에 있어서,
상기 제1 특징 정보와 상기 제2 특징 정보의 크기가 상이한 경우, 상기 제1 특징 정보 및 상기 제2 특징 정보 중 더 큰 특징 정보의 크기에 기초하여 나머지 특징 정보가 보간되고, 상기 제3 특징 정보는 보간 결과에 기초하여 생성되는, 기계 학습 방법.
- 제1항의 방법을 수행하기 위한 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장매체.
- 의료 영상 내에 존재하는 병변 영역 및 분비선 영역 검출하는 영역 검출 방법에 있어서,
입력 의료 영상을 수신하는 단계;
의료 영상으로부터 병변 영역 및 분비선 영역을 검출하도록 미리 학습된 검출 모델을 이용하여, 상기 입력 의료 영상 내에 존재하는 병변 영역 및 분비선 영역을 검출하는 단계; 및
검출된 결과에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성하는 단계를 포함하고,
상기 출력 정보는, 상기 병변 영역 및 상기 분비선 영역 간의 중첩 비율이 미리 설정된 값을 초과하는 경우, 상기 분비선 영역의 형태에 기반한 악성도 정보를 더 포함하는, 영역 검출 방법. - 제10항에 있어서,
상기 검출 모델은,
의료 영상 내의 병변 영역에 대한 제1 특징 정보를 획득하고, 상기 제1 특징 정보에 기초하여 병변 영역을 검출하도록 학습된 제1 인공 신경망,
의료 영상 내의 분비선 영역에 대한 제2 특징 정보를 획득하고, 상기 제2 특징 정보에 기초하여 분비선 영역을 검출하도록 학습된 제2 인공 신경망, 및
상기 제1 특징 정보 및 상기 제2 특징 정보의 결합에 기초하여 생성된 제3 특징 정보에 기초하여, 상기 제3 특징 정보에 대응되는 병변 영역 및 분비선 영역에 대한 상기 출력 정보를 출력하도록 학습된 제3 인공 신경망을 포함하는, 영역 검출 방법. - 제11항에 있어서,
상기 출력 정보를 생성하는 단계는,
상기 입력 의료 영상을 상기 검출 모델에 입력함으로써 생성된 상기 제3 인공 신경망의 출력에 기초하여 상기 출력 정보를 생성하는, 영역 검출 방법.
- 제10항에 있어서,
상기 출력 정보를 생성하는 단계는,
상기 검출된 분비선 영역이 상기 검출된 병변 영역과 중첩되는 크기가 소정의 임계치를 초과하는 영역을 병변에 대응되는 제1 분비선 영역으로 결정하는 단계;
상기 검출된 분비선 영역 중 상기 제1 분비선 영역을 제외한 나머지 영역을 정상에 해당하는 제2 분비선 영역으로 결정하는 단계; 및
상기 결정 결과에 기초하여 출력 정보를 생성하는 단계를 포함하는, 영역 검출 방법. - 제10항의 방법을 수행하기 위한 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장매체.
- 학습 의료 영상을 검출 모델에 입력하여, 상기 검출 모델로부터 출력 정보를 획득하고, 상기 출력 정보, 상기 학습 의료 영상 내 병변 영역에 대한 제1 레이블링 정보 및 상기 학습 의료 영상 내 분비선 영역에 대한 제2 레이블링 정보에 기초하여 산출된 손실 함수에 기초하여 상기 검출 모델을 학습시키는 프로세서를 포함하고,
상기 출력 정보는, 상기 병변 영역 및 상기 분비선 영역 간의 중첩 비율이 미리 설정된 값을 초과하는 경우, 상기 분비선 영역의 형태에 기반한 악성도 정보를 더 포함하는, 검출 모델 학습 장치. - 입력 의료 영상을 수신하고, 의료 영상으로부터 병변 영역 및 분비선 영역을 검출하도록 미리 학습된 검출 모델을 이용하여, 상기 입력 의료 영상 내에 존재하는 병변 영역 및 분비선 영역을 검출하고, 검출된 결과에 기초하여 외부 엔티티에 제공하기 위한 출력 정보를 생성하는 프로세서를 포함하고,
상기 출력 정보는, 상기 병변 영역 및 상기 분비선 영역 간의 중첩 비율이 미리 설정된 값을 초과하는 경우, 상기 분비선 영역의 형태에 기반한 악성도 정보를 더 포함하는, 영역 검출 장치. - 입력 의료 영상에 포함된 병변 영역 및 분비선 영역에 대한 검출 결과에 기초하여 생성된 출력 정보를 수신하고, 출력 정보에 기초하여 입력 의료 영상 내에 병변 영역 및 분비선 영역을 시각화한 출력 영상을 출력 장치를 통해 출력하는 프로세서를 포함하고,
상기 출력 정보는, 상기 병변 영역 및 상기 분비선 영역 간의 중첩 비율이 미리 설정된 값을 초과하는 경우, 상기 분비선 영역의 형태에 기반한 악성도 정보를 더 포함하는, 사용자 단말.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190152492 | 2019-11-25 | ||
KR20190152492 | 2019-11-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210064047A KR20210064047A (ko) | 2021-06-02 |
KR102601970B1 true KR102601970B1 (ko) | 2023-11-15 |
Family
ID=76372923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200140102A KR102601970B1 (ko) | 2019-11-25 | 2020-10-27 | 의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102601970B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102678837B1 (ko) * | 2021-12-17 | 2024-06-27 | 주식회사 빔웍스 | 의료 영상을 분석하기 위한 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019126654A (ja) | 2018-01-26 | 2019-08-01 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102445468B1 (ko) * | 2014-09-26 | 2022-09-19 | 삼성전자주식회사 | 부스트 풀링 뉴럴 네트워크 기반의 데이터 분류 장치 및 그 데이터 분류 장치를 위한 뉴럴 네트워크 학습 방법 |
KR101879207B1 (ko) * | 2016-11-22 | 2018-07-17 | 주식회사 루닛 | 약한 지도 학습 방식의 객체 인식 방법 및 장치 |
KR102125127B1 (ko) * | 2018-03-05 | 2020-06-19 | 고려대학교 산학협력단 | 딥러닝 기반 뇌 질환 진단 방법 |
KR102205612B1 (ko) * | 2018-04-13 | 2021-01-21 | 주식회사 셀바스에이아이 | 암 영역의 예측 방법 및 이를 이용한 암 영역의 예측 디바이스 |
-
2020
- 2020-10-27 KR KR1020200140102A patent/KR102601970B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019126654A (ja) | 2018-01-26 | 2019-08-01 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Non-Patent Citations (3)
Title |
---|
Catherine Elizabeth Lovegrove 외, Prostate imaging features that indicate benign or malignant pathology on biopsy, 2018.09.18., Vol.7, pp.S420-S435. |
Philipp Kainz 외, Segmentation and classification of colon glands with deep convolutional neural networks and total variation regularization, PeerJ, 2017.10.03., pp.1-28.* |
Yan Xu 외, Large scale tissue histopathology image classification, segmentation, and visualization via deep convolutional activation features, BMC Bioinformatics, 2017.05.26., Vol.18, No.281, pp.1-17. |
Also Published As
Publication number | Publication date |
---|---|
KR20210064047A (ko) | 2021-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | Inf-net: Automatic covid-19 lung infection segmentation from ct images | |
US10496884B1 (en) | Transformation of textbook information | |
Zhang et al. | Semi-supervised assessment of incomplete LV coverage in cardiac MRI using generative adversarial nets | |
US10692602B1 (en) | Structuring free text medical reports with forced taxonomies | |
US10667776B2 (en) | Classifying views of an angiographic medical imaging system | |
US20160210749A1 (en) | Method and system for cross-domain synthesis of medical images using contextual deep network | |
Wang et al. | CheXLocNet: Automatic localization of pneumothorax in chest radiographs using deep convolutional neural networks | |
Gündel et al. | Robust classification from noisy labels: Integrating additional knowledge for chest radiography abnormality assessment | |
Mahapatra et al. | Medical image classification using generalized zero shot learning | |
Eslami et al. | Automatic vocal tract landmark localization from midsagittal MRI data | |
US20240127436A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
Tajbakhsh et al. | Guest editorial annotation-efficient deep learning: the holy grail of medical imaging | |
Sirjani et al. | Automatic cardiac evaluations using a deep video object segmentation network | |
Ding et al. | Leveraging multimodal semantic fusion for gastric cancer screening via hierarchical attention mechanism | |
Ahmadi et al. | Transformer-based spatio-temporal analysis for classification of aortic stenosis severity from echocardiography cine series | |
Kalash et al. | Relative saliency and ranking: Models, metrics, data and benchmarks | |
US20230052145A1 (en) | Explaining a model output of a trained model | |
JP2024528381A (ja) | 医用画像データの自動追跡読影方法及びシステム | |
KR102601970B1 (ko) | 의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법 | |
Wu et al. | A knowledge-interpretable multi-task learning framework for automated thyroid nodule diagnosis in ultrasound videos | |
Goel et al. | Improving YOLOv6 using advanced PSO optimizer for weight selection in lung cancer detection and classification | |
Ghasemi et al. | RePoint-Net detection and 3DSqU² Net segmentation for automatic identification of pulmonary nodules in computed tomography images | |
Ejiyi et al. | MACCoM: a multiple attention and convolutional cross-mixer framework for detailed 2D biomedical image segmentation | |
CN115564763A (zh) | 甲状腺超声图像处理方法、装置、介质及电子设备 | |
WO2022195306A1 (en) | Detection of surgical states and instruments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |